Bases : Probabilités, Estimation et Tests.

Dimension: px
Commencer à balayer dès la page:

Download "Bases : Probabilités, Estimation et Tests."

Transcription

1 Université René Descartes LMD Sciences de la Vie et de la Santé UFR Biomédicale, M1 de Santé Publique 45 rue des Saints-Père, Paris Spécialité Biostatistique M1 COURS de BIOSTATISTIQUE I Bases : Probabilités, Estimation et Tests.

2 1 Table des matières I Probabilités. Principes des tests et de l'estimation 1 Introduction 3 2 Calcul de probabilités et variables aléatoires réelles 3 3 Quelques lois de probabilité 5 A Lois continues 5 a. Lois normales 5 b. Lois exponentielles 7 c. Lois gamma 7 d. Lois du chi deux 8 e. Lois béta 9 f. Lois de Fisher-Snedecor 10 g. Lois de Student 10 B Lois discrètes 10 a. Lois de Bernoulli 10 b. Lois binomiales 10 c. Lois multinomiales 11 d. Lois de Poisson 11 4 Approximations 12 a. Approximation normale de la binomiale 12 b. Approximation normale d'une somme 12 c. Approximation de Poisson de la binomiale 13 d. Approximation normale du chi deux 13 5 Principe des tests 14 6 Principe de l'estimation et maximum de vraisemblance 15 II Tests d'ajustement 1 Introduction 17 2 Test d'ajustement du chi2 pour une loi spécifiée 17 a. cas discret 17 b. cas continu 18 3 Test d'ajustement du chi2 avec estimation de paramètres 19 4 Test de Kolmogorov-Smirnov pour un échantillon 23 III Mise en évidence de liaisons : tests d'indépendance 1 Cas de deux variables discrètes 25 a. à deux valeurs 25 b. à un nombre quelconque de valeurs 27 2 Cas d'une variable continue et d'une variable à deux valeurs 29 Test de comparaison de deux échantillons 30 Tests non paramétriques 32 Test de la médiane 33 Test de Wilcoxon 35 Test de Kolmogorov-Smirnov pour 2 échantillons 36

3 2 3 Cas de deux variables continues 38 a. Couple normal : test du coefficient de corrélation 38 b. Cas général : tests non paramétriques 39 coefficient de corrélation des rangs de Spearman 39 coefficient de corrélation de Kendall 41 c. Intervention d'un troisième facteur 43 coefficient de corrélation partielle 43 IV Tests non paramétriques pour comparer k échantillons 1 k échantillons indépendants 45 Extension du test de la médiane 46 Test de Kruskal-Wallis 49 2 k échantillons liés 52 Test de Cochran 52 Test de Friedman 54 V Exercices 57 Tables Normale Student Chi deux Kolmogorov-Smirnov pour un échantillon Wilcoxon, Mann-Whitney Spearman Kolmogorov-Smirnov pour deux échantillons Kendall Fisher-Snedecor Kruskal-Wallis Friedman T1 T2 T3 T4 T5 T6 T7 T8 T9 T10 T11 T12 T13 T14 T15 T16 T17 T18 T19 T20 T21 T22

4 Probabilités et notions fondamentales 3 I Introduction : Quelques notions de probabilités. Tests et estimateurs simples. 1 - Introduction Nous introduisons dans ce chapitre les bases de probabilités nécessaires à la compréhension des méthodes d'analyse statistique ainsi que les notions de base pour l'estimation de paramètres et les tests d'hypothèses. Le chapitre II, intitulé "Tests d'ajustement", traite le problème qui consiste à vérifier si une variable aléatoire obéit effectivement à une loi de probabilité donnée à l'avance. C'est une généralisation du problème de comparaison d'une proportion observée à une proportion théorique, où la question est de savoir si une variable de Bernoulli obéit ou non à une loi théorique donnée. Le chapitre III concerne les tests d'homogénéité et d'indépendance, qui servent à mettre en évidence des liaisons, par exemple entre un facteur de risque et une maladie. Cet exemple conduit à la comparaison de deux proportions observées, qui peut être considéré: - Soit comme un test d'homogénéité de deux échantillons d'une variable en {0,1}, (malades et non-malades) : on se demande si le facteur de risque est présent dans la même proportion dans les deux échantillons. - Soit comme un test d'indépendance entre deux variables prenant les valeurs 0 ou 1. Les tests de comparaison de deux échantillons sont de trois types: - approchés: ils utilisent l'approximation normale, ce qui est possible lorsque la taille de l'échantillon est assez grande, - paramétriques: ils nécessitent de faire une hypothèse précise sur la loi des observations. - non-paramétriques: ces derniers ont l'avantage d'être valables même lorsque les échantillons sont très petits et de ne pas nécessiter d'hypothèse sur la loi les données, (contrairement par exemple au test de Student qui, lui, exige que les variables suivent une loi normale, ce qui n'est pas toujours le cas.). Le chapitre IV donne des tests non paramétriques pour comparer plus de deux échantillons. 2 - Calcul des probabilités et variables aléatoires réelles Voici, après l'exemple ci-dessous, quelques unes des propriétés les plus importantes d'une probabilité définie sur un espace formé de E, ensemble fondamental des résultats possibles de l'épreuve aléatoire et d'une famille de parties de E, appelées événements et formant une tribu a. Ces événements seront notés A, B, C, D,....

5 Probabilités et notions fondamentales 4 Exemple Si on examine des patients en notant la présence ou l'absence de trois symptômes tels que maux de tête (S1), insomnie (S2) et vertiges (S3), lorsqu'ils sont atteints d'une maladie M, l'ensemble E des résultats possibles de l'examen a 2x2x2 = 8 éléments qui sont les événements élémentaires : (0,0,0) lorsque aucun des trois symptômes n'est présent, (1,0,0) lorsque seul le premier est présent, etc.. (1,1,1) lorsque les trois symptômes sont présents. a) Probabilité que A ou B se produisent : (additivité de la probabilité) Si A et B sont deux événements d'intersection vide, c'est à dire qu'ils ne peuvent pas se produire ne même temps, alors la probabilité que l'un ou l'autre se produise est égale à la somme de leurs probabilités respectives : P(AUB) = P(A)+P(B). b) Probabilité qu'un événement ne se produise pas : (complémentaire d'un événement) Si A ne se produit pas, c'est que c'est son complémentaire A c dans E qui se produit : P(A c ) = 1 - P(A) c) Probabilité que A se produise sachant que b s'est produit : (probabilité conditionnelle) La probabilité de A conditionnellement à b est notée comme P(A B) ou P(A B) et définie comme P(A B) = P(A B) / P(B) Exemple : Quelle est la probabilité de tirer un roi de cœur d'un jeu de 52 cartes? Que devient cette probabilité si on sait que la carte tirée est rouge? si on sait qu'elle est noire? si on sait que c'est une figure? d) Probabilité que A et B se produisent ensemble : Si A et B se produisent ensemble, c'est que l'intersection de A et B, notée A B, se produit. Par définition même de la probabilité de A conditionnellement à B, notée P(A B), on a P(A B) = P(A B)P(B) = P(B A)P(A) Ces deux égalités sont toujours valables, sans condition. e) Indépendance de deux événements : Si A et B sont indépendants, P(A B) = P(A) P(B), P(A B) = P(A), P(B A) = P(B). Ces trois égalités sont équivalentes. Chacune d'elles peut être prise pour définition de l'indépendance de A et B. Espérance et variance d'une variable aléatoire réelle : Si X est une variable aléatoire réelle (v.a.r.), son espérance, ou moyenne, EX et sa variance Var(X), sont ainsi définies :

6 Probabilités et notions fondamentales 5 1)Si X est discrète, telle que P(X = x i ) = p i, i = 1, 2,..,k, son espérance EX et sa variance Var(X) sont respectivement : EX = Σ p i x i, Var(X) = E [ (X - EX)2 ] = Σ p i (x i -EX) 2. Les sommations portent sur tous les indices i = 1,..,k. L'écart-type σ(x) est la racine positive de la variance σ(x) = Var(X). 2) De même, si X est continue, de densité de probabilité f(x) au point x, EX = x f(x) dx, Var(X) = (x - EX) 2 f(x) dx et σ(x) = Var(X). Propriétés de l'espérance et de la variance : - L'espérance, ou moyenne, d'une somme de variables aléatoires est toujours égale à la somme des espérances : E(X 1 + X X n ) = E X 1 + E X E X n. - La variance d'une somme, par contre, n'est en général pas égale à la somme des variances: Var(X+Y) = Var(X) + Var(Y) + 2 cov(x,y), où cov(x,y) vaut, par définition : cov(x,y) = E(XY) - EX EY. Si X et Y sont indépendantes, la variance de leur somme est égale à la somme de leurs variances car cov(x,y) = 0 : Var(X+Y) = Var(X) + Var(Y). Coefficient de corrélation La covariance ne dépend pas de l'origine choisie pour mesurer X et Y. Cependant, elle dépend des unités choisies pour ce faire: si X est mesurée en mètres, et si l'on change cette unité contre le centimètre, la covariance sera, comme X, multipliée par 100. Pour éliminer cette dépendance, on définit le coefficient de corrélation ρ de X et de Y: 3 - Quelques lois de probabilité a) Lois normales N (µ, σ 2 ) ρ = cov(x,y) / σ X σ Y A Lois continues Si µ est un nombre réel et σ un nombre positif, X suit la loi normale N(µ,σ 2 ) si sa densité de probabilité au point x vaut f(x) = 2 1 exp (- (x - µ) 2πσ ), x IR. 2 σ 2 Alors, EX = µ, Var(X) = σ2, et la variable Ζ = (X- µ) / σ suit la loi normale réduite N(0,1) de densité au point z :

7 Probabilités et notions fondamentales 6 ϕ(z) = 1 2π e - z 2 2, z IR. On note Φ la fonction de répartition correspondante Φ (z) = P(Z z) = z ϕ(t)dt Elle joue un très grand rôle car il suffit de connaître Φ pour pouvoir calculer toute probabilité relative à une variable normale quelconque N (µ, σ2). En effet, si X suit la loi normale N(µ,σ2) P(X x) = P(µ + σz x) = P(Z (x-µ)/σ ) = Φ [(x µ) / σ] Les valeurs de Φ sont données par une table. Rappelons de plus que si X et Y sont deux variables normales indépendantes, leur somme est encore normale, de moyenne la somme des moyennes et variance la somme des variances: X et Y indépendantes L (X) = N(µ, σ 2 ) L (X+Y) = N(µ, + µ', σ 2 + σ' 2 ) L (Y) = N(µ', σ' 2 ) Ce résultat se généralise à la somme de n'importe quel nombre de variables normales indépendantes. Couple normal Un couple (X,Y) de variables aléatoires suit une loi normale, ou, en abrégé, est normal, si, pour tous réels fixés a et b, la variable ax + by est une variable aléatoire réelle de loi normale. Dans ce cas, une condition suffisante pour que X et Y soient indépendantes est que leur coefficient de corrélation ρ(x,y) soit nul. b) Lois exponentielles E (λ)

8 Probabilités et notions fondamentales 7 La variable aléatoire positive X suit la loi exponentielle de paramètre λ positif, notée E (λ), si elle admet la loi de densité égale en chaque point x 0 à : f(x) = λ e - λx si x 0, ( λ > 0 ). = 0 sinon La fonction de répartition F correspondante au point x s'obtient facilement par intégration de f entre 0 et x et vaut F(x) = 1 - e - λx, si x 0 ; = 0, si x < 0. L'espérance et la variance de X valent respectivement EX = 1 / λ et Var X = 1 / λ 2 En particulier, lorsque λ vaut 1, f(x) = e - x, F(x) = 1 - e - x, EX = 1 et Var(X) =1. On peut toujours se ramener à ce cas par un changement d'échelle, en prenant comme nouvelle unité u' = u / λ, ce qui change X en X' = λ X. c) Lois gamma Γ(a,λ) X suit la loi Γ (a, λ ), a > 0 et λ > 0, si sa densité de probabilité au point x est nulle pour x < 0 et vaut pour les x positifs : f a, λ a λ (x) = Γ(a) x a _1 e λx x 0 où Γ (a) est une généralisation aux valeurs réelles de la fonction factorielle, qui, à l'entier (n+1) fait correspondre le produit n! des n premiers entiers : Γ (n+1) = n! = n(n-1) (n-2) Γ (a) s'écrit Γ(a) = e -t t a-1 dt 0 On peut vérifier, en le prouvant par intégration par parties, que Γ (z+1) = z Γ (z) pour tout z positif, ce qui donne de proche en proche, si l'on part de z = n, et en tenant compte de ce que Γ (1) = 1, Γ (n+1) = n Γ (n) = n (n-1) Γ (n-1) = n!. De plus, Γ(1/2) = π. Propriété (Somme de deux variables indépendantes de lois gamma ) Si X et Y sont indépendantes de lois gamma, de même paramètre λ, L (X) = Γ(a, λ) et L (Y) = Γ (b, λ), la loi de la somme est encore une loi gamma : L (X + Y) = Γ (a + b, λ). La démonstration se fait en calculant la transformée de Laplace ϕ de la loi de X, supposée égale à Γ (a, λ) : ϕ X (t) = E (e -tx ) (par définition de la transformée de Laplace)

9 Probabilités et notions fondamentales 8 = λ a Γ(a) 0 x a-1 e (λ+t)x dx. = λ a -1 a-1 y (λ+t) y e dy Γ(a) 0. (λ+t) a-1 = λ a (λ+t) a Alors ϕ X+Y (t) = E ( e-t(x + Y)) = E ( e-tx) E ( e-ty) puisque X et Y sont indépendantes, et par conséquent ϕ X + Y (t) = (λ /( λ+t)) a+b, qui est la transformée de Laplace de la loi Γ(a+b, λ). d) Lois du chi deux ( χ2 ) à n degrés de liberté C'est, par définition la loi Γ(n/2, 1/2) : χ2 n = Γ(n/2, 1/2). Donc sa densité de probabilité est égale à 1 n / 2 1 x / 2 fn(x) = x e si x 0 n / 2 2 Γ(n / 2) Sa transformée de Laplace est donc égale à [(1/2) / (1/2 +t)]n/2, soit ϕ (t) = (2t + 1) - n/2. Théorème Soit Z1, Z2,..., Zn, n variables indépendantes de loi normale N(0,1). Alors la variable χ n 2 = Ζ1 2 + Ζ Zn 2 suit la loi du χ2 à n degrés de liberté (d.d.l.), notée χ2 n. démonstration: D'après ce qui précède, il suffit de montrer que L (X2) = Γ(1/2, 1/2) si X est normale N(0,1), c'est à dire que sa transformée de Laplace est égale à (2t + 1) -1/2 : ϕ X1 2 (t) = E ( e t(x 1 2) ) = (1/ 2π) e x 2 (t+1/2) =(2t+1) 1/2. Moments

10 Probabilités et notions fondamentales 9 On voit sans calcul que E (χ 1 2 ) = 1, puisque cette moyenne est égale à celle de Z1 2, c'est à dire à la variance de Z1, qui est de moyenne nulle, et de variance 1. De même, E ( χ n 2 ) = n. Pour calculer tous les moments, E( χ n 2k), il suffit de dériver la transformée de Laplace ϕ χ12 (t) par rapport à t et d'en prendre la valeur au point 0. On remarquera lors de la démonstration ci-dessous, que c'est une méthode générale. Notant simplement ϕ cette fonction, on voit que ϕ ' (t) = (2t+1)-3/2 = E( χ n 2 ) et que, de manière générale, la dérivée d'ordre k vaut ϕ (k)(t) = (2k-1) (2t+1) - (k + 1/2) = x2k e-tx f(x2) d( x2) La valeur au point 0 de cette dérivée donne donc le moment d'ordre k : ϕ (k)(0) = (2k-1) E( χ 1 2k ) Par définition de la variance, on a Var(χ 1 2) = E ((χ 1 2)2) - (E (χ 1 2))2 = 3 1 = 2. Comme l'indépendance de Z1, Z2,..., Zn entraîne l'indépendance de leurs carrés et que tous les Zi 2 suivent la même loi du χ 1 2, on a immédiatement Var (χ n 2 ) = 2 n. e) Lois Béta Définition On dit que la v. a. β suit la loi béta de paramètres a et b ( a > 0 et b > 0 ) si 1 x a 1 b 1 P ( β x) = Ix (a,b) = y (1 y) dy x [0 1] B(a,b) 0 Comme on le voit, β est une variable continue prenant ses valeurs dans l'intervalle [0 ; 1] et sa densité au point x est 1 a 1 b 1 f(x;a,b) = x (1 x) x [0 1] B(a,b) f (x;a,b) = 1 B(a,b) xa-1 (1-x) b-1 0 Š x Š 1 où B (a,b) = Γ(a+b) Γ(a) Γ(b) ( = (a+b-1)! (a-1)! (b 1)! si a et b sont entiers). On peut prouver que si β suit la loi de f. r. Ix (a,b) alors

11 Probabilités et notions fondamentales 10 E β = a a + b et Var β = ab (a+b) 2 (a+b+1) Si U et V sont deux variables aléatoires indépendantes, de loi Γ(a,λ) et Γ(b,λ), le rapport U / (U+V) suit la loi béta β (a,a+b). f) Loi de Fisher-Snedecor à n1 et n2 degrés de liberté F ( n1, n2 ) Si U est une variable aléatoire qui suit la loi béta ( n1/+2, n2/2), la variable aléatoire ( n2/ n1) U suit la loi de Fisher-Snédécor à n1 et n2 degrés de liberté, notée F(n1,n2). En particulier, si L (Y1) = χ2(n1) L (Y2) = χ2(n2) L ( n2y1 / n1y2 ) = F (n1, n2 ) Y1 et Y2 indépendantes g) Loi de Student à n degrés de liberté T(n) Par définition, si L (X) = N(0,1) L (Y) = χ2(n ) L (X / X et Y indépendantes Y n ) = T(n) B Lois discrètes a) Loi de Bernoulli b(p), p [ 0 1] C'est la loi d'une variable aléatoire X qui ne peut prendre que deux valeurs, 1 avec la probabilité p et 0 avec la probabilité 1-p notée q : P(X=1) = p ; P(X=0) = 1- p = q ; EX = p ; Var(X) = pq. b) Loi binomiale B (n, p), n ΙΝ, 0 p 1 C'est la loi de la somme Sn de n variables aléatoires X1,X2,..,Xn indépendantes et de même loi de Bernoulli b(p), de paramètre p (0 p 1) Xi = 1 avec la probabilité p 0 avec la probabilité q = 1 - p Si 1 correspond au "succès" et 0 à l'échec la statistique Sn = X1 + X Xn

12 Probabilités et notions fondamentales 11 qui représente le nombre total de succès au cours des n épreuves ne prend que les valeurs entières j de 0 à n. La loi de Sn est donnée par n! P (S n = j ) = p j = p j q n-j, j = 0,1,2,...n. j! (n- j)! ES n = np et Var (S n ) = npq L'espérance et la variance sont obtenues comme sommes des espérances et variances des Bernoulli. Le nombre des combinaisons de n objets pris j par j, qui vaut n! / j! (n-j)!, est généralement noté j n C n ou j c) Loi multinomiale M (n, p 1, p 2,..., p r ), n ΙΝ, pi 0, Σ pi =1 Si la variable de base X a r modalités au lieu de 2, qu'elle peut prendre avec les probabilités respectives p1, p2,..., p r, lorsqu'on répète n fois l'épreuve de manière indépendante, on obtient r effectifs N1, N2,..., N r, où Ni est le nombre de fois que la modalité i a été observée. Alors, pour chaque i, la loi de Ni est la loi binomiale de paramètres n et pi L (Ni) = B(n,pi), i = 1, 2,..., r ; E(Ni) = npi et Var(Ni) = npi qi. Mais il est clair que deux effectifs Ni et Nj qui correspondent à deux valeurs différentes de X, i et j, ne sont pas des variables indépendantes. En effet, la somme de tous ces effectifs est fixée et vaut n, le nombre total des observations. La loi de N = (N1,..., Nr) ne peut donc pas être décrite à partir des seules lois binomiales B(n,pi) de chacun des Ni. Elle est appelée la loi multinomiale de paramètres (n, p1, p2,..., pr) et notée M (n; p1, p2,..., pr). La probabilité de l'événement { N1 = n1, N2 = n2,..., Nr = nr} est égale, pourvu que la somme des ni soit égale à n, à P(N 1 =n 1,N 2 =n 2,..., N r =n r ) = n! n 1!n 2!... n r! p 1 n 1p2 n 2... pr n r Remarque Les variables (Ni -npi) / npiqi sont centrées réduites, et, lorsque n est grand (npi et nqi au moins égaux à 5), à peu près normales N(0,1). C'est ce qui est utilisé pour les tests du chi deux. d) Loi de Poisson (λ), λ > 0

13 Probabilités et notions fondamentales 12 Définition Une v.a. X suit la loi de Poisson de paramètre λ > 0, notée π (λ), si elle peut prendre toutes les valeurs entières, 0 compris, la probabilité pk pour qu'elle prenne la valeur k étant définie par λk Alors pk = P (X = k) = e - λ k = 0,1,2,... EY = Var(Y) = λ On rappelle que 0! = 1 par définition. k! λ paramètre > 0 Propriété (Somme de variables de Poisson indépendantes) La somme de deux variables de Poisson indépendantes est encore une variable de Poisson de paramètre la somme des paramètres : X et Y indépendantes L (X) = π (λ) L (X+Y) = π (λ+µ) L (Y) = π (µ) Il en résulte que la somme d'un nombre quelconque de variables de Poisson indépendantes est encore une variable de Poisson, de paramètre la somme des paramètres. 4 Approximations a) Approximation normale de la loi binomiale Une variable binomiale Sn, de loi B(n,p) a pour espérance np et pour variance npq. Lorsque n est grand, d'après le théorème de limite centrale, la loi de B(n,p) est très proche de la loi normale de même espérance (np) et même variance (npq). A partir de quelle valeur n peut il être considéré comme grand? Cela dépend de p et q. Plus précisément, on pourra remplacer B(n,p) par N(np, npq) dès que n sera assez grand pour que np et nq soient tous les deux supérieurs à 5 : B(n, p) N(np,npq) dès que np 5 et nq 5 ce qui s'écrit aussi S n np + npq Z où Z est normale réduite N(0,1). b) Approximation normale d'une somme de variables indépendantes On a un résultat analogue lorsqu'on additionne, non pas des variables de Bernoulli mais des variables indépendantes de même loi et d'espérance µ et variance σ2 : Sn = X1 + X Xn

14 Probabilités et notions fondamentales 13 Alors E( Sn ) = n µ, Var ( Sn ) = n σ2, et la loi de Sn, qui n'est pas connue puisqu'elle dépend de la loi commune des Xi, qui n'a pas été précisée, est, lorsque n est grand, proche de la loi normale de même moyenne et de même variance qu'elle : L (Sn ) N( n µ, n σ2 ) Nous considérerons que n est assez grand pour que l'approximation soit valable lorsque n égale ou dépasse 30, ce qui est vrai pour les lois continues usuelles en biologie. Cela peut s'écrire aussi Si Sn = X1 + X Xn, indépendantes, de même loi continue, E(Xi) = µ, Var(Xi) = σ2, et n 30, alors L ( (S n - n µ) / nσ 2 ) Ν(0,1) ce qui s'écrit aussi Sn n µ + nσ 2 Z où L (Z) = N(0,1). c) Approximation de Poisson de la binomiale Pour la variable binomiale, lorsque np et nq ne dépassent pas 5 tous les deux, mais que n est grand - ce qui a pour origine que la Bernoulli sous-jacente décrit un évènement rare, par exemple p petit - on peut approcher la loi B(n,p) par la loi de Poisson de paramètre égal à np. Plus précisément : on a l'approximation de Poisson suivante pour la loi binômiale : pourvu que p 0,1 et 1 np < 10 B(n,p) Π (np) d) Approximation normale du χ n 2 Pour calculer des probabilités relatives à des variables du chi deux, on utilisera les tables correspondantes ou l' approximation normale si n est assez grand. En effet, il est clair que la somme de deux variables du chi 2 indépendantes, à m et k degrés de liberté, est une variable du chi 2 à (m+k) degrés de liberté, et que, inversement, une variable du chi 2 à n degrés de liberté peut être considérée comme la somme de n variables indépendantes ayant la loi du chi 2 à 1 d.d.l.. Donc, d'après le théorème de la limite centrale, si n est assez grand P( χ n 2 x ) P ( n + 2n Ζ x ) = Φ ( (x - n) / 2n ).

15 Probabilités et notions fondamentales Principe des tests Le problème qui se pose initialement est celui de savoir si un phénomène vérifie ou non une certaine conjecture, qu'on appelle une hypothèse. Par exemple, il s'agit de savoir si une nouvelle technique constitue ou non un progrès par rapport à la technique classique. Pour le savoir, on se fonde sur l'observation d'une variable aléatoire liée au phénomène. Dans notre exemple, on observera l'effet de cette nouvelle technique sur n produits : Xi désignera le résultat sur le ième produit. X peut par exemple valoir 1 en cas de réussite, 0 en cas d'échec, et c'est alors une variable de Bernoulli b(p), où p est la probabilité de succès - inconnue - de cette nouvelle technique. Mais Xi peut aussi bien être la durée de vie du ième produit, et c'est alors une variable continue. A partir des observations, on construit une valeur numérique qui est la réalisation d'une variable aléatoire, fonction des observations, qui est appelée une statistique. Notons la Y = ϕ(x1,..., Xn). Et on choisit ϕ de telle sorte que, si c'est possible, la loi de Y soit connue lorsque l'hypothèse qui nous intéresse est réalisée. Appelons Ho cette hypothèse. Alors, si la valeur observée y, réalisation de Y, se trouve dans une zone de trop faible probabilité ( en général, si y est trop grand ou trop petit), on rejette H o comme ayant conduit à une observation trop peu probable, voire invraisemblable. Si nous reprenons l'exemple choisi, et si nous supposons que la technique classique a un taux de succès de 50%, sous l'hypothèse Ho qu'il n'y a pas d'amélioration, c'est à dire que la nouvelle technique a elle aussi un taux de succès p =1/2, on connait la loi du taux de succès observé Po = ϕ(x1,..., Xn) = ( X1+...+Xn) / n C'est celle d'une binomiale B(n,1/2) multipliée par 1/n, et n est connu puisque c'est le nombre total des observations. En fait, on aimerait rejeter cette hypothèse Ho au profit de l'hypothèse H1 selon laquelle le taux de succès p de la nouvelle technique est supérieur à l'ancien : p > 1/2. On est donc en présence des deux hypothèses Ho : p = 0,5 H1 : p > 0,5 Si la proportion observée po est trop éloignée de 0,5, et plutôt trop grande, on rejettera Ho au profit de H1. C'est le type de problème intitulé "Comparaison d'une proportion observée, ici po, à une proportion théorique, ici 0,5. En général, le nombre n des observations est assez grand pour qu'on puisse se servir de l'approximation normale. D'ailleurs, dans tous les cas où la variable de base, qui est ici Bernoulli, est quelconque, on n'a aucun moyen de connaître la loi de Y = ϕ(x1,..., Xn) sous Ho, sauf à employer l'une des approximations qui figurent au paragraphe précédent. D'où l'usage extensif de la loi normale en statistique paramétrique classique. On voit dans cet exemple que la zone de faible probabilité choisie comme zone de rejet de l'hypothèse nulle Ho a été choisie à droite : ce choix est destiné à rendre aussi grande que possible la puissance du test, c'est à dire la probabilité d'accepter H1 lorsqu'elle est vraie.

16 Probabilités et notions fondamentales 15 Lorsqu'on teste deux hypothèses simples, on a un moyen de rendre maximum cette puissance pour un niveau donné a : c'est de rejeter Ho lorsque le rapport des probabilités des observations sous Ho et sous H1 est plus petit qu'une valeur donnée. Cela est une conséquence du lemme de Neyman et Pearson: Le test de Ho (P = P 0 ) contre H1 (P = P1) qui a pour zone de rejet de Ho : { x : [Po(X=x) / P1(X=x) h} est le plus puissant parmi les tests qui ont le même niveau que lui. Il suffira donc de choisir la valeur du nombre h de telle sorte que Po{ x : [Po(X=x) / P1(X=x) h} = α pour obtenir le test de niveau α le plus puissant. On pourra vérifier que tous les tests (d'hypothèses simples) considérés jusqu'ici, sans souci apparent d'optimisation de la puissance, sont de ce type. 6 Principe de l'estimation L'idée originelle est très simple : pour estimer le taux de succès inconnu de la nouvelle technique, on le remplace par le taux observé. L'estimateur de p s'écrit alors : p = X 1+X X n =p n o proportion observée Mais deux points ont besoin d'être précisés dès qu'on veut généraliser : 1) Quelle est la précision d'une telle estimation? on tombe alors sur les intervalles de confiance, c'est à dire qu'au lieu de donner pour évaluer p une seule valeur comme ci-dessus, sans aucun élément sur la précision probabiliste avec laquelle il représente p, on donne un intervalle qui a une forte probabilité ( en général 95 %) de contenir p. Pour pouvoir obtenir un tel intervalle, il faut connaitre la loi de l'estimateur ou, à la rigueur, une approximation de celle-ci. Les estimateurs qui nous ont servi jusqu'à présent étant essentiellement des moyennes empiriques, relevaient de l'approximation 2 b). Souvent l'estimateur est sans biais et de loi (approximativement ) normale autour de sa moyenne : Alors L(p) N( p, σ 2 ) [ p-2σ ; p+2σ ] est un intervalle de confiance dont la probabilité de contenir p, c'est à dire le coefficient de confiance, est de 95 %. Le coefficient 2 correspond au quantile 0,975 de la loi normale, qui vaut en fait, non pas 2 mais 1,96. En général l'écart-type σ qui figure dans cet intervalle n'est pas connu et doit être estimé sur les observations. Dans l'exemple choisi, la variance de l'estimateur est Var(Po) = p 0 q 0 / n, ce qui donne pour intervalle de confiance à 95 % : [ po - 2 pq n ; po + 2 pq n ].

17 Probabilités et notions fondamentales 16 2) Que faire s'il n'y pas (ou s'il y a plusieurs) équivalents empiriques du paramètre à estimer? Alors on peut écrire la vraisemblance V des observations, c'est à dire la probabilité d'observer ce qui a été observé en fonction du (ou des) paramètres à estimer: Pθ (X1 = x1, X2 = x2,..., Xn = xn) = V(θ). La vraisemblance est considérée comme une fonction du paramètre inconnu à estimer, θ, et non comme une fonction des observations x1, x2,..., xn. On choisit comme estimateur de θ la valeur θ qui maximise V(θ):V(θ) V(θ) pour tout θ Une théorie générale montre que ces estimateurs sont très bons, sous des conditions très souvent réalisées, lorsque le nombre des observations est assez grand. Exemple 1 : durée de vie exponentielle On suppose que la durée de vie d'un appareil de dosage suit une loi exponentielle de paramètre θ inconnu. On a observé la durée de vie de 5 tels appareils et obtenu les valeurs suivantes exprimées en jours : 77, 31, 27, 58, 103. Quel estimateur peut on proposer pour θ? Exemple 2 : palmier à huile Le palmier à huile est sujet à une maladie appelée le blast. Cette variété de palmier apparait sous forme de palmiers jumeaux. Dans un champ comprenant n = 500 tels couples de palmiers, on a décompté 242 couples sains, 185 couples composés d'un palmier malade et d'un palmier sain et 73 couples de palmiers malades tous les deux. A combien estimer la probabilité θ pour un palmier d'être malade? On doit, pour être en mesure de faire cette estimation, faire une hypothèse sur la transmission de la maladie d'un palmier à son jumeau. Exemple 3 : durée de vie uniforme La durée de vie d'un certain type de cellule est une variable aléatoire qui a une loi uniforme sur un intervalle de temps [ 0 ; θ ]. θ est inconnu et on veut l'estimer après avoir observé les durées de vie, exprimées en jours, de 12 cellules tirées au hasard : 6, 7, 6, 8, 2, 4, 10, 1, 5, 5, 9, 10. Quel estimateur proposer pour θ?

18 Tests d'ajustement 17 II TESTS D'AJUSTEMENT 1 - Introduction Très souvent, lors de la résolution d'un problème, on rencontre des phrases du type : "Si la loi de la variable X est normale...", ou "Supposons que la loi de X soit de Bernoulli de paramètre p = 1/2,..." ou en employant un langage plus courant "Supposons que deux structures différentes soient également réparties chez les bactéries". Comment vérifier l'exactitude de ces hypothèses? Les techniques appropriées sont appelées des tests d'ajustement ou tests d'adéquation (fit tests en anglais): étant donnée une loi de probabilité théorique, il s'agit de savoir, à partir d'un n-échantillon, c'est à dire de n observations indépendantes, d'une variable aléatoire X, si cette variable obéit bien à la loi spécifiée. Le test le plus usuel est celui du chi 2 d'ajustement pour une loi multinomiale décrit au début du paragraphe suivant. 2 - Test d'ajustement du chi2 pour une loi spécifiée a. Cas d'une variable discrète : X a un nombre fini r de modalités, notées 1, 2,..., r et il s'agit de tester l'hypothèse H o : P(X = 1) = p 1, P(X = 2) = p 2,..., P(X = r) = p r, où p 1, p 2,..., p r sont des probabilités données à l'avance. Alors on considère la statistique E 2 r (N i -np i ) 2 = i=1 n p i qui mesure l'écart relatif entre les effectifs observés Ni et les effectifs moyens npi appelés aussi effectifs "attendus" (de l'anglais "expected") si Ho est vraie. On peut démontrer que, si Ho est vraie, et pourvu que tous les np i soient assez grands (supérieurs à 5), E 2 suit (approximativement) une loi du chi 2 à (r - 1) degrés de liberté (notés ddl).

19 Tests d'ajustement 18 Exemple 4 : dosage Prenons un dosage biologique, qui peut être normal, faible ou fort selon qu'il se situe entre deux bornes, est inférieur à la plus petite, ou supérieur à la plus grande, a r = 3 modalités. On veut tester le fait que 90 % des gens ont un dosage normal, alors que 5 % l'ont faible et 5 % l'ont fort. Pour cela, on tire au hasard 100 sujets et on constate que, sur les 100 dosages, 76 sont normaux, 10 faibles et 14 forts. Quelle sera la conclusion? b. Test d'ajustement du chi 2 pour une variable continue Si l'on se pose la question de savoir si une variable X suit ou non la loi normale N (0, 1), on peut se ramener au problème précédent en discrétisant la variable : c'est-à-dire que l'on fait une partition finie de l'ensemble R de toutes les valeurs possibles de X formée de r intervalles successifs sans point commun : ] -, a 1 ], ]a 1, a 2 ],..., ] a r-1 + [ Si l'on a observé un n-échantillon de valeurs de X, x 1,..., x n, on résume ces observations en (N 1,..., N r ) où N 1 désigne le nombre des x i qui sont inférieurs à a 1, N 2 le nombre de ceux qui tombent entre a 1 (non compris) et a 2 (compris) etc... Sous l'hypothèse H 0 : la loi de X est la loi N (0,1) les probabilités p j pour que X tombe dans chacun des r intervalles I j = ]a j-1 a j ] peuvent être calculées : p j = a j a j π exp {- z2 2 }dz Et on voit donc comment se ramener au problème du paragraphe précédent pour toute loi continue dont la densité est complètement spécifiée. Exemple 5 : Taux de cholestérol On veut savoir si le taux de cholestérol dans une sous population déterminée de patients suit la loi normale de moyenne 200 et variance 36, N (200, 36), qui est la loi du taux de cholestérol dans la population générale, lorsque ce taux est exprimé en cg/l Pour cela, on a extrait au hasard 100 sujets de cette population et obtenu les résultats suivants : Taux de cholestérol Effectif Taux de cholestérol Effectif ] ] 01 ] ] 17 ] ] 02 ] ] 12 ] ] 18 ] ] 4 ] ] 26 ] ] 2 ] ] 16 ] ] 1 ] ] 1

20 Tests d'ajustement 19 On devra calculer les probabilités attribuées à chacun des intervalles par la loi N (200, 36) : p j = a j 1 exp {- 2π 6 a j-1 (z - 200)2 }dz 72 avec ao = -, a1 = 110, a2 =130,..., a11 = +, ou bien les chercher sur une table donnant la fonction de répartition Φ de la loi N (0 ; 1). En effet pj peut aussi s'écrire pj = F(aj) - F(aj - 1) = Φ ( (aj - 200) / 6) - Φ ( (aj-1-200) / 6) On devra ensuite regrouper certains intervalles mitoyens pour être dans les conditions de l'approximation souhaitée, c'est-à-dire npj supérieur à 5 pour chacun des pj. Alors la variable d'écart vaut : E 2 r (N i -np i ) 2 = Σ i=1 n p i et, sous l'hypothèse nulle Ho, le taux de cholestérol suit dans cette sous-population la loi N (200, 36), E2 suit une loi proche de la loi du chi 2 à r -1 degrés de liberté.si la valeur observée de E2, soit e2, est trop grande, c'est-à-dire par exemple si : P(χ2 r-1 e2 ) 0,05 et si l'on s'est fixé le seuil de 5%, on rejettera Ho. On pourra faire le calcul des pj, du nombre de classes qui restent après regroupement et finalement conclure, au seuil de 5%. 3 - Tests d'ajustement du chi 2 avec estimation de paramètres Lors des deux cas que nous avons envisagés jusqu'ici, les lois sur lesquelles on voulait réaliser l'ajustement étaient complètement spécifiées. En fait, le cas le plus fréquent en pratique est celui où la loi sur laquelle on cherche à réaliser l'ajustement n'est pas complètement spécifiée, mais comporte des paramètres qu'il faut d'abord estimer. Par exemple, lorsqu'on se demande si une variable est normale, c'est en général sans avoir d'a priori sur la moyenne et la variance de cette loi. On doit alors estimer µ et σ2 respectivement par m et s2, pour pouvoir effectuer un ajustement sur la loi N (m ; s2). De même, s'il s'agit d'une loi multinomiale, les paramètres ne sont pas toujours complètement spécifiés, comme l'illustre l'exemple suivant.

DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES

DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES Université Paris1, Licence 00-003, Mme Pradel : Principales lois de Probabilité 1 DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES Notations Si la variable aléatoire X suit la loi L, onnoterax

Plus en détail

Cours (8) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012. Test du Khi 2

Cours (8) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012. Test du Khi 2 Test du Khi 2 Le test du Khi 2 (khi deux ou khi carré) fournit une méthode pour déterminer la nature d'une répartition, qui peut être continue ou discrète. Domaine d application du test : Données qualitatives

Plus en détail

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 2014 MATHS/STATS. 1 Généralités sur les tests statistiques 2

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 2014 MATHS/STATS. 1 Généralités sur les tests statistiques 2 UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 2014 Master d économie Cours de M. Desgraupes MATHS/STATS Document 4 : Les tests statistiques 1 Généralités sur les tests

Plus en détail

L essentiel sur les tests statistiques

L essentiel sur les tests statistiques L essentiel sur les tests statistiques 21 septembre 2014 2 Chapitre 1 Tests statistiques Nous considérerons deux exemples au long de ce chapitre. Abondance en C, G : On considère une séquence d ADN et

Plus en détail

STATISTIQUES. Cours I : Test d hypothèses. Télécom Physique Strasbourg Module 2101. Fabrice Heitz. Octobre 2014

STATISTIQUES. Cours I : Test d hypothèses. Télécom Physique Strasbourg Module 2101. Fabrice Heitz. Octobre 2014 Télécom Physique Strasbourg Module 2101 STATISTIQUES Cours I : Test d hypothèses Fabrice Heitz Octobre 2014 Fabrice Heitz (Télécom PS) Statistiques 2014 1 / 75 Cours I TESTS D HYPOTHÈSES Fabrice Heitz

Plus en détail

Introduction à la Statistique Inférentielle

Introduction à la Statistique Inférentielle UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique

Plus en détail

Support du cours de Probabilités IUT d Orléans, Département d informatique

Support du cours de Probabilités IUT d Orléans, Département d informatique Support du cours de Probabilités IUT d Orléans, Département d informatique Pierre Andreoletti IUT d Orléans Laboratoire MAPMO (Bât. de Mathématiques UFR Sciences) - Bureau 126 email: pierre.andreoletti@univ-orleans.fr

Plus en détail

Cours de Probabilités et statistiques L1 2011-2012 Maths-PC-SVT

Cours de Probabilités et statistiques L1 2011-2012 Maths-PC-SVT Cours de Probabilités et statistiques L1 2011-2012 Maths-PC-SVT Université d Avignon Fichier dispo sur http://fredericnaud.perso.sfr.fr/ Une étude statistique dans la population montre que le Q.I. est

Plus en détail

CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES Probabilités Épreuve de Bernoulli, loi de Bernoulli.

CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES Probabilités Épreuve de Bernoulli, loi de Bernoulli. 1 ère - 3 Chap.9 : Loi binomiale. Échantillonnage. 1 ère - Chapitre 9 : LOI BINOMIALE. ÉCHANTILLONNAGE. Textes officiels (30 septembre 2010) : CONTENU CAPACITÉ ATTENDUE COMMENTAIRE Probabilités Épreuve

Plus en détail

Probabilités. I- Expérience aléatoire, espace probabilisé : ShotGun. 1- Définitions :

Probabilités. I- Expérience aléatoire, espace probabilisé : ShotGun. 1- Définitions : Probabilités I- Expérience aléatoire, espace probabilisé : 1- Définitions : Ω : Ensemble dont les points w sont les résultats possibles de l expérience Des évènements A parties de Ω appartiennent à A une

Plus en détail

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012 LES STATISTIQUES INFERENTIELLES

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012 LES STATISTIQUES INFERENTIELLES LES STATISTIQUES INFERENTIELLES (test de Student) L inférence statistique est la partie des statistiques qui, contrairement à la statistique descriptive, ne se contente pas de décrire des observations,

Plus en détail

Chapitre 4 NOTIONS DE PROBABILITÉS

Chapitre 4 NOTIONS DE PROBABILITÉS Statistique appliquée à la gestion et au marketing http://foucart.thierry.free.fr/statpc Chapitre 4 NOTIONS DE PROBABILITÉS Les chapitres précédents donnent des méthodes graphiques et numériques pour caractériser

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Simulation de variables aléatoires S. Robin INA PG, Biométrie Décembre 1997 Table des matières 1 Introduction Variables aléatoires discrètes 3.1 Pile ou face................................... 3. Loi de

Plus en détail

Introduction au cours STA 102 Analyse des données : Méthodes explicatives

Introduction au cours STA 102 Analyse des données : Méthodes explicatives Analyse des données - Méthodes explicatives (STA102) Introduction au cours STA 102 Analyse des données : Méthodes explicatives Giorgio Russolillo giorgio.russolillo@cnam.fr Infos et support du cours Slide

Plus en détail

2. Formalisation ... Or les variables sont indépendantes. Donc si

2. Formalisation ... Or les variables sont indépendantes. Donc si L'estimation 1. Concrètement... Dernièrement un quotidien affichait en première page : en 30 ans les françaises ont grandi de... je ne sais plus exactement, disons 7,1 cm. C'est peut-être un peu moins

Plus en détail

Exercices corrigés de SQ20

Exercices corrigés de SQ20 1 Exercices corrigés de SQ2 Corrigés TD 1 à 4 Printemps 215 responsable de l'uv : André Turbergue SQ2 TD1 : espaces probabilisés TD1 : espaces probabilisés 1 Énoncés Exercice 1. Calculer si possible une

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Lois de probabilité à densité Loi normale

Lois de probabilité à densité Loi normale DERNIÈRE IMPRESSIN LE 31 mars 2015 à 14:11 Lois de probabilité à densité Loi normale Table des matières 1 Lois à densité 2 1.1 Introduction................................ 2 1.2 Densité de probabilité

Plus en détail

Chapitre IV : Couples de variables aléatoires discrètes

Chapitre IV : Couples de variables aléatoires discrètes UNIVERSITÉ DE CERG Année 0-03 UFR Économie & Gestion Licence d Économie et Gestion MATH0 : Probabilités Chapitre IV : Couples de variables aléatoires discrètes Généralités Définition Soit (Ω, P(Ω), P)

Plus en détail

3.8 Introduction aux files d attente

3.8 Introduction aux files d attente 3.8 Introduction aux files d attente 70 3.8 Introduction aux files d attente On va étudier un modèle très général de problème de gestion : stocks, temps de service, travail partagé...pour cela on considère

Plus en détail

2 Probabilités conditionnelles. Événements indépendants

2 Probabilités conditionnelles. Événements indépendants 2 Probabilités conditionnelles. Événements indépendants 2.1 Probabilité conditionnelle Soient A et B deux événements tels que P(B) > 0. Soit alors P(A B), la probabilité que A se réalise, B étant réalisé.

Plus en détail

Analyse de données et méthodes numériques

Analyse de données et méthodes numériques Analyse de données et méthodes numériques Analyse de données: Que faire avec un résultat? Comment le décrire? Comment l analyser? Quels sont les «modèles» mathématiques associés? Analyse de données et

Plus en détail

Cours de probabilités Terminale S. Paul Milan

Cours de probabilités Terminale S. Paul Milan DERNIÈRE IMPRESSION LE 27 juillet 2014 Cours de probabilités Terminale S Pour aller plus loin... Paul Milan Table des matières 1 Espace probabilisé 2 1.1 Cas où l univers est fini..........................

Plus en détail

PROBABILITÉS STATISTIQUES

PROBABILITÉS STATISTIQUES PROBABILITÉS ET STATISTIQUES Probabilités et Statistiques PAES 0-03 L FOUCA Sommaire Chapitre Statistique descriptive 4 La statistique et les statistiques 4 Généralités sur les distributions statistiques

Plus en détail

Chapitre 3: Variables aléatoires discrètes Espérance-Variance Loi des grands nombres

Chapitre 3: Variables aléatoires discrètes Espérance-Variance Loi des grands nombres Chapitre 3: Variables aléatoires discrètes Espérance-Variance Loi des grands nombres 1 Introduction Le nombre de piles obtenus au cours d une série de n lancers de pile ou face ou plus généralement dans

Plus en détail

Cours de Probabilités. Jean-Yves DAUXOIS

Cours de Probabilités. Jean-Yves DAUXOIS Cours de Probabilités Jean-Yves DAUXOIS Septembre 2013 Table des matières 1 Introduction au calcul des probabilités 7 1.1 Espace probabilisable et loi de variable aléatoire........ 8 1.1.1 Un exemple

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Examen d accès - 28 Septembre 2012

Examen d accès - 28 Septembre 2012 Examen d accès - 28 Septembre 2012 Aucun document autorisé - Calculatrice fournie par le centre d examen Cet examen est un questionnaire à choix multiples constitué de 50 questions. Plusieurs réponses

Plus en détail

Lois normales, cours, terminale S

Lois normales, cours, terminale S Lois normales, cours, terminale S F.Gaudon 6 mai 2014 Table des matières 1 Variables centrées et réduites 2 2 Loi normale centrée et réduite 2 3 Loi normale N (µ, σ 2 ) 4 1 1 Variables centrées et réduites

Plus en détail

Estimation et tests statistiques, TD 5. Solutions

Estimation et tests statistiques, TD 5. Solutions ISTIL, Tronc commun de première année Introduction aux méthodes probabilistes et statistiques, 2008 2009 Estimation et tests statistiques, TD 5. Solutions Exercice 1 Dans un centre avicole, des études

Plus en détail

TS. 2012/2013. Lycée Prévert. Corrigé du contrôle n 3. Durée : 3 heures. Mardi 20/11/12

TS. 2012/2013. Lycée Prévert. Corrigé du contrôle n 3. Durée : 3 heures. Mardi 20/11/12 TS. 01/013. Lycée Prévert. Corrigé du contrôle n 3. Durée : 3 heures. Mardi 0/11/1 Exercice 1 : ( 6,5 pts) Première partie : Démonstration à rédiger { Démontrer que si ( ) et (v n ) sont deux suites telles

Plus en détail

Chapitre 6 TESTS STATISTIQUES

Chapitre 6 TESTS STATISTIQUES Statistique appliquée à la gestion et au marketing http://foucart.thierry.free.fr/statpc Chapitre 6 TESTS STATISTIQUES Les tests statistiques sont des méthodes de la statistique inférentielle qui, comme

Plus en détail

est diagonale si tous ses coefficients en dehors de la diagonale sont nuls.

est diagonale si tous ses coefficients en dehors de la diagonale sont nuls. Diagonalisation des matrices http://www.math-info.univ-paris5.fr/~ycart/mc2/node2.html Sous-sections Matrices diagonales Valeurs propres et vecteurs propres Polynôme caractéristique Exemples Illustration

Plus en détail

9. Distributions d échantillonnage

9. Distributions d échantillonnage 9. Distributions d échantillonnage MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v3) MTH2302D: distributions d échantillonnage 1/46 Plan 1. Échantillons aléatoires 2. Statistiques et distributions

Plus en détail

Nouveaux programmes de terminale Probabilités et statistiques

Nouveaux programmes de terminale Probabilités et statistiques Nouveaux programmes de terminale Probabilités et statistiques I. Un guide pour l'année II. La loi uniforme : une introduction III. La loi exponentielle IV. De la loi binomiale à la loi normale V. Échantillonnage

Plus en détail

Statistiques. IUT Biotechnologie 2ème année. Jean-Christophe Breton Université de La Rochelle Octobre-Novembre 2008

Statistiques. IUT Biotechnologie 2ème année. Jean-Christophe Breton Université de La Rochelle Octobre-Novembre 2008 Statistiques IUT Biotechnologie 2ème année Jean-Christophe Breton Université de La Rochelle Octobre-Novembre 2008 version du 04 octobre 2008 Table des matières 1 Lois de probabilité usuelles 1 1.1 Dénombrement................................

Plus en détail

COUPLES DE VARIABLES ALÉATOIRES

COUPLES DE VARIABLES ALÉATOIRES CHAPITRE 13 COUPLES DE VARIABLES ALÉATOIRES Dans tout le chapitre, (Ω, P) désignera un espace probabilisé fini. 1 Couple de variables aléatoires Définition 13.1 On appelle couple de variables aléatoires

Plus en détail

Master 1 Informatique Éléments de statistique inférentielle

Master 1 Informatique Éléments de statistique inférentielle Master 1 Informatique Éléments de statistique inférentielle Faicel Chamroukhi Maître de Conférences UTLN, LSIS UMR CNRS 7296 email: chamroukhi@univ-tln.fr web: chamroukhi.univ-tln.fr 2014/2015 Faicel Chamroukhi

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

Tests statistiques Notes de cours. V. Monbet

Tests statistiques Notes de cours. V. Monbet Tests statistiques Notes de cours V. Monbet L2 S1-2009 Table des matières 1 Introduction 4 1.1 Qu'est ce que la statistique?.............................. 4 1.2 Qu'est ce qu'un test statistique?............................

Plus en détail

Exercice 1 QCM. 4 i. e π ou. e π, ou : 4 ( i) 1 /4. e π. e π Réponse d. 1. Le carré de z est : ce qui donne : soit : , soit 4i

Exercice 1 QCM. 4 i. e π ou. e π, ou : 4 ( i) 1 /4. e π. e π Réponse d. 1. Le carré de z est : ce qui donne : soit : , soit 4i TSTI2D - Bac 203 - Polynésie STI2D -.0 - Corrigé.doc - Page /5 Terminale STI2D - Bac 203 - Polynésie - Corrigé. TSTI2D - Bac 203 - Polynésie STI2D -.0 - Corrigé.doc - Page 2/5 Exercice QCM. Le carré de

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Séminaire de Statistique

Séminaire de Statistique Master 1 - Economie & Management Séminaire de Statistique Support (2) Variables aléatoires & Lois de probabilité R. Abdesselam - 2013/2014 Faculté de Sciences Economiques et de Gestion Université Lumière

Plus en détail

Statistique Descriptive et Inférentielle Méthodes paramétriques et non paramétriques

Statistique Descriptive et Inférentielle Méthodes paramétriques et non paramétriques Fiche TD avec le logiciel : a2-1-c Statistique Descriptive et Inférentielle Méthodes paramétriques et non paramétriques Sylvain Mousset Rappels de probabilités / statistiques Table des matières 1 Probabilités

Plus en détail

Ch.12 : Loi binomiale

Ch.12 : Loi binomiale 4 e - programme 2007 - mathématiques ch.12 - cours Page 1 sur 5 1 RÉPÉTITION D'EXPÉRIENCES INDÉPENDANTES Lancer plusieurs fois un dé et noter les résultats successifs. Ch.12 : Loi binomiale Prélever des

Plus en détail

Exercices de simulation 1

Exercices de simulation 1 Licence MIA 2ème année Année universitaire 2009-2010 Simulation stochastique C. Léonard Exercices de simulation 1 Les simulations qui suivent sont à effectuer avec Scilab. Le générateur aléatoire de Scilab.

Plus en détail

MASTER «Sciences de la Vie et de la Santé» Mention «Santé Publique»

MASTER «Sciences de la Vie et de la Santé» Mention «Santé Publique» M1_presentation_generale_4juil05.doc 1/11 MASTER «Sciences de la Vie et de la Santé» Mention «Santé Publique» La mention s articule autour de 6 spécialités : Recherche en éthique : Pr Christian HERVE (herve@necker.fr)

Plus en détail

2010 My Maths Space Page 1/6

2010 My Maths Space Page 1/6 A. Des statistiques aux probabilités 1. Statistiques descriptives, analyse de données. Vocabulaire des statistiques : Population : c'est l'ensemble étudié. Individu : c'est un élément de la population.

Plus en détail

Exercices : VAR discrètes

Exercices : VAR discrètes Exercices : VAR discrètes Exercice 1: Une urne contient 2 boules blanches et 4 boules noires. On tire les boules une à une sans les remettre jusqu à ce qu il ne reste que des boules d une seule couleur

Plus en détail

COMPORTEMENT ASYMPTOTIQUE D UNE FILE D ATTENTE À UN SERVEUR

COMPORTEMENT ASYMPTOTIQUE D UNE FILE D ATTENTE À UN SERVEUR Université Paris VII. Préparation à l Agrégation. (François Delarue) COMPORTEMENT ASYMPTOTIQUE D UNE FILE D ATTENTE À UN SERVEUR Ce texte vise à l étude du temps d attente d un client à la caisse d un

Plus en détail

Projets scilab. L3 Maths Appliquées lagache@biologie.ens.fr 02 Avril 2009

Projets scilab. L3 Maths Appliquées lagache@biologie.ens.fr 02 Avril 2009 Projets scilab L3 Maths Appliquées lagache@biologie.ens.fr 2 Avril 29 REMARQUE: quelques résultats importants concernant le théorème central limite et les intervalles de confiance sont rappelés dans la

Plus en détail

UE ADP1 Durée de l'épreuve : 1 heure 30 mn. Aucun document n'est autorisé. Seule la calculette (sans sa documentation) est autorisée.

UE ADP1 Durée de l'épreuve : 1 heure 30 mn. Aucun document n'est autorisé. Seule la calculette (sans sa documentation) est autorisée. Université René Descartes- Paris V Licence de Psychologie Année L1, Semestre S1-2005 /2006 Page 1/5 UE ADP1 Durée de l'épreuve : 1 heure 30 mn. Aucun document n'est autorisé. Seule la calculette (sans

Plus en détail

Probabilités et Statistiques. Raphaël KRIKORIAN Université Paris 6

Probabilités et Statistiques. Raphaël KRIKORIAN Université Paris 6 Probabilités et Statistiques Raphaël KRIKORIAN Université Paris 6 Année 2005-2006 2 Table des matières 1 Rappels de théorie des ensembles 5 1.1 Opérations sur les ensembles................... 5 1.2 Applications

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

Mth2302B - Intra Été 2011

Mth2302B - Intra Été 2011 École Polytechnique de Montréal page 1 Contrôle périodique Été 2011--------------------------------Corrigé--------------------------------------T.Hammouche Question 1 (12 points) Mth2302B - Intra Été 2011

Plus en détail

TD 1 & 2 Rappels de probabilités

TD 1 & 2 Rappels de probabilités Master IF, ENS de Lyon Évaluation de performance 5 & 22 septembre 20 TD & 2 appels de probabilités lionel.rieg@ens-lyon.fr Probabilités discrètes. Calcul de probabilités Exercice Soient A et B des événements

Plus en détail

Cours de mathématiques Terminale STMG

Cours de mathématiques Terminale STMG Cours de mathématiques Terminale STMG Chapitre 1 Information chiffrée...3 I Proportions...3 II Taux d'évolution...3 a) Détermination d'un taux d'évolution...3 b) Appliquer un taux d'évolution...4 III Taux

Plus en détail

CHAPITRE VIII : Les circuits avec résistances ohmiques

CHAPITRE VIII : Les circuits avec résistances ohmiques CHAPITRE VIII : Les circuits avec résistances ohmiques VIII. 1 Ce chapitre porte sur les courants et les différences de potentiel dans les circuits. VIII.1 : Les résistances en série et en parallèle On

Plus en détail

Espérance, variance, quantiles

Espérance, variance, quantiles Espérance, variance, quantiles Mathématiques Générales B Université de Genève Sylvain Sardy 22 mai 2008 0. Motivation Mesures de centralité (ex. espérance) et de dispersion (ex. variance) 1 f(x) 0.0 0.1

Plus en détail

4 Distributions particulières de probabilités

4 Distributions particulières de probabilités 4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli

Plus en détail

Lois de probabilité. Anita Burgun

Lois de probabilité. Anita Burgun Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage

Plus en détail

Devoir Surveillé n 5 BTS 2009 groupement B

Devoir Surveillé n 5 BTS 2009 groupement B EXERCICE 1 (12 points) Devoir Surveillé n 5 BTS 2009 groupement B Les trois parties de cet exercice peuvent être traitées de façon indépendante. A. Résolution d une équation différentielle On considère

Plus en détail

Travaux Dirigés de Probabilités - Statistiques, TD 4. Lois limites ; estimation.

Travaux Dirigés de Probabilités - Statistiques, TD 4. Lois limites ; estimation. Travaux Dirigés de Probabilités - Statistiques, TD 4 Lois limites ; estimation. Exercice 1. Trois machines, A, B, C fournissent respectivement 50%, 30%, 20% de la production d une usine. Les pourcentages

Plus en détail

Cours 1: lois discrétes classiques en probabilités

Cours 1: lois discrétes classiques en probabilités Cours 1: lois discrétes classiques en probabilités Laboratoire de Mathématiques de Toulouse Université Paul Sabatier-IUT GEA Ponsan Module: Stat inférentielles Définition Quelques exemples loi d une v.a

Plus en détail

Probabilités et Statistiques. Chapitre 1 : Statistique descriptive

Probabilités et Statistiques. Chapitre 1 : Statistique descriptive U.P.S. I.U.T. A, Département d Informatique Année 2008-2009 Probabilités et Statistiques Emmanuel PAUL Chapitre 1 : Statistique descriptive 1 Objectifs des statistiques. Il s agit d étudier un ou plusieurs

Plus en détail

Cours 9 Une variable numérique : distribution et répartition

Cours 9 Une variable numérique : distribution et répartition Cours 9 Une variable numérique : distribution et répartition Lorsqu'une variable est qualitative et l'autre numérique, il est courant que la première identie des sous-populations (sexe, catégories socio-économiques,

Plus en détail

1 Sujets donnés en option scientifique

1 Sujets donnés en option scientifique Les sujets suivants, posés aux candidats des options scientifique, économique, technologique et littéraire BL constituent la première version d un échantillon des sujets proposés lors des épreuves orales

Plus en détail

Raisonnement par récurrence Suites numériques

Raisonnement par récurrence Suites numériques Chapitre 1 Raisonnement par récurrence Suites numériques Terminale S Ce que dit le programme : CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES Raisonnement par récurrence. Limite finie ou infinie d une suite.

Plus en détail

Loi normale ou loi de Laplace-Gauss

Loi normale ou loi de Laplace-Gauss LivreSansTitre1.book Page 44 Mardi, 22. juin 2010 10:40 10 Loi normale ou loi de Laplace-Gauss I. Définition de la loi normale II. Tables de la loi normale centrée réduite S il y avait une seule loi de

Plus en détail

Lois de probabilité 3/3. Anita Burgun

Lois de probabilité 3/3. Anita Burgun Lois de probabilité 3/3 Anita Burgun Contenu des cours Loi binomiale Loi hypergéométrique Loi de Poisson Loi normale Loi du Chi2 Loi de Student Loi normale VA continue X Densité de probabilité de X" Loi

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Chapitre I. Probabilités. Bcpst 1 2 novembre 2015. I Exemples d expériences aléatoires

Chapitre I. Probabilités. Bcpst 1 2 novembre 2015. I Exemples d expériences aléatoires Chapitre I Probabilités Bcpst 1 2 novembre 2015 I Exemples d expériences aléatoires Une expérience aléatoire est une expérience dont on ne peut pas prédire le résultat avant de l avoir réalisée... ce qui

Plus en détail

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre : Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant

Plus en détail

Correction des exemples. Mathieu EMILY

Correction des exemples. Mathieu EMILY Correction des exemples Mathieu EMILY Novembre 2005 Table des Matières Exemple_Exercice 1 Page 2 Exemple_Exercice 2 Page 3 Exemple_Exercice 3 Page 5 Exemple_Exercice 4 Page 6 Exemple_Exercice 5 Page 7

Plus en détail

Correction du TP4. column 1 to 17. column 18 to 34. column 35 to 51. column 52 to 68. column 69 to 85. column 86 to 100. U i ]. i=1.

Correction du TP4. column 1 to 17. column 18 to 34. column 35 to 51. column 52 to 68. column 69 to 85. column 86 to 100. U i ]. i=1. Exercice 1. 1. U=grand(1,10000,'uin',-2,5) disp(u(1:100), "U=") On obtient par exemple : U= column 1 to 17-1. 2. 3. 0. 5. 3. - 1. 0. 4. - 2. 5. 3. - 1. 2. 0. - 1. 3. column 18 to 34-2. - 1. 3. 1. 5. 5.

Plus en détail

TUTORAT UE 4 2014-2015 Biostatistiques Séance n 3 Semaine du 06/10/2014

TUTORAT UE 4 2014-2015 Biostatistiques Séance n 3 Semaine du 06/10/2014 TUTORAT UE 4 2014-2015 Biostatistiques Séance n 3 Semaine du 06/10/2014 Séance d entrainement M. Dujols M. Sabatier Séance préparée par les TS de l ATM² QCM n 1 : Une population comporte 94750 individus

Plus en détail

C3 : Manipulations statistiques

C3 : Manipulations statistiques C3 : Manipulations statistiques Dorat Rémi 1- Génération de valeurs aléatoires p 2 2- Statistiques descriptives p 3 3- Tests statistiques p 8 4- Régression linéaire p 8 Manipulations statistiques 1 1-

Plus en détail

Sommaire. Chapitre 1 Variables et vecteurs aléatoires... 5. Chapitre 2 Variables aléatoires à densité... 65

Sommaire. Chapitre 1 Variables et vecteurs aléatoires... 5. Chapitre 2 Variables aléatoires à densité... 65 Sommaire Chapitre 1 Variables et vecteurs aléatoires............... 5 A. Généralités sur les variables aléatoires réelles.................... 6 B. Séries doubles..................................... 9

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Chapitre 3 RÉGRESSION ET CORRÉLATION

Chapitre 3 RÉGRESSION ET CORRÉLATION Statistique appliquée à la gestion et au marketing http://foucart.thierry.free.fr/statpc Chapitre 3 RÉGRESSION ET CORRÉLATION La corrélation est une notion couramment utilisée dans toutes les applications

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Relation entre deux variables : estimation de la corrélation linéaire

Relation entre deux variables : estimation de la corrélation linéaire CHAPITRE 3 Relation entre deux variables : estimation de la corrélation linéaire Parmi les analyses statistiques descriptives, l une d entre elles est particulièrement utilisée pour mettre en évidence

Plus en détail

Terminale STMG Lycée Jean Vilar 2013/2014. Terminale STMG. O. Lader

Terminale STMG Lycée Jean Vilar 2013/2014. Terminale STMG. O. Lader Terminale STMG O. Lader Table des matières 1 Information chiffrée (4s) 4 1.1 Taux d évolution....................................... 6 1.2 indices............................................. 6 1.3 Racine

Plus en détail

Chapitre 5 Les Probablilités

Chapitre 5 Les Probablilités A) Introduction et Définitions 1) Introduction Chapitre 5 Les Probablilités De nombreuses actions provoquent des résultats qui sont dus en partie ou en totalité au hasard. Il est pourtant nécessaire de

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

PROBABILITES et STATISTIQUES. Cours et exercices

PROBABILITES et STATISTIQUES. Cours et exercices PROBABILITES et STATISTIQUES Cours et exercices C. Reder IUP2-MIAGE Bordeaux I 2002-2003 1 I- Le modèle probabiliste 1- Evènements SOMMAIRE 2- Loi de probabilité, espace de probabilité 3- Le cas où les

Plus en détail

Chapitre 8 : Probabilités-Indépendance

Chapitre 8 : Probabilités-Indépendance Cours de mathématiques Terminale S Chapitre 8 : Probabilités-Indépendance Année scolaire 008-009 mise à jour 6 janvier 009 Fig. Andreï Kolmogorov Un précurseur de la formalisation de la théorie des probabilités

Plus en détail

Théorie de la crédibilité

Théorie de la crédibilité ISFA - Année 2008-2009 Théorie de la crédibilité Chapitre 2 : Prime de Bayes Pierre-E. Thérond Email, Page web, Ressources actuarielles Langage bayesien (1/2) Considérons une hypothèse H et un événement

Plus en détail

2 36. k 2 3 4 5 6 7 8 9 10 11 12

2 36. k 2 3 4 5 6 7 8 9 10 11 12 Chapitre 2 : Variables aléatoires discrètes Les variables aléatoires qui apparaissent dans ce chapitre (et son appendice) sont des exemples de variables aléatoires discrètes. I- Variables aléatoires. 1.

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Université René Descartes Faculté de Pharmacie - Master Professionnel Dimension Économique des Produits de Santé 14 décembre 2005

Université René Descartes Faculté de Pharmacie - Master Professionnel Dimension Économique des Produits de Santé 14 décembre 2005 Université René Descartes Faculté de Pharmacie - Master Professionnel Dimension Économique des Produits de Santé 14 décembre 2005 Prise en Compte de l Incertitude dans l Évaluation des Technologies de

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Introduction au modèle linéaire général

Introduction au modèle linéaire général Résumé Introductions au modèle linéaire général Retour au plan du cours Travaux pratiques 1 Introduction L objet de ce chapitre est d introduire le cadre théorique global permettant de regrouper tous les

Plus en détail

Cours de probabilités, ECS deuxième année. Alain TROESCH

Cours de probabilités, ECS deuxième année. Alain TROESCH Cours de probabilités, ECS deuxième année Alain TROESCH 10 janvier 2012 Table des matières 1 Rappels de probabilités générales et discrètes 5 1.1 Principes généraux du calcul des probabilités.....................

Plus en détail

Applications linéaires

Applications linéaires Applications linéaires I) Applications linéaires - Généralités 1.1) Introduction L'idée d'application linéaire est intimement liée à celle d'espace vectoriel. Elle traduit la stabilité par combinaison

Plus en détail

Test de Poisson à 1 échantillon et à 2 échantillons

Test de Poisson à 1 échantillon et à 2 échantillons Test de Poisson à 1 échantillon et à 2 échantillons Sous-menus de Minitab 15 : Stat>Statistiques élémentaires>test de Poisson à 1 échantillon Stat>Statistiques élémentaires>test de Poisson à 2 échantillons

Plus en détail

Actuariat I ACT2121. huitième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Actuariat I ACT2121. huitième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free. Actuariat I ACT2121 huitième séance Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 Soit X une variable aléatoire continue de fonction de densité

Plus en détail

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE UE4 : Biostatistiques Chapitre 3 : Principe des tests statistiques d hypothèse José LABARERE Année universitaire 2010/2011 Université Joseph Fourier de Grenoble - Tous droits réservés. Plan I. Introduction

Plus en détail