Probabilités et Statistiques 2

Dimension: px
Commencer à balayer dès la page:

Download "Probabilités et Statistiques 2"

Transcription

1 Probabilités et Statistiques 2 M. BOUTAHAR

2 1.Loi de probabilité discrète 1. Variables aléatoires Définitions Soit Ω un espace (ou ensemble), soit F une famille de sous-ensembles de Ω. Definition On dit que F est une algèbre sur Ω si les conditions suivantes sont satisfaites: i. et Ω sont dans F, ii. si A est dans F, alors A c est dans F, où A c est le complémentaire de A dans Ω. iii. si A et B sont dans F, alors A B est dans F.

3 1.Loi de probabilité discrète Exemple. Ω = {1, 2, 3}, F = P(Ω) = {, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}} est une algèbre. Definition On dit que F est une tribu (ou σ-algèbre) sur Ω si les conditions de la définition précédente sont satisfaites avec iii) remplacée par: iii. si (A n, n 1) est dans F, alors n=1 A n est dans F.

4 1.Loi de probabilité discrète Exemple. Ω = {1, 2, 3}, F = P(Ω) = {, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}} est une algèbre. Definition On dit que F est une tribu (ou σ-algèbre) sur Ω si les conditions de la définition précédente sont satisfaites avec iii) remplacée par: iii. si (A n, n 1) est dans F, alors n=1 A n est dans F.

5 1.Loi de probabilité discrète Espace de probabilité Definition On appelle loi de probabilité sur (Ω, F), toute application P : Ω [0, 1], qui vérifie: i. P(Ω) = 1, ii. (A n, n 1) F telle que A k Al = si k l, P( A n ) = n=1 P(A n ). n=1

6 1.Loi de probabilité discrète Espace de probabilité Definition On appelle loi de probabilité sur (Ω, F), toute application P : Ω [0, 1], qui vérifie: i. P(Ω) = 1, ii. (A n, n 1) F telle que A k Al = si k l, P( A n ) = n=1 P(A n ). n=1

7 1.Loi de probabilité discrète Espace de probabilité Definition On appelle loi de probabilité sur (Ω, F), toute application P : Ω [0, 1], qui vérifie: i. P(Ω) = 1, ii. (A n, n 1) F telle que A k Al = si k l, P( A n ) = n=1 P(A n ). n=1

8 1.Loi de probabilité discrète Definition (Ω, F, P) est appelé espace de probabilité si: Ω est un espace, F est une tribu, P est une loi de probabilité Variable aléatoire Definition Une variable aléatoire réelle X est une application de (Ω, F) (R, B) mesurable : c est à dire pour tout ouvert C R, on a X 1 (C) = {ω, X (ω) C} F.(B est la tribu borélienne contenant les ouverts de R).

9 1.Loi de probabilité discrète Definition (Ω, F, P) est appelé espace de probabilité si: Ω est un espace, F est une tribu, P est une loi de probabilité Variable aléatoire Definition Une variable aléatoire réelle X est une application de (Ω, F) (R, B) mesurable : c est à dire pour tout ouvert C R, on a X 1 (C) = {ω, X (ω) C} F.(B est la tribu borélienne contenant les ouverts de R).

10 1.Loi de probabilité discrète Definition (Ω, F, P) est appelé espace de probabilité si: Ω est un espace, F est une tribu, P est une loi de probabilité Variable aléatoire Definition Une variable aléatoire réelle X est une application de (Ω, F) (R, B) mesurable : c est à dire pour tout ouvert C R, on a X 1 (C) = {ω, X (ω) C} F.(B est la tribu borélienne contenant les ouverts de R).

11 1.Loi de probabilité discrète Definition (Ω, F, P) est appelé espace de probabilité si: Ω est un espace, F est une tribu, P est une loi de probabilité Variable aléatoire Definition Une variable aléatoire réelle X est une application de (Ω, F) (R, B) mesurable : c est à dire pour tout ouvert C R, on a X 1 (C) = {ω, X (ω) C} F.(B est la tribu borélienne contenant les ouverts de R).

12 1.Loi de probabilité discrète Definition (Ω, F, P) est appelé espace de probabilité si: Ω est un espace, F est une tribu, P est une loi de probabilité Variable aléatoire Definition Une variable aléatoire réelle X est une application de (Ω, F) (R, B) mesurable : c est à dire pour tout ouvert C R, on a X 1 (C) = {ω, X (ω) C} F.(B est la tribu borélienne contenant les ouverts de R).

13 1.Loi de probabilité discrète Definition Soit X une variable aléatoire à valeurs dans E R, si E est dénombrable, alors on dit que X est une variable aléatoire discrète. Soit X une variable discrète à valeur dans E = {x 1, x 2,...}. Posons p k = P(ω, X (ω) = x k ) = P(X = x k ). On a P(Ω) = P(ω, X (ω) = x k ) = = k=1 P(X = x k ) k=1 p k = 1 k=1

14 1.Loi de probabilité discrète 2. Espérance mathématique Soit g une application de E = {x 1, x 2,...}. dans R. Definition On définit l espérance mathématique de g(x ) par: E(g(X )) = g(x k )p k k=1 En particulier: -Pour g(x) = x, on définit l espérance mathématique de X par:

15 1.Loi de probabilité discrète 2. Espérance mathématique Soit g une application de E = {x 1, x 2,...}. dans R. Definition On définit l espérance mathématique de g(x ) par: E(g(X )) = g(x k )p k k=1 En particulier: -Pour g(x) = x, on définit l espérance mathématique de X par:

16 1.Loi de probabilité discrète E(X ) = = x k P(X = x k ) k=1 x k p k k=1 -Pour g(x) = x 2, on définit l espérance mathématique de X 2 par: E(X 2 ) = xk 2 p k. k=1

17 1.Loi de probabilité discrète E(X ) = = x k P(X = x k ) k=1 x k p k k=1 -Pour g(x) = x 2, on définit l espérance mathématique de X 2 par: E(X 2 ) = xk 2 p k. k=1

18 1.Loi de probabilité discrète On définit alors: -La variance de X par var(x ) = E(X 2 ) (E(X )) 2 ( ) 2 = xk 2 p k x k p k. k=1 k=1 -L écart-type de X par σ(x ) = var(x ).

19 1.Loi de probabilité discrète Si E est fini E = {x 1, x 2,..., x r }. Alors E(g(X )) = r g(x k )p k k=1 E(X ) = r x k p k k=1 var(x ) = ( r r ) 2 xk 2 p k x k p k. k=1 k=1

20 1.Loi de probabilité discrète Propriétés de l espérance et la variance Soit X et Y deux variables aléatoires discrètes à valeurs dans E. Posons p k = P(X = x k ), q k = P(Y = y k ). Soient a,b et c des constantes réelles. Soit cov(x, Y ) = E(XY ) E(X )E(Y ) la covariance entre X et Y.

21 1.Loi de probabilité discrète Theorem E(c) = c, (1) E(aX + by ) = ae(x ) + be(y ), (linéairité) (2) var(ax ) = a 2 var(x ), (3) var(ax + by ) = a 2 var(x ) + 2abcov(X, Y ) + b 2 var(y ). (4)

22 1.Loi de probabilité discrète 3. Inégalités classiques 3.1. Inégalité de Markov Theorem Soit X une variable aléatoire à valeurs dans un espace dénombrable E avec E R, alors pour tout a > 0, P( f (X ) a) E( f (X ) ). (5) a

23 1.Loi de probabilité discrète Preuve: On a E( f (X ) ) = f (x k ) p k x k E = f (x k ) p k + f (x k ) p k, x k A x k A c où A = {x k E, f (x k ) a}, et A c est le complémentaire de A dans E. Donc E( f (X ) ) f (x k ) p k x k A x k A ap k, de plus x k A p k = P(X A) = P( f (X ) a).

24 1.Loi de probabilité discrète 3.2. Inégalité de Bienaymé-Tchebyshev Theorem Soit X une variable aléatoire à valeurs dans E, alors pour tout ε > 0 P( X E(X ) ε) σ2 X ε 2. (6) Preuve : On applique l inégalité de Markov (5) avec f (t) = t E(X ) 2, a = ε 2.

25 1.Loi de probabilité discrète 4. Indépendance 4.1.Variables indépendantes Definition Soit X et Y deux variables aléatoires. On dit que X et Y sont indépendantes si P ({X A} {Y B}) = P(X A)P(Y B). (7) 4.2 Distributions marginales Soit E 1 E 2 et le couple aléatoire X = (X 1, X 2 ), où chaque X i est à valeurs dans E i. La distribution marginale de la variable X i est définie par P i (A) = P(X i A), A F.

26 1.Loi de probabilité discrète 4. Indépendance 4.1.Variables indépendantes Definition Soit X et Y deux variables aléatoires. On dit que X et Y sont indépendantes si P ({X A} {Y B}) = P(X A)P(Y B). (7) 4.2 Distributions marginales Soit E 1 E 2 et le couple aléatoire X = (X 1, X 2 ), où chaque X i est à valeurs dans E i. La distribution marginale de la variable X i est définie par P i (A) = P(X i A), A F.

27 1.Loi de probabilité discrète Theorem Soit X et Y deux variables aléatoires discrètes à valeurs dans E 1 et E 2, et indépendantes, soit f : E 1 R, et g : E 2 R, alors E(f (X )g(y )) = E(f (X ))E(g(Y )) (8)

28 1.Loi de probabilité discrète Preuve : Posons Z = (X, Y ) et h(z) = f (X )g(y ), alors Z est à valeurs dans E = E 1 E 2, de plus d après l hypothèse d indépendance P((X, Y ) = (x, y)) = P(X = x)p(y = y). Donc E(h(Z)) = h(z k )P(Z = z k ) z k E = x k,y l f (x k )g(y l )P(X = x k )P(Y = y l ) = x k f (x k )P(X = x k ) y l g(y l )P(Y = y l ).

29 1.Loi de probabilité discrète Theorem Soit X 1 et X 2 deux variables aléatoires indépendantes, alors var(x 1 + X 2 ) = var(x 1 ) + var(x 2 ). (9) Preuve : var(x 1 + X 2 ) = var(x 1 ) + var(x 2 ) + 2 cov(x 1, X 2 ), où cov(x 1, X 2 ) = E(X 1 X 2 ) EX 1 EX 2 est la covariance de X 1 et X 2, mais d après (8) on a E(X 1 X 2 ) = EX 1 EX 2. Remarque: Si deux variables aléatoires X et Y sont indépendantes alors elles sont non covariées (cov(x, Y ) = 0).

30 1.Loi de probabilité discrète Theorem Soit X 1 et X 2 deux variables aléatoires indépendantes, alors var(x 1 + X 2 ) = var(x 1 ) + var(x 2 ). (9) Preuve : var(x 1 + X 2 ) = var(x 1 ) + var(x 2 ) + 2 cov(x 1, X 2 ), où cov(x 1, X 2 ) = E(X 1 X 2 ) EX 1 EX 2 est la covariance de X 1 et X 2, mais d après (8) on a E(X 1 X 2 ) = EX 1 EX 2. Remarque: Si deux variables aléatoires X et Y sont indépendantes alors elles sont non covariées (cov(x, Y ) = 0).

31 1.Loi de probabilité discrète 5.Lois usuelles 5.1. Loi de Bernoulli Definition On dit que X suit une loi de Bernoulli de paramètre p, noté X B(p), si E = {x 1, x 2 } avec P(X (ω) = x 1 ) = p, et P(X (ω) = x 2 ) = 1 p. Exemple : On lance une pièce de monnaie, X est le résultat obtenu, P(X = pile) = P(X = face) = 1/2.

32 1.Loi de probabilité discrète 5.Lois usuelles 5.1. Loi de Bernoulli Definition On dit que X suit une loi de Bernoulli de paramètre p, noté X B(p), si E = {x 1, x 2 } avec P(X (ω) = x 1 ) = p, et P(X (ω) = x 2 ) = 1 p. Exemple : On lance une pièce de monnaie, X est le résultat obtenu, P(X = pile) = P(X = face) = 1/2.

33 1.Loi de probabilité discrète 5.2. Loi Binomiale Definition Soit Y i, 1 i n, une suite de variables aléatoires de Bernoulli indépendantes à valeurs dans {0, 1} avec P(Y k (ω) = 1) = p, alors la variable X = n k=1 Y k suit une loi Binomiale, noté X B(n, p), dans ce cas E = {0, 1,..., n} et P(X (ω) = k) = C k n p k (1 p) n k, 0 k n, C k n = n! k!(n k)!.

34 1.Loi de probabilité discrète 5.3. Loi de Poisson Definition On dit que X suit une loi de Poisson de paramètre λ, noté λ λk X P(λ), si E = N et P(X (ω) = k) = e, λ est un réel k! positif. Exemple: N(t) représente le nombre de clients qui arrivent dans une agence (ou le nombre de voitures qui arrivent sur un péage d autoroute) pendant la période d observation [0, t], alors on montre que P(N(t) = k) = e avec λ l intensité d arrivage. λt (λt)k, k!

35 1.Loi de probabilité discrète 5.3. Loi de Poisson Definition On dit que X suit une loi de Poisson de paramètre λ, noté λ λk X P(λ), si E = N et P(X (ω) = k) = e, λ est un réel k! positif. Exemple: N(t) représente le nombre de clients qui arrivent dans une agence (ou le nombre de voitures qui arrivent sur un péage d autoroute) pendant la période d observation [0, t], alors on montre que P(N(t) = k) = e avec λ l intensité d arrivage. λt (λt)k, k!

36 2.Loi de probabilité continue Soit X une variable à valeurs dans E R, si E est non dénombrable, alors on dit que X est une variable continue. 1. Densité de probabilité, moments Soit X une variable aléatoire à valeurs dans R, et soit f X une fonction de R dans R + intégrable et telle que f X (x)dx = 1. (10) R Definition On dit que X admet la densité de probabilité f X si pour tout A R P(X A) = f X (x)dx. A

37 2.Loi de probabilité continue Soit X une variable à valeurs dans E R, si E est non dénombrable, alors on dit que X est une variable continue. 1. Densité de probabilité, moments Soit X une variable aléatoire à valeurs dans R, et soit f X une fonction de R dans R + intégrable et telle que f X (x)dx = 1. (10) R Definition On dit que X admet la densité de probabilité f X si pour tout A R P(X A) = f X (x)dx. A

38 2.Loi de probabilité continue Definition Soit g : R R, telle que g(x) f R X (x)dx <, alors on définit l espérance mathématique de g(x ) par E(g(X )) = g(x)f X (x)dx. (11) En particulier: -Pour g(x) = x, on définit l espérance mathématique de X par E(X ) = xf X (x)dx. R R

39 2.Loi de probabilité continue Definition Soit g : R R, telle que g(x) f R X (x)dx <, alors on définit l espérance mathématique de g(x ) par E(g(X )) = g(x)f X (x)dx. (11) En particulier: -Pour g(x) = x, on définit l espérance mathématique de X par E(X ) = xf X (x)dx. R R

40 2.Loi de probabilité continue -Pour g(x) = x 2, on définit l espérance mathématique de X 2 par: E(X 2 ) = On définit alors la variance de X par R x 2 f X (x)dx. var(x ) = E(X 2 ) (E(X )) 2 ( = x 2 f X (x)dx xf X (x)dx R R et l écart-type de X par σ(x ) = var(x ). ) 2

41 2.Loi de probabilité continue Couple aléatoire Soit X = (X 1, X 2 ) un couple aléatoire à valeurs dans R 2, et soit f X une fonction de R 2 dans R + intégrable et telle que R 2 f X (x)dx = 1. (12) Definition On dit que X admet la densité de probabilité f X si pour tout A R 2 P(X A) = f X (x)dx. A

42 2.Loi de probabilité continue Couple aléatoire Soit X = (X 1, X 2 ) un couple aléatoire à valeurs dans R 2, et soit f X une fonction de R 2 dans R + intégrable et telle que R 2 f X (x)dx = 1. (12) Definition On dit que X admet la densité de probabilité f X si pour tout A R 2 P(X A) = f X (x)dx. A

43 2.Loi de probabilité continue Soit g : R 2 R, telle que R 2 g(x) f X (x)dx <, alors on définit l espérance mathématique de g(x ) par E(g(X )) = g(x)f X (x)dx, (13) R 2 en particulier: Si g(x 1, x 2 ) = g i (x) = x i, 1 i 2, alors on définit l espérance mathématique du couple X par E(X 1 ) x R E(X ) = = 2 1 f X (x)dx. E(X 2 ) x R 2 2 f X (x)dx Si g(x 1, x 2 ) = x 1 x 2, on définit E(X 1 X 2 ) = x 1 x 2 f X (x)dx. R 2

44 2.Loi de probabilité continue 2.Indépendance 2.1. Distributions marginales Definition Soit X et Y deux variables aléatoires à valeurs dans R tels que (X, Y ) admette la densité f X,Y (x, y). Alors on définit les densités marginales de X et de Y par f X (x) = f X,Y (x, y)dy et f Y (y) = R R f X,Y (x, y)dx.

45 2.Loi de probabilité continue 2.2.Variables indépendantes Definition Soit X et Y deux variables aléatoires à valeurs dans R. On dit que X et Y sont indépendantes si P(X A, Y B) = P(X A)P(Y B). (14)

46 2.Loi de probabilité continue En utilisant les mêmes arguments que le théorème 12 on obtient le théorème Theorem Soit X et Y deux variables aléatoires à valeurs dans R indépendantes, soit f : R R, et g : R REndExpansion, alors E(f (X )g(y )) = E(f (X ))E(g(Y )) (15)

47 2.Loi de probabilité continue Theorem (admi) Soit X = (X 1, X 2 ) de densité f X (x), et tel que les X i, 1 i 2, soient des variables aléatoires indépendantes. On a alors f X (x 1, x 2 ) = f X1 (x 1 )f X2 (x 2 ), (16) où f Xi est la densité marginale de la variable X i. Réciproquement, si f X a la forme (16) où les f Xi, 1 i 2 sont des densités de probabilité, alors les X i, 1 i 2, sont indépendantes et les f Xi sont les densités des X i.

48 2.Loi de probabilité continue 3. Fonction de répartition Cas d une variable aléatoire Definition Soit X une variable aléatoire de densité f (x), la fonction de répartition de X est définie par : F : R [0, 1] et F (t) = P(X t) = t f (x)dx. Remarque : F est une fonction non décroissante telle que F ( ) = 0, F (+ ) = 1 et F (t) = f (t).

49 2.Loi de probabilité continue Cas d un couple aléatoire Soit X = (X 1, X 2 ) un couple aléatoire de densité f (x), la fonction de répartition de X est définie par : F : R 2 [0, 1] et si t = (t 1, t 2 ) alors F (t) = P(X 1 t 1, X 2 t 2 ) = t1 t2 f (x 1, x 2 )dx 1 dx 2. On a aussi f (t 1, t 2 ) = 2 F (t 1, t 2 ) t 1 t 2.

50 2.Loi de probabilité continue 4. Lois usuelles 4.1 Loi uniforme Definition On dit que X suit une loi uniforme sur [a, b], noté X U[a, b], si elle admet la densité f (x) = 1 b a 1 [a,b](x) = 1 si x [a, b] b a 0 sinon. (17) On montre que E(X ) = (a + b)/2, V (X ) = (b a) 2 /12.

51 2.Loi de probabilité continue Figure: Densité de la loi uniforme U[0,1]

52 2.Loi de probabilité continue 4.2. Loi de Gauss Definition On dit que X suit une loi de Gauss de moyenne m et de variance σ 2, noté X N(m, σ 2 ), si elle admet la densité f (x) = 1 σ (x m) 2 2π e 2σ 2, x R. (18) On montre que E(X ) = m, V (X ) = σ 2.

53 2.Loi de probabilité continue Figure: Densité de la loi Gauss N(0,1)

54 2.Loi de probabilité continue Figure: Densités Gaussiennes, rouge:n(0, 1), vert: N(0, 1 2 ).

55 2.Loi de probabilité continue 4.3. Loi exponentielle Definition On dit que X suit une loi exponentielle de paramètre λ > 0, noté X E(λ), si elle admet la densité λe λx si x 0 f (x) = (19) 0 sinon. On montre que E(X ) = 1 λ, V (X ) = 1 λ 2.

56 2.Loi de probabilité continue Figure: Densité de la loi exponentielle E(1)

57 2.Loi de probabilité continue 4.4. Loi gamma Definition On dit que X suit une loi gamma de paramètres α > 0 et β > 0, noté X Γ(α, β), si elle admet la densité f (x) = β α Γ(α) x α 1 e βx si x 0 0 sinon, où Γ(α) = 0 t α 1 e t dt. On montre que E(X ) = α β, V (X ) = α β 2. (20)

58 2.Loi de probabilité continue 5. Transformation desvariables aléatoires 5.1 Cas discret Exemple : Soit X la variable aléatoire définie par x i P(X (ω) = x i On définit la variable aléatoire Y = X (X + 1), alors Y prends ses valeurs dans {0, 2, 6} avec la loi de probabilité suivante: y i P(Y (ω) = y i )

59 2.Loi de probabilité continue Theorem Si X est une variable aléatoire discrète à valeurs dans E, et g une application, alors Y = g(x ) est une variable aléatoire discrète à valeurs dans g(e) telle que: Si g est injective alors Y a la même loi de probabilité que X : P(Y (ω) = y i ) = P(X (ω) = x i ), y i = g(x i ). Si g est non injective alors Y a loi de probabilité suivante: P(Y (ω) = y i ) = P(X (ω) = x i ). x i tels que y i =g(x i )

60 2.Loi de probabilité continue 5.2. Cas continu Soit Y = X 2, où X N(0, 1) donc Y est à valeurs dans R + donc f Y (y) = 0 y 0. Si y 0, on a F Y (y) = P(Y y) = P( y X y) = 1 y 2 2 2π = 2 y 2 2 2π donc y e x 0 e x f Y (y) = F Y (y) = 1 2πy e y2 2, c est à dire que Y X 2 (1). Si la transformation g n est pas bijective, on utilise souvent la fonction de répartition pour calculer la loi de Y = g(x ). Cependant si g est bijective on a le théorème

61 2.Loi de probabilité continue Theorem Soit X une variable aléatoire de densité f X, et soit g une application de R dans R. On définit la transformée de X par g: Y = g(x ). On suppose que g est continûment dérivable sur R, et que sa dérivée g ne s annule pas. Alors Y admet une densité f Y donnée par f Y (y) = f X (x) g (x), x = g 1 (y). (21)

62 2.Loi de probabilité continue Exemple Y = g(x ) = ax + b, a 0. On a y = g(x) = ax + b donc x = y b a = g 1 (y), donc f Y (y) = f X (x) g (x) = f X ( y b a 6. Suite de variables aléatoires 6.1. Loi de Khi-deux a ) Definition On dit que X suit une loi Khi-deux à n degrés de liberté, noté X X 2 (n), si X Γ( n, 1). 2 2 X = n k=1 Z k 2 où (Z k, 1 k n) est une suite de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) suivant une loi gaussienne N(0, 1)..

63 2.Loi de probabilité continue 6.2. Loi de Student Definition On dit que X suit une loi Student à n degrés de liberté, noté X t(n), si X = Z, Z N(0, 1), Y X 2 (n), et Z et Y /n Y sont indépendantes Loi de Fisher Definition On dit que X suit une loi Fisher à (n 1, n 2 ) degrés de liberté, noté X F (n 1, n 2 ), si X = Y 1/n 1 Y 2 /n 2, Y i X 2 (n i ), i = 1, 2 et Y 1 et Y 2 sont indépendantes.

64 2.Loi de probabilité continue 6.2. Loi de Student Definition On dit que X suit une loi Student à n degrés de liberté, noté X t(n), si X = Z, Z N(0, 1), Y X 2 (n), et Z et Y /n Y sont indépendantes Loi de Fisher Definition On dit que X suit une loi Fisher à (n 1, n 2 ) degrés de liberté, noté X F (n 1, n 2 ), si X = Y 1/n 1 Y 2 /n 2, Y i X 2 (n i ), i = 1, 2 et Y 1 et Y 2 sont indépendantes.

65 4.Description d une série statistique 4.1 Généralités, Définitions La statistique: C est l étude des phénomènes préalablement exprimés sous forme numérique. L unité statistique (ou individu) :C est l élément de l ensemble que l on veut étudier, exemple: un étudiant est une unité statistique lorsque l on étudie une classe. Le caractère: C est l aspect de l unité statistique que l on retient dans l analyse.

66 4.Description d une série statistique 4.1 Généralités, Définitions La statistique: C est l étude des phénomènes préalablement exprimés sous forme numérique. L unité statistique (ou individu) :C est l élément de l ensemble que l on veut étudier, exemple: un étudiant est une unité statistique lorsque l on étudie une classe. Le caractère: C est l aspect de l unité statistique que l on retient dans l analyse.

67 4.Description d une série statistique 4.1 Généralités, Définitions La statistique: C est l étude des phénomènes préalablement exprimés sous forme numérique. L unité statistique (ou individu) :C est l élément de l ensemble que l on veut étudier, exemple: un étudiant est une unité statistique lorsque l on étudie une classe. Le caractère: C est l aspect de l unité statistique que l on retient dans l analyse.

68 4.Description d une série statistique L échantillon: C est un sous-ensemble d une population statistique. La variable statistique: C est l expression numérique du caractère observé sur les unités statistiques considérées, exemple, taille, poids, note en proba-stat... de l étudiant.

69 4.Description d une série statistique L échantillon: C est un sous-ensemble d une population statistique. La variable statistique: C est l expression numérique du caractère observé sur les unités statistiques considérées, exemple, taille, poids, note en proba-stat... de l étudiant.

70 4.Description d une série statistique La variable statistique x est dite discrète lorsqu elle ne peut prendre que des valeurs isolées : x 1, x 2,..., x k, où x 1 < x 2 <... < x k. Exemple : le nombre de chevaux fiscaux d une voiture; le nombre d enfants dans une famille,... La variable statistique x est dite continue lorsqu elle peut prendre n importe quelle valeur d un intervalle [a, b]. Exemple : la durée en minute d une conversation téléphonique.

71 4.Description d une série statistique La variable statistique x est dite discrète lorsqu elle ne peut prendre que des valeurs isolées : x 1, x 2,..., x k, où x 1 < x 2 <... < x k. Exemple : le nombre de chevaux fiscaux d une voiture; le nombre d enfants dans une famille,... La variable statistique x est dite continue lorsqu elle peut prendre n importe quelle valeur d un intervalle [a, b]. Exemple : la durée en minute d une conversation téléphonique.

72 4.Description d une série statistique Dans ce cas l intervalle des valeurs possibles est divisé en k classes [a 0, a 1 [, [a 1, a 2 [,..., [a k 1, a k ], avec a 0 = a < a 1 <... < a k 1 < a k = b. a h 1 et a h sont les frontières de la h-ième classe, x h = a h 1+a h 2 est le centre de celle-ci.

73 4.Description d une série statistique La série statistique: C est à la fois : L ensemble des valeurs {x 1, x 2,..., x k } (resp. des classes de valeurs {[a 0, a 1 [, [a 1, a 2 [,..., [a k 1, a k ]}) de la variable x. Le nombre d observation associé à chaque valeur x i (resp. à chaque classe), qu on appelle effectif.

74 4.Description d une série statistique La série statistique: C est à la fois : L ensemble des valeurs {x 1, x 2,..., x k } (resp. des classes de valeurs {[a 0, a 1 [, [a 1, a 2 [,..., [a k 1, a k ]}) de la variable x. Le nombre d observation associé à chaque valeur x i (resp. à chaque classe), qu on appelle effectif.

75 4.Description d une série statistique 2. Distribution des fréquences 2.1 Cas discret Si dans une série statistique résultant de n observations, on a trouvé n i fois la valeur x i, n i représente l effectif de cette valeur et le rapport f i = n i n représente sa fréquence. L expression j i=1 n i est appelée effectif cumulé des valeurs de x inférieures ou égales à x j. L expression j i=1 f i est appelée fréquence cumulée des valeurs de x inférieures ou égales à x j.

76 4.Description d une série statistique 2. Distribution des fréquences 2.1 Cas discret Si dans une série statistique résultant de n observations, on a trouvé n i fois la valeur x i, n i représente l effectif de cette valeur et le rapport f i = n i n représente sa fréquence. L expression j i=1 n i est appelée effectif cumulé des valeurs de x inférieures ou égales à x j. L expression j i=1 f i est appelée fréquence cumulée des valeurs de x inférieures ou égales à x j.

77 4.Description d une série statistique 2. Distribution des fréquences 2.1 Cas discret Si dans une série statistique résultant de n observations, on a trouvé n i fois la valeur x i, n i représente l effectif de cette valeur et le rapport f i = n i n représente sa fréquence. L expression j i=1 n i est appelée effectif cumulé des valeurs de x inférieures ou égales à x j. L expression j i=1 f i est appelée fréquence cumulée des valeurs de x inférieures ou égales à x j.

78 4.Description d une série statistique Exemple : L unité statistique (ou individu) étant la famille de quatre enfants dont l aîné a moins de 16 ans, on s intéresse au nombre x de garçons qui la compose. L étude statistique suivante porte sur un échantillon de 250 familles. Valeurs de x Effectif n i Fréquence f i ,244 0,372 0,260 0,072 Effectif cumulé Fréquence cumulée ,296 0,668 0,928 1

79 4.Description d une série statistique Valeurs de x Effectif n i

80 4.Description d une série statistique ni nicumulees M. BOUTAHAR x Probabilités et Statistiques x 2

81 4.Description d une série statistique 2.2 Cas continu On appelle effectif de la hième classe la nombre n h d observations dont les valeurs appartiennent à cette classe. Le nombre f h = n h n hième classe. représente la fréquence de la L expression h i=1 n i est appelée effectif cumulé des h premières classes. L expression h i=1 f i est appelée fréquence cumulée des h premières classes.

82 4.Description d une série statistique 2.2 Cas continu On appelle effectif de la hième classe la nombre n h d observations dont les valeurs appartiennent à cette classe. Le nombre f h = n h n hième classe. représente la fréquence de la L expression h i=1 n i est appelée effectif cumulé des h premières classes. L expression h i=1 f i est appelée fréquence cumulée des h premières classes.

83 4.Description d une série statistique Exemple : On s intéresse à la durée x de service d un guichet de la poste qui peut servir au plus un client à la fois. On a relevé la durée de service de 1000 clients consécutifs. L unité de temps est la seconde, les résultats sont résumés par le tableau suivant: Classes des [0,30[ [30,60[ [60,90[ [90,120[ [120,150[ [150,180[ [180,240[ valeurs de x Effectifs n h Fréquences f h 0,369 0,251 0, Effectifs cumulés Fréquences cumulées 0,369 0,620 0,768 0,866 0,931 0,974 1

84 4.Description d une série statistique Figure: Effectifs des 7 classes

85 4.Description d une série statistique 2.3 Distribution des fréquences L ensemble des k valeurs x i (resp. des k classes) et les effectifs n i correspondants, constitue la distribution des fréquences de la variable x. Représentation graphique des distributions des fréquences On place en ordonnée les effectifs. Dans le cas discret on obtient un diagramme en bâtons. Dans le cas continu, on construit un histogramme des fréquences, l aire de chaque classe devant être proportionnelle à son effectif correspondant.

86 4.Description d une série statistique 3. Caractéristiques de tendance centrale 3.1.Définition: Ce sont des indicateurs qui permettent de synthétiser l ensemble de la série statistique en faisant ressortir une position centrale de la valeur du caractère étudié. La médiane : C est la valeur x m de la variable x qui partage les éléments de la série statistique, préalablement classés par ordre de valeurs croissantes, en deux groupes d effectifs égaux : 50 % des valeurs observées sont inférieures à x m et 50 % sont supérieures.

87 4.Description d une série statistique Dans le cas continu, elle est donnée par x m = a j 1 + a j a j 1 ( n j n j 2 n i ), sachant que x m appartient à [a j 1, a j [. Le mode : Variable discrète : c est la valeur pour laquelle la fréquence est maximale. Variable continue : la classe modale est celle pour laquelle la fréquence est maximale. Lorsqu il y a une seule valeur ou classe modale, la distribution est dite unimodale. i=1

88 4.Description d une série statistique La moyenne. -La moyenne x de k valeurs distinctes x 1,..., x k, et d effectifs n 1,..., n k : x = 1 n k n i x i, n = i=1 k n i. i=1 -La moyenne x de n valeurs distribuées en k classes [a 0, a 1 [,..., [a k 1, a k [ et d effectifs n 1,..., n k : x = 1 n k i=1 n i x i, x i = a i 1 + a i. 2

89 4.Description d une série statistique La moyenne. -La moyenne x de k valeurs distinctes x 1,..., x k, et d effectifs n 1,..., n k : x = 1 n k n i x i, n = i=1 k n i. i=1 -La moyenne x de n valeurs distribuées en k classes [a 0, a 1 [,..., [a k 1, a k [ et d effectifs n 1,..., n k : x = 1 n k i=1 n i x i, x i = a i 1 + a i. 2

90 4.Description d une série statistique 4.Caractéristiques de dispersion Deux séries de même nature peuvent présenter des caractéristiques de tendance centrale voisines, mais être différentes quant à la dispersion de leurs valeurs par rapport à la tendance centrale La dispersion en termes d intervalles Intervalle de variation ou étendue : C est la différence entre les valeurs extrêmes de la variable ou entre les centres des classes extrêmes x k x 1.

91 4.Description d une série statistique L intervalle interquartile : Si l on peut diviser x 1,..., x k en quatre classes [x 1, Q 1 [, [Q 1, Q 2 [, [Q 2, Q 3 [, [Q 3, x k ] ayant toutes la même fréquence n 4, alors Q 1, Q 2, et Q 3 sont appelés respectivement premier, deuxième et troisième quartiles. Dans le cas continu Q 1 = a j 1 + a j a j 1 ( n j n j 4 n i ), i=1 Q 3 = a j 1 + a j a j 1 ( 3n j n j 4 n i ). [Q 1, Q 3 ] est l intervalle interquartile. i=1

92 4.Description d une série statistique 4.2. La dispersion en termes d écarts Les écarts ne traduiront la dispersion que si l on considère leurs valeurs absolues ou leurs puissances paires. Les écarts absolus : -L écart absolu par rapport à la médiane e M = 1 k n i=1 n i x i M, M est la médiane de la série. -L écart absolu par rapport à la moyenne arithmétique e x = 1 k n i=1 n i x i x. Variance, écart-type: -Variance: V (x) = σ x 2 = 1 k n i=1 n i(x i x) 2. -Ecart-type : σ x.

93 4.Description d une série statistique 4.2. La dispersion en termes d écarts Les écarts ne traduiront la dispersion que si l on considère leurs valeurs absolues ou leurs puissances paires. Les écarts absolus : -L écart absolu par rapport à la médiane e M = 1 k n i=1 n i x i M, M est la médiane de la série. -L écart absolu par rapport à la moyenne arithmétique e x = 1 k n i=1 n i x i x. Variance, écart-type: -Variance: V (x) = σ x 2 = 1 k n i=1 n i(x i x) 2. -Ecart-type : σ x.

94 4.Description d une série statistique 4.2. La dispersion en termes d écarts Les écarts ne traduiront la dispersion que si l on considère leurs valeurs absolues ou leurs puissances paires. Les écarts absolus : -L écart absolu par rapport à la médiane e M = 1 k n i=1 n i x i M, M est la médiane de la série. -L écart absolu par rapport à la moyenne arithmétique e x = 1 k n i=1 n i x i x. Variance, écart-type: -Variance: V (x) = σ x 2 = 1 k n i=1 n i(x i x) 2. -Ecart-type : σ x.

95 4.Description d une série statistique 4.2. La dispersion en termes d écarts Les écarts ne traduiront la dispersion que si l on considère leurs valeurs absolues ou leurs puissances paires. Les écarts absolus : -L écart absolu par rapport à la médiane e M = 1 k n i=1 n i x i M, M est la médiane de la série. -L écart absolu par rapport à la moyenne arithmétique e x = 1 k n i=1 n i x i x. Variance, écart-type: -Variance: V (x) = σ x 2 = 1 k n i=1 n i(x i x) 2. -Ecart-type : σ x.

96 4.Description d une série statistique Theorem pour tout a R, on a V (a + x) = V (x), V (ax) = a 2 V (x), et V (x) = 1 n k i=1 n i x 2 i (x) 2.

97 4.Description d une série statistique Exemple 1. La distribution des salaires annuels dans une population contenant n = actifs, ( le nombre d individus N i touchant le salaire s i exprimé en euros) est distribuée comme suit: s i (en euro ) N i

98 4.Description d une série statistique Figure: Distribution des salaires

99 4.Description d une série statistique Le salaire moyen est donné par s = 1 9 N i s i = euros, n i=1 la variance et l écart-type sont donnés par: V (s) = 1 9 N i (s i s) 2 = , σ s = , n i=1 le premier, deuxième et troisième quartiles sont Q 1 = , Q 2 = et Q 3 = Remarque. Le salaire médian qui est égal à s m = Q 2 est différent du salaire moyen s.

100 4.Description d une série statistique Exemple 2. Dans une classe constituée de deux groupes G1 et G2, la note obtenue dans l examen de statistique est distribuée comme suit: Groupe Groupe

101 4.Description d une série statistique

102 4.Description d une série statistique

103 4.Description d une série statistique La moyenne de la classe est égale à x = 9. La moyenne du groupe 1 est égale à x G1 = 9, et la moyenne du groupe 2 est aussi égale à x G2 = 9. Cependant les deux groupes, même s ils ont la même moyenne, sont complètement différents. En effet dans le groupe 1, la plupart des notes tournent autour de la moyenne globale 9, les étudiants ont presque le même niveau. Le groupe 2 est plus hétérogène, il y a des étudiants faibles (notes:1,2 et 4) et des étudiants forts (notes: 12,16 et 17). Si on calcule la variance de chaque groupe on trouve V G1 = , V G2 = V G2 > V G1, en conclusion plus la variance est grande plus l échantillon est hétérogène.

104 4.Description d une série statistique 5. Moments Definition Le moment d ordre r de la variable x par rapport à l origine x 0 est défini par m r (x 0 ) = 1 n k n i (x i x 0 ) r. i=1 Si x 0 = 0 les moments sont dits simples et notés m r. Si x 0 = x les moments sont dits centrés et notés µ r. Theorem µ 2 = m 2 m 2 1, µ 3 = m 3 3m 1 m 2 + 3m 3 1, µ 4 = m 3 4m 1 m 3 + 6m 3 1m 2 3m 4 1.

105 4.Description d une série statistique 5. Moments Definition Le moment d ordre r de la variable x par rapport à l origine x 0 est défini par m r (x 0 ) = 1 n k n i (x i x 0 ) r. i=1 Si x 0 = 0 les moments sont dits simples et notés m r. Si x 0 = x les moments sont dits centrés et notés µ r. Theorem µ 2 = m 2 m 2 1, µ 3 = m 3 3m 1 m 2 + 3m 3 1, µ 4 = m 3 4m 1 m 3 + 6m 3 1m 2 3m 4 1.

106 5.Liaisons entre variables statistiques Definition Une série double à deux indices est définie par l observation de n couples de valeurs tels que: Cas discret: x prends les valeurs x 1,..., x p et y prends les valeurs y 1,..., y r, et à chaque couple de valeurs (x i, y j ) 1 i p;1 j r on associe: Son effectif n i,j qui est le nombre de fois où (x, y) = (x i, y j ). Sa fréquence f i,j = n i,j n. Cas continu : Les valeurs observées pour x et pour y sont regroupées respectivement en p et r classes [a 0, a 1 [,[a 1, a 2 [,...,[a p 1, a p ], resp. [b 0, b 1 [, [b 1, b 2 [,..., [b r 1, b r ], et n i,j est le nombre d observations pour lesquelles a i 1 x a i, et b j 1 y b j.

107 5.Liaisons entre variables statistiques Exemple : sur 200 personnes de même âge et de même sexe on en dénombre 25 dont la taille y est comprise entre 165 et 167 cm et le poids x entre 60 et 65 kg ; 30 dont la taille entre 167 et 169 et le poids entre 60 et 65 kg ; le reste est tel que 55 x 60 et 160 y 165.On peut représenter les données par le tableau y(taille) Totaux partiels x(poids) Totaux partiels

108 5.Liaisons entre variables statistiques Présentation sous forme d un tableau à double entrée(ou matrice): x y y 1... y j... y r Totaux partiels x 1 n 1,1... n 1,j... n 1,r n 1, x i n i,1... n i,j... n i,r n i, x p n p,1... n p,j... n p,r n p, Totaux partiels n,1... n,j... n,r n n i, = r n i,j, n,j = j=1 p n i,j, n = i=1 p r i=1 j=1 n i,j

109 5.Liaisons entre variables statistiques 6.La distribution marginale Definition La distribution marginale de x se lit sur la dernière colonne du tableau; elle concerne les effectifs de x considérés isolément: le nombre d observations pour lesquelles x = x i (resp. x appartient à la classe [a i 1, a i [) est n i, = r n i,j. j=1 De même, les effectifs de la distribution marginale de y se lisent dans la dernière ligne du tableau.

110 5.Liaisons entre variables statistiques On définit: - Les moyennes marginales x et y : x = 1 n p n i, x i et y = 1 n i=1 r n,j y j. j=1 - Les variances marginales σ 2 x = 1 n p n i, (x i x) 2 et σy 2 = 1 n i=1 r n,j (y j y) 2. j=1

111 5.Liaisons entre variables statistiques On définit: - Les moyennes marginales x et y : x = 1 n p n i, x i et y = 1 n i=1 r n,j y j. j=1 - Les variances marginales σ 2 x = 1 n p n i, (x i x) 2 et σy 2 = 1 n i=1 r n,j (y j y) 2. j=1

112 5.Liaisons entre variables statistiques 7.La distribution conditionnelle A chaque valeur fixée x i correspond la distribution conditionnelle de y sachant x = x i d effectifs n i,1,..., n i,r. On définit: - La moyenne conditionnelle de y sachant x = x i : y i = 1 n i, r n i,j y j. j=1 - La variance conditionnelle de y sachant x = x i : σ 2 x i (y) = 1 n i, r n i,j (y j y i ) 2. j=1

113 5.Liaisons entre variables statistiques 7.La distribution conditionnelle A chaque valeur fixée x i correspond la distribution conditionnelle de y sachant x = x i d effectifs n i,1,..., n i,r. On définit: - La moyenne conditionnelle de y sachant x = x i : y i = 1 n i, r n i,j y j. j=1 - La variance conditionnelle de y sachant x = x i : σ 2 x i (y) = 1 n i, r n i,j (y j y i ) 2. j=1

114 5.Liaisons entre variables statistiques De même on définit : - la moyenne conditionnelle de x sachant y = y j : x j = 1 n,j p n i,j x i. i=1 - la variance conditionnelle de x sachant y = y j : σ 2 y j (x) = 1 n,j p n i,j (x i x j ) 2. i=1

115 5.Liaisons entre variables statistiques De même on définit : - la moyenne conditionnelle de x sachant y = y j : x j = 1 n,j p n i,j x i. i=1 - la variance conditionnelle de x sachant y = y j : σ 2 y j (x) = 1 n,j p n i,j (x i x j ) 2. i=1

116 6.L ajustement, régression simple 6.1 Coefficient de corrélation linéaire Definition C est un nombre sans dimension destiné à mesurer l intensité de liaison entre les variations de x et celles de y. Il a pour expression cov(x, y) r = r(x, y) =, σ x σ y où cov(x, y) = 1 n p r n i,j (x i x)(y j y). i=1 j=1

117 6.L ajustement, régression simple Liaison faibe Liaison forte

118 6.L ajustement, régression simple r=

119 6.L ajustement, régression simple r=

120 6.L ajustement, régression simple r=

121 6.L ajustement, régression simple 6.2 L ajustement Definition Etant donné un ensemble de points de coordonnées (x i, y i ), 1 i n formant un nuage dans le plan XOY, l ajustement consiste à choisir une courbe continue qui résume le nuage. Cette courbe a pour but d expliquer comment y varie en fonction de x. Ajustement par la méthode des moindres carrés Le type d ajustement étant préalablement choisi, la courbe d ajustement de y en x, d équation y = f (x), est dite des moindres carrés si f est telle que n i=1 d i 2 soit minimale où d i = y i f (x i )

122 6.L ajustement, régression simple l ajustement linéaire: droite des moindres carrés Lorsque le nuage est rectiligne on choisit f (x) = ax + b. La droite des moindres carrés est donnée par y = âx + b, où â = cov(x, y), σ b = y âx, x 2 σ 2 x = 1 n cov(x, y) = 1 n n (x i x)(y i y), i=1 n (x i x) 2, x = 1 n i=1 n x i, y = 1 n i=1 n y i. i=1

123 6.L ajustement, régression simple Qualité d ajustement Pour juger de la bonne qualité de l ajustement on définit R 2 = σ2 y SSR/n n, SSR = e 2 σy 2 i, i=1 SSR est la somme des carrés des résidus, avec e i = y i ( b + âx i ) le résidu qui correspond à l observation y i. R 2 est un réel toujours inférieur à 1. Si R 2 est proche de 1 alors l ajustement est de bonne qualité. Si R 2 est proche de 0 alors l ajustement est de mauvaise qualité.

124 6.L ajustement, régression simple Exemple On reprend la distribution des salaires,

125 6.L ajustement, régression simple Le graphique nous suggère que le nombre d individus décroît lorsque le salaire croit, le rythme de décroissance est exponentiel. On peut donc déduire que le coefficient de corrélation linéaire est négatif; en effet on trouve r = Pour expliquer N en fonction de s, nous allons faire une transformation logarithmique. En effet en posant y = ln(n) et x = ln(s),

126 6.L ajustement, régression simple Le graphique montre qu il y a une relation linéaire en y et x.

127 6.L ajustement, régression simple Le coefficient de corrélation linéaire est r = Un ajustement linéaire de y en x est bien justifié. On trouve b = et â = La droite des moindres carrés est donnée par y = 2.305x

128 6.L ajustement, régression simple La somme des carrés des résidus SSR = est très faible. Le coefficient R 2 = est proche de 1, on peut donc affirmer que l ajustement est de bonne qualité. En résumé, on peut donc supposer que le nombre d individus N est lié au salaire s par la relation N(s) = e ln(s) = (10 16 )s Exemple 2. En l absence de mortalité, on souhaite décrire l évolution dans le temps de la croissance d une population de bactéries. Des numérations faites tous les jours à partir du 2 e donne les résultats suivants:

129 6.L ajustement, régression simple t i (jours) N i (bactéries) t i (jours) N i (bactéries)

130 6.L ajustement, régression simple Le nombre de bactéries croit de manière rapide (exponentielle). On peut donc déduire que le coefficient de corrélation linéaire entre le nombre de bactéries N et la variable temps t est positif; en effet on trouve r = Pour expliquer N en fonction de t, nous allons faire une transformation logarithmique seulement de la variable N (car c est la variable qui a des valeurs très grandes). En effet en posant y = ln(n), x = t (jours) on obtient

131 6.L ajustement, régression simple Le coefficient de corrélation linéaire est r = Un ajustement linéaire de y en x est bien justifié.

132 6.L ajustement, régression simple On trouve b = et â = La droite des moindres carrés est donnée par y = 0.494x

133 6.L ajustement, régression simple La somme des carrés des résidus SSR = est très faible. Le coefficient R 2 = est très proche de 1, on peut donc affirmer que l ajustement est de très bonne qualité. En résumé, on déduit que l évolution du nombre de bactéries en fonction des jours suit l équation N(t) = e 0.494t = e 0.494t.

134 7.Estimation statistique L estimation a pour but de chercher, à travers l examen d un échantillon, une information quantitative à propos d un paramètre. Definition L estimation est dite ponctuelle lorsque l on se propose de substituer à la valeur θ un nombre unique ˆθ construit à partir d un échantillonnage. Exemple: x = 1 n n i=1 x i est un estimateur ponctuel de la moyenne m.

135 7.Estimation statistique Definition L estimation est dite par intervalle de confiance lorsque l on se propose de construire à partir de l échantillon un intervalle [a, b] qui peut contenir θ avec une probabilité 1 α P(a θ b) = 1 α, α fixé à l avance. On dit alors que [a, b] est un intervalle de confiance au niveau α pour θ.

136 7.Estimation statistique 7.1 Estimation ponctuelle des paramètres Estimateur d une proportion Soit une population de taille N constituée de deux catégories A (atteints d une maladie M) et B (non atteints de la maladie M) d individus dans des proportions p et q respectivement, avec p et q sont inconnues. Comme p + q = 1 il n y a qu un seul paramètre pour caractériser la structure de cette population. On identifie par exemple p. Pour cela on prélève dans la population un échantillon aléatoire de taille n; si n 1 est le nombre d individu présentant le caractère A. f = n 1 n est la proportion du caractère A dans l échantillon (ou effectif relatif).

137 7.Estimation statistique L entier n 1 est l observation d une variable aléatoire X et f est l observation de la variable aléatoire Y = X.On suppose n l échantillon non exhaustive (tirage avec remise), donc X suit une loi binomiale B(n, p). Donc E(Y ) = p p(1 p) σ(y ) =. n C est à dire que la variable aléatoire fluctue autour de p avec un écart type qui tend vers 0 lorsque n tend vers l infini.

138 7.Estimation statistique Dans ce cas on dit que Y est un estimateur consistant de p et que l observation f de Y est une estimation consistante de p et on écrit p = f = n 1 n. Remarque. Si l échantillon est exhaustive (tirage sans remise) on montre que E(Y ) = p σ(y ) = N n N 1 p(1 p). n

139 7.Estimation statistique 7.2 Estimation par intervalle de confiance Soit ˆθ un estimateur de θ, la construction d un intervalle de confiance est basée sur un pivot pv = f (ˆθ), dont la loi ne dépend pas de θ. 1.Intervalle de confiance d une proportion On suppose que n 100 et que p n est pas proche de 0 ni de 1 (0.1 p 0.9). Dans ce cas X est assimilée à une variable de Gauss, il en est de même pour Y.

140 Les deux variables Z = Y p p(1 p) n. et T = Y p f (1 f ) n. sont assimilées à une loi centré réduite de Gauss N(0,1). On fixe α (0.01 ou 0.05 ) et on lit dans la table de Gauss u 1 α/2 tel que P( N(0, 1) u 1 α/2 ) = 1 α, c est dire que P( T u 1 α/2 ) = 1 α ou encore P ( Y u 1 α/2 f (1 f ) n ) f (1 f ) p Y + u 1 α/2 = 1 α n

141 7.Estimation statistique Par conséquent l intervalle de confiance de p au niveau de signification α est donné par [ ] f (1 f ) f (1 f ) I p = f u 1 α/2, f + u 1 α/2. n n 2.Intervalle de confiance pour la moyenne d une population gaussienne On suppose que X i N(m, σ 2 ), 1 i n. σ connu Le pivot est donné par pv = n X m σ, avec X = 1 n n i=1 X i.

142 7.Estimation statistique X = 1 n n i=1 X i N(m, σ 2 /n), donc pv N(0, 1). On lit alors dans la table de Gauss le quantile u 1 α 2 P(N(0, 1) [ u 1 α, u 1 α ]) = 1 α donc 2 2 P(pv [ u 1 α 2, u 1 α 2 P(m [X u 1 α 2 ]) = 1 α, par conséquent σ n, X + u 1 α 2 σ n ]) = 1 α. tel que Donc l intervalle de confiance au niveau α pour m est donné par I α = [ x u 1 α 2 σ n, x + u 1 α 2 ] σ. (22) n

143 7.Estimation statistique σ inconnu L intervalle ci-dessus est inutilisable car il dépend de σ, donc il faut estimer ce dernier, le pivot est donné par pv = n X m S, où S 2 = 1 n 1 n 1 (X i X ) 2, qui est un estimateur empirique et sans biais de la variance σ 2. On a (n 1)S2 X 2 (n 1), et donc pv t(n 1), loi de σ 2 Student à (n-1) degrés de liberté. On lit alors dans la table de Student t 1 α 2 tel que P(t(n 1) [ t 1 α, t 1 α ]) = 1 α; 2 2 l intervalle de confiance au niveau α pour m est alors donné par I α = [ x t 1 α 2 s n, x + t 1 α 2 ] s. (23) n

144 7.Estimation statistique 3.Intervalle de confiance pour la variance d une population gaussienne On a le pivot pv = (n 1)S2 X 2 (n 1), loi de Khi-deux à σ 2 (n-1) degrés de liberté. On lit alors dans la table de Khi-deux x a et x b tels que P(x a X 2 (n 1) x b ) = 1 α. L intervalle de confiance au niveau α pour σ 2 I v = [ (n 1)s 2 x b, ] (n 1)s2. x a est donné par

145 8.Tests d hypothèses Definition Les tests d hypothèses servent à valider une caractéristique d une population à travers l examen d un échantillon, ils sont aussi utilisés pour comparer des caractéristiques entre plusieurs populations. 8.1 Test de conformité 1. Test de conformité d une proportion: Il s agit de comparer une proportion théorique p 0 à une proportion observée. On effectue le test suivant H 0 : p 0 est la proportion des individus de la population de la catégorie A contre H 1 : non H 0

146 8.Tests d hypothèses ou encore H 0 : p = p 0 contre H 1 : p p 0 On prélève un échantillon aléatoire non exhaustive de taille n dans lequel la proportion des individus de la catégorie A est f = n 1 n. Sous H 0 : Y p 0 p0 (1 p 0 ) n. N(0, 1). On fixe α (0.01 ou 0.05 ) et on lit dans la table de Gauss u 1 α/2 tel que

147 8.Tests d hypothèses P( N(0, 1) > u 1 α/2 ) = α. l intervalle critique au seuil α est donné par I c =], p 0 u 1 α/2 p0 (1 p 0 ) n Décision : si f I c on rejette H 0. ] p0 (1 p 0 ) [p 0 +u 1 α/2, + [ n

148 8.Tests d hypothèses 2. Test de conformité d une moyenne On attribue la valeur m 0 pour moyenne du caractère dans une population et on veut juger le bien fondé de cette hypothèse en se basant sur un échantillon. On effectue alors le test d hypothèse: H 0 : m = m 0 contre H 1 : m m 0 où m est la moyenne théorique. On considère alors n X m 0 qui suit, sous H S 0, une loi de Student à (n-1) degrés de liberté.

149 8.Tests d hypothèses Soit le quantile t 1 α 2 tel que P(t(n 1) [ t 1 α, t 1 α 2 2 Si n X m 0 S t 1 α 2 de signification α. ]) = 1 α. 3. Test de conformité d une variance alors on ne peut pas refuser H 0 au seuil C est la comparaison d une variance théorique et d une variance observée: on attribue la valeur σ 2 0 pour variance du caractère dans une population et on veut juger le bien fondé de cette hypothèse en se basant sur un échantillon. On effectue alors le test d hypothèse:

150 8.Tests d hypothèses H 0 : la variance du caractère dans la population est σ 2 0 contre H 1 : non H 0. Sous H 0, (n 1)S2 σ 2 0 X 2 (n 1) donc si H 0. (n 1)S 2 σ 2 0 [x a, x b ] alors on ne peut pas refuser l hypothèse

151 8.Tests d hypothèses 8.2 Tests d homogénéité 1. Comparaison de deux proportions: Il s agit de comparer deux proportions observées. Soit deux échantillons aléatoire E 1 et E 2 extraits des deux populations P 1 et P 2 constituées des individus des deux seules catégories A et B. Soit f 1 = k 1 n 1 et f 2 = k 2 n 2 les proportions des individus de la catégorie A dans E 1 et E 2 respectivement. En général f 1 f 2 ; il s agit d expliquer cette différence.

152 8.Tests d hypothèses On effectue le test d hypothèse suivant: H 0 : Dans P 1 et P 2 il y a la même proportion p 0 (inconnue) d individus de la catégorie A contre H 1 : non H 0 On considère D = Y 1 Y 2, avec f i est l observation de la variable aléatoire Y i. Y p Sous H 0 0 p0 D N(0, σ (1 p 0 ) D 2 ) où. n ( 1 σd 2 = p 0 (1 p 0 ) + 1 ). (24) n 1 n 2

153 8.Tests d hypothèses Mais p 0 est inconnue et on peut l estimer par k 1 + k 2 n 1 + n 2 = n 1f 1 + n 2 f 2 n 1 + n 2, ainsi σd 2 est estimée par σ D 2 = n 1f 1 + n 2 f 2 (1 n ( 1f 1 + n 2 f 2 1 ) + 1 ) n 1 + n 2 n 1 + n 2 n 1 n 2 = (n 1f 1 + n 2 f 2 ) (n 1 (1 f 1 ) + n 2 (1 f 2 )). (n 1 + n 2 )n 1 n 2 On fixe α (0.01 ou 0.05) et on lit dans la table de Gauss u 1 α/2 tel que P( N(0, 1) > u 1 α/2 ) = α; Décision :Si D σ D = f 1 f 2 σ D u 1 α/2 on rejette H 0.

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Annexe commune aux séries ES, L et S : boîtes et quantiles

Annexe commune aux séries ES, L et S : boîtes et quantiles Annexe commune aux séries ES, L et S : boîtes et quantiles Quantiles En statistique, pour toute série numérique de données à valeurs dans un intervalle I, on définit la fonction quantile Q, de [,1] dans

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

Statistique : Résumé de cours et méthodes

Statistique : Résumé de cours et méthodes Statistique : Résumé de cours et méthodes 1 Vocabulaire : Population : c est l ensemble étudié. Individu : c est un élément de la population. Effectif total : c est le nombre total d individus. Caractère

Plus en détail

Commun à tous les candidats

Commun à tous les candidats EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle

Plus en détail

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300 I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Représentation d une distribution

Représentation d une distribution 5 Représentation d une distribution VARIABLE DISCRÈTE : FRÉQUENCES RELATIVES DES CLASSES Si dans un graphique représentant une distribution, on place en ordonnées le rapport des effectifs n i de chaque

Plus en détail

Statistiques Descriptives à une dimension

Statistiques Descriptives à une dimension I. Introduction et Définitions 1. Introduction La statistique est une science qui a pour objectif de recueillir et de traiter les informations, souvent en très grand nombre. Elle regroupe l ensemble des

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie... 1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre : Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Loi d une variable discrète

Loi d une variable discrète MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une

Plus en détail

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos olivier.bos@u-paris2.fr

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Que faire lorsqu on considère plusieurs variables en même temps?

Que faire lorsqu on considère plusieurs variables en même temps? Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites

Plus en détail

4 Distributions particulières de probabilités

4 Distributions particulières de probabilités 4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli

Plus en détail

Séries Statistiques Simples

Séries Statistiques Simples 1. Collecte et Représentation de l Information 1.1 Définitions 1.2 Tableaux statistiques 1.3 Graphiques 2. Séries statistiques simples 2.1 Moyenne arithmétique 2.2 Mode & Classe modale 2.3 Effectifs &

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

Relation entre deux variables : estimation de la corrélation linéaire

Relation entre deux variables : estimation de la corrélation linéaire CHAPITRE 3 Relation entre deux variables : estimation de la corrélation linéaire Parmi les analyses statistiques descriptives, l une d entre elles est particulièrement utilisée pour mettre en évidence

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

1. Vocabulaire : Introduction au tableau élémentaire

1. Vocabulaire : Introduction au tableau élémentaire L1-S1 Lire et caractériser l'information géographique - Le traitement statistique univarié Statistique : le terme statistique désigne à la fois : 1) l'ensemble des données numériques concernant une catégorie

Plus en détail

Variables Aléatoires. Chapitre 2

Variables Aléatoires. Chapitre 2 Chapitre 2 Variables Aléatoires Après avoir réalisé une expérience, on ne s intéresse bien souvent à une certaine fonction du résultat et non au résultat en lui-même. Lorsqu on regarde une portion d ADN,

Plus en détail

CCP PSI - 2010 Mathématiques 1 : un corrigé

CCP PSI - 2010 Mathématiques 1 : un corrigé CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

Probabilités et statistique. Benjamin JOURDAIN

Probabilités et statistique. Benjamin JOURDAIN Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech

Plus en détail

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2 Chapitre 8 Fonctions de plusieurs variables 8.1 Généralités sur les fonctions de plusieurs variables réelles Définition. Une fonction réelle de n variables réelles est une application d une partie de R

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Cours de méthodes de scoring

Cours de méthodes de scoring UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Statistique Descriptive Élémentaire

Statistique Descriptive Élémentaire Publications de l Institut de Mathématiques de Toulouse Statistique Descriptive Élémentaire (version de mai 2010) Alain Baccini Institut de Mathématiques de Toulouse UMR CNRS 5219 Université Paul Sabatier

Plus en détail

FORMULAIRE DE STATISTIQUES

FORMULAIRE DE STATISTIQUES FORMULAIRE DE STATISTIQUES I. STATISTIQUES DESCRIPTIVES Moyenne arithmétique Remarque: population: m xμ; échantillon: Mx 1 Somme des carrés des écarts "# FR MOYENNE(série) MOYENNE(série) NL GEMIDDELDE(série)

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

VI. Tests non paramétriques sur un échantillon

VI. Tests non paramétriques sur un échantillon VI. Tests non paramétriques sur un échantillon Le modèle n est pas un modèle paramétrique «TESTS du CHI-DEUX» : VI.1. Test d ajustement à une loi donnée VI.. Test d indépendance de deux facteurs 96 Différentes

Plus en détail

Introduction à la Statistique Inférentielle

Introduction à la Statistique Inférentielle UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet

Plus en détail

Probabilités avancées. Florin Avram

Probabilités avancées. Florin Avram Probabilités avancées Florin Avram 24 janvier 2014 Table des matières 1 Mise en scène discrète 3 1.1 Espace des épreuves/résultats possibles, événements, espace probabilisé, mesure de probabilités, variables

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Analyse de la variance Comparaison de plusieurs moyennes

Analyse de la variance Comparaison de plusieurs moyennes Analyse de la variance Comparaison de plusieurs moyennes Biostatistique Pr. Nicolas MEYER Laboratoire de Biostatistique et Informatique Médicale Fac. de Médecine de Strasbourg Mars 2011 Plan 1 Introduction

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Eercice 1 (5 points) pour les candidats n ayant pas choisi la spécialité MATH Le tableau suivant donne l évolution du chiffre

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

Loi binomiale Lois normales

Loi binomiale Lois normales Loi binomiale Lois normales Christophe ROSSIGNOL Année scolaire 204/205 Table des matières Rappels sur la loi binomiale 2. Loi de Bernoulli............................................ 2.2 Schéma de Bernoulli

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

EXPLOITATIONS PEDAGOGIQUES DU TABLEUR EN STG

EXPLOITATIONS PEDAGOGIQUES DU TABLEUR EN STG Exploitations pédagogiques du tableur en STG Académie de Créteil 2006 1 EXPLOITATIONS PEDAGOGIQUES DU TABLEUR EN STG Commission inter-irem lycées techniques contact : dutarte@club-internet.fr La maquette

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

UNE REPRESENTATION GRAPHIQUE DE LA LIAISON STATISTIQUE ENTRE DEUX VARIABLES ORDONNEES. Éric TÉROUANNE 1

UNE REPRESENTATION GRAPHIQUE DE LA LIAISON STATISTIQUE ENTRE DEUX VARIABLES ORDONNEES. Éric TÉROUANNE 1 33 Math. Inf. Sci. hum., (33 e année, n 130, 1995, pp.33-42) UNE REPRESENTATION GRAPHIQUE DE LA LIAISON STATISTIQUE ENTRE DEUX VARIABLES ORDONNEES Éric TÉROUANNE 1 RÉSUMÉ Le stéréogramme de liaison est

Plus en détail

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel Cours de gestion des risques d assurances et de théorie de la ruine Stéphane Loisel ISFA, 2005-2006 Table des matières I Modélisation de la charge sinistre : du modèle individuel au modèle collectif 5

Plus en détail

Programmation Linéaire - Cours 1

Programmation Linéaire - Cours 1 Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

1 TD1 : rappels sur les ensembles et notion de probabilité

1 TD1 : rappels sur les ensembles et notion de probabilité 1 TD1 : rappels sur les ensembles et notion de probabilité 1.1 Ensembles et dénombrement Exercice 1 Soit Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(p(ω)) = 2 4. Soit k n (

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Cours de Tests paramétriques

Cours de Tests paramétriques Cours de Tests paramétriques F. Muri-Majoube et P. Cénac 2006-2007 Licence Ce document est sous licence ALC TYPE 2. Le texte de cette licence est également consultable en ligne à l adresse http://www.librecours.org/cgi-bin/main?callback=licencetype2.

Plus en détail

Table des matières. I Mise à niveau 11. Préface

Table des matières. I Mise à niveau 11. Préface Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Coefficients binomiaux

Coefficients binomiaux Probabilités L2 Exercices Chapitre 2 Coefficients binomiaux 1 ( ) On appelle chemin une suite de segments de longueur 1, dirigés soit vers le haut, soit vers la droite 1 Dénombrer tous les chemins allant

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012 LES STATISTIQUES INFERENTIELLES

Cours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012 LES STATISTIQUES INFERENTIELLES LES STATISTIQUES INFERENTIELLES (test de Student) L inférence statistique est la partie des statistiques qui, contrairement à la statistique descriptive, ne se contente pas de décrire des observations,

Plus en détail

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.

Soit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée. ANALYSE 5 points Exercice 1 : Léonie souhaite acheter un lecteur MP3. Le prix affiché (49 ) dépasse largement la somme dont elle dispose. Elle décide donc d économiser régulièrement. Elle a relevé qu elle

Plus en détail

Introduction à la théorie des files d'attente. Claude Chaudet Claude.Chaudet@enst.fr

Introduction à la théorie des files d'attente. Claude Chaudet Claude.Chaudet@enst.fr Introduction à la théorie des files d'attente Claude Chaudet Claude.Chaudet@enst.fr La théorie des files d'attente... Principe: modélisation mathématique de l accès à une ressource partagée Exemples réseaux

Plus en détail

Logique. Plan du chapitre

Logique. Plan du chapitre Logique Ce chapitre est assez abstrait en première lecture, mais est (avec le chapitre suivant «Ensembles») probablement le plus important de l année car il est à la base de tous les raisonnements usuels

Plus en détail

Probabilités conditionnelles Loi binomiale

Probabilités conditionnelles Loi binomiale Exercices 23 juillet 2014 Probabilités conditionnelles Loi binomiale Équiprobabilité et variable aléatoire Exercice 1 Une urne contient 5 boules indiscernables, 3 rouges et 2 vertes. On tire au hasard

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Incertitudes expérimentales

Incertitudes expérimentales Incertitudes expérimentales F.-X. Bally et J.-M. Berroir Février 2013 Table des matières Introduction 4 1 Erreur et incertitude 4 1.1 Erreurs............................................. 4 1.1.1 Définition

Plus en détail

EXERCICE 4 (7 points ) (Commun à tous les candidats)

EXERCICE 4 (7 points ) (Commun à tous les candidats) EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,

Plus en détail

OM 1 Outils mathématiques : fonction de plusieurs variables

OM 1 Outils mathématiques : fonction de plusieurs variables Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.

Plus en détail