Université Laval Faculté des sciences et génie STT-1000-194-Z3 Probabilités et statistique Aide-mémoire pour l examen intra 1. Théorie des probabilités Opérations sur les ensembles : - le complémentaire de A : A = {x : x S et x / A} - l intersection de A et B : A B = {x : x A et x B} - l union de A et B : A B = {x : x A ou x B (ou les deux)} Propriétés des opérations : - Lois de DeMorgan : A B = A B A B = A B - Lois associatives : A (B C) = (A B) C A (B C) = (A B) C - Lois distributives : A (B C) = (A B) (A C) A (B C) = (A B) (A C) Propriétés d une probabilité : 0 P[A] 1 P[ ] = 0 et P[S] = 1. A et B sont mutuellement exclusifs si et seulement si A B =. A et B sont indépendants si et seulement si P[A B] = P[A] P[B]. Si A 1, A, A 3,... sont mutuellement exclusifs, alors P[ i A i] = i P[A i]. P[A] = 1 P[A]. Si A B, alors P[A] P[B]. P[A B] = P[A] + P[B] P[A B]. P[A B C] = P[A] + P[B] + P[C] P[A B] P[B C] P[A C] + P[A B C]. Dans le cas équiprobable (c est-à-dire le cas où S est un ensemble fini et où chaque élément de S a la même probabilité de se réaliser), on a P[A] = n(a)/n(s). Techniques de dénombrement : - Permutations : il existe n! arrangements ordonnés de n éléments distincts ; il existe Pr n n! = façons de choisir r objets parmi n objets (n r)! en tenant compte ( de ) l ordre. n - Combinaisons : il existe Cr n n! = = façons de choisir r objets parmi r r!(n r)! n objets sans tenir compte de l ordre. Probabilités conditionnelles : P[A B] P[A B] =. P[B] P[A B] = P[A] P[B A] = P[B] P[A B] (règle de multiplication) 1
Si B 1, B,..., B k forment une partition de S, c est-à-dire si B 1, B,..., B k sont mutuellement exclusifs et tels que k B i = S, alors P[A] = k P[A B i ] P[B i ]. (loi des probabilités totales) P[B j A] = P[A B j] P[B j ]. (théorème de Bayes) P[A]. Variables aléatoires et distributions Caractéristique Cas d une variable discrète Cas d une variable continue Probabilité P[a < X b] = b p(x) P[a < X b] = f(x)dx a<x b Répartition F (x) = P[X x] = <t x p(t) F (x) = P[X x] = Masse/Densité p(x) = P[X = x] f(x) = d dx F (x) Espérance de X Espérance de g(x) µ = E[X] = x E[g(X)] = x x p(x) µ = E[X] = g(x) p(x) E[g(X)] = + + Variance de X σ = Var[X] = E[(X µ) ] = E[X ] µ a x x f(x)dx f(t)dt g(x) f(x)dx E[aX + b] = ae[x] + b Var[aX + b] = a Var[X] Si X Géo(p), alors P (X > k) = (1 p) k, k = 1,, Si X Exp(λ), alors P (X > t) = e λt, t > 0 Théorème central limite : Si X 1, X,, X n sont des variables aléatoires indépendantes et identiquement distribuées suivant une loi quelconque telle que : E(X i ) = µ et V (X i ) = σ, i = 1,,, n, alors, pour n assez grand (n > 30), on a X = 1 n (X 1 + X + + X n ) N (µ, σ n )
3. Lois usuelles Lois discrètes Fonction de masse Espérance Variance Bernoulli (p) p(k) = p k (1 p) 1 k, pour k = 0, 1 p p(1 p) Binomiale (n, p) ( ) n p(k) = p k (1 p) n k, k pour k = 0, 1,..., n np np(1 p) Géométrique (p) p(k) = (1 p) k 1 1 1 p p, pour k = 1,, 3,... p p ( ) k 1 Pascal (r, p) p(k) = p r (1 p) k r r r(1 p), pour k = r, r + 1,... r 1 p p Poisson (λ) p(k) = e λ λk, pour k = 0, 1,,... λ λ k! Lois continues Densité de probabilité Espérance Variance Uniforme (α, β) f(x) = 1 β α, pour α x β α + β Exponentielle (λ) f(x) = λe λx 1, pour x > 0 λ Gamma (r, λ) f(x) = λr Γ(r) xr 1 e λx, pour x > 0 Normale (µ, σ ) f(x) = 1 σ 1 π e 4. Propriétés d additivité ( x µ r λ (β α) 1 1 λ r λ σ ), pour < x < µ σ Conditions sur X 1, X,..., X k Indépendantes, avec X j Binomiale (n j, p) Indépendantes, avec X j Pascal (r j, p) Indépendantes, avec X j Poisson (λ j ) Indépendantes, avec X j Gamma (r j, λ) Loi de Y = k X j Binomiale (n, p) avec n = k n j Pascal (r, p) avec r = k r j Poisson (λ) avec λ = k λ j Gamma (r, λ) avec r = k r j 3
5. Lois discrètes bidimensionnelles lois marginales = P ({X = x} {Y = y}) = P (X = x, Y = y) p X (x) = P (X = x) = y p Y (y) = P (Y = y) = x lois conditionnelles p X/Y =y (x) = P (X = x Y = y) = p Y/X=x (y) = P (Y = y X = x) = p Y (y) p X (x) Espérance conditionnelle E(X Y = y) = x E(Y X = x) = y xp X/Y =y (x) = yp Y/X=x (y) = x x p Y (y) y y p X (x) Espérance de g(x, Y ) E[g(X, Y )] = x,y g(x, y) Indépendance X et Y sont indépendantes si et seulement si = p X (x)p Y (y) pour tout (x, y). Covariance et Corrélation Cov(X, Y ) = E{(X E[X])(Y E[Y ])} = E[XY ] E[X]E[Y ] ρ (X,Y ) = Cov(X,Y) Var(X)Var(Y ) 1 ρ (X,Y ) 1 Variance d une combinaison linéaire de deux variables : avec a et b, des constantes réelles. V (ax + by ) = a V (X) + b V (Y ) + abcov(x, Y ) 4
6. Statistique descriptive Calcul de la moyenne et de la variance échantillonnales Type Moyenne Variance Données brutes Tableau de fréquences, données discrètes x = 1 n x = 1 k n x i s = 1 n 1 f j x j s = 1 n 1 (x i x) k f j (x j x) Pour les tableaux de fréquences, f j dénote le nombre d observations pour la j e valeur de la variable, j = 1,, k. On rappelle que (x i x) = x i n x et c f j (x j x) = f j x j n x. Position des quartiles pour des données brutes Q 1 Q ou x Q 3 [ n+1 ] [ + 1 n + 1 n+1 ] + 1 ième donnée ième donnée (n + 1) ième donnée en ordre croissant en ordre croissant en ordre croissant où [x] désigne la partie entière de x. Représentations graphiques des variables continues Le diagramme en boîte est une représentation graphique des quartiles, des barrières observées et des données extrêmes. Les barrières théoriques inférieure et supérieure sont : b inf = Q 1-1.5*EIQ et b sup = Q 3 + 1.5*EIQ. L histogramme est une représentation graphique des fréquences de données groupées par intervalles ; les proportions y sont représentées par des surfaces. 5