Cours de Probabilités et statistiques L1 2011-2012 Maths-PC-SVT



Documents pareils
Moments des variables aléatoires réelles

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

4 Distributions particulières de probabilités

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

Cours de Probabilités et de Statistique

Programmes des classes préparatoires aux Grandes Ecoles

Qu est-ce qu une probabilité?

Loi binomiale Lois normales

Travaux dirigés d introduction aux Probabilités

Variables Aléatoires. Chapitre 2

PROBABILITES ET STATISTIQUE I&II

Probabilités. C. Charignon. I Cours 3

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Coefficients binomiaux

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

TSTI 2D CH X : Exemples de lois à densité 1

Probabilités sur un univers fini

1 TD1 : rappels sur les ensembles et notion de probabilité

P1 : Corrigés des exercices

Probabilités sur un univers fini

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Calculs de probabilités conditionelles

Simulation de variables aléatoires

Lois de probabilité. Anita Burgun

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

Espérance conditionnelle

Probabilités Loi binomiale Exercices corrigés

Calculs de probabilités

Introduction au Calcul des Probabilités

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Table des matières. I Mise à niveau 11. Préface

Couples de variables aléatoires discrètes

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Texte Agrégation limitée par diffusion interne

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Estimation et tests statistiques, TD 5. Solutions

Objets Combinatoires élementaires

3. Caractéristiques et fonctions d une v.a.

Université Paris 8 Introduction aux probabilités Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Exercices supplémentaires sur l introduction générale à la notion de probabilité

4. Martingales à temps discret

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Probabilités et statistique. Benjamin JOURDAIN

Loi d une variable discrète

Intégration et probabilités TD1 Espaces mesurés Corrigé

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Probabilités conditionnelles Loi binomiale

Développement décimal d un réel

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Bureau N301 (Nautile)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

OUTILS STATISTIQUES ET NUMÉRIQUES

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

EI - EXERCICES DE PROBABILITES CORRIGES

Probabilités III Introduction à l évaluation d options

3. Conditionnement P (B)

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

I. Polynômes de Tchebychev

Arbre de probabilité(afrique) Univers - Evénement

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Chaînes de Markov au lycée

Intégration et probabilités TD1 Espaces mesurés

Exemple On lance une pièce de monnaie trois fois de suite. Calculer la probabilité d obtenir exactement deux fois pile.

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Les probabilités. Guide pédagogique Le présent guide sert de complément à la série d émissions intitulée Les probabilités produite par TFO.

Chapitre 3 : INFERENCE

Catalogue des connaissances de base en mathématiques dispensées dans les gymnases, lycées et collèges romands.

Feuille 6 : Tests. Peut-on dire que l usine a respecté ses engagements? Faire un test d hypothèses pour y répondre.

Théorie de la Mesure et Intégration

Commun à tous les candidats

Méthodes de Simulation

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Le modèle de Black et Scholes

La fonction exponentielle

La survie nette actuelle à long terme Qualités de sept méthodes d estimation

Dunod, Paris, 2014 ISBN

La mesure de Lebesgue sur la droite réelle

Introduction à la théorie des files d'attente. Claude Chaudet

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Statistiques Descriptives à une dimension

LES GENERATEURS DE NOMBRES ALEATOIRES

Espaces probabilisés

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

TABLE DES MATIERES. C Exercices complémentaires 42

Exercices sur le chapitre «Probabilités»

Calcul élémentaire des probabilités

Chapitre 2 Le problème de l unicité des solutions

Précision d un résultat et calculs d incertitudes

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Rappels sur les suites - Algorithme

Exercices de dénombrement

Annexe commune aux séries ES, L et S : boîtes et quantiles

INF 162 Probabilités pour l informatique

I. Cas de l équiprobabilité

MA6.06 : Mesure et Probabilités

Transcription:

Cours de Probabilités et statistiques L1 2011-2012 Maths-PC-SVT Université d Avignon Fichier dispo sur http://fredericnaud.perso.sfr.fr/

Une étude statistique dans la population montre que le Q.I. est réparti de la manière suivante:

Les billes qui tombent sur la planche de Galton s amassent en faisant un curieux dessin...

Le lien entre ces deux phénomènes sans rapport semble être cette courbe en cloche :

La courbe en cloche, encore appelée Gaussienne, est une découverte du mathématicien allemand Carl Friedrich Gauss (1777-1855). On lui doit beaucoup de travaux sur les probabilités, notamment sur le Théorème Central Limite qui est le sujet principal de ce cours...

Combinatoire et dénombrements Faire des calculs de probabilités, c est d abord compter...le but de ce court chapitre est de faire quelques rappels de combinatoire. Soit E un ensemble fini, par exemple E = {1, 2,..., n}. On appelle cardinal de E le nombre d éléments de E, noté Card(E). Ici on a Card(E) = n.

Arrangements avec répétition. C est le nombre de facons de choisir k objets, ordonnés, que l on peut répéter, parmi un ensemble E de n objets. C est aussi Card(E } E {{... E } ) et c est n k. k fois Exemple 1: le nombre de mots de 5 lettres pris dans un alphabet de 26 c est 26 5 = 11881376. Ici E = {a, b, c, d,..., x, y, z}. Exemple 2: On jette un dé à 6 faces 3 fois, il y a 6 3 = 108 possibilités. Ici E = {1, 2, 3, 4, 5, 6}.

Arrangements sans répétition. C est le nombre de facons de choisir k objets, ordonnés, sans répétition, parmi un ensemble E de n objets. on le note A k n et on a A k n = n(n 1)(n 2)... (n k + 1). En utilisant la notation factorielle, n! = n(n 1)(n 2)... 3 2 1, on a aussi A k n = n! (n k)!. Exemple: le nombre de tiercés possibles: 20 chevaux au départ, il y a A 3 20 = 20 19 18 = 6840 possibilités. E = {1, 2,..., 20}.

Permutations. C est le nombre de facons d ordonner un ensemble à n éléments, et c est n!. C est aussi le nombre de bijections E E. Exemple: le nombre de facons d attribuer des chaises à 10 convives autour d une table est 10! = 3628800 La fonction n! croit très vite. Une bonne approximation est la formule de Stirling: n! ( n ) n 2πn. e

Combinaisons. C est le nombre de facons de choisir k éléments, sans répétitions et sans ordre parmi n éléments. On le note Cn k et on a Cn k n! = k!(n k)!. Exemple 1: au loto il y a C49 6 tirages possibles, C 6 49 = 49 48 47 46 45 44 6 5 4 3 2 1 = 13983816. Exemple 2: le nombre de facons de choisir 3 boules dans une urne (sans remise et sans ordre) en comprenant 6 est C 3 6 = 20.

Les coefficients C k n sont aussi appelés coefficients binomiaux. Ils vérifient la formule de récurrence C k 1 n + C k n = C k n+1. Cette formule sert à remplir le Triangle de Pascal : 1 1 1 1 2 1 1 3 3 1 1 4 6 4 1 1 5 10 10 5 1

Formule du binome de Newton. Les coefficients C k n interviennent dans le développement de (a + b) n. On a la formule dite du Binome: (a + b) n = n Cn k a k b n k k=0 = b n + C 1 nab n 1 + C 2 na 2 b n 2 +... + C n 1 n a n 1 b + a n. Par exemple en lisant le triangle de Pascal on a (a + b) 4 = b 4 + 4ab 3 + 6a 2 b 2 + 4a 3 b + a 4.

Probabilités Pour faire des probabilités il faut commencer par décrire l ensemble des événements ou espace fondamental Ω. Si ω Ω, on dit que ω est un événement élémentaire ou atome. Un événement A est une partie de Ω, A Ω. Exemple: On lance un dé a six faces. L espace fondamental décrit l ensemble des lancés possibles: Ω = {1, 2, 3, 4, 5, 6}. A = {1, 2} Ω est l événement "obtenir 1 ou 2".

Opérations sur les événements. Si A Ω est un événement, on note A le complémentaire dans Ω de A: A = {ω Ω : ω A}. Si A, B sont des événements, A B est l union de A et B. A B = {ω Ω : ω A ou B}. Si A, B sont des événements, A B est l intersection de A et B. A B = {ω Ω : ω A et B}.

Mesure de probabilité. Une mesure de probabilité est une application P qui à un événement A Ω associe un réel P(A) [0, 1], appelé probabilité de A. On impose qu elle vérifie: P(Ω) = 1. Pour tout A, B Ω avec A B =, P(A B) = P(A) + P(B). Par conséquent, on a toujours P(A) = 1 P(A), et donc P( ) = 0. On dit que deux événements A et B sont indépendants si P(A B) = P(A)P(B).

Probabilité combinatoire. Si l espace fondamental Ω est fini: Ω = {ω 1, ω 2,..., ω N }, on peut définir une mesure de probabilité sur Ω en posant P(A) := Card(A) Card(Ω) Nombre de cas favorables =. Nombre total de cas Exemple 1: On lance un dé à six faces. Quelle est la probabilité d avoir un chiffre pair? On a Ω = {1, 2, 3, 4, 5, 6}, et donc P( chiffre pair ) = Card({2, 4, 6}) Card(Ω) = 1 2.

Exemple 2: On choisit 4 cartes dans un jeu de 52. Quelle est la probabilité d avoir au moins un roi? Ici Ω est l ensemble des tirages de 4 cartes parmi 52. On a Card(Ω) = C 4 52. Pour calculer P( au moins un roi ), on passe à l événement complémentaire: P( au moins un roi ) = 1 P( Aucun roi ) = 1 C4 48 C 4 52 = 1 48 47 46 45 = 0, 28126... 52 51 50 49

Probabilités conditionnelles. Soit P une mesure de probabilité sur un espace fondamental Ω. Soient A, B des événements. On appelle probabilité conditionnelle de A sachant B, noté P(A B) la quantité: P(A B) = P(A B). P(B) Bien sur on suppose que P(B) 0.

Exemple: On jette deux dés. Quelle est la probabilité que la somme fasse 5 sachant que l un des deux marque 3? On pose A = la somme fait 5, B = un des dés marque 3. On a Ω = {1,..., 6} {1,..., 6}, A = {(1, 4); (2, 3); (3, 2); (4, 1)}, B = {(3, 1); (3, 2);... ; (3, 6)} {(1, 3); (2, 3);... ; (6, 3)}, Ainsi on a A B = {(2, 3); (3, 2)}. P(A B) = P(A B) P(B) = Card(A B) Card(B) = 2 = 0, 181818... 11

Formule de Bayes. Soient A, B deux événements de probabilités non nulles. On a alors P(A B) = P(B A) P(A) P(B). Ceci permet de calculer P(A B) connaissant P(B A) ou vice-versa.

Exemple: Un test de dépistage T est effectué sur une population dont 15% présente une affection A non apparente. Le test donne 20% de résultats positifs. On sait que ce test donne 95% de résultats positifs sur les personnes présentant A. Quelle est la probabilité d être atteint si T est positif? Posons A = les malades, T + = Test positif. On écrit: P(A T + ) = P(T + A) P(A) P(T + ) = 95 100 15 20 = 0, 7125.

Formule des probabilités totales. Si Ω = N i=1 A i et A i A j = pour tout i j, on dit que la famille d événements (A i ) 1 i N forme une partition de Ω. Pour tout événement B Ω on a la formule: P(B) = N P(A i )P(B A i ) i=1 = P(A 1 )P(B A 1 ) + P(A 2 )P(B A 2 ) +... P(A N )P(B A N ). Cas particulier: si A Ω, on a Ω = A A et P(B) = P(A)P(B A) + P(A)P(B A).

Variables aléatoires Soit Ω un espace fondamental équipé d une mesure de probabilité P. On appelle variable aléatoire X toute application X : Ω R. Exemples : La somme des chiffres dans le lancer de deux dés. La température d une molécule dans un gaz. Le nombre de "pile" obtenus dans n lancers d une pièce. Rappel: si I R, et X : Ω R est une variable aléatoire, on note X 1 (I) l ensemble X 1 (I) = {ω Ω : X(ω) I}. C est "l image réciproque de I par X".

Notations : Si x R, P(X = x) := P(X 1 ({x})). Si I R, P(X I) := P(X 1 (I)). Un exemple. On lance deux dés. Soit X la variable aléatoire "somme des valeurs obtenues". Calculer P(X = 3). On a Ω = {1,..., 6} {1,..., 6}, X 1 ({3}) = {(1, 2); (2, 1)}, d où P(X = 3) = 2 36 = 1 18 = 0, 055555...

Variables discrètes Une variable aléatoire X est dite discrète si son image X(Ω) est finie ou infini dénombrable: X(Ω) = {x 1, x 2,..., x n,...}. La loi de probabilité de X est la donnée de P(X = x 1 ), P(X = x 2 ),..., P(X = x n ). On a toujours P(X = x 1 ) +... + P(X = x n ) = 1. La fonction de répartition de X est par définition: F(x) := P(X x) = x j x P(X = x j ).

Exemple. On joue trois fois à pile ou face. Soit X la variable aléatoire "nombre de pile obtenus". Ici Ω = {0, 1} 3, et donc X(Ω) = {0, 1, 2, 3}. On a Card(Ω) = 2 3 = 8. On a de plus P(X = 0) = 1 8, P(X = 1) = 3 8, P(X = 2) = C2 3 8 = 3 8, P(X = 3) = 1 8. La fonction de répartition de X est donc donnée par: 0 0 < x 1/8 0 x < 1 F(x) = 1/2 1 x < 2 7/8 2 x < 3 1 3 x

1,5 Fonction de répartition F(x) 1 0,5 0 0,5 1 1,5 2 2,5 3 3,5-0,5

Espérance. Soit X une v.a. discrète, on note X(Ω) = {x 1,..., x n }. L espérance de X, notée E(X) est par définition E(X) := n x i P(X = x i ) i=1 = x 1 P(X = x 1 ) + x 2 P(X = x 2 ) +... + x n P(X = x n ). C est la valeur "moyenne" de la variable X. Exemple. On joue 3 fois à pile ou face. Soit X = nombre de pile. Quelle est l espérance de X? On a X(Ω) = {0, 1, 2, 3} et donc E(X) = 0 1 8 + 1 3 8 + 2 3 8 + 3 1 8 = 1, 5.

Ecart type. Soit X une v.a. discrète, on note X(Ω) = {x 1,..., x n }. La variance de X, notée V(X) est par définition ( V(X) := E (X E(X)) 2) = n (x i E(X)) 2 P(X = x i ) i=1 = (x 1 E(X)) 2 P(X = x 1 ) + (x 2 E(X)) 2 P(X = x 2 ) +... + (x n E(X)) 2 P(X = x n ). L écart type σ(x) est par définition σ(x) := V(X). C est une mesure de la "dispersion" de la variable X autour de sa moyenne E(X).

Exemple. On joue 3 fois à pile ou face. Soit X = nombre de pile. Calculer l écart type σ(x)? On rappelle que l on a X(Ω) = {0, 1, 2, 3} et E(X) = 1, 5. V(X) = (1.5) 2 1 8 +(1 1, 5)2 3 8 +(2 1, 5)2 3 8 +(3 1, 5)2 1 8 = 3 4, d où σ(x) = 3 2 = 0, 86602...

Variables continues Une variable aléatoire X est dite continue si son image X(Ω) est un intervalle de R, borné ou non. X(Ω) = I R. On dit que cette variable X est à densité si sa loi de probabilité est donné par une fonction densité f. Autrement dit, la fonction de répartition F(x) := P(X x) se calcule suivant la formule F(x) = P(X x) = x f (t)dt, où la densité f est une fonction continue par morceaux, positive.

Formules et remarques. On a P(X [a, b]) = b a f (t)dt. On a toujours la condition de "normalisation" P(Ω) = P(X R) = + f (t)dt = 1. Pour tout a R, on a P(X = a) = 0. On a toujours P(X < a) = P(X a). On a aussi lim x + F(x) = 1 et lim x F (x) = 0. La fonction de répartition x F(x) est croissante.

Espérance et écart type. Soit X une v.a. continue, de loi donnée par une densité f. L espérance de X, notée E(X) est par définition E(X) := + uf (u)du. C est la valeur "moyenne" de la variable X. La variance V(X) est par définition ( V(X) := E (X E(X)) 2) = L écart type σ(x) est par définition + σ(x) := V(X). (u E(X)) 2 f (u)du.

Un exemple. Lors d une alerte, une population de canards quitte la surface de l étang. A t = 0, l étang est vide. On note X la variable aléatoire X = temps mis par un canard pour revenir. Une étude empirique montre que X a pour densité f (u) = 2e u 2e 2u, pour u 0 et 0 si u 0. Ainsi P(X t) = t 0 ( 2e u 2e 2u) du.

Densité f (u) 2 1,5 1 0,5-1 -0,5 0 0,5 1 1,5 2 2,5 3 3,5-0,5

Fonction de répartition F(t) := P(X t) 1,5 1 0,5-0,4 0 0,4 0,8 1,2 1,6 2 2,4 2,8 3,2 3,6 4 4,4-0,5-1

Le calcul de l espérance donne: E(X) = La variance est donc V(X) = d où l écart type + 0 + 0 u(2e u 2e 2u )du = 3 2. (u 3/2) 2 (2e u 2e 2u )du = 5 4, σ(x) = V(X) = 5 2 1, 118033...

Encore des Formules... Soient a, b R, et X une v.a. discrète ou continue. On a les formules suivantes. E(aX + b = ae(x) + b. V(aX + b) = a 2 V(X). Si X 1, X 2,..., X n sont n variables, on a toujours E(X 1 + X 2 +... + X n ) = E(X 1 ) + E(X 2 ) +... + E(X n ). Par contre, en général, on a V(X 1 + X 2 +... + X n ) V(X 1 ) + V(X 2 ) +... + V(X n ).

Soient X 1, X 2,..., X n, n variables aléatoires. On dit qu elles sont indépendantes si pour tout I 1, I 2,..., I n intervalles de R on a P((X 1 I 1 ) (X 2 I 2 )... (X n I n )) = P(X 1 I 1 ) P(X 2 I 2 )... P(X n I n ). Si X 1, X 2,..., X n, sont indépendantes, on a la formule remarquable V(X 1 + X 2 +... + X n ) = V(X 1 ) + V(X 2 ) +... + V(X n ), ainsi on a σ(x 1 +... + X n ) = V(X 1 ) +... + V(X n ).

Exemple. On lance une pièce non truquée n fois. Soit X i la variable aléatoire "résultat du lancé numéro i". On a X i (Ω) = {0, 1}, E(X i ) = 1 2 et V(X i) = 1 4. Supposons les lancés indépendants, considérons la variable Y n = "moyenne du nombre de pile", Y n = X 1 +... + X n. n D après les formules précédentes on a E (Y n ) = 1 2, V (Y n) = 1 4n, σ(y n) = 1 2 n. On constate que σ(y n ) tend vers 0 quand n tend vers l infini. C est la "loi des grands nombres".

L inégalité de Tchebychev Soit X une variable aléatoire (discrète ou continue) sur un espace fondamental Ω. On note E(X) et V(X) l espérance et la variance. Pour tout ɛ > 0, on a l inégalité suivante. P( X E(X) ɛ) V(X) ɛ 2. Cette formule montre quantitativement que "plus l écart type est faible, plus la probabilité de s écarter de la moyenne est faible".

Lois de probabilité usuelles La loi de Bernoulli. C est la plus simple des lois de probabilité. Une variable aléatoire X est dite de Bernoulli si X(Ω) = {0, 1}. On note p := P(X = 1); q = 1 p = P(X = 0). L espérance d une variable de Bernoulli est E(X) = p. La variance est V(X) = pq = p(1 p) et l écart type est σ(x) = pq. Exemple. Le jeu de pile ou face (non truqué, p = 0.5, truqué, p 0.5).

La loi Binomiale. Une variable aléatoire S suit une loi binomiale si S(Ω) = {0, 1, 2,..., n}, et pour 0 k n, on a où p [0, 1], q = 1 p. P(S = k) = C k n p k q n k, L espérance d une variable binomiale est E(S) = np. La variance est V(S) = npq et l écart type est σ(s) = npq. C est la loi d une somme de n variables X i de Bernoulli, indépendantes et de même paramètre p.

Exemple. On joue n fois à pile ou face avec une pièce non truquée. On suppose les lancés indépendants. Soit S la variable "nombre de pile obtenus". Si on note X i la variable définie par X i = 1 si "pile" au i-ème lancé, on a S = X 1 + X 2 +... + X n. Les variables X i sont de Bernoulli, indépendantes, et S suit une loi Binomiale de paramètre p = 1/2.

La loi hypergéométrique. Une variable aléatoire S suit une loi hypergéométrique si S(Ω) = {0, 1, 2,..., n}, et pour 0 k K, on a P(S = k) = Ck K Cn k N K CN n, où 0 K N sont des entiers, avec n N. L espérance d une variable hypergéométrique est E(S) = n K N. La variance est V(S) = n N n ( K ) ( N K ) N 1 N N. Exemple. Une urne contient N boules avec K blanches et N K noires. On tire n N boules sans remise. Alors la variable S = "nombre de boules blanches" suit une loi hypergéométrique.

La loi de Poisson. Une variable X suit une loi de Poisson si X(Ω) = {0, 1, 2,..., n,..., + } et on a pour k = 0, 1,..., + P(X = k) = µk k! e µ, où µ > 0 est le paramètre de la loi. L espérance d une variable de Poisson est E(X) = µ. La variance est aussi V(X) = µ. Exemple type. Le nombre de pannes d un systême mécanique durant une période donnée: µ est le taux moyen de pannes la durée de la période.

La loi uniforme. Une v.a. X continue suit une loi uniforme si sa fonction de répartition a pour densité f où { 1/h si µ h/2 < u < µ + h/2 f (u) = 0 sinon, avec µ R, h > 0. L espérance d une variable uniforme est E(X) = µ. La variance est V(X) = h2 12. L écart type est σ(x) = h 2 3.

Densité uniforme f (u) avec h = µ = 1. 1 0,5-0,5 0 0,5 1 1,5 2 2,5-0,5

La loi exponentielle. Une v.a. X continue suit une loi exponentielle si sa fonction de répartition a pour densité f où avec λ > 0. { f (u) = 0 si u < 0 λe λu si u 0, L espérance d une variable exponentielle est E(X) = 1 λ. La variance est V(X) = 1 λ 2. L écart type est σ(x) = 1 λ. Exemple. Le temps τ de désintégration d un noyau radioactif dans un échantillon d uranium.

Densité exponentielle f (u) avec λ = 1. 1 0,5-0,5 0 0,5 1 1,5 2 2,5-0,5

La loi normale. Une v.a. X continue suit une loi normale N (µ, σ) si sa fonction de répartition a pour densité f où avec µ R et σ > 0. f (u) = 1 σ (u µ) 2 2π e 2σ 2, L espérance d une variable normale est E(X) = µ. La variance est V(X) = σ 2. L écart type est σ(x) = σ. C est la loi de probabilité la plus importante de ce cours.

Les lois normales N (0, 1) et N (1/2, 1/2). 0,5-2,5-2 -1,5-1 -0,5 0 0,5 1 1,5 2 2,5

Calculs de probabilités avec les lois normales Pour calculer numériquement P(a < X < b) où X suit une loi normale N (µ, σ), on commence par se ramener à la loi centrée réduite N (0, 1). En effet, on a ( a µ P(a < X < b) = P σ < X µ σ < b µ ), σ et Y = X µ σ a pour loi N (0, 1). Les calculs avec la loi N (0, 1) se font en utilisant les remarquables propriétés suivantes.

Soit X une variable normale centrée réduite. On pose F(x) = P(X x). Cette probabilité s interprète comme "l aire sous la courbe en cloche": 0,5-2,5-2 -1,5-1 -0,5 0 0,5 1 1,5 2 2,5 On a F( x) = P(X x) = 1 F (x) (parité). On a P( X x) = 2F(x) 1.

Exemple. Soit X une v.a. de loi normale N (1, 2). Calculer P(X 2). On a P(X 2) = P(Y 1/2), où Y = X 1 2 est centrée réduite. On a donc P(Y 1/2) = 1 P(Y 0, 5) = 1 F(0, 5). La table numérique de N (0, 1) (voir TD) donne F(0, 5) 0, 695. La réponse est donc P(X 2) 0, 3085.

Table de la loi centrée réduite N (0, 1). x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857 2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890 2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952 2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964 2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974 2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981 2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990 3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993 3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995 3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997 3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998 3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 3.9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000

Loi des grands nombres et TCL Epreuves répétées. Soit Ω un espace fondamental muni d une probabilité P. Soient X 1, X 2,..., X n,... une suite de variables aléatoires indépendantes, de même espérance µ et de même écart type σ. On définit alors la somme S n par S n := X 1 + X 2 +... + X n, et la moyenne par M n = Sn n. On a les formules (rappel chapitre v.a.) E(M n ) = µ; σ(m n ) = σ. n

Loi faible des grands nombres. Si X 1, X 2,..., X n,... est une suite de variables aléatoires indépendantes, de même espérance µ et de même écart type σ, alors pour tout ɛ > 0, on a lim P( M n µ ɛ) = 0. n Interprétation: la probabilité que la variable M n dévie de son espérance µ d une valeur au moins ɛ tend vers 0 lorsque n tend vers l infini. Plus précisément, on a par l inégalité de Tchebychev, P( M n µ ɛ) σ2 nɛ 2.

Théorème central limite. Soit X 1, X 2,..., X n,... une suite de variables aléatoires indépendantes, de même loi. On note µ l espérance et σ l écart type. Posons Z n = n M n µ. σ On a donc E(Z n ) = 0 et σ(z n ) = 1. Pour tout x R, on a lim P(Z n x) = 1 x e t2 /2 dt. n 2π Autrement dit, la fonction de répartition de Z n tend vers celle d une loi normale N (0, 1).

Interprétation du TCL. La loi limite de Z n ne dépend pas de la loi commune des X n! C est ce qui fait de la loi normale une loi universelle. En pratique ce résultat montre que l on peut approcher la loi de S n (inconnue en général) pour n grand par N (nµ, nσ). De même, on peut approcher pour n grand la loi de M n par N (µ, σ n ). La vitesse de convergence dans le TCL dépend beaucoup de la régularité de la loi initiale. On considère toutefois que celle ci est toujours bonne pour n 100.

Exemple. On jette une pièce 500 fois, on suppose les lancers indépendants. Soit X = "nombre de piles". Calculer P(X 260). Posons X i = 1 si "pile" au i-ème lancer, 0 si "face". C est une variable de Bernoulli et X = X 1 + X 2 +... + X 500. On a E(X i ) = 1/2, et σ(x i ) = 1/2. Le TCL dit que N ( 500 approche bien la loi de X. Ainsi P(X 260) P(N 20 500 ), 2, 500 2 ) où N = 2(X 250) 500 est centrée réduite. Le calcul donne P(X 260) 0, 1867.

Rudiments de statistique descriptive Le but des statistiques est d établir des modèles probabilistes à partir de données expérimentales: sondages, enquêtes d opinion. Le concept fondamental est celui de caractère qui désigne une grandeur ou un attribut variable que l on va observer afin de constituer une série statistique à analyser. Il y a une correspondance entre concepts statistiques et probabilités. Probas Espace fondamental Variable aléatoire Epreuve répétée Stats Population Caractère Echantillonnage

Indicateurs numériques. Soit X une v.a. (un caractère) que l on veut étudier. On sélectionne un échantillon {ω 1, ω 2,..., ω n } Ω de taille n, et on note x 1 = X(ω 1 ), x 2 = X(ω 2 ),..., x n = X(ω n ). La moyenne observée est par définition m obs := x 1 +... + x n. n La variance observée est par définition var obs := (x 1 m obs ) 2 +... + (x n m obs ) 2. n

La moyenne observée m obs n est pas (a priori) E(X). De même, rien ne dit que var obs converge vers V(X). Toute la problématique des statistiques consiste à construire des estimateurs qui permettent d approcher les paramètres de la loi de X quand la taille n de l échantillon est grande.

Estimateurs. Soit X un caractère à étudier. Soient X 1, X 2,..., X n, des variables aléatoires indépendantes de même loi que X. On cherche à reconstituer un paramètre θ (par exemple E(X), V(X)) à l aide d une variable Y n (X 1,..., X n ) appelé estimateur de θ. L estimateur Y n est dit convergent si pour tout ɛ > 0, lim P( Y n θ > ɛ) = 0. n L estimateur Y n est dit sans biais si E(Y n ) = θ pout tout n.

Estimateur de l espérance : La moyenne observée M n = X 1+X 2 +...+X n n est un estimateur convergent et sans biais de E(X), c est la loi des grands nombres. Ainsi si l échantillon {ω 1, ω 2,..., ω n } Ω est assez grand, la moyenne m obs est, avec une forte probabilité, proche de E(X). Estimateur de la variance : L estimateur S n donné par S n := (X 1 M n ) 2 +... + (X n M n ) 2, n 1 est convergent et sans biais. Ainsi si l échantillon {ω 1, ω 2,..., ω n } Ω est assez grand, la variance observée débiaisée s obs = (x 1 m obs ) 2 +...+(x n m obs ) 2 n 1 est proche de V(X).

Intervalle de confiance. Lors de l estimation de E(X) et V(X) par le calcul de m obs et s obs, il faut être capable d évaluer l erreur commise, la "fourchette". Méthode pour l espérance : Echantillon de taille n. Moyenne observée m obs, variance observée débiaisée s obs. On pose σ = s obs. On a alors E(X) [m obs t α σ n, m obs + t α σ n ] avec probabilité 1 α. le paramètre t α est déterminé par P( N (0, 1) t α ) = α si n 30 et par la loi de student avec degré de liberté n 1 si n < 30.

Un exemple. Un sondage portant sur 400 électeurs à la sortie des urnes révèle 212 votes pour le candidat A. Donner, à 95% de chance, un intervalle de confiance des votes en faveur de A sur la population entière (des votants). Il s agit d étudier la variable de Bernoulli X qui vaut 1 si on vote pour A et 0 sinon. On veut estimer E(X) = P(X = 1) qui donne la proportion des gens qui votent pour A.

Le calcul donne puis m obs = 212 0, 53 400 s obs = (1 m obs) 2 212 + m 2 obs 188 399 0, 249. La table de la loi normale N (0, 1) donne pour α = 0, 05, une valeur t α = 1, 96. Ainsi, E(X) [0, 481; 0, 579] avec une probabilité d au moins 95%, soit une fourchette entre 48% et 57% de votes pour le candidat A.

Un autre exemple. Une étude portant sur une population de 100 fumeurs donne les résultats suivants. Consommation quotidienne 0,5 1 1,5 2 3 Nombre de réponses 26 47 10 12 5 Donner un intervalle de confiance de l espérance du "nombre de paquets fumés" à 95%. Le calcul de la moyenne observée donne m obs = tandis que 26 0, 5 + 1 47 + 1, 5 10 + 2 12 + 3 5 100 et donc σ 0, 628. s obs = 39, 04 99 0, 3943, 1, 14,

Une lecture de la table de la loi normale donne P( N (0, 1) t α ) = 0, 05 pour t α = 1, 96. D où l intervalle E( Nombre de paquets ) [1, 017; 1, 263] avec 95% de chance.