Variables aléatoires discrètes : loi et espérance.

Documents pareils
Moments des variables aléatoires réelles

Probabilités sur un univers fini

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Intégration et probabilités TD1 Espaces mesurés Corrigé

Simulation de variables aléatoires

Travaux dirigés d introduction aux Probabilités

Loi d une variable discrète

Probabilités sur un univers fini

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Image d un intervalle par une fonction continue

TSTI 2D CH X : Exemples de lois à densité 1

Introduction à l étude des Corps Finis

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Programmes des classes préparatoires aux Grandes Ecoles

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Couples de variables aléatoires discrètes

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Exercices - Polynômes : corrigé. Opérations sur les polynômes

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Probabilités et statistique. Benjamin JOURDAIN

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Corrigé du baccalauréat S Pondichéry 12 avril 2007

Développement décimal d un réel

Texte Agrégation limitée par diffusion interne

Limites finies en un point

CCP PSI Mathématiques 1 : un corrigé

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

4. Martingales à temps discret

Coefficients binomiaux

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Les indices à surplus constant

Fonctions de plusieurs variables

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Commun à tous les candidats

Probabilités. C. Charignon. I Cours 3

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Intégration et probabilités TD1 Espaces mesurés

Continuité et dérivabilité d une fonction

Chapitre 2 Le problème de l unicité des solutions

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Chapitre 1 : Évolution COURS

Structures algébriques

Correction du Baccalauréat S Amérique du Nord mai 2007

Calculs de probabilités

EXERCICE 4 (7 points ) (Commun à tous les candidats)

4 Distributions particulières de probabilités

Le modèle de Black et Scholes

Cours 02 : Problème général de la programmation linéaire

Précision d un résultat et calculs d incertitudes

DOCM Solutions officielles = n 2 10.

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Leçon 01 Exercices d'entraînement

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Que faire lorsqu on considère plusieurs variables en même temps?

Variables Aléatoires. Chapitre 2

Probabilités conditionnelles Exercices corrigés

O, i, ) ln x. (ln x)2

Cours de méthodes de scoring

Espérance conditionnelle

Calcul différentiel sur R n Première partie

Introduction au Calcul des Probabilités

Continuité en un point

8 Ensemble grand-canonique

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Estimation et tests statistiques, TD 5. Solutions

Cours Fonctions de deux variables

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

EI - EXERCICES DE PROBABILITES CORRIGES

Comparaison de fonctions Développements limités. Chapitre 10

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

3. Conditionnement P (B)

Programmation linéaire

Le théorème de Thalès et sa réciproque

1 TD1 : rappels sur les ensembles et notion de probabilité

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Les devoirs en Première STMG

Groupe symétrique. Chapitre II. 1 Définitions et généralités

Intégration sur des espaces produits

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Factorisation Factoriser en utilisant un facteur commun Fiche méthode

P1 : Corrigés des exercices

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

Calculs de probabilités conditionelles

Fibonacci et les paquerettes

Chapitre 2. Matrices

Résolution d équations non linéaires

Chapitre 2. Eléments pour comprendre un énoncé

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes

FORMULAIRE DE STATISTIQUES

Probabilités conditionnelles Loi binomiale

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Calcul fonctionnel holomorphe dans les algèbres de Banach

Transcription:

Université Pierre et Marie Curie 2013-2014 Probabilités élémentaires - LM345 Feuille 4 (semaine du 7 au 11 octobre 2012) Variables aléatoires discrètes : loi et espérance. 1. Espérance et probabilité Soit (Ω, F, P) un espace probabilisé. Soit A F un événement, justifier que E[1 A ] P(A) 2. On effectue des lancers successifs et indépendants d une pièce qui tombe sur pile avec probabilité p et sur face avec probabilité 1 p. a) Décrire le modèle probabiliste utilisé pour modéliser cette situation. b) On appelle T 1 le numéro du premier lancer où l on obtient pile. Déterminer la loi de T 1. c) Pour tout i 1, on appelle T i le numéro du lancer où l on obtient pile pour la i-ième fois. Déterminer la loi de T i pour tout i 1. Solution de l exercice 2. a) On considére une suite de variables indépendantes (X i ) i1 de meme loi, variables de Bernouilli de paramètre p. X i représente le lancer numéro i, sachant que si X i 1 c est que le résultat du lancer est pile. b) Soit k 1 un entier. On a clairement {T 1 k} {X 1 0, X 2 0,..., X k 1 0, X k 1}. Ainsi P(T 1 k) (1 p) k 1 p. Autrement dit, T 1 suit une loi géométrique de paramètre 1 p. c) Voir l exercice 7 de la feuille 2. 3. Dans une population de n oiseaux, on en capture m que l on bague puis que l on relâche. Un peu plus tard, on en capture à nouveau m. a) Soit k {0,..., n}. Quelle est la probabilité que parmi les m oiseaux capturés, k soient bagués? b) Pour quelle valeur de k la probabilité calculée ci-dessus est-elle maximale? Solution de l exercice 3. a) Sans tenir compte de l ordre de capture, il y a Cn m manières de capturer les m oiseaux, que l on suppose équiprobables. Capturer m animaux dont k bagués revient à en capturer k parmi les m bagués (Cm k possibilités) et m k parmi les n m non bagués (Cn m m k possibilités, en supposant m k n m, autrement dit k 2m n, car sinon la probabilité est nulle), le nombre de manières de la faire est donc : C k mc m k n m m!(n m)! k!(m k)! 2 (n 2m + k)!. 1

Et la probabilité correspondante vaut : P (n, m, k) Ck mc m k n m C m n m! 2 (n m)! 2 n!k!(m k)! 2 (n 2m + k)!. b) Si k est tel que max(0, 2m n) k < m, on obtient, en mettant le dénominateur sous forme canonique (en la variable k) : P (n, m, k + 1) P (n, m, k) (m k) 2 (k + 1)(n 2m + k + 1) (m k) 2 (n/2 + 1 (m k)) 2 (n/2 m) 2. Ce ratio est décroissant en k. Pour k m 1 (dernière valeur), le numérateur vaut 1 et donc le ratio est strictement inférieur à 1. P (n, m, k) est donc croissant en k jusqu à un certain max(0, 2m n) k 0 m 2, et ensuite décroissant pour k k 0 (voire décroissant depuis le début si k 0 max(0, 2m n)). Il reste à déterminer k 0 qui va réaliser le maximum de la probabilité. D après la formule précédente, on a : P (n, m, k + 1) P (n, m, k) > 1 (m k) 2 < (n/2 + 1 (m k)) 2 (n/2 m) 2. En développant, cela se simplifie en : P (n, m, k + 1) > P (n, m, k) (n + 2)k < m 2 + 2m n 1. Ainsi P (n, m, k) est maximal pour m 2 + 2m n 1 (m + 1) 2 k k 0 : 1 +. n + 2 n + 2 Si (m+1)2 n+2 est entier, la valeur maximale est réalisée aussi atteinte pour k 0 1, sinon elle n est atteinte que pour k 0. On n est pas surpris de constater que la valeur de k maximisant P (n, m, k) est telle que la proportion d oiseaux bagués k/m capturés la seconde fois est très proche de celle dans la population m/n. 4. Soit X une variable aléatoire à valeurs dans N. Pour tout n 0, on note p n P(X n) et on suppose p n > 0. Soit λ > 0 un réel. Montrer que les deux assertions suivantes sont équivalentes. 1. La variable aléatoire X suit la loi de Poisson de paramètre λ. 2. Pour tout n 1, on a p n λ p n 1 n. Solution de l exercice 4. La première assertion s écrit aussi n N, p n exp( λ) λn. n! Il est clair que cela entraine la seconde assertion. Supposons maintenant la seconde assertion vraie. Par récurrence sur n, on obtient immédiatement λ n p n p 0 n!. 2

Il reste à déterminer p 0. Grâce à la formule précédente, l égalité n N p n λ p 0 n N n 1, ou encore p n! 0 exp(λ) 1. D où le résultat. 1 s écrit 5. Soient α, β ]0, 1[ deux réels. Pour tout (i, j) N 2, on pose p i,j αβ(1 α) i (1 β) j. a) Montrer qu en posant P({(i, j)}) p ij pour tout (i, j) N 2, on définit une mesure de probabilités sur N 2 muni de la tribu P(N 2 ). Pour tout (i, j) N 2, on pose X((i, j)) i et Y ((i, j)) j. b) Déterminer la loi de X et la loi de Y. c) Calculer P(X < Y ), P(X Y ) et P(X > Y ). Solution de l exercice 5. a) Il s agit de vérifier que (i, j) N 2, p i,j 0 et (i,j) N p 2 i,j 1. La positivité des p i,j est évidente d après leur définition. En utilisant i N xi 1/(1 x) pour x 1 α et x 1 β, on obtient : p i,j αβ(1 α) i (1 β) j α(1 α) i 1. (i,j) N 2 i N j N i N b) Soit k N. En utilisant encore j N β(1 β)j 1, on obtient : P(X k) p i,j 1 {k} (i) p k,j α(1 α) k. (i,j) N 2 j N Ainsi, X suit une loi géométrique de paramètre 1 α. De même, P(Y k) β(1 β) k, autrement dit Y suit une loi géométrique de paramètre 1 β. c) P(X < Y ) (i,j) N 2 i<j p i,j i0 ji+1 p i,j. Comme pour tout i N, ji+1 β(1 β)j (1 β) i+1, cela donne P(X < Y ) α(1 α) i (1 β) i+1 i0 α(1 β) ((1 α)(1 β)) i i0 α(1 β) 1 (1 α)(1 β) α αβ α + β αβ. De même (en échangeant les rôles de X et Y, donc de α et β), on obtient P(X > Y ) β αβ α + β αβ. 3

On peut calculer P(X Y ) directement en sommant les p i,i, ou alors on peut utiliser le fait que les parties {X Y }, {X < Y } et {X > Y } forment une partition de N 2 et les résultats précédents : P(X Y ) 1 P(X > Y ) P(X < Y ) α + β αβ (β αβ) (α αβ) α + β αβ αβ α + β αβ. 6. Soit X une variable aléatoire à valeurs dans N admettant une espérance E[X]. Montrer qu on a l égalité E[X] n 1 P(X n). Solution de l exercice 6. On a E[X] n 1 np(x n) n 1 n(p(x n) P(X n + 1)) ( N lim np(x n) N + n1 n1 N n1 ) np (X n + 1) ( N N+1 ) lim np(x n) (n 1)P (X n) N + n2 ( N+1 ) lim P(X 1) (N + 1)P(X N + 1) + P (X n) N + n2 ( N+1 ) lim (N + 1)P(X N + 1) + P (X n) N + n 1 P (X n). n1 Le fait que (N + 1)P(X N + 1) soit de limite nulle découle de la convergence de la série np(x n). En effet NP[X N] E[N 1X N ] E[X 1 X N ] in ip[x i]. 7. Soient X, Y : (Ω, F, P) R deux variables à valeurs dans N. Montrer de deux façons différentes que np(x + Y n). n 0 np(x n) + n 0 np(y n) n 0 4

Solution de l exercice 7. Le membre de gauche est E(X)+E(Y ) et le membre de droite est E(X + Y ). Par linéarité de l espérance, ils sont donc égaux. Donnons une deuxième démonstration de cette égalité. Calculons le membre de droite. On trouve n np(x k et Y n k) np(x + Y n) n 0 n 0 k0 1 {k n} np(x k et Y n k) n 0 k 0 1 {k n} np(x k et Y n k) k 0 n 0 np(x k et Y n k) k 0 n k (k + l)p(x k et Y l) k 0 l 0 k 0 k l 0 P(X k et Y l) + l 0 l k 0 P(X k et Y l). Dans le premier terme de la dernière ligne, pour tout k 0, la somme sur l est la somme des probabilités d événements deux à deux disjoints dont la réunion vaut {X k}. De même, dans le deuxième terme, pour tout l 0, la somme sur k est la somme des probabilités d événements deux à deux disjoints dont la réunion vaut {Y l}. Ainsi, on trouve lp(y l), n 0 np(x + Y n) k 0 kp(x k) + l 0 ce qui, au nom des indices près, est la formule voulue. 8. Fonction génératrice Soit (Ω, F, P) un espace de probabilités. Soit X : Ω R une variable aléatoire telle que X(Ω) N. a) Montrer que pour tout réel s [0, 1], la fonction s X est une variable aléatoire intégrable. On rappelle que par convention, 0 0 1. On appelle fonction génératrice de X la fonction G X : [0, 1] R s E[s X ]. b) Montrer que G X est une fonction positive croissante. Calculer ses valeurs en 0 et en 1. c) Calculer la fonction G X lorsque X suit l une des lois suivantes : (i) Bernoulli de paramètre p [0, 1], 5

(ii) binomiale de paramètres n 0 et p [0, 1], (iii) géométrique de paramètre p ]0, 1[, (iv) Poisson de paramètre λ > 0. d) Que peut-on dire de deux variables aléatoires à valeurs entières qui ont la même fonction génératrice? Solution de l exercice 8. a) Soit s (0, 1]. L hypothèse X(Ω) N est inutile pour la mesurabilité, et pour l intégrabilité on peut se contenter de X(Ω) R +. Comme la fonction x R s x R est continue, le fait que X est une variables aléatoire entraine que s X aussi (proposition 2.2.2b du poly). Comme elle est bornée (par 1), il s agit d une variable aléatoire intégrable. Pour s 0, on a s X 1 {X0}, qui est aussi une variable aléatoire, elle aussi bornée donc intégrable. b) Soient s et t des réels tels que 0 s t 1. Pour tout ω Ω, on a 0 s X(ω) t X(ω) 1. Par positivité de l espérance (théorème 2.3.1b), on en déduit que 0 G X (s) G X (t) 1. G X est donc positive et croissante. Enfin, G X (0) P(X 0) et G X (1) 1. c) Soit X une variable aléatoire de loi : (i) Bernoulli de paramètre p [0, 1]. La fonction génératrice de X est G X (s) E[s X ] s 0 P(X 0) + s 1 P(X 1) 1 p + ps. (ii) binomiale de paramètres n 0 et p [0, 1]. La fonction génératrice de X est G X (s) n k0 ( ) n s k p k (1 p) n k (1 p + sp) n. k (iii) géométrique de paramètre p ]0, 1[. La fonction génératrice de X est G X (s) n 0 s n p(1 p) n Notons que son rayon de convergence est égal à 1 p. p 1 s(1 p). (iv) Poisson de paramètre λ > 0. La fonction génératrice de X est G X (s) e λ n 0 s n λn n! e λ+sλ e λ(s 1). d) Deux variables aléatoires à valeurs entières qui ont la même fonction génératrice ont même loi (et la réciproque est triviale). Pour le voir, [ on remarque que ces fonctions sont C et que la dérivée d ordre n de G X est G (n) X (s) E X! (X n)! sx n 1 {X n} ]. En particulier, G (n) X (0) n!p(x n), ce qui permet de retrouver la loi à partir de la fonction génératrice. 6

9. On note N la variable aléatoire comptant le nombre d oeufs qu un insecte donné pond. On suppose que N suit une loi de Poisson de paramètre λ R +. On suppose également que chaque oeuf donne naissance à un nouvel insecte avec probabilité p, indépendamment de l éclosion des autres oeufs. On considère alors une famille (X i ) i 1 de variables aléatoires de loi de Bernoulli de paramètre p [0, 1]. On suppose que les variables aléatoires (N, X 1, X 2,...) sont indépendantes et on note D le nombre de descendants de l insecte. a) Ecrire D en fonction des variables aléatoires N et X i b) Pour tout (n, d) N 2, calculer P(D d N n). c) En déduire la loi de D et la loi de la variable aléatoire de N 2 Z (D, N). d) Retrouver la loi de D en calculant la fonction génératrice de cette variable aléatoire. Solution de l exercice 9. a) On a D N i1 X i (l indice de la somme est lui même alétoire) b) On a : ( N ) ( n ) P(D d N n) P X i d N n P X i d N n. i1 i1 La variable aléatoire n i1 X i somme de n Bernoullis de paramètre p est une loi binomiale de paramètres n et p, d où P(D d N n) C d np d (1 p) n d pour d n, et on a bien sûr P(D d N n) 0 si d > n (le nombre de descendants ne peut être supérieur au nombre d oeufs). c) La variable aléatoire Z (D, N) est à valeurs de N 2. Sa loi est donnée par les valeurs des probabilités P ((D d) (N n)). On a Pour obtenir la loi de D, on écrit P ((D d) (N n)) P (D d N n) P(N n) λ λn P ((D d) (N n)) e n! Cd np d (1 p) n d 1 (d n) P(D d) n 0 P((D d) (N n)) n d (λp)d e λ λ n d (1 p) n d d! (n d)! n d On reconnait la loi de Poisson de paramètre pλ. λ λn e n! Cd np d (1 p) n d pλ (pλ)d e d! 7

d) On peut retrouver ce résultat en utilisant une fonction génératrice. On se rappelle (exercice précédent) que la fonction génératrice d une loi de Bernoulli de paramètre p est 1 p + ps et cette d une loi de Poisson de paramètre µ est e µ(s 1). On écrit : G D (s) E [ s D] [ E s ] N i1 X i E ( ) n0 n0 i1 e pλ(s 1) [ E s ] n i1 X i 1 (Nn) [ n0 n E [ s ] X i P(N n) n0 s N i1 X i 1 (Nn) ] [ E s ] n i1 X i E [ ] 1 (Nn) n0 (1 p + ps) n λn n! e λ On reconnait la fonction génératrice d une loi de Poisson de paramètre pλ, et comme la fonction génératrice caractérise la loi, D suit P(pλ). Les arguments utilisés dans le calcul ci-dessus sont l indépendance des variables aléatoires (qui induit la multiplication des espérances), le fait que l espérance de l indicatrice d une événement soit la probabilité de celui-ci, et une interversion série/espérance en (*) justifiée par le théorème de convergence monotone (les variables aléatoires qui interviennent dans la série sont positives). 8