Durée : 2h Une feuille recto-verso autorisée Calculatrice interdite. Le barême tiendra compte de la rédaction. Justifiez clairement vos réponses.

Documents pareils
4. Martingales à temps discret

Variables Aléatoires. Chapitre 2

Que faire lorsqu on considère plusieurs variables en même temps?

Moments des variables aléatoires réelles

Probabilités III Introduction à l évaluation d options

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Probabilités sur un univers fini

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Fonctions homographiques

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Fonctions de plusieurs variables

Loi binomiale Lois normales

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Suites numériques 4. 1 Autres recettes pour calculer les limites

Chapitre 2 Le problème de l unicité des solutions

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Travaux dirigés d introduction aux Probabilités

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TSTI 2D CH X : Exemples de lois à densité 1

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités sur un univers fini

Simulation de variables aléatoires

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Université Paris-Dauphine DUMI2E 1ère année, Applications

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

108y= 1 où x et y sont des entiers

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Résolution d équations non linéaires

Continuité en un point

Chapitre 6. Fonction réelle d une variable réelle

PROBABILITES ET STATISTIQUE I&II

Statistique : Résumé de cours et méthodes

I. Polynômes de Tchebychev

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Bien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction

BACCALAURÉAT GÉNÉRAL SESSION 2012 OBLIGATOIRE MATHÉMATIQUES. Série S. Durée de l épreuve : 4 heures Coefficient : 7 ENSEIGNEMENT OBLIGATOIRE

Les indices à surplus constant

Processus aléatoires avec application en finance

3 Approximation de solutions d équations

CCP PSI Mathématiques 1 : un corrigé

NOTIONS DE PROBABILITÉS

Comparaison de fonctions Développements limités. Chapitre 10

Introduction à la Statistique Inférentielle

Probabilités Loi binomiale Exercices corrigés

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

4 Distributions particulières de probabilités

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Programmes des classes préparatoires aux Grandes Ecoles

3. Conditionnement P (B)

LISTE D EXERCICES 2 (à la maison)

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Statistiques Descriptives à une dimension

Espérance conditionnelle

Exercices sur le chapitre «Probabilités»

Limites finies en un point


TESTS D'HYPOTHESES Etude d'un exemple

DOCM Solutions officielles = n 2 10.

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Théorème du point fixe - Théorème de l inversion locale

Commun à tous les candidats

Modélisation des risques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Programmation linéaire

Loi d une variable discrète

Économetrie non paramétrique I. Estimation d une densité

Calcul fonctionnel holomorphe dans les algèbres de Banach

1 Complément sur la projection du nuage des individus

Modèles et Méthodes de Réservation

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Lois de probabilité. Anita Burgun

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

Estimation et tests statistiques, TD 5. Solutions

Intégration et probabilités TD1 Espaces mesurés Corrigé

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

BTS Groupement A. Mathématiques Session Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

Chapitre 1 : Évolution COURS

Exercices Corrigés Premières notions sur les espaces vectoriels

Précision d un résultat et calculs d incertitudes

Qu est-ce qu une probabilité?

Coefficients binomiaux

3. Caractéristiques et fonctions d une v.a.

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Suites numériques 3. 1 Convergence et limite d une suite

La fonction exponentielle

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

chapitre 4 Nombres de Catalan

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Théorie des sondages : cours 5

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

1 Définition et premières propriétés des congruences

Transcription:

SY1 Médian A11 Durée : 2h Une feuille recto-verso autorisée Calculatrice interdite Le barême tiendra compte de la rédaction. Justifiez clairement vos réponses. Exercice 1. Soit (Ω, A, IP) un espace de probabilité sur lequel sont définies toutes les variables aléatoires mentionées dans cet exercice. Soit f la fonction définie par f(x) = C exp( x)1i ],+ [ (x), { 1 si x > où C est une constante et où 1I ],+ [ (x) = désigne la fonction indicatrice sur ], + [. si x 1. Déterminer la valeur de C pour que f soit une densité de probabilité. 2. Soit X une variable aléatoire continue admettant f comme densité de probabilité. Déterminer l espérance et la variance de X. 3. Déterminer la fonction de répartition de X. 4. Soit Y la variable aléatoire définie par Y = exp(x). Après avoir exprimé la fonction de répartition de Y en fonction de celle de X, déterminer la fonction de répartition de Y. 5. La variable aléatoire Y admet-elle une densité de probabilité? Si tel est le cas, déterminer cette fonction. Correction 6 points 1. f est une densité de probabilité si C est un réel positif et si f(t)dt = 1 C exp( t)1i ],+ [ (t)dt C [ exp(t)] + = 1 C exp() = 1 C = 1. 2. Si elle existe, l espérance de X est égale à t exp( t)1i ],+ [ (t)dt = [ t exp( t)] + + = 1, f(t)dt = 1, soit exp( t)1i ],+ [ (t)dt qui s obtient en effectuant une intégration par partie (IPP). Si elle existe, la variance de X est égale à Var(X) = IE(X 2 ) (IE(X)) 2, il reste donc à déterminer IE(X 2 ) si elle existe. A partir d une IPP, il vient, t 2 f(t)dt = [ t 2 exp( t) ] + + 2 t exp( t)dt = 2IE(X) = 2. Nous en déduisons que IE(X) = 1 et Var(X) = 1.

3. Soit F la fonction de répartition de X. Pour tout x réel, F (x) = IP(X x) et F (x) = x { si x, exp( t)1i ],+ [ (t)dt = exp( t)dt = 1 exp( x) si x >. x 4. Notons G la fonction de répartition de Y ; G est{ définie sur par : si y y, G(y) = IP(Y y) = IP(exp(X) y) = F (log(y)) si y >. { si y 1 1 1 y si y > 1. { si y 1 5. La fonction G est continue et de fonction dérivée égale à G (y) = 1 qui est si y > 1, y 2 continue sauf en y = 1; par conséquent, Y admet une densité de probabilité g(y) = G (y) pour tout y dans. Exercice 2. Soit (Ω, A, IP) un espace de probabilité sur lequel sont définies toutes les variables aléatoires mentionées dans cet exercice. A. Soient Y et Z deux variables aléatoires de même loi, indépendantes et de loi commune, la loi Géométrique G(p), avec p ], 1[. En utilisant la convolution, déterminer la loi de la variable aléatoire S = Z + Y. B. Soit (X n ) n IN une suite de variables aléatoires de même loi, indépendantes et de loi commune, la loi de Bernoulli de paramètre p, p ], 1[. La suite (X n ) n IN est appelée une suite d épreuves de Bernoulli de paramètre p. Pour r IN, notons T r la variable aléatoire égale au nombre minimal d épreuves de Bernoulli nécessaires à l obtention d exactement r succès et notons W r la variable aléatoire égale au nombre d échecs qui précédent le r-ième succès. 1. Considérons dans cette question r = 2. Après avoir donné l ensemble E T2 des valeurs possibles de T 2, déterminer pour tout k E T2, IP(T 2 = k). Comparer la loi de T 2 avec la loi de S de la question A. 2. Considérons le cas général de r quelconque, r IN. Montrer que pour un k bien choisi, k 1 {T r = k} = { X l = r 1} {X k = 1} = {X 1 +... + X k 1 = r 1} {X k = 1} (1) 3. A partir de la relation (1), montrer pour un k bien choisi que où Ck 1 r 1 (k 1). IP(T r = k) = C r 1 k 1 pr (1 p) k r, désigne les combinaisons de (r 1) éléments dans un ensemble en contenant 4. Etablir une relation simple entre T r et W r ; en déduire l ensemble E Wr des valeurs possibles de W r, puis pour tout k E Wr, déterminer IP(W r = k).

Correction 9 points +.5 BONUS A. Les variables aléatoires Y et Z sont indépendantes; par conséquent la loi de S est le produit de convolution des lois de Y et Z; comme Y et Z suivent la même loi, la loi Géométrique G(p), la variable aléatoire S est à valeurs dans IN \ {1}. En notant p Y et p Z les lois de probabilités de Y et Z, rappelons que p Y (l) = p Z (l) = p(1 p) l 1, l IN (donc p Y () = p Z () =, c est ce qui justifie les bornes de la somme ci-dessous); nous obtenons alors pour tout k IN \ {1}, B. IP(S = k) = = k 1 k 1 p Y (k l)p Z (l) p(1 p) k l 1 p(1 p) l 1 k 1 = p 2 (1 p) k 2 = p 2 (1 p) k 2 (k 1). 1. Le nombre minimum d expériences de Bernoulli permettant d obtenir deux succés est 2; cette valeur est la plus plus petite valeur que peut prendre la variable aléatoire T 2 ; l ensemble des valeurs possibles de T 2 est égal à E T2 = IN \ {1}. Pour tout k E T2, l événement {T 2 = k} signifie que la k-ième expérience est un succès et qu au cours des (k 1) premières expériences, se produisent 1 succès et (k 2) échecs. Nous obtenons donc k E T2, IP(T 2 = k) = C 1 k 1(1 p) k 2 p 2 = (k 1)(1 p) k 2 p 2. La loi de T 2 est donc identique à celle de la variable aléatoire S de la partie A. 2. Par un raisonnement similaire à la question B.1., l événement {T r = k} signifie qu au cours des (k 1) premières expériences de Bernoulli, on a (r 1) succès et donc (k r) échecs, c est à dire k 1 X l = r 1 et que la k-ième expérience de Bernoulli est un succès, c est à dire X k = 1. Pour que cet événement soit non vide, k doit être supérieur ou égal à r. On retrouve ainsi la relation (1) vérifiée pour k r, k entier. 3. La suite des (X l ) l 1 étant une suite de variables aléatoires indépendantes, les événements { k 1 X l = r 1} et {X k = 1} sont indépendants (en tant que fonctions de variables indépendantes). Nous avons vu en cours et en TD que la somme de (k 1) v.a. indépendantes de Bernoulli B(p) suit la loi Binomiale B(k 1, p); d après la relation (1) et par indépendance des deux événements de part et d autre du signe, nous en déduisons que pour k entier et k r, k 1 IP(T r = k) = IP( X l = r 1)IP(X k = 1) 1 = C r 1 k 1 pr (1 p) k r. 4. De part les définitions de T r et W r, il facile d établir que T r = r + W r ; par ailleurs comme T r peut prendre la valeur r et que W r ne peut pas prendre de valeurs négatives, alors la

valeur minimale possible de W r est ; de part l ensemble des valeurs possibles de T r, nous en déduisons que E Wr = IN. Pour tout k E Wr,. IP(W r = k) = IP(T r r = k) = IP(T r = k + r) = C r 1 k+r 1 pr (1 p) k. Exercice 3. Soit (Ω, A, IP) un espace de probabilité sur lequel sont définies toutes les variables aléatoires mentionées dans cet exercice. Soient N une variable aléatoire à valeurs dans IN et (Y l ) l IN une suite de variables aléatoires discrètes de même loi, à valeurs dans IN, (mutuellement) indépendantes et de loi commune (p k ) k IN telle que pour tout k dans IN, p k = IP(Y l = k), l IN. Nous supposons de plus que N et la suite (Y l ) l IN sont indépendantes. Considérons la fonction définie par : A. Cas général. ω Ω, Z N (ω) = Y l (ω). 1. Montrer que la fonction Z N : ω Ω Z N (ω) est une variable aléatoire définie sur (Ω, A, IP). 2. Notons G ZN la fonction génératrice de Z N, h N la fonction génératrice de N et g la fonction génératrice de Y l pour tout l dans IN. (i) Montrer que pour tout k IN, IP(Z N = k) = n 1IP(Z n = k N = n) (ii) En déduire la relation suivante: G ZN (s) = h N (g(s)) = h N g(s). 3. En supposant dérivables en s = 1, les fonctions génératrices G ZN, h N et g, déduire de la question 2.(ii) la relation suivante: IE(Z N ) = IE(N)IE(Y l ) où l est un entier naturel non nul quelconque. B. Application. Le nombre d accidents en une semaine sur la nationale N31, est une variable aléatoire d espérance µ > et de variance σ 2 >. Le nombre d individus blessés à la suite d accident est une variable aléatoire d espérance ν > et de variance τ 2 >. Le nombre d individus dans des accidents différents sont indépendants entre eux et indépendants du nombre d accidents. Supposons que les fonctions génératrices des variables aléatoires, nombre d accidents en une semaine sur la nationale N31 et nombre de blessés par accident soient deux fois dérivables en 1. 1. En utilisant la partie A., déterminer l espérance et la variance du nombre d individus blessés au cours des accidents survenus sur la nationale N31 pendant une semaine donnée. 2. Utiliser l inégalité de Bienaymé-Tchebychev pour déterminer un réel a > µν en fonction de µ, ν, σ 2 et τ 2 tel que la probabilité que le nombre d individus blessés au cours des accidents survenus sur la nationale N31 pendant une semaine donnée soit supérieur à a, est inférieure à.1.

Correction 6 points + 1 point BONUS A. Cas général. 1. Il est clair que l ensemble des valeurs possibles de Z N est IN; par conséquent, montrer que Z N est une variable aléatoire définie sur (Ω, A) revient à montrer que pour tout k IN, l ensemble {ω Ω : Z N (ω) = k} appartient à A. Remarquons que Ω = n 1 {ω Ω : = n} et {ω Ω : = n} {ω Ω : = m} = pour tous les couples (n, m) : n m d entiers strictement positifs, c est à dire {ω Ω : = n} n 1 est une partition de Ω. {ω Ω : Z N (ω) = k} = {ω Ω : Z N (ω) = k} = {ω Ω : = {ω Ω : = n 1 ({ω Ω : = n 1 ({ω Ω : Y l (ω) = k} Y l (ω) = k} ( n 1 {ω Ω : = n}) n Y l (ω) = k} {ω Ω : = n}) Y l (ω) = k} {ω Ω : = n}), (2) où (2) est vraie car l intersection des deux événements est non vide uniquement pour les ω Ω tels que = n. Finalement, le terme de droite dans l équation (2) appartient à A en tant que réunion dénombrable d éléments de A puisqu ils correspondent à une intersection d élements de A (par hypothèse, les variables aléatoires N et (Y l ) l 1 sont définies sur (Ω, A, IP)). 2. (i) A partir de la relation (2) et par σ-additivité de IP, nous avons IP(Z N = k) = n 1 IP(Z n = k N = n) (3) (ii) Par définition de la fonction génératrice, G ZN (s) = IE(s Z N ). Les variables aléatoires N et (Y l ) l 1 sont indépendantes, par conséquent IP(Z n = k N = n) = IP(Z n = n)ip(n = n) = IP( n Y l (ω) = k)ip(n = n). De plus, comme Z n est une somme de n variables aléatoires indépendantes et de même loi (Z n = n Y l (ω)), alors IE(s Zn ) = n IE(s Y l ) = (g(s)) n. Signalons enfin que lorsque les quantités sont positives, il est permis d échanger les signes, c est à dire n 1 k u n,k = k n 1 u n,k, avec u n,k pour tout k et n. Alors à partir de la relation (3), nous avons pour tout k dans IN, G ZN (s) = k s k IP(Z N = k) = s k IP(Z n = k N = n) k n 1 = s k IP(Z n = k)ip(n = n) n 1 k = IP(N = n) s k IP(Z n = k) n 1 k

= IP(N = n)(g(s)) n n 1 = n 1(g(s)) n IP(N = n) = IE(g(s) N ) = h N (g(s)). 3. D après le cours, IE(Z N ) = G Z N (1). Nous dérivons en s l expression de la fonction G ZN de la questions 2 ii), G Z N (s) = h N(g(s))g (s). Remarquons que g(1) = IE(1 Y 1 ) = k 1 k p k = k p k = 1, par conséquent, h N(g(s)) = h N(1) = IE(N). Nous obtenons donc IE(Z N ) = IE(N)IE(Y l ). B. Application. Soient N le nombre d accidents sur la nationale N31 au cours d un semaine, Y le nombre de blessés au cours d un accident et Z N = N Y l le nombre d individus blessés au cours des accidents survenus sur la nationale N31 pendant une semaine donnée. 1. En utilisant directement la partie A., IE(Z N ) = IE(N)IE(Y l ) = µν. Nous avons G Z N (s) = h N(g(s))(g (s)) 2 + h N(g(s))g (s). Remarquons que h N(1) = σ 2 + µ 2 µ et g (1) = τ 2 + ν 2 ν puisque d après le cours, h N(1) = Var(N) + (IE(N)) 2 IE(N) et g (1) = Var(Y ) + (IE(Y l )) 2 IE(Y l ) alors pour s = 1, G Z N (1) = h N(g(1))(g (1)) 2 + h N(g(1))g (1) = h N(1)(g (1)) 2 + h N(1)g (1) = (σ 2 + µ 2 µ)ν 2 + µ(τ 2 + ν 2 ν) = (σ 2 + µ 2 )ν 2 + µ(τ 2 ν). (4) la variance de Z N se déduit de la relation (4) : Var(Z N ) = (σ 2 + µ 2 )ν 2 + µ(τ 2 ν) + µν(1 µν) = σ 2 ν 2 + µτ 2. 2. D après la question B1., l espérance et la variance de Z N existent. Rappelons que pour tout variable aléatoire C et tout réel c, l implication suivant est vraie : C > c C > c, puisque C > C; par conséquent, on a l inclusion des événements {C > c} { C > c}, ce qui entraine une relation d ordre sur les probabilités correspondantes, soit IP(C > c) IP( C > c). En appliquant l inégalité de Bienaymé-Tchebychev, nous cherchons à déterminer un réel a > µν tel que IP(Z N > a) = IP(Z N µν > a µν) IP( Z N µν > a µν) Var(Z N) (a µν) 2.1. (5) De (5), nous en déduisons un réel a qui vérifie l inégalité suivante : σ 2 ν 2 + µτ 2.1 (a µν) 2 1 (σ 2 ν 2 + µτ 2 ) (a µν) 2 µν + 1 (σ 2 ν 2 + µτ 2 ) a.