Événements et probabilités, probabilité conditionnelle et indépendance



Documents pareils
Moments des variables aléatoires réelles

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Probabilités sur un univers fini

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Travaux dirigés d introduction aux Probabilités

3. Caractéristiques et fonctions d une v.a.

Variables Aléatoires. Chapitre 2

Simulation de variables aléatoires

Espérance conditionnelle

4 Distributions particulières de probabilités

Probabilités sur un univers fini

TSTI 2D CH X : Exemples de lois à densité 1

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Probabilités. C. Charignon. I Cours 3

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Qu est-ce qu une probabilité?

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Cours d Analyse. Fonctions de plusieurs variables

P1 : Corrigés des exercices

Couples de variables aléatoires discrètes

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Statistiques Descriptives à une dimension

Programmes des classes préparatoires aux Grandes Ecoles

Calculs de probabilités conditionelles

1 TD1 : rappels sur les ensembles et notion de probabilité

3. Conditionnement P (B)

Probabilités conditionnelles Loi binomiale

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Que faire lorsqu on considère plusieurs variables en même temps?

Université Paris 8 Introduction aux probabilités Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité

Correction du Baccalauréat S Amérique du Nord mai 2007

Probabilités Loi binomiale Exercices corrigés

Loi binomiale Lois normales

PROBABILITES ET STATISTIQUE I&II

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Loi d une variable discrète

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Correction du baccalauréat ES/L Métropole 20 juin 2014

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

CCP PSI Mathématiques 1 : un corrigé

Chapitre 2 Le problème de l unicité des solutions

3 Approximation de solutions d équations

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Théorème du point fixe - Théorème de l inversion locale

Exercices sur le chapitre «Probabilités»

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Limites finies en un point

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Feuille d exercices 2 : Espaces probabilisés

MA6.06 : Mesure et Probabilités

M2 IAD UE MODE Notes de cours (3)

Méthodes de Simulation

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Exercices supplémentaires sur l introduction générale à la notion de probabilité

Image d un intervalle par une fonction continue

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Probabilités et statistique. Benjamin JOURDAIN

MÉTHODE DE MONTE CARLO.

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

Calcul élémentaire des probabilités

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #4-5

Probabilités conditionnelles Exercices corrigés

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

MODELES DE DUREE DE VIE

Probabilités conditionnelles

Calculs de probabilités

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Université Paris-Dauphine DUMI2E 1ère année, Applications

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Chaînes de Markov au lycée

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

4. Martingales à temps discret

Modélisation et simulation

Probabilités III Introduction à l évaluation d options

Les indices à surplus constant

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Introduction au Calcul des Probabilités

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

I. Polynômes de Tchebychev

Le modèle de Black et Scholes

La fonction exponentielle

Coefficients binomiaux

Fonctions de plusieurs variables

Quantification Scalaire et Prédictive

Annexe commune aux séries ES, L et S : boîtes et quantiles

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Intégration et probabilités TD1 Espaces mesurés Corrigé

Développement décimal d un réel

Résolution d équations non linéaires

Estimation et tests statistiques, TD 5. Solutions

Transcription:

Chapitre 1 Événements et probabilités, probabilité conditionnelle et indépendance On cherche ici à proposer un cadre mathématique dans lequel on puisse parler sans ambiguité de la probabilité qu un événement A donné se réalise lors du déroulement de l expérience E à résultat aléatoire ou de la probabilité qu une variable X dont la valeur dépend du résultat de E prenne sa valeur dans un domaine donné. 1.1 Notions de base Définition 1.1 Ω est l ensemble de toutes les éventualités, ou résultats possibles d une expérience aléatoire E. On l appelle espace d échantillonnage ou ensemble fondamental. Définition 1.2 un événement A est un ensemble d éventualités possédant la même propriété. Il est donc représenté par un sous-ensemble A de Ω. Si le résultat d une expérience est un élément de A, on dit que l événement A a été réalisé. L ensemble vide Ø est appelé événement impossible, puisqu aucun élément de Ø ne peut être réalisé. L ensemble des cas possibles Ω est appelé événement certain. Un événement ne comportant qu un seul résultat possible est appelé événement élémentaire. L événement A complémentaire de A dans Ω, est appelé événement contraire de A. Étant donnés deux événements A et B, on définit : A B la conjonction des événements A et B, réalisé si A et B sont tous les deux réalisés. Si A B = Ø, on dit que les événements A et B sont incompatibles ou disjoints (ou encore, mutuellement exclusifs). A B, réalisé si A, ou B, ou (A et B) sont réalisés. A B, réalisé si A est réalisé, mais pas B. Opérations sur les événements Soient trois événements A, B, C : A = A A (B C) = (A B) C = A B C A (B C) = (A B) C = A B C A (B C) = (A B) (A C) A (B C) = (A B) (A C)

2CHAPITRE 1. ÉVÉNEMENTS ET PROBABILITÉS, PROBABILITÉ CONDITIONNELLE ET INDÉPENDANCE A B = A B A B = A B Définition 1.3 On appelle probabilité une application P de l ensemble d événements Ω sur [0, 1] telle que : 1. P (Ω) = 1 2. Pour toute suite {A n } n 1 d événements de Ω deux à deux incompatibles (i.e. 2 à 2 disjoints : A i A j = Ø si i j), alors : P A n = P (A n ) n 1 n 1 Consequences : A de Ω, 0 P (A) 1 Si A B = Ø, alors P (A B) = P (A) + P (B) Si A 1, A 2,..., A n sont des événements élémentaires et i A i = ω, alors P (A 1 ) + P (A 2 ) +... + P (A n ) = 1 Si tous les événements élémentaires sont équiprobables, c est-à-dire, si P (A k ) = 1 n pour k = 1, 2,..., n, alors, si A est constitué de m événements élémentaires de ce type, P (A) = m n = card(a) card(ω) On dit que P est la loi uniforme sur Ω. Lorsque l espace fondamental Ω est fini ou dénombrable, définir la probabilité P sur les événements Ω équivaut à se donner la famille {p ω } ω Ω des probabilités individuelles, i.e. p ω = P ({ω}), ω Ω. Soit A Ω, alors : P (A) = ω A p ω. Propriétés élémentaires : 1. P (A B) = P (A) + P (B) P (A B). Justification : A B = (A B) B = P (A B) = P (A B) + P (B), et A = (A B) (A B) = P (A) = P (A B) + P (A B) 2. P (A) = 1 P (A). Justification : Ω = A A = P (Ω) = P (A) + P (A) = 1. 3. P (Ø) = 0. 4. Si A B, alors P (A) P (B) (P est une fonction croissante). 5. Si A B, alors P (B/A) = P (B) P (A). 1.2 Probabilité conditionnelle Exemple 1.1 Composition d une famille composée de 2 enfants Ω = {(G, G), (G, F ), (F, G), (F, F )} 4 éventualités supposées équiprobables. } {{ } } {{ } } {{ } } {{ } 1/4 1/4 1/4 1/4 A = La famille a 2 garçons. P (A) = 1/4 B = La famille a au moins un garçon. P (B) = 3/4 Supposons que l on sache que l événement B est réalisé, que devient la probabilité de A?

1.3. EVÉNEMENTS INDÉPENDANTS 3 Définition 1.4 soient A et B deux événements tel que P (B) 0. On appelle probabilité conditionnelle de A sachant B la probabilité que A se réalise, sachant que B est déjà réalisé. Dans la mesure où nous savons que B est réalisé, il devient le nouvel espace d échantillonnage remplaçant Ω, ce qui conduit à la définition suivante : P (A B) = P (A B) P (B) On peut écrire également : On en déduit : P (B A) = P (A B). P (A) P (A B) = P (B)P (A B) = P (A)P (B A). Système complet d événements : {A n } n 1 forme un système complet d événements lorsque {A n } n 1 forme une partition de Ω, i.e. : n 1, A n Ø i, j 1, i j, A i A j = Ø A n = Ω n 1 Théorème 1.1 (des probabilités totales) Soit {A n } n 1 un système complet d événements. Alors, quelque soit événement B : P (B) = n 1 P (B A n )P (A n ) Théorème 1.2 (de Bayes) Soit {A n } n 1 un système complet d événements, et B un événement tel que P (B) 0. On a, pour tout i : P (A i B) = P (A i B) P (B) = P (B A i)p (A i ) P (B) = P (B A i)p (A i ) P (B A n )P (A n ) n 1 1.3 Evénements indépendants Étant donnés deux événements A et B (avec P (B) > 0), la probabilité conditionnelle P (A B) apparaît comme une évaluation de voir A se réaliser compte tenu de l information B est quant à lui réalisé. Si, au sens du langage courant, on considère que A et B sont indépendants, on est raisonnablement amené à souhaiter que P (A B) = P (A). Mais alors, c est que : P (A B) = P (A) P (B) Définition 1.5 Deux événements A et B sont dits indépendants si : P (A B) = P (A) P (B)

4CHAPITRE 1. ÉVÉNEMENTS ET PROBABILITÉS, PROBABILITÉ CONDITIONNELLE ET INDÉPENDANCE Conséquences : Si A et B sont indépendants, il en est de même de A et B ; de A et B ; de A et B. Tout événement A est indépendant de l événement certain Ω et de l événement impossible Ø. En général, on a P (A B) P (A) ce qui signifie que A dépend de B. Si les événements A 1, A 2,..., A m sont indépendants alors P (A 1 A 2... A m ) = P (A 1 )P (A 2 )...P (A m ). (1.1) Si A 1, A 2,..., A m sont indépendants alors ils le sont également deux à deux : P (A j A k ) = P (A j )P (A k ) pour j k où j, k = 1, 2,..., m. Cependant, ni l une ni l autre n est en soi-même suffisante. La definition de l indépendance de A 1,..., A m demande que (1.1) soit vérifié aussi avec A i, i = 1,..., m remplacés par A c i (il s agit de 2m relations!).

1.4. EXERCICES 5 1.4 Exercices Exercice 1.1 Soit A et B deux événements de Ω, P(A)=2/3, P (B) = 1/6, P (A B) = 1/9. Que vaut P (A B)? Soit P (A) = 1/3, P (B) = 1/2 et P (A B) = 3/4. Calculez P (A B) et P (A c B c ). Si P (A) = 0.9, P (B) = 0.8, montrer que P (A B) 0.7. Exercice 1.2 Soit D 1 et D 2 représentent désastres dont les probabilités sont P (D 1 ) 10 6, P (D 2 ) 10 9. Que peut-on dire de la probabilité qu au moins une des désastres ait lieu? les deux aient lieu? Exercice 1.3 Un composant électronique sert a déclencher une alarme si une condition extraordinaire se présente. Ce composant est fiable a 96%. On envisage de mettre un certain nombre de ces composants en parallèle pour augmenter la fiabilité du système d alarme. Combien de composants doit-on placer en parallèle de telle sorte que la fiabilité du système soit d au moins 99.99% Exercice 1.4 On considère l experience suivante : vous participer au jeu télévisé de Monty Hall, dans lequel vous avez choix de 3 portes dont une cache une voiture et les deux autres une chèvre. Vous choisissez une porte, par exemple, porte 1, et le hôte de jeu, qui sait où se trouve la voiture, ouvre une porte derrière laquelle est une chèvre, par exemple, porte 3. Il vous dit Voulez-vous choisir maintenant la porte 2? Avez-vous l intérêt de changer votre choix? On note par a la porte avec la voiture et par b et c les 2 autres portes. L espace d événements de l experience est Ω = {a, b, c} {a, b, c} (le premier est le choix du candidat et le second est celui de l hôte). 1. Faites le tableau 3 3 avec des probabilités de tous les issus possibles de l experience. Vous devez tenir compte du fait que le candidat ne sais pas que la voiture est derrière la porte a, mais le hôte le sais et n ouvre jamais cette porte. Vous pouvez supposer que le hôte choisit arbitrairement la port b ou c quand le joueur choisit a. 2. Considérez le cas de candidat qui ne change pas la porte. Quel est l événement le joueur gagne, quelle est sa probabilité? 3. Considérez le cas de candidat qui change la porte. Quel est l événement le joueur gagne dans ce cas, quelle est sa probabilité? Exercice 1.5 Soit A et B deux événements. Montrer que P (A B) + P (A B) = 1 (A et A, forment-ils un système complet d événements?). Exercice 1.6

6CHAPITRE 1. ÉVÉNEMENTS ET PROBABILITÉS, PROBABILITÉ CONDITIONNELLE ET INDÉPENDANCE Une enquête effectuée auprès d un grand nombre d étudiants de l Université a permis d estimer qu il y a une probabilité de : 0.7 pour qu un étudiant soit intéressé par l informatique, 0.4 pour qu il soit intéressé par les mathématiques ; 0.25 pour qu il soit intéressé par ces deux matières. Quelle est le probabilité qu un étudiant : soit intéressé par l info et pas par les maths ; soit intéressé par l info ou par les maths ; ne soit pas intéressé ni par l info ni par les maths. Exercice 1.7 Calculer la probabilité que 3 personnes choisies aux hazard soient nées les mois différents. Pouvezvous donner la formule pour n personnes? Exercice 1.8 Dans l experience de Monty Hall (cf 1.4). Soit R l événement le prix est derrière la porte vous avez choisie au depart et G l événement vous gagnez en changeant la porte. 1. Calculer P (G R) et P (G R c ). 2. Calculer P (G) en utilisant la formule des probabilités totales. Exercice 1.9 Une classe comporte 10 garçons dont la moitié a les yeux marron et 20 filles dont la moitié a également les yeux marron. Calculer la probabilité P qu une personne tirée au hasard soit un garçon ou ait les yeux marrons. Les événements élève est un garçon et élève a les yeux marron sont-ils indépendants? Exercice 1.10 La probabilité pour que l alcootest d un ivrogne soit positif est 0.95. La probabilité pour que l alcootest d un individu non ivre soit négatif est aussi 0.95. Soit P la probabilité qu un français soit ivre. Calculer la probabilité qu à un français d être ivre sachant que son alcootest est positif, ainsi que la probabilité qu il ne soit pas ivre sachant que sont alcootest est négatif. Faire le calcul pour P = 0.01 et P = 0.001. Exercice 1.11 Soit A et B événements indépendants, P (B A B) = 2/3, P (A B) = 1/2. Quelle est P (B)?

Chapitre 2 Variable aleatoire discrete Une variable réelle dont la valeur dépend du résultat d une expérience aléatoire est appelée variable aléatoire (v.a.). Elle est généralement désigée par une lettre majuscule. Exemple 2.1 Supposons que nous lancions deux fois une pièce de monnaie. L espace d échantillonnage est Ω = {F F, P F, F P, P P }. Soit alors X le nombre de faces possibles. A chaque point de l espace d échantillonnage, nous pouvons associer une valeur de X (cf tableau). X est une variable aléatoire. échantillon FF FP PF PP valeurs 2 1 1 0 Définition 2.1 on appelle variable aléatoire réelle toute application X : Ω R telle que pour tout intervalle I de R l ensemble {X I} est un événement de Ω, et possède donc une probabilité notée P (X I). Définition 2.2 On appelle fonction de répartition de la v.a. X la fonction F X : R [0, 1] telle que F X (t) = P (X t), Propriétés : 1. F X est croissante, lim t F X (t) = 0, lim t + F X (t) = 1. 2. si a < b, P (a < X b) = F X (b) F X (a). Une v.a. qui peut prendre un nombre fini ou dénombrable fini de valeurs est dite variable aléatoire discrète. Si elle peut prendre un nombre infini non dénombrable de valeurs, elle est dite variable aléatoire continue. 2.1 Variables aléatoires discrètes Soit X une v.a. discrète et soient x 1, x 2, x 3,... ses valeurs possibles, ordonnées par ordre croissant. On suppose que la probabilité de chacune de ces valeurs est : pour k = 1, 2, 3,... P (X = x k ) = f(x k ) Définition 2.3 On définit la fonction de probabilité f(x k ) telle que : 1. f(x) 0

8 CHAPITRE 2. VARIABLE ALEATOIRE DISCRETE 2. k f(x k) = 1 où la somme en (2) est prise sur toutes les valeurs possibles de X. Exemple 2.2 (cf Exemple 2.1) En supposant que la pièce n est pas truquée, On écrit : P (F F ) = P (F P ) = P (P F ) = P (P P ) = 1 4 P (X = 0) = P (P P ) = 1 4 P (X = 1) = P (P F F P ) = P (P F ) + P (F P ) = 1 4 + 1 4 = 1 2 P (X = 2) = P (F F ) = 1 4 La fonction de répartition d une v.a. discrète X se déduit de la fonction de probabilité, en remarquant que F X (t) = P (X t) = P (X = x k ) = f(x k ). x k t x k t Remarque : Soit X une v.a. qui prend des valeurs entières positives. Dans les exercices, on est parfois amené à utiliser les astuces suivantes : P (X = k) = P (X k) P (X k + 1) = P (X > k 1) P (X > k) = P (X k) P (X k 1) = P (X < k + 1) P (X < k) k P (X k) = P (X = i), + P (X k) = P (X = i) i=0 i=k 2.1.1 Exemples de distributions discrètes de probabilité On considère des expériences telles que le lancer répétitif de pièces ou de dés, ou le tirage de boules dans une urne, chaque lancer est dit essai. Au cours de chacun des essais, chaque événement particulier (obtention d une face, d un 1, d une boule rouge) est associé à une probabilité de réussite. Dans certains cas, comme dans le cas du lancer de pièce ou de dé, cette probabilité ne va pas varier d essai en essai. Les essais de ce type sont dits essais indépendants de Bernouilli. Loi de Bernouilli : réalisation d une expérience n ayant que deux issues possibles, 1= succès et 0= échec. La distribution d une v.a. X prenant les valeurs 1 et 0 avec les probabilités p et 1 p s appelle la loi de Bernoulilli et est notée B(1, p). On note que q = 1 p est la probabilité d échec. La probabilité pour que l événement (le succès) se réalise k fois exactement au cours de n essais est donnée par la probabilité : f(x) = P (X = x) = C k np k (1 p) n k

2.1. VARIABLES ALÉATOIRES DISCRÈTES 9 où la variable X est le nombre de succès au cours de n essais. Cette fonction de probabilité est appelée distribution binômiale, dans la mesure où, pour k = 0, 1, 2,..., n, elle correspond aux termes successifs du développement du binôme : (q + p) n = q n + C 1 np 1 (1 p) n 1 + C 2 np 2 (1 p) n 2 +... + p n = n Cnp x x (1 p) n x. 0 Loi binomiale est la loi du nombre de succès X pendant la réalisation de n essais indépendants dans le schéma de Bernouilli. Elle est notée B(n, p) Soit la v.a. X représente le nombre d essais de Bernouilli jusqu à ce que le premier succès (inclus) se réalise. Ici, p est la probabilité de succès pour un essai : f(x) = P (X = k) = pq k 1 pour k = 1, 2,... (exactement k 1 échecs avant le succès au k-ème essai). Loi géométrique est la loi du temps X d attente du premier succès dans les réalisations d essais indépendants du schéma de Bernouilli. Elle est notée G(p). Exemple 2.3 On considère un ensemble de n machines indépendantes assemblées selon une certaine configuration pour constituer un système dont on s intéresse au bon fonctionnement (pour un certain cahier des charges) pour des périodes d utilisation successives 1, 2,..., k,.... On suppose que pour la i-ième machine la probabilité de panne lors d une période donnée est p i et que de plus les comportements de la dite machine sur les différentes périodes sont indépendants. Soit X i la variable aléatoire définie par le rang de la période où se produit la première panne pour le i-ième machine. On a : P (X i = k) = p i (1 p i ) k 1 On dit que la variable aléatoire X i est de loi géométrique de paramètre p i. Loi de Poisson Soit une X une v.a. discrète, pouvant prendre les valeurs k = 0, 1, 2,... telles que la fonction de distribution s exprime : f(k) = P (X = k) = λk exp ( λ) k! avec λ > 0 donné. Cette distribution est celle de la loi de Poisson. Elle est notée P(λ).

10 CHAPITRE 2. VARIABLE ALEATOIRE DISCRETE 2.2 Exercices Exercice 2.1 Soit X une v.a. discrète avec dont la fonction de probabilité est x -1 0 1 2 1 1 1 1 f(x) 4 8 8 2 1. Soit la v.a. Y = X 2. Calculer la fonction de probabilité f Y de Y. 2. Calculer la fonction de répartition de X et de Y en x = 1, x = 3/4 et x = π 3. Exercice 2.2 Supposons que la fonction de répartition d une v.a. discrete X est donnée par 0, x < 0, 1 F (x) = 3, 0 x < 1 2, 1 2, 1 2 x < 3 4, 1, x 3 4. Déterminer la fonction de probabilité de X. Exercice 2.3 On lance n pieces, dont la probabilité de pile est p, chaque lancée étant indépendante des autres. Toute piece tombée sur face est relancée encore une fois. Soit X le nombre total de piles. 1. Quelle est la loi de X? Préciser les paramètres de cette loi. 2. Quelle est la fonction de probabilité de X? Exercice 2.4 On tire au hasard 3 fois un nombre parmi {1, 2, 3}. Soit X i le résultat du i-ème tirage, alors la fonction de probabilité f(x) de X i est 1 3 pour x = 1, 2, 3 et f(x) = 0 pour tout autre x. On suppose que chaque tirage est indépendant des autres. Soit la moyenne de X i, i = 1,..., 3. X = X 1 + X 2 + X 3 3 1. Donner la fonction de probabilité f X de X. 2. Calculer la probabilité qu exactement 2 tirages donnent 1. Exercice 2.5 Un magasin reçoit 1000 ampoules. La chance qu une ampoule soit défectueuse est 0.01%. Soit X le nombre d ampoules défectueuses dans la cargaison. 1. De quel type est la loi de X? Quels sont les paramètres de cette distribution? 2. Quelle est la probabilité que n y aucune, une, plus de deux ampoules défectueuses. Exercice 2.6

2.2. EXERCICES 11 Vous avez décidé de jouer chaque mois aux 2 loterie différentes, et vous arrêtez des que vous gagnez un prix d au moins 1 million d euros dans une (ou même les deux) loterie. On suppose que chaque fois vous jouez la probabilité de gagner au moins 1 million est p 1 pour la premiere loterie et p 2 pour la seconde. Soit M le nombre de fois vous participez dans ces lotteries jusqu à avoir gagner un prix. Quelle est la loi de M? quel est son paramètre? Exercice 2.7 On lance une piece jusqu à ce que pile apparaisse une seconde fois, avec p étant la probabilité de pile. On suppose l indépendance de tous les lancés. Soit X le nombre de lancés nécessaires. 1. Déterminez P (X = 2), P (X = 3), P (X = 4). 2. Montrez que P (X = n) = (n 1)p 2 (1 p) n 2. Exercice 2.8 On étudie l arrivée des appels dans un central téléphonique. On admet que, durant un intervalle de temps de dix secondes, la probabilité qu un appel arrive est p et que celle qu aucun ne survienne de 1 p (on néglige la probabilité que plus d un appel ne survienne sur un tel intervalle de temps). On suppose que les événements concernant les périodes successives de dix secondes sont indépendants. Soit Z la variable aléatoire N d appels reçus en une heure. Quelle est la loi de Z? Donner une approximation de la probabilité qu il y ait quinze appels dans l heure avec p = 0.05.

12 CHAPITRE 2. VARIABLE ALEATOIRE DISCRETE

Chapitre 3 Variables aléatoires continues et simulation 3.1 Variable aléatoire continue Dans l immédiat nous avons besoin d une variable continue U bien particulière. Loi uniforme. Une v.a. U est distribuée uniformément sur a u b si sa fonction de répartition s exprime : 0 u < a u a F U (u) = P (U u) = b a a u < b 1 u b Notons que la dérivée f U de F U (on l appelle la densité de F U ) est donnée par (uniforme sur [a, b]). f U (x) = { 1 b a a x b 0 ailleurs Remarque : dans le cas discret, l expérience correspondante consiste au tirage d un objet parmi n, X est le numéro de l objet tiré. La loi de distribution uniforme est notée U(a, b). On note que si X est une v.a. continue, la probabilité que X prenne une valeur particulière quelconque est généralement nulle. Dans ces conditions, il n est pas possible de définir une fonction de probabilité comme pour une v.a. discrète. Pour pouvoir définir une distribution de probabilités dans ce cas, on remarque que la probabilité pour que la valeur de X soit comprise entre deux valeurs différentes est une notion qui a un sens. L analogie avec la section 2.1 nous conduit à postuler l existence d une fonction f X (x) telle que : 1. f X (x) 0 2. + f X(x) = 1 Définition 3.1 La probabilité pour que la variable aléatoire continue X soit comprise entre a et b est donnée par : P (a < X < b) = b a f X (x)dx. La fonction f X est appelée densité de probabilité définie pour une v.a. continue.

14 CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES ET SIMULATION Conséquence : la fonction de répartition (f.d.r.) F (x) d une v.a. continue est donnée par : et f X (x) = F X (x). Loi exponentielle F X (x) = P (X x) = P ( < X x) = x f X (u)du, Définition 3.2 Une variable aléatoire X suit la loi exponentielle de paramètre λ > 0 (on note X E(λ) si sa f.d.r s écrit { 0, x < 0, F X (x) = P (X x) = 1 e λx, x 0. En dérivant F on obtient la densite de E(λ) : { 0, x < 0, f(x) = λe λx, x 0. A noter que dans la literature on utilise souvent la notation E(µ) pour la loi exponentielle de paramètre λ = 1 µ. Ceci peut être une source de confusion dans ce cas, par exemple, la densite de la loi s écrit { 0, x < 0, f(x) = 1 x µ e µ, x 0. Loi normale Définition 3.3 Une variable aléatoire X suit la loi normale de paramètres µ et σ 2 > 0 (on note X N (µ, σ 2 ) si sa densite de probabilité est f X (x) = 1 x µ e ( σ ) 2, < x <. 2πσ On appelle N (0, 1) la loi normale standardisée, on note φ(x) la densite de N (0, 1) : φ(x) = 1 2π e x2 2, < x <, et Φ(x) la f.d.r de cette loi. La loi N (0, 1) est symétrique par rapport à 0, c.-à.d. φ( x) = φ(x) et, en consequence, Φ( x) = 1 Φ(x). Loi de Pareto Définition 3.4 Une variable aléatoire X suit la loi de Pareto de paramètre α (on note X P ar(α) si sa f.d.r. est { 0, x < 1, F X (x) = 1 x α, x 1. En dérivant nous avons densite de la loi P ar(α) : { 0, x < 1, f X (x) = α, x 1. x α+1

3.2. SIMULATION 15 3.2 Simulation Dans les applications on a souvent besoin de générer (construire) de façon artificielle (à l aide d un ordinateur, par exemple) des nombres aléatoires X 1,..., X n suivant la loi F (on l appelle un échantillon). Les méthodes de simulation permettent d obtenir seulement une valeur pseudoaléatoire, au lieu d une valeur aléatoire. Cela signifie que les nombres X 1,..., X n simulés sont déterministes ils sont obtenus par un algorithme déterministe mais les propriétés de la suite X 1,..., X n sont proches de celles d une suite aléatoire i.i.d. de même loi. 3.2.1 Simulation des variables uniformément distribuées Le programme-générateur est disponible dans les nombreux langages de programmation. Quel est le principe de son fonctionnement? On se donne un nombre réel a > 1 et un nombre entier m (d habitude a et m sont des très grands nombres). On commence par une valeur z 0 fixe. Pour tout 1 i n on définit z i = le reste de division de az i 1 par m [ ] azi 1 = az i 1 m, m où [ ] est partie entière. Nous avons toujours 0 z i < m. On définit U i = z i m = az i 1 m [ ] azi 1, m alors 0 U i < 1. La suite U 1,..., U n est considérée comme un échantillon de la loi uniforme U[0, 1]. Les valeurs suivantes de paramètres sont très répandues et donnent en général satisfaction : a = 16807(7 5 ), m = 2147483647(2 31 1). 1 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Figure 3.1 la f.d.r en escalier d une variable pseudo-aleatoire et la f.d.r. théorique 3.2.2 Simulation des variables d une loi générale Étant donné une variable aléatoire U de loi uniforme, on peut obtenir variable aléatoire X d une loi générale F ( ) par la méthode d inversion. Elle marche bien si on possède une expression explicite pour F ( ). Cette méthode est basée sur la proposition suivante :

16 CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES ET SIMULATION Proposition 3.1 Soit F une f.d.r. continue et strictement monotone, et soit U une variable aléatoire uniformément distribuée sur [0, 1]. Alors la v.a. a F ( ) comme f.d.r. Preuve : On note que X = F 1 (U) F (x) = P (U F (x)) = P (F 1 (U) x) = P (X x). D où l algorithme de simulation suivant : si F (x) est continue est strictement croissante, on prend X = F 1 (U), où U est un nombre pseudo-aléatoire uniformément distribué sur [0, 1]. Si F n est pas continue ou strictement monotone, il faut modifier la définition de F 1. On pose F 1 (y) = sup{t : F (t) < y}. Alors, P (X x) = P (sup{t : F (t) < U} x) = P (U F (x)) = F (x). Exemple 3.1 Répartition exponentielle : F (x) = (1 ɛ x ) pour x 0. On calcule F 1 (y) = ln(1 y) pour y (0, 1). X = ln(1 U) où U U[0, 1]. Exemple 3.2 Loi de Bernoulli : On utilise la méthode modifiée : P (X = 1) = p, P (X = 0) = 1 p, 0 < p < 1. F 1 (y) = sup{t : F (t) < y} = { 0, y [0, 1 p], 1, y (1 p, 1]. Si U est une v.a. de loi uniforme, alors X = F 1 (U) suit la loi de Bernoulli, on a X = { 0, U [0, 1 p], 1, U (1 p, 1]. Simulation des variables transformées Comment simuler une v.a. Y de loi F ((x µ)/σ), étant donné v.a. X de F ( )? On suppose que σ > 0 et µ R). Il faut prendre Y = σx + µ (pourquoi?).

3.3. EXERCICES 17 3.3 Exercices Exercice 3.1 Soit X une v.a. continue avec la densite de probabilité 1. Dessinez le graphe de f. 3 4, pour 0 x 1, 1 f(x) = 4, pour 2 x 3, 0, partout ailleurs. 2. Déterminez la f.d.r. F de X, dessinez le graphe de F. Exercice 3.2 Supposons que la fonction de répartition d une v.a. continue X, à valeurs dans [0, 1] est donnée par F (x) = x 2, 0 x 1. ( Calculer P 1 2 4) X 3. Exercice 3.3 La densite de probabilité f d une v.a. X est donnée par 1. Determiner c. 2. Calculer la fonction de repartition de X. Exercice 3.4 Soit X E(0.2) Calculer P (X > 5). Exercice 3.5 cx + 3, pour 3 x 2, f(x) = 3 cx, pour 2 x 3, 0, partout ailleurs. La note d un étudiant reçue à un examen est une valeur entre 0 et 1. L étudiant passe son examen si sa note est au moins 0.55. On modélise cette experience par une v.a. continue N (la note), dont la densité est donnée par 4x, pour 0 x 1 2, f(x) = 4 4x, pour 1 2 x 1, 0, partout ailleurs. 1. Quelle est la probabilité que l étudiant échoue? 2. Quel note il obtiendra avec au moins 50% de chance, autrement dit, quelle est la médiane de la distribution de notes? Exercice 3.6

18 CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES ET SIMULATION On consider l experience de jeu de fléchettes, dans laquelle on décrit la distance d une fléchette Y lancée par un joueur au centre du disque par la loi de probabilité avec la f.d.r. r étant le rayon du disque. 0, y < 0, G(y) = y r, 0 y r 1, y > r, 1. Esquisser la densite de probabilité g(y) = G (y). 2. Une autre personne participe au jeu, pour ce joueur la probabilité que sa fléchette frappe une region et proportionnelle à l aire de cette region (autrement dit, le point d impact est uniformément distribué sur le disque). A votre avis, lequel des 2 joueur est meilleur? 3. Esquisser la fonction de repartition associée à une personne qui dans 90% de ses lancées frappe le disque à la distance au centre ne dépassant pas 0.1r. Exercice 3.7 Supposons qu on choisit de façon arbitraire un point P dans le carré avec les sommets en (2.1), (3, 1), (2, 2) et (3, 2). La variable aléatoire A est l aire de triangle avec les sommets en (2, 1), (3, 1) et P. 1. Quelle est la surface A maximale qu on peut obtenir? Quelle est l ensemble de points P pour lesquels A 1 4? 2. Determiner la f.d.r. F de A et sa densite de probabilité. Exercice 3.8 1. Calculer la médiane de la loi exponentielle E(λ). 2. Calculer la médiane de la loi de Pareto P ar(1). Exercice 3.9 On considère une v.a. Z N(0, 1). 1. Montrez pourquoi la symétrie de la densite φ de Z implique que Φ( x) = 1 Φ(x). 2. Calculez P (Z 2). Exercice 3.10 Une v.a. Y prend les valeurs 1, 3 et 4 avec les probabilités P (Y = 1) = 3/5, P (Y = 3) = 1/5 et P (Y = 4) = 1/5. Décrivez comment vous allez obtenir Y à partir d une v.a. U U(0, 1). Exercice 3.11 Soit U U(0, 1). 1. Expliquez comment obtenir une simulation de dés à 6 faces à partir de U. 2. Soit Y = [6U + 1], où [a] est la partie entière de a. Quelles sont les valeurs possibles de Y et leurs probabilités? Exercice 3.12

3.3. EXERCICES 19 Dans la modélisation de durée de vie des composants mécaniques on utilise quelquefois des v.a. de loi de Weibull. Un exemple de loi de cette famille est la loi dont la f.d.r est { 0, x < 0 F (x) = 1 e 5x2, x 0. Construire une variable Z avec cette loi à partir d une v.a. de loi U(0, 1). Exercice 3.13 La v.a. X suit la loi de Pareto P ar(3), dont la f.d.r. est F (x) = 0 pour x < 1 et F (x) = 1 x 3 pour x 1. Décrivez la construction de X à partir d une v.a. U U(0, 1).

20 CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES ET SIMULATION

Chapitre 4 Espérance, variance, écart-type 4.1 Espérance (moyenne théorique) Définition 4.1 soit X une variable aléatoire discrète numérique (i.e. X(Ω) R). Si x k P (X = x k ) x k X(Ω) converge, on appelle espérance mathématique de X le nombre : E(X) = x k P (X = x k ). x k X(Ω) Ou, de manière équivalente, si P (X = x k ) = f X (x k ) E(X) = f X (x). x X(Ω) Exemple 4.1 Si pour x N, P (X = k) = e λ λ k k!, avec λ > 0 fixé (Variable aléatoire de Poisson). On calcule E(X) : E(X) = k=0 k e λ λ k k! = e λ λ k=1 λ k 1 (k 1)! = e λ λ k=0 λ k k! = λ Remarque : Lorsque toutes les probabilités sont égales (événements équiprobables), l espérance mathématique est égale à la moyenne arithmétique, et E(X) = x 1 + x 2 +... + x n. n De façon générale, l espérance de X est encore appelée moyenne de X, notée µ X ou µ. Fonctionnelles de v.a. Soit X une v.a., alors Y = g(x) est aussi une v.a., telle que P (Y = y) = P (X = x) x: g(x)=y

22 CHAPITRE 4. ESPÉRANCE, VARIANCE, ÉCART-TYPE Soit A une v.a. discrète et g une fonction réelle, on a : 1. E[g(X)] = g(x)p (X = x) = g(x)f X (x) x X(Ω) x 2. d où E[X 2 ] = x 2 P (X = x) = x 2 f X (x) x X(Ω) x Soit A une v.a. continue de densité de probabilité f(x) et g une fonction réelle, on a : 4.2 Variance et écart-type E[g(X)] = g(x)f(x)dx Définition : On appelle variance de X (et on note Var(X) ou σ 2 (X) ou σx 2 ) l espérance mathématique, si elle existe, de la variable aléatoire [X E(X)] 2. Propriétés : Var(X) = E(X 2 ) E(X) 2. En effet, Var(X) = E([X E(X)] 2 ) = (x E(X)) 2 P (X = x) = x X(Ω) x 2 P (X = x) 2E(X) x X(Ω) } {{ } =E(X 2 ) = E(X 2 ) E(X) 2 xp (X = x) +E(X) 2 x X(Ω) } {{ } =E(X) P (X = x) x X(Ω) } {{ } =1 Définition 4.2 On appelle écart-type de X (et on note σ(x) ou σ X ) la quantité : σ(x) = Var(X). La variance (ou écart-type) est une mesure de dispersion (ou de distribution) des valeurs de la v.a. autour de la moyenne µ = E(X). De plus, (a, b) R 2, E(aX + b) = ae(x) + b (a, b) R 2, Var(aX + b) = a 2 Var(X) (a, b) R 2, σ(ax + b) = a σ(x) Variable centrée, réduite, centrée réduite Une variable aléatoire est dite centrée si son espérance est nulle. La variable aléatoire Y centrée associée à X est : Y = X E(X). Une variable aléatoire est dite centrée réduite si son espérance est nulle et si sa variance est égale à 1. La variable aléatoire Y centrée réduite associée à X est : Y = X = X E(X). σ(x)

4.2. VARIANCE ET ÉCART-TYPE 23 Memo des lois discrètes Loi et Notation X(Ω) P (X = k) E(X) Var(X) 1 n + 1 (n 1) 2 Loi uniforme U(n) [1, n] n 2 12 P (X = 1) = p Loi de Bernoulli B(1, p) {0, 1} p p(1 p) P (X = 0) = 1 p Loi binomiale B(n, p) [0, n] Cnp k k (1 p) n k np np(1 p) Loi géométrique G(p) N (1 p) k 1 1 1 p p p p 2 λ λk Loi de Poisson P(λ) N e λ λ k! Memo des lois continues Loi et Notation X(Ω) f(x) E(X) Var(X) 1 a + b Loi uniforme U(a, b) [a, b] 1{a x b} b a 2 Loi Exponentielle E(λ) [0, + [ λe λx 1 1{x 0} λ (b a) 2 Loi normale N (µ, σ) ], + [ 1 2πσ exp (x µ)2 2σ 2 µ σ 2 Loi de Pareto P ar(α) [1, + [ α x α+1 1{x 1} α α 1 pour α > 1 12 1 λ 2 ( ) 2 α α 2 α α 1 pour α > 2

24 CHAPITRE 4. ESPÉRANCE, VARIANCE, ÉCART-TYPE 4.3 Exercices Exercice 4.1 Soit D le dé à 6 faces. Décrivez la loi de D. Calculez son espérance et son écart-type. Exercice 4.2 La distribution de la v.a. discrète X est donnée par 1. Calculer E(X). P (X = 1) = 1 5, P (X = 0) = 2 5, P (X = 1) = 2 5. 2. Donner la loi de Y = X 2 et calculer E(Y ) en utilisant la distribution de Y. 3. Calculer E(X 2 ) en utilisant le changement de variables et comparer avec le résultat précèdent. Calculer Var(X). Exercice 4.3 Soit X une v.a. avec E(X) = 2, Var(X) = 3. Que vaut E(X 2 )? Exercice 4.4 Soit X une v.a. avec E(X) = 2, Var(X) = 4. Calculer l espérance et la variance de 3 2X. Exercice 4.5 Une v.a. Z à densité f(z) = 3z 2 /19 pour 2 z 3 et f(z) = 0 partout ailleurs. Determiner E(Z). Avant de fare les calculs, sauriez-vous dire si cette valeur est plus proche de 2 ou de 3? Exercice 4.6 Soit X une v.a. dont la densité est donnée par f(x) = { 4x 4x 3, 0 x 1 0, partout ailleurs. Calculer espérance et la variance de la v.a. Y = 2X + 3. Exercice 4.7 Soit U U(a, b). Calculer E(U) et Var(U). Exercice 4.8 Soit X P ar(α). 1. Calculer l espérance de P ar(2). 2. Determiner l espérance de P ar( 1 2 ). 3. Soit X P ar(α). Verifier que E(X) = α α 1 pour α > 1. 4. Pour quelles valeurs de α la variance de la loi P ar(α) est finie? Calculer la variance de la loi de Pareto. Exercice 4.9

4.3. EXERCICES 25 Montrer que la moyenne des carrés est plus grande que le carré de la moyenne, c.-à-d. E(X 2 ) [E(X)] 2. Indication : on peut penser utiliser l inégalité Var(X) 0. Exercice 4.10 Supposons qu on choisit de façon arbitraire un point P dans le carré avec les sommets en (2.1), (3, 1), (2, 2) et (3, 2). La variable aléatoire A est l aire de triangle avec les sommets en (2, 1), (3, 1) et P (cf l exercice 3.7). Calculer E(A) et Var(A). Exercice 4.11 Soit X une v.a. discrète qui prend les valeurs a 1, a 2,... avec les probabilités p 1, p 2,... 1. Supposons que tous les a i 0 et E(X) = 0. Montrer que P (X = 0) = 1. 2. Supposons que Y une v.a. discrète à valeurs b 1, b 2,... avec probabilités r 1, r 2,... Montrer que Var(Y ) = 0 implique que P (Y = E(Y )) = 1. Indication : appliquer le résultat precedent avec X = (Y E(Y )) 2.

26 CHAPITRE 4. ESPÉRANCE, VARIANCE, ÉCART-TYPE

Chapitre 5 Calcul 5.1 Fonctions d une variable aléatoire et changement de variables Le propos de ce paragraphe est de montrer comment calculer la loi d une fonction d une v.a. 5.1.1 Le cas discret Soit X une v.a. discrète sur {x 1,..., x n,...} de fonction de probabilité P (x k ) = P (X = x k ) et soit ψ(x) une fonction réelle donnée. Nous avons P (Y = y) = P (X ψ 1 (y)) = pour y i {ψ(x 1 ),..., ψ(x n ),...}. La technique generale consiste à utiliser les relations : k: ψ(x k )=y P (x k ), F Y (y) = P (Y y) = P (ψ(x) y) = P (X ψ 1 (y)). 5.1.2 Cas continue On suppose que X est une v.a. continue de densité f X et que ψ est une fonction continue strictement monotone sur l ensemble de valeurs de X. Sans perte de généralité on peut supposer que ψ est croissante. Si ψ et ψ 1 (qui est bien définie dans ce cas) sont derivable, on a pour Y = ψ(x) et tout b > a : P (a < Y b) = P (a < ψ(x) b) = P (ψ 1 (a) < X ψ 1 (b)) = ψ 1 (b) ψ 1 (a) f X (x)dx = par la formule de changement de variables y = ψ(x). Ainsi, b a f X (ψ 1 (y))[ψ 1 (y)] dy f Y (y) = f X (ψ 1 (y))[ψ 1 (y)] = f X(ψ 1 (y)) ψ (ψ 1 (y)) pour tout y = ψ(x) et 0 sinon. Nous avons ajouté la valeur absolue pour traiter les 2 cas possibles de fonction ψ croissante et décroissante.

28 CHAPITRE 5. CALCUL 5.2 Fonctions generatrices, fonctions caractéristiques On définit pour tout reel t la fonction génératrice de la v.a. X par { ϕ(t) = E(e tx x ) = k e tx kp (x k ) = si X est une v.a. discrete de fonction de probabilite P, etx f(x)dx si X est une v.a. continue de densite f. Attention : on doit définir proprement le domaine de ϕ. On appelle ϕ fonction génératrice des moments du fait que tous le moments d ordre n de X, c.-à-d. les valeurs M n = E(X n ), n = 1, 2,... peuvent être calculées en dérivant ϕ n fois en t = 0 : ϕ (t) = d ( ) d dt E(etX ) = E dt etx = E(Xe tx ), alors ϕ (0) = E(X). L expression generale de la n-ème dérivée de ϕ est ( ϕ (n) (t) = dn d n ) dt n E(etX ) = E dt n etx = E(X n e tx ), n 1, qui laisse ϕ (n) (0) = E(X n ), n 1. Memo des lois discrètes Lois (discrètes) Fonction de probabilité P (k) Fonction génératrice ϕ(t) 1 Loi uniforme sur {1,..., n}, U(n) e t (e tn 1) n e t 1 P (X = 1) = p Loi de Bernoulli B(1, p) pe P (X = 0) = 1 p t + 1 p Loi binomiale B(n, p) Cnp k k (1 p) n k (pe t + 1 p) n Loi géométrique G(p) Loi de Poisson P(λ) (1 p) k 1 p λ λk e k! pe t 1 (1 p)e t exp [ λ(e t 1) ] Memo des lois continues Lois (continues) Densité f(x) Fonction génératrice ϕ(t) 1 e Loi uniforme U(a, b) 1{a x b} tb e ta b a t(b a) Loi Exponentielle E(λ) λe λx λ 1{x 0} λ t, t < λ 1 Loi normale N (µ, σ) 2πσ exp (x µ)2 ] 2σ 2 exp [µt + σ2 t 2 2 La fonction caractéristique φ(t) d une v.a. continue X est sa fonction génératrice au point it (ici i = 1) : φ(t) = E(e itx ) = e itx f(x)dx (définie pour tout t R). Nous avons la formule d inversion f(x) = 1 2π e itx φ(t)dt. Par exemple, la fonction caractéristique de la loi de Pareto P ar(α) est donnée par : φ(t) = α( it) α Γ(α, it), où Γ(α, x) = x ts 1 e t dt est la fonction gamma incomplete.

5.3. QUELQUES INÉGALITÉS UTILES 29 5.3 Quelques inégalités utiles Inégalité de Markov : soit h une fonction croissante, telle que l espérance de h(x) existe, alors pour tout a t.q. h(a) > 0, P (X a) E(h(X)). h(a) Nous avons comme corollaire l inégalité de Tchebychev : soit X est carré-integrable (c.-à-d. que l espérance de X 2 est finie), alors P ( X a) E(X2 ) a 2, P ( X E(X) a) Var(X) a 2. Inégalité de Jensen existe, alors : soit g une fonction convexe, X est une v.a telle que l espérance de X g(e(x)) E(g(X)).

30 CHAPITRE 5. CALCUL 5.4 Exercices Exercice 5.1 On suppose que la v.a. continue U suit une loi uniforme sur [0, 1]. 1. Determiner la f.d.r de la v.a. V = au + b, avec a > 0. 2. Soit X une v.a. continue et Y = X. Exprimer la f.d.r. de Y en fonction de celle de X. 3. Pouvez-vous donner la f.d.r. de V = au + b pour un a reel? Exercice 5.2 Soit X E(λ). Écrire la f.d.r de la v.a. λx. Quelle est la loi de λx? Exercice 5.3 Soit X une variable aléatoire uniforme sur [0, 1]. 1. Calculer la f.d.r. et la densité de Y = X n. 2. Calculer E(X n ), puis vérifier ce résultat en faisant appel à la définition de l espérance E(Y ). Exercice 5.4 Soit X une v.a. continue dont la densité est donnée par { 3 f X (x) = 4x(2 x), 0 x 2, 0, ailleurs. 1. Donner la f.d.r. de X. 2. Soit Y = X. Quelle est la f.d.r. F Y de Y? Calculer la densité de Y. Exercice 5.5 Soit X une v.a. continue a valeurs positives avec la densité f X et soit Y = 1/X. ( ) 1. Calculer la f.d.r. de Y et verifier que f Y (y) = 1 f 1 y 2 X y. 2. Soit Z = 1/Y. Quelle est la densité de Z? 3. Soit dans les conditions de cet exercice X une v.a. réelle telle que P (X = 0) = 0. Quelle est l expression de la f.d.r. F Y de Y? de la densité f Y? 1 4. Soit X une v.a. continue de loi de Cauchy, dont la densité est f X (x) =. Quelle est π(1+x 2 ) la loi de Y = 1/X dans ce cas? Exercice 5.6 Soit X une v.a. de la loi exponentielle E(1). On pose W = X 1 α λ. Donner la f.d.r. de W, sa densité de probabilité. Note : La loi de W est souvent utilisée dans la théorie de fiabilité, on l appelle loi de Weibull W(α, λ) de paramètres α et λ

5.4. EXERCICES 31 Exercice 5.7 Soit X une v.a. avec la fonction de probabilité suivante : 1. Déterminez la distribution de Y = X. x 0 1 100 10000 f(x) 1/4 1/4 1/4 1/4 2. Qui est plus grand : E( X) ou E(X)? Indication : commencez par verifier que g(x) = x est convexe. 3. Calculez E( X) et E(X) pour verifier votre réponse (et pour voir quelle difference ça fait). Exercice 5.8 Soit U U(π, 2π). Qui est plus grand : E(sin(X)) ou sin(e(x))? Calculez les deux espérances pour contrôler votre réponse. Exercice 5.9 Meilleur prediction. On cherche à donner une prediction a d une v.a. X qui serait optimale dans le sens de l écart quadratique moyen : Comment choisiriez-vous a? Exercice 5.10 E((X a) 2 ) E((X x) 2 ) pour tout x R. A partir du pole nord N, le point Q du cercle du diamètre 1 est projeté sur le point t de la droite comme sur la figure Figure 5.1 Projection du cercle sur la droite On suppose que Q est choisi uniformément sur le cercle, ce qui implique exactement que l angle ϕ est choisi uniformément sur [ π 2, π 2 ] (pouvez-vous justifier ceci?). Soit X cet angle uniformément distribué sur [ π 2, π 2 ], quelle sera la loi de la projection Z de Q sur la droite? Notez que l événement {Z t} est exactement le même que {X ϕ}. 1. Quelle partie du cercle est projetée sur l intervalle [1, [? 2. Calculez la f.d.r. et la densité de Z. Exercice 5.11 Un point est choisi au hasard sur un segment de longueur L. Soit X le rapport entre le plus petit et le plus grand segment obtenu. Calculer P (X 1/4). Determiner la loi de X.

32 CHAPITRE 5. CALCUL Exercice 5.12 Calculer la fonction génératrice de la variable aléatoire X B(p). Calculer la fonction génératrice de la variable aléatoire X G(p). Exercice 5.13 Soit X, une variable de fonction génératrice ϕ. On pose ψ(t) = log(ϕ(t)). Montrer que ψ (0) = Var(X). Exercice 5.14 Un individu jette une pièce de monnaie équilibrée jusqu à ce que pile apparaisse pour la première fois. Si pile apparaît au n-ème jet, l individu gagne 2 n euros. Soit X, le gain du joueur. Montrer que E(X) = +. Ce problème porte le nom de paradoxe de St. Petersbourg. Seriez-vous disposé à payer 1 000 000 d euros pour jouer une fois à ce jeu? 100 fois? Exercice 5.15 1. Un bureau de poste doit être installé le long d une route de longueur A, A <. Si la population est uniformément répartie sur [0, A], où doit-on la poste de façon à minimiser l espérance de la distance entre le poste et le destinataire? Autrement dit, on cherche à minimiser E( X a ) où X est uniformément distribuée sur [0, A]. 2. Pour une distribution F, on dit que m est la médiane de cette distribution si F (m) 1 2 et 1 F (m) 1 2. Si la distribution est continue, la médiane est l unique valeur pour laquelle F (m) = 1 2. Que peut-on dire de la valeur de a qui minimise E( X a ), lorsque X suit une distribution notée F? Exercice 5.16 1. Un produit de saison rapporte un bénéfice net de b euros par unité vendue mais, inversement, chaque unité invendue à la fin de la saison engendre une perte de d euros. On approxime la loi de la demande X d unités achetés auprès d un certain magasin par une loi continue de probabilité de densité f à valeurs non négatives. On admet que le magasin doit avoir constitué tout son stock avant la saison. Quelle doit être la taille de ce stock si l on veut maximiser le résultat net moyen de l opération? Indication : si on désigne par s la taille du stock et par r s (X) le revenu net de l opération. c est-à-dire le bénéfice, on a { bx (s X)d, si X s r s (X) = bs, si X > s. 2. Supposons maintenant que le magasin décrit ci-dessus encoure un coût additionnel c pour chaque unité de demande non satisfaite. 1 Calculer l espérance de profit si le stock est de s unités et determiner la valeur de s qui maximise ce profit. 1. Ceci est fréquemment appelé un coût en goodwill car le magasin perd un peu de la confiance des clients dont la demande n est pas satisfaite.

Chapitre 6 Vecteurs aléatoires : loi conjointe et indépendance 6.1 Definitions des distribution jointes 6.1.1 Fonction de répartition conjointe Il est souvent nécessaire de considerer des événements relatifs à deux ou même à plus de deux variables. Pour traiter de tels problèmes on définit une fonction F de repartition jointe. Définition 6.1 Pour toute paire de v.a. X et Y, définie sur le même espace d événements Ω, on définie la fonction de repartition conjointe F X,Y (x, y) = F (x, y) par F (x, y) = P (X x, Y y), < x, y <. La fonction de repartition de X peut être déduite de la fdr joint de X et de Y : ( ) F X (x) = P (X x) = P (X x, Y < ) = P lim {X x, Y y} y marginale = lim P (X x, Y < y) = lim F (x, y) = F (x, ). y y Définition 6.2 Les fonctions de repartition F X et F Y sont dites fonction de repartition marginales. La probabilité de tous les événements relatifs à X et Y peut être calculée à partir de F (x, y), e.g. : P (X > a, Y > b) = 1 P ({X > a, Y > b}) = 1 P ({X > a} {Y > b}) 6.1.2 Loi discrete jointe = 1 P ({X a} {Y b}) = 1 [P (X a) + P (Y b) P (X a, Y b)] = 1 F X (a) F Y (b) + F (a, b). Dans le cas où X et Y sont deux variables discrètes, il est commode de définir la loi de probabilité conjointe de X et Y : P (x, y) = P (X = x, Y = y). (6.1)

34 CHAPITRE 6. VECTEURS ALÉATOIRES : LOI CONJOINTE ET INDÉPENDANCE La loi de probabilité marginale de X s en déduit ainsi : P X (x) = P (X = x) = P (x, y). y: P (x,y)>0 De façon similaire P Y (y) = P (x, y). (6.2) x: P (x,y)>0 Définition 6.3 Soit X et Y deux v.a. discretes à valeurs {x i }, i = 1,... et {y j }, j = 1,... Pour y {y j } on appelle la loi conditionnelle de X sachant Y = y la famille de nombres P (X = x i Y = y), i = 1,... D après la definition, si P (Y = y) > 0 on a P (X = x Y = y) = P (X = x, Y = y) P (Y = y) (sinon, on peut poser, par exemple, P (X = x Y = y) = P (X = x)). Nous avons P (X = x i Y = y) = i i P (X = x i, Y = y) P (Y = y) = 1 P (Y = y) P (X = x i, Y = y) = 1 i par (6.2), et donc P (X = Y = y) est une loi de probabilité. 6.1.3 Densité conjointe Définition 6.4 Les variables X et Y sont dites conjointement continues s il existe une fonction f de deux arguments réels ayant pour tout sous-ensemble C du plan la propriété suivante : P ((X, Y ) C) = (x,y) C La fonction f est appelée densité conjointe de X et Y. f(x, y)dxdy (6.3) Si on note par A et B deux ensembles de nombres réels, en définissant C = {(x, y) : x A, y B}, on obtient grâce à (6.3) : Comme il suffi de dériver pour obtenir P (X A, Y B) = F (x, y) = P (X x, Y y) = B A f(x, y)dxdy. (6.4) b f(x, y) = 2 F (x, y). x y Les densités marginales de X et Y sont données par f X (x) = f(x, y)dy, f Y (y) = a f(x, y)dxdy. f(x, y)dx

6.2. DISTRIBUTION CONJOINTE DE PLUSIEURS VARIABLES 35 Soit (X, Y ) un couple de v.a. possédant la densité jointe f X,Y (x, y), on note f X (x) et f Y (y) les densités marginales respectives de X et de Y. Pour définir la densité conditionnelle de X sachant Y = y on écrira : P (X [x, x + dx] Y [y, y + dy]) = P (X [x, x + dx], Y [y, y + dy]) P (Y [y, y + dy]) = f X,Y (x, y)dxdy f Y (y)dy = f X,Y (x, y) dx. f Y (y) Notons que lorsque f Y (y) > 0, comme f Y (y) = f X,Y (x, y)dx, la fonction f X,Y (x,y) f Y (y) densité de probabilité sur R. est une Définition 6.5 Pour y R, on appelle densité conditionnelle de X sachant Y = y la densité f X Y (x y) donnée par la formule f X Y (x y) = { fx,y (x,y) f Y (y) si f Y (y) > 0, f X (x) sinon. 6.2 Distribution conjointe de plusieurs variables Définition 6.6 La fonction de repartition conjointe F du vecteur aléatoire X n = (X 1,..., X n ) (on suppose les v.a. X 1,..., X n définies sur le même espace d événements) est donnée par F (x 1,..., x n ) = P (X 1 x 1, X 2 x 2,..., X n x n ). Dans le cas des v.a. X 1,..., X n discrètes, la loi conjointe peut être aussi caractérisée par la probabilité conjointe (cf. (6.1)) : P (x 1,..., x n ) = P (X 1 = x 1,..., X n = x n ). Par ailleurs, les n v.a. seront dites conjointement continues s il existe une fonction f de n arguments, appellee densité conjointe de X 1,..., X n telle que pour tout C R n (cf (6.4)) : P ((X 1,..., X n ) C) =... f(x 1,..., x n )dx 1...dx n. (x 1,...,x n) C On définie de façon transparente les notions de loi marginale et conditionnelle dans ce cas. 6.3 Variables aléatoires indépendantes 6.3.1 Definitions, critères d indépendance Définition 6.7 Deux variables aléatoires X et Y sont dites indépendantes si, pour tout choix d une paire d ensembles A et B de réels, on a P (X A, Y B) = P (X A)P (Y B). (6.5) On notera X Y. En d autres termes, X et Y sont indépendantes si, quels que soient A et B, les événements {X A} et {Y B} sont indépendants.

36 CHAPITRE 6. VECTEURS ALÉATOIRES : LOI CONJOINTE ET INDÉPENDANCE On peut montrer que (6.5) est vraie si et seulement si pour tout couple (x, y) de réels P (X x, Y y) = P (X x)p (Y y), ce qui revient a écrire que X et Y sont indépendantes si F (x, y) = F X (x)f Y (y). Lorsque X et Y sont discrètes, la condition (6.5) est équivalente à P (x, y) = P X (x)p Y (y) pour tous x et y. Lorsque X et Y sont des variables conjointement continues, le critère d indépendance sera f(x, y) = f X (x)f Y (y) pour tout x et tout y. Intuitivement parlant. on pourra donc dire que X et Y sont indépendantes si le fait de connaître la valeur de l une n influe pas sur la distribution de l autre. On vérifie immédiatement que 2 v.a. discrètes sont indépendantes ssi la loi conditionnelle de X sachant Y = y ne depend pas de y. En effet, la nécessité étant évidente, supposons que pour tous x, y admissible P (X = x Y = y) = µ(x). Si on fixe x, en multipliant par P (Y = y) et en faisant la somme sur y on obtient P (X = x) = µ(x), ainsi P (X = x, Y = y) = P (X = x Y = y)p (Y = y) = µ(x)p (Y = y) = P (X = x)p (Y = y). La même condition reste valable pour les v.a. continues (on conduit la preuve de la mémé façon en remplaçant les sommes par les intégrales). Des variables qui ne sont pas indépendantes sont dites dépendantes. 6.3.2 Somme des variables aléatoires indépendantes, convolution Soit X et Y deux v.a. indépendantes. La distribution de la somme Z = X + Y est donnée par la convolution de celles de X et Y : nous avons dans le cas des v.a. discrètes a valeurs dans Z : P Z (k) = P (X + Y = k) = P X (j)p Y (k j); et dans le cas des v.a. continues : f Z (z) = 6.3.3 Propagation d indépendance j= f X (x)f Y (z x)dx. (6.6) Une question importante concerne la preservation de l indépendance par les transformations des variables indépendantes. Par exemple, soit I =]a, b], et X et Y deux v.a. indépendantes. On note U = 1{X I} et V = 1{Y I}. On écrit P (U = 0, Y = 1) = P (X / I, Y I) = P (X / I)P (Y I) = P (U = 0)P (V = 1), et on obtient par un raisonnement similaire pour tout u, v : Nous avons la règle generale suivante : P (U = u, V = v) = P (U = u)p (V = v). soit X 1,..., X n v.a. indépendantes. Soit pour tout g i : R R, et Y i = g i (X i ), i = 1,..., n. Alors Y 1,..., Y n sont indépendants.

6.4. EXERCICES 37 6.4 Exercices Exercice 6.1 Les probabilités P (X = a, Y = b) de v.a. discrètes X et Y sont données dans le tableau suivant : 1. Déterminer les distributions marginales de X et Y, c.-à-d. les probabilités P (X = a) et P (Y = b) pour a, b = 1,..., 4, la loi conditionnelle de X sachant Y = 2. 2. Donner (a) P (X = Y ), P (X + Y = 5), P (XY = 6 Y = 2), P (X = 3) (b) P (1 < X 3, 1 < Y 3) (c) P ((X, Y ) {1, 4} {1, 4}) Exercice 6.2 La loi jointe de v.a. discrètes X et Y est donnée dans le tableau suivant : Complétez le tableau. X et Y sont-ils indépendants? Exercice 6.3 Les probabilités marginales de v.a. X et Y sont données dans le tableau ci-dessous : On sait en plus que pour tout x, y = 1,..., 5 la probabilité P (X = x, Y = y) est soit 1/14 ou 0. Déterminer la loi jointe de X et Y. Exercice 6.4