Événements et probabilités, probabilité conditionnelle et indépendance

Dimension: px
Commencer à balayer dès la page:

Download "Événements et probabilités, probabilité conditionnelle et indépendance"

Transcription

1 Chapitre 1 Événements et probabilités, probabilité conditionnelle et indépendance On cherche ici à proposer un cadre mathématique dans lequel on puisse parler sans ambiguité de la probabilité qu un événement A donné se réalise lors du déroulement de l expérience E à résultat aléatoire ou de la probabilité qu une variable X dont la valeur dépend du résultat de E prenne sa valeur dans un domaine donné. 1.1 Notions de base Définition 1.1 Ω est l ensemble de toutes les éventualités, ou résultats possibles d une expérience aléatoire E. On l appelle espace d échantillonnage ou ensemble fondamental. Définition 1.2 un événement A est un ensemble d éventualités possédant la même propriété. Il est donc représenté par un sous-ensemble A de Ω. Si le résultat d une expérience est un élément de A, on dit que l événement A a été réalisé. L ensemble vide Ø est appelé événement impossible, puisqu aucun élément de Ø ne peut être réalisé. L ensemble des cas possibles Ω est appelé événement certain. Un événement ne comportant qu un seul résultat possible est appelé événement élémentaire. L événement A complémentaire de A dans Ω, est appelé événement contraire de A. Étant donnés deux événements A et B, on définit : A B la conjonction des événements A et B, réalisé si A et B sont tous les deux réalisés. Si A B = Ø, on dit que les événements A et B sont incompatibles ou disjoints (ou encore, mutuellement exclusifs). A B, réalisé si A, ou B, ou (A et B) sont réalisés. A B, réalisé si A est réalisé, mais pas B. Opérations sur les événements Soient trois événements A, B, C : A = A A (B C) = (A B) C = A B C A (B C) = (A B) C = A B C A (B C) = (A B) (A C) A (B C) = (A B) (A C)

2 2CHAPITRE 1. ÉVÉNEMENTS ET PROBABILITÉS, PROBABILITÉ CONDITIONNELLE ET INDÉPENDANCE A B = A B A B = A B Définition 1.3 On appelle probabilité une application P de l ensemble d événements Ω sur [0, 1] telle que : 1. P (Ω) = 1 2. Pour toute suite {A n } n 1 d événements de Ω deux à deux incompatibles (i.e. 2 à 2 disjoints : A i A j = Ø si i j), alors : P A n = P (A n ) n 1 n 1 Consequences : A de Ω, 0 P (A) 1 Si A B = Ø, alors P (A B) = P (A) + P (B) Si A 1, A 2,..., A n sont des événements élémentaires et i A i = ω, alors P (A 1 ) + P (A 2 ) P (A n ) = 1 Si tous les événements élémentaires sont équiprobables, c est-à-dire, si P (A k ) = 1 n pour k = 1, 2,..., n, alors, si A est constitué de m événements élémentaires de ce type, P (A) = m n = card(a) card(ω) On dit que P est la loi uniforme sur Ω. Lorsque l espace fondamental Ω est fini ou dénombrable, définir la probabilité P sur les événements Ω équivaut à se donner la famille {p ω } ω Ω des probabilités individuelles, i.e. p ω = P ({ω}), ω Ω. Soit A Ω, alors : P (A) = ω A p ω. Propriétés élémentaires : 1. P (A B) = P (A) + P (B) P (A B). Justification : A B = (A B) B = P (A B) = P (A B) + P (B), et A = (A B) (A B) = P (A) = P (A B) + P (A B) 2. P (A) = 1 P (A). Justification : Ω = A A = P (Ω) = P (A) + P (A) = P (Ø) = Si A B, alors P (A) P (B) (P est une fonction croissante). 5. Si A B, alors P (B/A) = P (B) P (A). 1.2 Probabilité conditionnelle Exemple 1.1 Composition d une famille composée de 2 enfants Ω = {(G, G), (G, F ), (F, G), (F, F )} 4 éventualités supposées équiprobables. } {{ } } {{ } } {{ } } {{ } 1/4 1/4 1/4 1/4 A = La famille a 2 garçons. P (A) = 1/4 B = La famille a au moins un garçon. P (B) = 3/4 Supposons que l on sache que l événement B est réalisé, que devient la probabilité de A?

3 1.3. EVÉNEMENTS INDÉPENDANTS 3 Définition 1.4 soient A et B deux événements tel que P (B) 0. On appelle probabilité conditionnelle de A sachant B la probabilité que A se réalise, sachant que B est déjà réalisé. Dans la mesure où nous savons que B est réalisé, il devient le nouvel espace d échantillonnage remplaçant Ω, ce qui conduit à la définition suivante : P (A B) = P (A B) P (B) On peut écrire également : On en déduit : P (B A) = P (A B). P (A) P (A B) = P (B)P (A B) = P (A)P (B A). Système complet d événements : {A n } n 1 forme un système complet d événements lorsque {A n } n 1 forme une partition de Ω, i.e. : n 1, A n Ø i, j 1, i j, A i A j = Ø A n = Ω n 1 Théorème 1.1 (des probabilités totales) Soit {A n } n 1 un système complet d événements. Alors, quelque soit événement B : P (B) = n 1 P (B A n )P (A n ) Théorème 1.2 (de Bayes) Soit {A n } n 1 un système complet d événements, et B un événement tel que P (B) 0. On a, pour tout i : P (A i B) = P (A i B) P (B) = P (B A i)p (A i ) P (B) = P (B A i)p (A i ) P (B A n )P (A n ) n Evénements indépendants Étant donnés deux événements A et B (avec P (B) > 0), la probabilité conditionnelle P (A B) apparaît comme une évaluation de voir A se réaliser compte tenu de l information B est quant à lui réalisé. Si, au sens du langage courant, on considère que A et B sont indépendants, on est raisonnablement amené à souhaiter que P (A B) = P (A). Mais alors, c est que : P (A B) = P (A) P (B) Définition 1.5 Deux événements A et B sont dits indépendants si : P (A B) = P (A) P (B)

4 4CHAPITRE 1. ÉVÉNEMENTS ET PROBABILITÉS, PROBABILITÉ CONDITIONNELLE ET INDÉPENDANCE Conséquences : Si A et B sont indépendants, il en est de même de A et B ; de A et B ; de A et B. Tout événement A est indépendant de l événement certain Ω et de l événement impossible Ø. En général, on a P (A B) P (A) ce qui signifie que A dépend de B. Si les événements A 1, A 2,..., A m sont indépendants alors P (A 1 A 2... A m ) = P (A 1 )P (A 2 )...P (A m ). (1.1) Si A 1, A 2,..., A m sont indépendants alors ils le sont également deux à deux : P (A j A k ) = P (A j )P (A k ) pour j k où j, k = 1, 2,..., m. Cependant, ni l une ni l autre n est en soi-même suffisante. La definition de l indépendance de A 1,..., A m demande que (1.1) soit vérifié aussi avec A i, i = 1,..., m remplacés par A c i (il s agit de 2m relations!).

5 1.4. EXERCICES Exercices Exercice 1.1 Soit A et B deux événements de Ω, P(A)=2/3, P (B) = 1/6, P (A B) = 1/9. Que vaut P (A B)? Soit P (A) = 1/3, P (B) = 1/2 et P (A B) = 3/4. Calculez P (A B) et P (A c B c ). Si P (A) = 0.9, P (B) = 0.8, montrer que P (A B) 0.7. Exercice 1.2 Soit D 1 et D 2 représentent désastres dont les probabilités sont P (D 1 ) 10 6, P (D 2 ) Que peut-on dire de la probabilité qu au moins une des désastres ait lieu? les deux aient lieu? Exercice 1.3 Un composant électronique sert a déclencher une alarme si une condition extraordinaire se présente. Ce composant est fiable a 96%. On envisage de mettre un certain nombre de ces composants en parallèle pour augmenter la fiabilité du système d alarme. Combien de composants doit-on placer en parallèle de telle sorte que la fiabilité du système soit d au moins 99.99% Exercice 1.4 On considère l experience suivante : vous participer au jeu télévisé de Monty Hall, dans lequel vous avez choix de 3 portes dont une cache une voiture et les deux autres une chèvre. Vous choisissez une porte, par exemple, porte 1, et le hôte de jeu, qui sait où se trouve la voiture, ouvre une porte derrière laquelle est une chèvre, par exemple, porte 3. Il vous dit Voulez-vous choisir maintenant la porte 2? Avez-vous l intérêt de changer votre choix? On note par a la porte avec la voiture et par b et c les 2 autres portes. L espace d événements de l experience est Ω = {a, b, c} {a, b, c} (le premier est le choix du candidat et le second est celui de l hôte). 1. Faites le tableau 3 3 avec des probabilités de tous les issus possibles de l experience. Vous devez tenir compte du fait que le candidat ne sais pas que la voiture est derrière la porte a, mais le hôte le sais et n ouvre jamais cette porte. Vous pouvez supposer que le hôte choisit arbitrairement la port b ou c quand le joueur choisit a. 2. Considérez le cas de candidat qui ne change pas la porte. Quel est l événement le joueur gagne, quelle est sa probabilité? 3. Considérez le cas de candidat qui change la porte. Quel est l événement le joueur gagne dans ce cas, quelle est sa probabilité? Exercice 1.5 Soit A et B deux événements. Montrer que P (A B) + P (A B) = 1 (A et A, forment-ils un système complet d événements?). Exercice 1.6

6 6CHAPITRE 1. ÉVÉNEMENTS ET PROBABILITÉS, PROBABILITÉ CONDITIONNELLE ET INDÉPENDANCE Une enquête effectuée auprès d un grand nombre d étudiants de l Université a permis d estimer qu il y a une probabilité de : 0.7 pour qu un étudiant soit intéressé par l informatique, 0.4 pour qu il soit intéressé par les mathématiques ; 0.25 pour qu il soit intéressé par ces deux matières. Quelle est le probabilité qu un étudiant : soit intéressé par l info et pas par les maths ; soit intéressé par l info ou par les maths ; ne soit pas intéressé ni par l info ni par les maths. Exercice 1.7 Calculer la probabilité que 3 personnes choisies aux hazard soient nées les mois différents. Pouvezvous donner la formule pour n personnes? Exercice 1.8 Dans l experience de Monty Hall (cf 1.4). Soit R l événement le prix est derrière la porte vous avez choisie au depart et G l événement vous gagnez en changeant la porte. 1. Calculer P (G R) et P (G R c ). 2. Calculer P (G) en utilisant la formule des probabilités totales. Exercice 1.9 Une classe comporte 10 garçons dont la moitié a les yeux marron et 20 filles dont la moitié a également les yeux marron. Calculer la probabilité P qu une personne tirée au hasard soit un garçon ou ait les yeux marrons. Les événements élève est un garçon et élève a les yeux marron sont-ils indépendants? Exercice 1.10 La probabilité pour que l alcootest d un ivrogne soit positif est La probabilité pour que l alcootest d un individu non ivre soit négatif est aussi Soit P la probabilité qu un français soit ivre. Calculer la probabilité qu à un français d être ivre sachant que son alcootest est positif, ainsi que la probabilité qu il ne soit pas ivre sachant que sont alcootest est négatif. Faire le calcul pour P = 0.01 et P = Exercice 1.11 Soit A et B événements indépendants, P (B A B) = 2/3, P (A B) = 1/2. Quelle est P (B)?

7 Chapitre 2 Variable aleatoire discrete Une variable réelle dont la valeur dépend du résultat d une expérience aléatoire est appelée variable aléatoire (v.a.). Elle est généralement désigée par une lettre majuscule. Exemple 2.1 Supposons que nous lancions deux fois une pièce de monnaie. L espace d échantillonnage est Ω = {F F, P F, F P, P P }. Soit alors X le nombre de faces possibles. A chaque point de l espace d échantillonnage, nous pouvons associer une valeur de X (cf tableau). X est une variable aléatoire. échantillon FF FP PF PP valeurs Définition 2.1 on appelle variable aléatoire réelle toute application X : Ω R telle que pour tout intervalle I de R l ensemble {X I} est un événement de Ω, et possède donc une probabilité notée P (X I). Définition 2.2 On appelle fonction de répartition de la v.a. X la fonction F X : R [0, 1] telle que F X (t) = P (X t), Propriétés : 1. F X est croissante, lim t F X (t) = 0, lim t + F X (t) = si a < b, P (a < X b) = F X (b) F X (a). Une v.a. qui peut prendre un nombre fini ou dénombrable fini de valeurs est dite variable aléatoire discrète. Si elle peut prendre un nombre infini non dénombrable de valeurs, elle est dite variable aléatoire continue. 2.1 Variables aléatoires discrètes Soit X une v.a. discrète et soient x 1, x 2, x 3,... ses valeurs possibles, ordonnées par ordre croissant. On suppose que la probabilité de chacune de ces valeurs est : pour k = 1, 2, 3,... P (X = x k ) = f(x k ) Définition 2.3 On définit la fonction de probabilité f(x k ) telle que : 1. f(x) 0

8 8 CHAPITRE 2. VARIABLE ALEATOIRE DISCRETE 2. k f(x k) = 1 où la somme en (2) est prise sur toutes les valeurs possibles de X. Exemple 2.2 (cf Exemple 2.1) En supposant que la pièce n est pas truquée, On écrit : P (F F ) = P (F P ) = P (P F ) = P (P P ) = 1 4 P (X = 0) = P (P P ) = 1 4 P (X = 1) = P (P F F P ) = P (P F ) + P (F P ) = = 1 2 P (X = 2) = P (F F ) = 1 4 La fonction de répartition d une v.a. discrète X se déduit de la fonction de probabilité, en remarquant que F X (t) = P (X t) = P (X = x k ) = f(x k ). x k t x k t Remarque : Soit X une v.a. qui prend des valeurs entières positives. Dans les exercices, on est parfois amené à utiliser les astuces suivantes : P (X = k) = P (X k) P (X k + 1) = P (X > k 1) P (X > k) = P (X k) P (X k 1) = P (X < k + 1) P (X < k) k P (X k) = P (X = i), + P (X k) = P (X = i) i=0 i=k Exemples de distributions discrètes de probabilité On considère des expériences telles que le lancer répétitif de pièces ou de dés, ou le tirage de boules dans une urne, chaque lancer est dit essai. Au cours de chacun des essais, chaque événement particulier (obtention d une face, d un 1, d une boule rouge) est associé à une probabilité de réussite. Dans certains cas, comme dans le cas du lancer de pièce ou de dé, cette probabilité ne va pas varier d essai en essai. Les essais de ce type sont dits essais indépendants de Bernouilli. Loi de Bernouilli : réalisation d une expérience n ayant que deux issues possibles, 1= succès et 0= échec. La distribution d une v.a. X prenant les valeurs 1 et 0 avec les probabilités p et 1 p s appelle la loi de Bernoulilli et est notée B(1, p). On note que q = 1 p est la probabilité d échec. La probabilité pour que l événement (le succès) se réalise k fois exactement au cours de n essais est donnée par la probabilité : f(x) = P (X = x) = C k np k (1 p) n k

9 2.1. VARIABLES ALÉATOIRES DISCRÈTES 9 où la variable X est le nombre de succès au cours de n essais. Cette fonction de probabilité est appelée distribution binômiale, dans la mesure où, pour k = 0, 1, 2,..., n, elle correspond aux termes successifs du développement du binôme : (q + p) n = q n + C 1 np 1 (1 p) n 1 + C 2 np 2 (1 p) n p n = n Cnp x x (1 p) n x. 0 Loi binomiale est la loi du nombre de succès X pendant la réalisation de n essais indépendants dans le schéma de Bernouilli. Elle est notée B(n, p) Soit la v.a. X représente le nombre d essais de Bernouilli jusqu à ce que le premier succès (inclus) se réalise. Ici, p est la probabilité de succès pour un essai : f(x) = P (X = k) = pq k 1 pour k = 1, 2,... (exactement k 1 échecs avant le succès au k-ème essai). Loi géométrique est la loi du temps X d attente du premier succès dans les réalisations d essais indépendants du schéma de Bernouilli. Elle est notée G(p). Exemple 2.3 On considère un ensemble de n machines indépendantes assemblées selon une certaine configuration pour constituer un système dont on s intéresse au bon fonctionnement (pour un certain cahier des charges) pour des périodes d utilisation successives 1, 2,..., k,.... On suppose que pour la i-ième machine la probabilité de panne lors d une période donnée est p i et que de plus les comportements de la dite machine sur les différentes périodes sont indépendants. Soit X i la variable aléatoire définie par le rang de la période où se produit la première panne pour le i-ième machine. On a : P (X i = k) = p i (1 p i ) k 1 On dit que la variable aléatoire X i est de loi géométrique de paramètre p i. Loi de Poisson Soit une X une v.a. discrète, pouvant prendre les valeurs k = 0, 1, 2,... telles que la fonction de distribution s exprime : f(k) = P (X = k) = λk exp ( λ) k! avec λ > 0 donné. Cette distribution est celle de la loi de Poisson. Elle est notée P(λ).

10 10 CHAPITRE 2. VARIABLE ALEATOIRE DISCRETE 2.2 Exercices Exercice 2.1 Soit X une v.a. discrète avec dont la fonction de probabilité est x f(x) Soit la v.a. Y = X 2. Calculer la fonction de probabilité f Y de Y. 2. Calculer la fonction de répartition de X et de Y en x = 1, x = 3/4 et x = π 3. Exercice 2.2 Supposons que la fonction de répartition d une v.a. discrete X est donnée par 0, x < 0, 1 F (x) = 3, 0 x < 1 2, 1 2, 1 2 x < 3 4, 1, x 3 4. Déterminer la fonction de probabilité de X. Exercice 2.3 On lance n pieces, dont la probabilité de pile est p, chaque lancée étant indépendante des autres. Toute piece tombée sur face est relancée encore une fois. Soit X le nombre total de piles. 1. Quelle est la loi de X? Préciser les paramètres de cette loi. 2. Quelle est la fonction de probabilité de X? Exercice 2.4 On tire au hasard 3 fois un nombre parmi {1, 2, 3}. Soit X i le résultat du i-ème tirage, alors la fonction de probabilité f(x) de X i est 1 3 pour x = 1, 2, 3 et f(x) = 0 pour tout autre x. On suppose que chaque tirage est indépendant des autres. Soit la moyenne de X i, i = 1,..., 3. X = X 1 + X 2 + X Donner la fonction de probabilité f X de X. 2. Calculer la probabilité qu exactement 2 tirages donnent 1. Exercice 2.5 Un magasin reçoit 1000 ampoules. La chance qu une ampoule soit défectueuse est 0.01%. Soit X le nombre d ampoules défectueuses dans la cargaison. 1. De quel type est la loi de X? Quels sont les paramètres de cette distribution? 2. Quelle est la probabilité que n y aucune, une, plus de deux ampoules défectueuses. Exercice 2.6

11 2.2. EXERCICES 11 Vous avez décidé de jouer chaque mois aux 2 loterie différentes, et vous arrêtez des que vous gagnez un prix d au moins 1 million d euros dans une (ou même les deux) loterie. On suppose que chaque fois vous jouez la probabilité de gagner au moins 1 million est p 1 pour la premiere loterie et p 2 pour la seconde. Soit M le nombre de fois vous participez dans ces lotteries jusqu à avoir gagner un prix. Quelle est la loi de M? quel est son paramètre? Exercice 2.7 On lance une piece jusqu à ce que pile apparaisse une seconde fois, avec p étant la probabilité de pile. On suppose l indépendance de tous les lancés. Soit X le nombre de lancés nécessaires. 1. Déterminez P (X = 2), P (X = 3), P (X = 4). 2. Montrez que P (X = n) = (n 1)p 2 (1 p) n 2. Exercice 2.8 On étudie l arrivée des appels dans un central téléphonique. On admet que, durant un intervalle de temps de dix secondes, la probabilité qu un appel arrive est p et que celle qu aucun ne survienne de 1 p (on néglige la probabilité que plus d un appel ne survienne sur un tel intervalle de temps). On suppose que les événements concernant les périodes successives de dix secondes sont indépendants. Soit Z la variable aléatoire N d appels reçus en une heure. Quelle est la loi de Z? Donner une approximation de la probabilité qu il y ait quinze appels dans l heure avec p = 0.05.

12 12 CHAPITRE 2. VARIABLE ALEATOIRE DISCRETE

13 Chapitre 3 Variables aléatoires continues et simulation 3.1 Variable aléatoire continue Dans l immédiat nous avons besoin d une variable continue U bien particulière. Loi uniforme. Une v.a. U est distribuée uniformément sur a u b si sa fonction de répartition s exprime : 0 u < a u a F U (u) = P (U u) = b a a u < b 1 u b Notons que la dérivée f U de F U (on l appelle la densité de F U ) est donnée par (uniforme sur [a, b]). f U (x) = { 1 b a a x b 0 ailleurs Remarque : dans le cas discret, l expérience correspondante consiste au tirage d un objet parmi n, X est le numéro de l objet tiré. La loi de distribution uniforme est notée U(a, b). On note que si X est une v.a. continue, la probabilité que X prenne une valeur particulière quelconque est généralement nulle. Dans ces conditions, il n est pas possible de définir une fonction de probabilité comme pour une v.a. discrète. Pour pouvoir définir une distribution de probabilités dans ce cas, on remarque que la probabilité pour que la valeur de X soit comprise entre deux valeurs différentes est une notion qui a un sens. L analogie avec la section 2.1 nous conduit à postuler l existence d une fonction f X (x) telle que : 1. f X (x) f X(x) = 1 Définition 3.1 La probabilité pour que la variable aléatoire continue X soit comprise entre a et b est donnée par : P (a < X < b) = b a f X (x)dx. La fonction f X est appelée densité de probabilité définie pour une v.a. continue.

14 14 CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES ET SIMULATION Conséquence : la fonction de répartition (f.d.r.) F (x) d une v.a. continue est donnée par : et f X (x) = F X (x). Loi exponentielle F X (x) = P (X x) = P ( < X x) = x f X (u)du, Définition 3.2 Une variable aléatoire X suit la loi exponentielle de paramètre λ > 0 (on note X E(λ) si sa f.d.r s écrit { 0, x < 0, F X (x) = P (X x) = 1 e λx, x 0. En dérivant F on obtient la densite de E(λ) : { 0, x < 0, f(x) = λe λx, x 0. A noter que dans la literature on utilise souvent la notation E(µ) pour la loi exponentielle de paramètre λ = 1 µ. Ceci peut être une source de confusion dans ce cas, par exemple, la densite de la loi s écrit { 0, x < 0, f(x) = 1 x µ e µ, x 0. Loi normale Définition 3.3 Une variable aléatoire X suit la loi normale de paramètres µ et σ 2 > 0 (on note X N (µ, σ 2 ) si sa densite de probabilité est f X (x) = 1 x µ e ( σ ) 2, < x <. 2πσ On appelle N (0, 1) la loi normale standardisée, on note φ(x) la densite de N (0, 1) : φ(x) = 1 2π e x2 2, < x <, et Φ(x) la f.d.r de cette loi. La loi N (0, 1) est symétrique par rapport à 0, c.-à.d. φ( x) = φ(x) et, en consequence, Φ( x) = 1 Φ(x). Loi de Pareto Définition 3.4 Une variable aléatoire X suit la loi de Pareto de paramètre α (on note X P ar(α) si sa f.d.r. est { 0, x < 1, F X (x) = 1 x α, x 1. En dérivant nous avons densite de la loi P ar(α) : { 0, x < 1, f X (x) = α, x 1. x α+1

15 3.2. SIMULATION Simulation Dans les applications on a souvent besoin de générer (construire) de façon artificielle (à l aide d un ordinateur, par exemple) des nombres aléatoires X 1,..., X n suivant la loi F (on l appelle un échantillon). Les méthodes de simulation permettent d obtenir seulement une valeur pseudoaléatoire, au lieu d une valeur aléatoire. Cela signifie que les nombres X 1,..., X n simulés sont déterministes ils sont obtenus par un algorithme déterministe mais les propriétés de la suite X 1,..., X n sont proches de celles d une suite aléatoire i.i.d. de même loi Simulation des variables uniformément distribuées Le programme-générateur est disponible dans les nombreux langages de programmation. Quel est le principe de son fonctionnement? On se donne un nombre réel a > 1 et un nombre entier m (d habitude a et m sont des très grands nombres). On commence par une valeur z 0 fixe. Pour tout 1 i n on définit z i = le reste de division de az i 1 par m [ ] azi 1 = az i 1 m, m où [ ] est partie entière. Nous avons toujours 0 z i < m. On définit U i = z i m = az i 1 m [ ] azi 1, m alors 0 U i < 1. La suite U 1,..., U n est considérée comme un échantillon de la loi uniforme U[0, 1]. Les valeurs suivantes de paramètres sont très répandues et donnent en général satisfaction : a = 16807(7 5 ), m = (2 31 1) Figure 3.1 la f.d.r en escalier d une variable pseudo-aleatoire et la f.d.r. théorique Simulation des variables d une loi générale Étant donné une variable aléatoire U de loi uniforme, on peut obtenir variable aléatoire X d une loi générale F ( ) par la méthode d inversion. Elle marche bien si on possède une expression explicite pour F ( ). Cette méthode est basée sur la proposition suivante :

16 16 CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES ET SIMULATION Proposition 3.1 Soit F une f.d.r. continue et strictement monotone, et soit U une variable aléatoire uniformément distribuée sur [0, 1]. Alors la v.a. a F ( ) comme f.d.r. Preuve : On note que X = F 1 (U) F (x) = P (U F (x)) = P (F 1 (U) x) = P (X x). D où l algorithme de simulation suivant : si F (x) est continue est strictement croissante, on prend X = F 1 (U), où U est un nombre pseudo-aléatoire uniformément distribué sur [0, 1]. Si F n est pas continue ou strictement monotone, il faut modifier la définition de F 1. On pose F 1 (y) = sup{t : F (t) < y}. Alors, P (X x) = P (sup{t : F (t) < U} x) = P (U F (x)) = F (x). Exemple 3.1 Répartition exponentielle : F (x) = (1 ɛ x ) pour x 0. On calcule F 1 (y) = ln(1 y) pour y (0, 1). X = ln(1 U) où U U[0, 1]. Exemple 3.2 Loi de Bernoulli : On utilise la méthode modifiée : P (X = 1) = p, P (X = 0) = 1 p, 0 < p < 1. F 1 (y) = sup{t : F (t) < y} = { 0, y [0, 1 p], 1, y (1 p, 1]. Si U est une v.a. de loi uniforme, alors X = F 1 (U) suit la loi de Bernoulli, on a X = { 0, U [0, 1 p], 1, U (1 p, 1]. Simulation des variables transformées Comment simuler une v.a. Y de loi F ((x µ)/σ), étant donné v.a. X de F ( )? On suppose que σ > 0 et µ R). Il faut prendre Y = σx + µ (pourquoi?).

17 3.3. EXERCICES Exercices Exercice 3.1 Soit X une v.a. continue avec la densite de probabilité 1. Dessinez le graphe de f. 3 4, pour 0 x 1, 1 f(x) = 4, pour 2 x 3, 0, partout ailleurs. 2. Déterminez la f.d.r. F de X, dessinez le graphe de F. Exercice 3.2 Supposons que la fonction de répartition d une v.a. continue X, à valeurs dans [0, 1] est donnée par F (x) = x 2, 0 x 1. ( Calculer P 1 2 4) X 3. Exercice 3.3 La densite de probabilité f d une v.a. X est donnée par 1. Determiner c. 2. Calculer la fonction de repartition de X. Exercice 3.4 Soit X E(0.2) Calculer P (X > 5). Exercice 3.5 cx + 3, pour 3 x 2, f(x) = 3 cx, pour 2 x 3, 0, partout ailleurs. La note d un étudiant reçue à un examen est une valeur entre 0 et 1. L étudiant passe son examen si sa note est au moins On modélise cette experience par une v.a. continue N (la note), dont la densité est donnée par 4x, pour 0 x 1 2, f(x) = 4 4x, pour 1 2 x 1, 0, partout ailleurs. 1. Quelle est la probabilité que l étudiant échoue? 2. Quel note il obtiendra avec au moins 50% de chance, autrement dit, quelle est la médiane de la distribution de notes? Exercice 3.6

18 18 CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES ET SIMULATION On consider l experience de jeu de fléchettes, dans laquelle on décrit la distance d une fléchette Y lancée par un joueur au centre du disque par la loi de probabilité avec la f.d.r. r étant le rayon du disque. 0, y < 0, G(y) = y r, 0 y r 1, y > r, 1. Esquisser la densite de probabilité g(y) = G (y). 2. Une autre personne participe au jeu, pour ce joueur la probabilité que sa fléchette frappe une region et proportionnelle à l aire de cette region (autrement dit, le point d impact est uniformément distribué sur le disque). A votre avis, lequel des 2 joueur est meilleur? 3. Esquisser la fonction de repartition associée à une personne qui dans 90% de ses lancées frappe le disque à la distance au centre ne dépassant pas 0.1r. Exercice 3.7 Supposons qu on choisit de façon arbitraire un point P dans le carré avec les sommets en (2.1), (3, 1), (2, 2) et (3, 2). La variable aléatoire A est l aire de triangle avec les sommets en (2, 1), (3, 1) et P. 1. Quelle est la surface A maximale qu on peut obtenir? Quelle est l ensemble de points P pour lesquels A 1 4? 2. Determiner la f.d.r. F de A et sa densite de probabilité. Exercice Calculer la médiane de la loi exponentielle E(λ). 2. Calculer la médiane de la loi de Pareto P ar(1). Exercice 3.9 On considère une v.a. Z N(0, 1). 1. Montrez pourquoi la symétrie de la densite φ de Z implique que Φ( x) = 1 Φ(x). 2. Calculez P (Z 2). Exercice 3.10 Une v.a. Y prend les valeurs 1, 3 et 4 avec les probabilités P (Y = 1) = 3/5, P (Y = 3) = 1/5 et P (Y = 4) = 1/5. Décrivez comment vous allez obtenir Y à partir d une v.a. U U(0, 1). Exercice 3.11 Soit U U(0, 1). 1. Expliquez comment obtenir une simulation de dés à 6 faces à partir de U. 2. Soit Y = [6U + 1], où [a] est la partie entière de a. Quelles sont les valeurs possibles de Y et leurs probabilités? Exercice 3.12

19 3.3. EXERCICES 19 Dans la modélisation de durée de vie des composants mécaniques on utilise quelquefois des v.a. de loi de Weibull. Un exemple de loi de cette famille est la loi dont la f.d.r est { 0, x < 0 F (x) = 1 e 5x2, x 0. Construire une variable Z avec cette loi à partir d une v.a. de loi U(0, 1). Exercice 3.13 La v.a. X suit la loi de Pareto P ar(3), dont la f.d.r. est F (x) = 0 pour x < 1 et F (x) = 1 x 3 pour x 1. Décrivez la construction de X à partir d une v.a. U U(0, 1).

20 20 CHAPITRE 3. VARIABLES ALÉATOIRES CONTINUES ET SIMULATION

21 Chapitre 4 Espérance, variance, écart-type 4.1 Espérance (moyenne théorique) Définition 4.1 soit X une variable aléatoire discrète numérique (i.e. X(Ω) R). Si x k P (X = x k ) x k X(Ω) converge, on appelle espérance mathématique de X le nombre : E(X) = x k P (X = x k ). x k X(Ω) Ou, de manière équivalente, si P (X = x k ) = f X (x k ) E(X) = f X (x). x X(Ω) Exemple 4.1 Si pour x N, P (X = k) = e λ λ k k!, avec λ > 0 fixé (Variable aléatoire de Poisson). On calcule E(X) : E(X) = k=0 k e λ λ k k! = e λ λ k=1 λ k 1 (k 1)! = e λ λ k=0 λ k k! = λ Remarque : Lorsque toutes les probabilités sont égales (événements équiprobables), l espérance mathématique est égale à la moyenne arithmétique, et E(X) = x 1 + x x n. n De façon générale, l espérance de X est encore appelée moyenne de X, notée µ X ou µ. Fonctionnelles de v.a. Soit X une v.a., alors Y = g(x) est aussi une v.a., telle que P (Y = y) = P (X = x) x: g(x)=y

22 22 CHAPITRE 4. ESPÉRANCE, VARIANCE, ÉCART-TYPE Soit A une v.a. discrète et g une fonction réelle, on a : 1. E[g(X)] = g(x)p (X = x) = g(x)f X (x) x X(Ω) x 2. d où E[X 2 ] = x 2 P (X = x) = x 2 f X (x) x X(Ω) x Soit A une v.a. continue de densité de probabilité f(x) et g une fonction réelle, on a : 4.2 Variance et écart-type E[g(X)] = g(x)f(x)dx Définition : On appelle variance de X (et on note Var(X) ou σ 2 (X) ou σx 2 ) l espérance mathématique, si elle existe, de la variable aléatoire [X E(X)] 2. Propriétés : Var(X) = E(X 2 ) E(X) 2. En effet, Var(X) = E([X E(X)] 2 ) = (x E(X)) 2 P (X = x) = x X(Ω) x 2 P (X = x) 2E(X) x X(Ω) } {{ } =E(X 2 ) = E(X 2 ) E(X) 2 xp (X = x) +E(X) 2 x X(Ω) } {{ } =E(X) P (X = x) x X(Ω) } {{ } =1 Définition 4.2 On appelle écart-type de X (et on note σ(x) ou σ X ) la quantité : σ(x) = Var(X). La variance (ou écart-type) est une mesure de dispersion (ou de distribution) des valeurs de la v.a. autour de la moyenne µ = E(X). De plus, (a, b) R 2, E(aX + b) = ae(x) + b (a, b) R 2, Var(aX + b) = a 2 Var(X) (a, b) R 2, σ(ax + b) = a σ(x) Variable centrée, réduite, centrée réduite Une variable aléatoire est dite centrée si son espérance est nulle. La variable aléatoire Y centrée associée à X est : Y = X E(X). Une variable aléatoire est dite centrée réduite si son espérance est nulle et si sa variance est égale à 1. La variable aléatoire Y centrée réduite associée à X est : Y = X = X E(X). σ(x)

23 4.2. VARIANCE ET ÉCART-TYPE 23 Memo des lois discrètes Loi et Notation X(Ω) P (X = k) E(X) Var(X) 1 n + 1 (n 1) 2 Loi uniforme U(n) [1, n] n 2 12 P (X = 1) = p Loi de Bernoulli B(1, p) {0, 1} p p(1 p) P (X = 0) = 1 p Loi binomiale B(n, p) [0, n] Cnp k k (1 p) n k np np(1 p) Loi géométrique G(p) N (1 p) k p p p p 2 λ λk Loi de Poisson P(λ) N e λ λ k! Memo des lois continues Loi et Notation X(Ω) f(x) E(X) Var(X) 1 a + b Loi uniforme U(a, b) [a, b] 1{a x b} b a 2 Loi Exponentielle E(λ) [0, + [ λe λx 1 1{x 0} λ (b a) 2 Loi normale N (µ, σ) ], + [ 1 2πσ exp (x µ)2 2σ 2 µ σ 2 Loi de Pareto P ar(α) [1, + [ α x α+1 1{x 1} α α 1 pour α > λ 2 ( ) 2 α α 2 α α 1 pour α > 2

24 24 CHAPITRE 4. ESPÉRANCE, VARIANCE, ÉCART-TYPE 4.3 Exercices Exercice 4.1 Soit D le dé à 6 faces. Décrivez la loi de D. Calculez son espérance et son écart-type. Exercice 4.2 La distribution de la v.a. discrète X est donnée par 1. Calculer E(X). P (X = 1) = 1 5, P (X = 0) = 2 5, P (X = 1) = Donner la loi de Y = X 2 et calculer E(Y ) en utilisant la distribution de Y. 3. Calculer E(X 2 ) en utilisant le changement de variables et comparer avec le résultat précèdent. Calculer Var(X). Exercice 4.3 Soit X une v.a. avec E(X) = 2, Var(X) = 3. Que vaut E(X 2 )? Exercice 4.4 Soit X une v.a. avec E(X) = 2, Var(X) = 4. Calculer l espérance et la variance de 3 2X. Exercice 4.5 Une v.a. Z à densité f(z) = 3z 2 /19 pour 2 z 3 et f(z) = 0 partout ailleurs. Determiner E(Z). Avant de fare les calculs, sauriez-vous dire si cette valeur est plus proche de 2 ou de 3? Exercice 4.6 Soit X une v.a. dont la densité est donnée par f(x) = { 4x 4x 3, 0 x 1 0, partout ailleurs. Calculer espérance et la variance de la v.a. Y = 2X + 3. Exercice 4.7 Soit U U(a, b). Calculer E(U) et Var(U). Exercice 4.8 Soit X P ar(α). 1. Calculer l espérance de P ar(2). 2. Determiner l espérance de P ar( 1 2 ). 3. Soit X P ar(α). Verifier que E(X) = α α 1 pour α > Pour quelles valeurs de α la variance de la loi P ar(α) est finie? Calculer la variance de la loi de Pareto. Exercice 4.9

25 4.3. EXERCICES 25 Montrer que la moyenne des carrés est plus grande que le carré de la moyenne, c.-à-d. E(X 2 ) [E(X)] 2. Indication : on peut penser utiliser l inégalité Var(X) 0. Exercice 4.10 Supposons qu on choisit de façon arbitraire un point P dans le carré avec les sommets en (2.1), (3, 1), (2, 2) et (3, 2). La variable aléatoire A est l aire de triangle avec les sommets en (2, 1), (3, 1) et P (cf l exercice 3.7). Calculer E(A) et Var(A). Exercice 4.11 Soit X une v.a. discrète qui prend les valeurs a 1, a 2,... avec les probabilités p 1, p 2, Supposons que tous les a i 0 et E(X) = 0. Montrer que P (X = 0) = Supposons que Y une v.a. discrète à valeurs b 1, b 2,... avec probabilités r 1, r 2,... Montrer que Var(Y ) = 0 implique que P (Y = E(Y )) = 1. Indication : appliquer le résultat precedent avec X = (Y E(Y )) 2.

26 26 CHAPITRE 4. ESPÉRANCE, VARIANCE, ÉCART-TYPE

27 Chapitre 5 Calcul 5.1 Fonctions d une variable aléatoire et changement de variables Le propos de ce paragraphe est de montrer comment calculer la loi d une fonction d une v.a Le cas discret Soit X une v.a. discrète sur {x 1,..., x n,...} de fonction de probabilité P (x k ) = P (X = x k ) et soit ψ(x) une fonction réelle donnée. Nous avons P (Y = y) = P (X ψ 1 (y)) = pour y i {ψ(x 1 ),..., ψ(x n ),...}. La technique generale consiste à utiliser les relations : k: ψ(x k )=y P (x k ), F Y (y) = P (Y y) = P (ψ(x) y) = P (X ψ 1 (y)) Cas continue On suppose que X est une v.a. continue de densité f X et que ψ est une fonction continue strictement monotone sur l ensemble de valeurs de X. Sans perte de généralité on peut supposer que ψ est croissante. Si ψ et ψ 1 (qui est bien définie dans ce cas) sont derivable, on a pour Y = ψ(x) et tout b > a : P (a < Y b) = P (a < ψ(x) b) = P (ψ 1 (a) < X ψ 1 (b)) = ψ 1 (b) ψ 1 (a) f X (x)dx = par la formule de changement de variables y = ψ(x). Ainsi, b a f X (ψ 1 (y))[ψ 1 (y)] dy f Y (y) = f X (ψ 1 (y))[ψ 1 (y)] = f X(ψ 1 (y)) ψ (ψ 1 (y)) pour tout y = ψ(x) et 0 sinon. Nous avons ajouté la valeur absolue pour traiter les 2 cas possibles de fonction ψ croissante et décroissante.

28 28 CHAPITRE 5. CALCUL 5.2 Fonctions generatrices, fonctions caractéristiques On définit pour tout reel t la fonction génératrice de la v.a. X par { ϕ(t) = E(e tx x ) = k e tx kp (x k ) = si X est une v.a. discrete de fonction de probabilite P, etx f(x)dx si X est une v.a. continue de densite f. Attention : on doit définir proprement le domaine de ϕ. On appelle ϕ fonction génératrice des moments du fait que tous le moments d ordre n de X, c.-à-d. les valeurs M n = E(X n ), n = 1, 2,... peuvent être calculées en dérivant ϕ n fois en t = 0 : ϕ (t) = d ( ) d dt E(etX ) = E dt etx = E(Xe tx ), alors ϕ (0) = E(X). L expression generale de la n-ème dérivée de ϕ est ( ϕ (n) (t) = dn d n ) dt n E(etX ) = E dt n etx = E(X n e tx ), n 1, qui laisse ϕ (n) (0) = E(X n ), n 1. Memo des lois discrètes Lois (discrètes) Fonction de probabilité P (k) Fonction génératrice ϕ(t) 1 Loi uniforme sur {1,..., n}, U(n) e t (e tn 1) n e t 1 P (X = 1) = p Loi de Bernoulli B(1, p) pe P (X = 0) = 1 p t + 1 p Loi binomiale B(n, p) Cnp k k (1 p) n k (pe t + 1 p) n Loi géométrique G(p) Loi de Poisson P(λ) (1 p) k 1 p λ λk e k! pe t 1 (1 p)e t exp [ λ(e t 1) ] Memo des lois continues Lois (continues) Densité f(x) Fonction génératrice ϕ(t) 1 e Loi uniforme U(a, b) 1{a x b} tb e ta b a t(b a) Loi Exponentielle E(λ) λe λx λ 1{x 0} λ t, t < λ 1 Loi normale N (µ, σ) 2πσ exp (x µ)2 ] 2σ 2 exp [µt + σ2 t 2 2 La fonction caractéristique φ(t) d une v.a. continue X est sa fonction génératrice au point it (ici i = 1) : φ(t) = E(e itx ) = e itx f(x)dx (définie pour tout t R). Nous avons la formule d inversion f(x) = 1 2π e itx φ(t)dt. Par exemple, la fonction caractéristique de la loi de Pareto P ar(α) est donnée par : φ(t) = α( it) α Γ(α, it), où Γ(α, x) = x ts 1 e t dt est la fonction gamma incomplete.

29 5.3. QUELQUES INÉGALITÉS UTILES Quelques inégalités utiles Inégalité de Markov : soit h une fonction croissante, telle que l espérance de h(x) existe, alors pour tout a t.q. h(a) > 0, P (X a) E(h(X)). h(a) Nous avons comme corollaire l inégalité de Tchebychev : soit X est carré-integrable (c.-à-d. que l espérance de X 2 est finie), alors P ( X a) E(X2 ) a 2, P ( X E(X) a) Var(X) a 2. Inégalité de Jensen existe, alors : soit g une fonction convexe, X est une v.a telle que l espérance de X g(e(x)) E(g(X)).

30 30 CHAPITRE 5. CALCUL 5.4 Exercices Exercice 5.1 On suppose que la v.a. continue U suit une loi uniforme sur [0, 1]. 1. Determiner la f.d.r de la v.a. V = au + b, avec a > Soit X une v.a. continue et Y = X. Exprimer la f.d.r. de Y en fonction de celle de X. 3. Pouvez-vous donner la f.d.r. de V = au + b pour un a reel? Exercice 5.2 Soit X E(λ). Écrire la f.d.r de la v.a. λx. Quelle est la loi de λx? Exercice 5.3 Soit X une variable aléatoire uniforme sur [0, 1]. 1. Calculer la f.d.r. et la densité de Y = X n. 2. Calculer E(X n ), puis vérifier ce résultat en faisant appel à la définition de l espérance E(Y ). Exercice 5.4 Soit X une v.a. continue dont la densité est donnée par { 3 f X (x) = 4x(2 x), 0 x 2, 0, ailleurs. 1. Donner la f.d.r. de X. 2. Soit Y = X. Quelle est la f.d.r. F Y de Y? Calculer la densité de Y. Exercice 5.5 Soit X une v.a. continue a valeurs positives avec la densité f X et soit Y = 1/X. ( ) 1. Calculer la f.d.r. de Y et verifier que f Y (y) = 1 f 1 y 2 X y. 2. Soit Z = 1/Y. Quelle est la densité de Z? 3. Soit dans les conditions de cet exercice X une v.a. réelle telle que P (X = 0) = 0. Quelle est l expression de la f.d.r. F Y de Y? de la densité f Y? 1 4. Soit X une v.a. continue de loi de Cauchy, dont la densité est f X (x) =. Quelle est π(1+x 2 ) la loi de Y = 1/X dans ce cas? Exercice 5.6 Soit X une v.a. de la loi exponentielle E(1). On pose W = X 1 α λ. Donner la f.d.r. de W, sa densité de probabilité. Note : La loi de W est souvent utilisée dans la théorie de fiabilité, on l appelle loi de Weibull W(α, λ) de paramètres α et λ

31 5.4. EXERCICES 31 Exercice 5.7 Soit X une v.a. avec la fonction de probabilité suivante : 1. Déterminez la distribution de Y = X. x f(x) 1/4 1/4 1/4 1/4 2. Qui est plus grand : E( X) ou E(X)? Indication : commencez par verifier que g(x) = x est convexe. 3. Calculez E( X) et E(X) pour verifier votre réponse (et pour voir quelle difference ça fait). Exercice 5.8 Soit U U(π, 2π). Qui est plus grand : E(sin(X)) ou sin(e(x))? Calculez les deux espérances pour contrôler votre réponse. Exercice 5.9 Meilleur prediction. On cherche à donner une prediction a d une v.a. X qui serait optimale dans le sens de l écart quadratique moyen : Comment choisiriez-vous a? Exercice 5.10 E((X a) 2 ) E((X x) 2 ) pour tout x R. A partir du pole nord N, le point Q du cercle du diamètre 1 est projeté sur le point t de la droite comme sur la figure Figure 5.1 Projection du cercle sur la droite On suppose que Q est choisi uniformément sur le cercle, ce qui implique exactement que l angle ϕ est choisi uniformément sur [ π 2, π 2 ] (pouvez-vous justifier ceci?). Soit X cet angle uniformément distribué sur [ π 2, π 2 ], quelle sera la loi de la projection Z de Q sur la droite? Notez que l événement {Z t} est exactement le même que {X ϕ}. 1. Quelle partie du cercle est projetée sur l intervalle [1, [? 2. Calculez la f.d.r. et la densité de Z. Exercice 5.11 Un point est choisi au hasard sur un segment de longueur L. Soit X le rapport entre le plus petit et le plus grand segment obtenu. Calculer P (X 1/4). Determiner la loi de X.

32 32 CHAPITRE 5. CALCUL Exercice 5.12 Calculer la fonction génératrice de la variable aléatoire X B(p). Calculer la fonction génératrice de la variable aléatoire X G(p). Exercice 5.13 Soit X, une variable de fonction génératrice ϕ. On pose ψ(t) = log(ϕ(t)). Montrer que ψ (0) = Var(X). Exercice 5.14 Un individu jette une pièce de monnaie équilibrée jusqu à ce que pile apparaisse pour la première fois. Si pile apparaît au n-ème jet, l individu gagne 2 n euros. Soit X, le gain du joueur. Montrer que E(X) = +. Ce problème porte le nom de paradoxe de St. Petersbourg. Seriez-vous disposé à payer d euros pour jouer une fois à ce jeu? 100 fois? Exercice Un bureau de poste doit être installé le long d une route de longueur A, A <. Si la population est uniformément répartie sur [0, A], où doit-on la poste de façon à minimiser l espérance de la distance entre le poste et le destinataire? Autrement dit, on cherche à minimiser E( X a ) où X est uniformément distribuée sur [0, A]. 2. Pour une distribution F, on dit que m est la médiane de cette distribution si F (m) 1 2 et 1 F (m) 1 2. Si la distribution est continue, la médiane est l unique valeur pour laquelle F (m) = 1 2. Que peut-on dire de la valeur de a qui minimise E( X a ), lorsque X suit une distribution notée F? Exercice Un produit de saison rapporte un bénéfice net de b euros par unité vendue mais, inversement, chaque unité invendue à la fin de la saison engendre une perte de d euros. On approxime la loi de la demande X d unités achetés auprès d un certain magasin par une loi continue de probabilité de densité f à valeurs non négatives. On admet que le magasin doit avoir constitué tout son stock avant la saison. Quelle doit être la taille de ce stock si l on veut maximiser le résultat net moyen de l opération? Indication : si on désigne par s la taille du stock et par r s (X) le revenu net de l opération. c est-à-dire le bénéfice, on a { bx (s X)d, si X s r s (X) = bs, si X > s. 2. Supposons maintenant que le magasin décrit ci-dessus encoure un coût additionnel c pour chaque unité de demande non satisfaite. 1 Calculer l espérance de profit si le stock est de s unités et determiner la valeur de s qui maximise ce profit. 1. Ceci est fréquemment appelé un coût en goodwill car le magasin perd un peu de la confiance des clients dont la demande n est pas satisfaite.

33 Chapitre 6 Vecteurs aléatoires : loi conjointe et indépendance 6.1 Definitions des distribution jointes Fonction de répartition conjointe Il est souvent nécessaire de considerer des événements relatifs à deux ou même à plus de deux variables. Pour traiter de tels problèmes on définit une fonction F de repartition jointe. Définition 6.1 Pour toute paire de v.a. X et Y, définie sur le même espace d événements Ω, on définie la fonction de repartition conjointe F X,Y (x, y) = F (x, y) par F (x, y) = P (X x, Y y), < x, y <. La fonction de repartition de X peut être déduite de la fdr joint de X et de Y : ( ) F X (x) = P (X x) = P (X x, Y < ) = P lim {X x, Y y} y marginale = lim P (X x, Y < y) = lim F (x, y) = F (x, ). y y Définition 6.2 Les fonctions de repartition F X et F Y sont dites fonction de repartition marginales. La probabilité de tous les événements relatifs à X et Y peut être calculée à partir de F (x, y), e.g. : P (X > a, Y > b) = 1 P ({X > a, Y > b}) = 1 P ({X > a} {Y > b}) Loi discrete jointe = 1 P ({X a} {Y b}) = 1 [P (X a) + P (Y b) P (X a, Y b)] = 1 F X (a) F Y (b) + F (a, b). Dans le cas où X et Y sont deux variables discrètes, il est commode de définir la loi de probabilité conjointe de X et Y : P (x, y) = P (X = x, Y = y). (6.1)

34 34 CHAPITRE 6. VECTEURS ALÉATOIRES : LOI CONJOINTE ET INDÉPENDANCE La loi de probabilité marginale de X s en déduit ainsi : P X (x) = P (X = x) = P (x, y). y: P (x,y)>0 De façon similaire P Y (y) = P (x, y). (6.2) x: P (x,y)>0 Définition 6.3 Soit X et Y deux v.a. discretes à valeurs {x i }, i = 1,... et {y j }, j = 1,... Pour y {y j } on appelle la loi conditionnelle de X sachant Y = y la famille de nombres P (X = x i Y = y), i = 1,... D après la definition, si P (Y = y) > 0 on a P (X = x Y = y) = P (X = x, Y = y) P (Y = y) (sinon, on peut poser, par exemple, P (X = x Y = y) = P (X = x)). Nous avons P (X = x i Y = y) = i i P (X = x i, Y = y) P (Y = y) = 1 P (Y = y) P (X = x i, Y = y) = 1 i par (6.2), et donc P (X = Y = y) est une loi de probabilité Densité conjointe Définition 6.4 Les variables X et Y sont dites conjointement continues s il existe une fonction f de deux arguments réels ayant pour tout sous-ensemble C du plan la propriété suivante : P ((X, Y ) C) = (x,y) C La fonction f est appelée densité conjointe de X et Y. f(x, y)dxdy (6.3) Si on note par A et B deux ensembles de nombres réels, en définissant C = {(x, y) : x A, y B}, on obtient grâce à (6.3) : Comme il suffi de dériver pour obtenir P (X A, Y B) = F (x, y) = P (X x, Y y) = B A f(x, y)dxdy. (6.4) b f(x, y) = 2 F (x, y). x y Les densités marginales de X et Y sont données par f X (x) = f(x, y)dy, f Y (y) = a f(x, y)dxdy. f(x, y)dx

35 6.2. DISTRIBUTION CONJOINTE DE PLUSIEURS VARIABLES 35 Soit (X, Y ) un couple de v.a. possédant la densité jointe f X,Y (x, y), on note f X (x) et f Y (y) les densités marginales respectives de X et de Y. Pour définir la densité conditionnelle de X sachant Y = y on écrira : P (X [x, x + dx] Y [y, y + dy]) = P (X [x, x + dx], Y [y, y + dy]) P (Y [y, y + dy]) = f X,Y (x, y)dxdy f Y (y)dy = f X,Y (x, y) dx. f Y (y) Notons que lorsque f Y (y) > 0, comme f Y (y) = f X,Y (x, y)dx, la fonction f X,Y (x,y) f Y (y) densité de probabilité sur R. est une Définition 6.5 Pour y R, on appelle densité conditionnelle de X sachant Y = y la densité f X Y (x y) donnée par la formule f X Y (x y) = { fx,y (x,y) f Y (y) si f Y (y) > 0, f X (x) sinon. 6.2 Distribution conjointe de plusieurs variables Définition 6.6 La fonction de repartition conjointe F du vecteur aléatoire X n = (X 1,..., X n ) (on suppose les v.a. X 1,..., X n définies sur le même espace d événements) est donnée par F (x 1,..., x n ) = P (X 1 x 1, X 2 x 2,..., X n x n ). Dans le cas des v.a. X 1,..., X n discrètes, la loi conjointe peut être aussi caractérisée par la probabilité conjointe (cf. (6.1)) : P (x 1,..., x n ) = P (X 1 = x 1,..., X n = x n ). Par ailleurs, les n v.a. seront dites conjointement continues s il existe une fonction f de n arguments, appellee densité conjointe de X 1,..., X n telle que pour tout C R n (cf (6.4)) : P ((X 1,..., X n ) C) =... f(x 1,..., x n )dx 1...dx n. (x 1,...,x n) C On définie de façon transparente les notions de loi marginale et conditionnelle dans ce cas. 6.3 Variables aléatoires indépendantes Definitions, critères d indépendance Définition 6.7 Deux variables aléatoires X et Y sont dites indépendantes si, pour tout choix d une paire d ensembles A et B de réels, on a P (X A, Y B) = P (X A)P (Y B). (6.5) On notera X Y. En d autres termes, X et Y sont indépendantes si, quels que soient A et B, les événements {X A} et {Y B} sont indépendants.

36 36 CHAPITRE 6. VECTEURS ALÉATOIRES : LOI CONJOINTE ET INDÉPENDANCE On peut montrer que (6.5) est vraie si et seulement si pour tout couple (x, y) de réels P (X x, Y y) = P (X x)p (Y y), ce qui revient a écrire que X et Y sont indépendantes si F (x, y) = F X (x)f Y (y). Lorsque X et Y sont discrètes, la condition (6.5) est équivalente à P (x, y) = P X (x)p Y (y) pour tous x et y. Lorsque X et Y sont des variables conjointement continues, le critère d indépendance sera f(x, y) = f X (x)f Y (y) pour tout x et tout y. Intuitivement parlant. on pourra donc dire que X et Y sont indépendantes si le fait de connaître la valeur de l une n influe pas sur la distribution de l autre. On vérifie immédiatement que 2 v.a. discrètes sont indépendantes ssi la loi conditionnelle de X sachant Y = y ne depend pas de y. En effet, la nécessité étant évidente, supposons que pour tous x, y admissible P (X = x Y = y) = µ(x). Si on fixe x, en multipliant par P (Y = y) et en faisant la somme sur y on obtient P (X = x) = µ(x), ainsi P (X = x, Y = y) = P (X = x Y = y)p (Y = y) = µ(x)p (Y = y) = P (X = x)p (Y = y). La même condition reste valable pour les v.a. continues (on conduit la preuve de la mémé façon en remplaçant les sommes par les intégrales). Des variables qui ne sont pas indépendantes sont dites dépendantes Somme des variables aléatoires indépendantes, convolution Soit X et Y deux v.a. indépendantes. La distribution de la somme Z = X + Y est donnée par la convolution de celles de X et Y : nous avons dans le cas des v.a. discrètes a valeurs dans Z : P Z (k) = P (X + Y = k) = P X (j)p Y (k j); et dans le cas des v.a. continues : f Z (z) = Propagation d indépendance j= f X (x)f Y (z x)dx. (6.6) Une question importante concerne la preservation de l indépendance par les transformations des variables indépendantes. Par exemple, soit I =]a, b], et X et Y deux v.a. indépendantes. On note U = 1{X I} et V = 1{Y I}. On écrit P (U = 0, Y = 1) = P (X / I, Y I) = P (X / I)P (Y I) = P (U = 0)P (V = 1), et on obtient par un raisonnement similaire pour tout u, v : Nous avons la règle generale suivante : P (U = u, V = v) = P (U = u)p (V = v). soit X 1,..., X n v.a. indépendantes. Soit pour tout g i : R R, et Y i = g i (X i ), i = 1,..., n. Alors Y 1,..., Y n sont indépendants.

37 6.4. EXERCICES Exercices Exercice 6.1 Les probabilités P (X = a, Y = b) de v.a. discrètes X et Y sont données dans le tableau suivant : 1. Déterminer les distributions marginales de X et Y, c.-à-d. les probabilités P (X = a) et P (Y = b) pour a, b = 1,..., 4, la loi conditionnelle de X sachant Y = Donner (a) P (X = Y ), P (X + Y = 5), P (XY = 6 Y = 2), P (X = 3) (b) P (1 < X 3, 1 < Y 3) (c) P ((X, Y ) {1, 4} {1, 4}) Exercice 6.2 La loi jointe de v.a. discrètes X et Y est donnée dans le tableau suivant : Complétez le tableau. X et Y sont-ils indépendants? Exercice 6.3 Les probabilités marginales de v.a. X et Y sont données dans le tableau ci-dessous : On sait en plus que pour tout x, y = 1,..., 5 la probabilité P (X = x, Y = y) est soit 1/14 ou 0. Déterminer la loi jointe de X et Y. Exercice 6.4

38 38 CHAPITRE 6. VECTEURS ALÉATOIRES : LOI CONJOINTE ET INDÉPENDANCE On jette deux dés équilibrés. Trouver la loi de probabilité conjointe de X et Y dans les cas suivants : 1. X est la plus grande des deux valeurs obtenues et Y en est la somme ; 2. X est la valeur obtenue avec le premier dé et Y est la plus grande des deux valeurs ; 3. X et Y sont respectivement la plus petite et la plus grande des deux valeurs obtenues. Exercice 6.5 Soit X et Y deux v.a. indépendantes de loi de Bernoulli B( 1 2 ). Soit U = X + Y et V = X Y. 1. Donner la loi jointe et les lois marginales de U et V, la loi de U sachant V = 0 et V = U et V sont-ils indépendants? Exercice 6.6 Le propriétaire d un magasin de télévisions évalue que 25% des clients entrant dans son magasin achètent un appareil de télévision LCD, 15% achètent un appareil plasma et 60% d entre eux font juste du lèche-vitrine. Si cinq clients entrent dans son magasin un jour donné, quelle est la probabilité qu il vende exactement 2 appareils LCD et 1 poste plasma ce jour-là? Exercice 6.7 Le nombre de personnes qui entrent dans un magasin durant une heure donnée est une variable aléatoire de Poisson de paramètre λ = 10. Déterminer la probabilité conditionnelle qu au plus 3 hommes entrent dans ce magasin, étant donne que 10 femmes y sont entrées durant cette heure-là. Quelles hypothèses faites-vous? Exercice 6.8 Si X est une variable discrete distribuée suivant la loi de Poisson de paramètre λ, calculer P (X = 1 X 1). Dans une ville de personnes, un voleur a laisse une empreinte digitale de type τ. La police arrête un suspect dont les empreintes digitales sont de type τ. Sachant que la probabilité pour qu une personne ait des empreintes de ce type est , est-il raisonnable de condamner le suspect sur la foi de ce seul indice? Exercice 6.9 Supposons qu un point soit uniformément choisi dans un carré de surface unité, ayant les sommets (0, 0), (0, 1), (1, 0) et (1, 1). Soit X et Y les coordonnées du point choisi. 1. Trouver les distributions marginales de X et de Y ; 2. X et Y sont-ils des variables indépendantes? 3. Qu en est-il si densité de X et Y est donnée par : { 2 si 0 x y, 0 y 1, f(x, y) = 0 sinon. Exercice 6.10 Soit la distribution jointe de X et Y donnée par { 1 e F (x, y) = 2x e y + e (2x+y) si x > 0, y > 0, 0 sinon.

39 6.4. EXERCICES Déterminer la distribution marginale de X et Y. 2. Calculer la densité conjointe de X et Y. 3. Calculer les densités marginales de X et Y, la densité conditionnelle de X sachant Y = y. 4. X et Y sont-ils indépendants? Exercice 6.11 Considérons la fonction de densité conjointe de X et Y donnée par : f(x, y) = 6 7 (x2 + xy ), 0 x 1, 0 y Vérifier que c est bien là une fonction de densité conjointe. 2. Déterminer la fonction de densité de X, la densité conditionnelle f Y X (y x). ( ) 3. Trouver P Y > 1 2 X < 1 2. Exercice 6.12 La fonction de densité de X et Y est donnée par : f(x, y) = e (x+y), 0 x <, 0 y < Trouver : 1. P (X < Y ) ; 2. P (X < a). Exercice 6.13 Deux points sont choisis sur un segment de longueur L, de manière à ce qu ils soient de part et d autre du milieu du segment. En d autres termes, les deux points X et Y sont des variables aléatoires indépendantes telles que X soit uniformément distribué sur [0, L/2[ et Y soit uniformément distribué sur [L/2, L]. Trouver la probabilité que la distance entre les deux points soit plus grande que L/3. Exercice 6.14 Soit U 1 et U 2 deux v.a. indépendantes, toutes deux distribuées uniformément sur [0, a]. Soit V = min{u 1, U 2 } et Z = max{u 1, U 2 }. Montrer que la f.d.r. conjointe F de V et Z est donnée par F (s, t) = P (V s, Z t) = t2 (t s) 2 a 2 pour 0 s t a. Indication : notez que V s et Z t arrive exactement quand U 1 t et U 2 t toutes les deux, mais pas quand s < U 1 t et s < U 2 t toutes les deux. Exercice 6.15 Si X 1 et X 2 sont des variables aléatoires exponentielles indépendantes avec paramètres respectifs λ l et λ 2, trouver la distribution de Z = X 1 /X 2. Calculer aussi P (X 1 < X 2 ).

40 40 CHAPITRE 6. VECTEURS ALÉATOIRES : LOI CONJOINTE ET INDÉPENDANCE

41 Chapitre 7 Covariance et corrélation 7.1 Espérance de fonction de plusieurs variables Il existe un équivalent bidimensionnel au résultat du paragraphe 4.1, aux termes duquel on peut écrire, si X et Y sont deux variables aléatoires et g une fonction de deux variables : E(g(X, Y )) = g(x, y)p (x, y) y x dans le cas où X et Y sont discrètes de fonction de probabilité conjointe P (, ), et E(g(X, Y )) = g(x, y)f(x, y)dxdy dans celui où X et Y sont continues de densité conjointe f(, ). En appliquant ce résultat au cas quand g est une somme de variables nous obtenons : E(X + Y ) = E(X) + E(Y ). Plus généralement, si E(X i ) sont finies pour tout i = 1,..., n, E(X X n ) = E(X 1 ) E(X n ). Dans le cas quand a) soit X i 0 pour tout i 1, ou b) i=1 E( X i ) < nous avons aussi ( n ) E X i = E(X i ). i=1 i=1 Nous avons les propriétés suivante de l espérance : 1. Linéarité : si E(X) et E(Y ) existent, alors E(aX + by ) = ae(x) + be(y ) pour tous reels a et b ; 2. Croissance : si X et Y sont deux v.a. telle que P (X Y ) = 1 alors E(X) E(Y ). 7.2 Covariance, variance de sommes Covariance Soit X, Y deux v.a. indépendantes. Nous avons dans le cas des v.a. conjointement continues : E(g(X)h(Y )) = g(x)h(y)f(x, y)dxdy

42 42 CHAPITRE 7. COVARIANCE ET CORRÉLATION = = [ g(x)h(y)f X (x)f Y (y)dxdy ] g(x)f X (x)dx h(y)f Y (y)dy = E(g(X))E(h(Y )) et le développement est similaire dans le cas discret. Définition 7.1 La covariance de deux variables aléatoires quelconques X et Y est notée Cov(X.Y ) el est définie par l expression : Cov(X, Y ) = E ((X E(X)) (Y E(Y ))). Le développement du membre de droite donne Cov(X, Y ) = E(XY E(X)Y XE(Y ) + E(Y )E(X)) (espérance de somme) = E(XY ) E(X)E(Y ) E(X)E(Y ) + E(X)E(Y ) = E(XY ) E(X)E(Y ). Remarque : si X et Y sont indépendants, a fortiriori, Cov(X, Y ) = 0. Le réciproque n est pas forcement vrai. Le résultat suivant, qui concerne la covariance, est souvent utilisé. n m n m Cov X i, Y i = Cov(X i, Y j ). i=1 j=1 i=1 j=1 La démonstration en est laissée à titre d exercice Variance de sommes Nous avons Var(X + Y ) = ( E [X + Y E(X + Y )] 2) = E ([(X EX) + (Y EY )] 2) = E = E ([X + Y E(X) E(Y )] 2) ( ) (X E(X)) 2 + (Y E(Y )) 2 + 2(X E(X))(Y E(Y )) = E((X E(X)) 2 ) + E((Y E(Y )) 2 ) + 2E ((X E(X))(Y E(Y ))) = Var(X) + Var(Y ) + 2Cov(X, Y ). On développe un argument similaire pour établir ( n ) n n n Var X i = Var(X i ) + 2 Cov(X, Y ), i=1 i=1 i=1 j>i et dans le cas de v.a. X i indépendantes deux à deux ( n ) n Var X i = Var(X i ). i=1 i=1

43 7.3. CORRÉLATION Corrélation Définition 7.2 La corrélation entre deux variables aléatoires X et Y est noté ρ(x, Y ) et est définie ainsi, pour autant que Var(X), Var(Y ) soit non nul : Cov(X, Y ) ρ(x, Y ) = Cov(X, Y ). Var(X)Var(Y ) σ X σ Y Inégalité de Cauchy : nous avons pour toutes v.a. U et V : E(UV ) 2 E(U 2 )E(V 2 ), avec l égalité si et seulement si U et V sont liés linéairement : il existe λ R tel que U = λv. A l aide de l inégalité de Cauchy on vérifie que ρ(x, Y ) = ±1 si et seulement si pour certains a et b réels X = ay + b. On dit que X et Y sont non-corrélés (et on note X Y ) si ρ(x, Y ) = 0. On dit que X et Y sont corrélés positivement si ρ > 0, et X et Y sont corrélés négativement si ρ < Espérance conditionnelle Nous commençons par la definition suivante : Définition 7.3 Soient X et Y deux variables aléatoires discrètes a valeurs {x i } et {y i } respectivement et f est telle que f(x, Y ) est sommable. On appelle espérance conditionnelle de f(x, Y ) sachant Y et on note E(f(X, Y ) Y ) la variable aléatoire discrete E(f(X, Y ) Y ) = g(y ) où y {y i }, g(y) = x i f(x i, y)p (X = x i Y = y). On appelle la valeur réelle g(y) espérance conditionnelle de f(x, Y ) sachant Y = y. Lorsque X est tel que E(X) existe, pour le choix f(x, y) = x on obtient le cas important suivant : E(X Y ) = g(y ) où y {y i } g(y) = x i P (X = x i Y = y). x i On appelle E(X Y ) espérance conditionnelle de X sachant Y. Autrement dit, l espérance conditionnelle de X sachant Y = y n est rien d autre que la moyenne théorique de la loi conditionnelle de X sachant Y = y. De la même façon on définit l espérance conditionnelle pour les v.a. continues : Définition 7.4 Soit f : R 2 R telle que Ef(X, Y ) existe. On appelle espérance conditionnelle de f(x, Y ) sachant Y et on note E(f(X, Y ) Y ) la variable aléatoire E(f(X, Y ) Y ) = g(y )où y R, g(y) = f(x, y)f X Y (x y)dx. Proposition 7.1 On suppose que E(f(X, Y )) existe. Alors pour toute fonction réelle ψ telle que E(f(X, Y )ψ(y )) existe on a E(E(f(X, Y ) Y )ψ(y )) = E(f(X, Y )ψ(y )). En particulier, E(E(f(X, Y ) Y )) = E(f(X, Y )) (pour ψ(y) 1).

44 44 CHAPITRE 7. COVARIANCE ET CORRÉLATION En effet, dans le cas de v.a. discrètes, nous avons E(E(f(X, Y ) Y )ψ(y )) = ψ(y i )g(y i )P (Y = y i ) y i = [ ] f(x i, y i )P (X = x i Y = y i ) P (Y = y i ) y i x i = ψ(y i )f(x i, y i )P (X = x i, Y = y i ) = E(f(X, Y )g(y )). x i,y i Corollaire 7.1 Si E([f(X, Y )] 2 ) existe, alors Var(g(Y )) = Var(E(f(X, Y ) Y )) V ar(f(x, Y )). En effet, dans le cas de v.a. discrètes, par l inégalité de Cauchy (c.-à-d. [ a i b i ] 2 a 2 i b 2 i ) et comme x i P (X = x i Y = y) = 1, E(f(X, Y ) Y = y) = x i f(x i, y)p (X = x i Y = y) = ( [f(x, y)p 1/2 (X = x i Y = y)]p 1/2 (X = x i Y = y) x i [ ] f 2 (x, y)p (X = x i Y = y) P (X = x i Y = y) = E(f 2 (X, Y ) Y = y). x i x i ) 2 Ainsi E(f(X, Y ) Y ) 2 E(f 2 (X, Y ) Y ). Comme, par la proposition ci-dessus, E(E(f 2 (X, Y ) Y )) = E(f 2 (X, Y )), on déduit que (cf la propriété de croissance de l espérance) E(f(X, Y ) Y ) 2 ) E(f 2 (X, Y )). On conclut en soustrayant (E(E(f(X, Y ) Y ))) 2 = (E(f(X, Y ))) 2 à cette inégalité. La propriété la plus importante de l espérance conditionnelle est résumée dans la proposition suivante : Proposition 7.2 (Propriété de meilleure prediction) Supposons que E(f 2 (X, Y )) existe et que g(y ) = E(f(X, Y ) Y ). Alors E([f(X, Y ) g(y )] 2 ) = E([f(X Y ) E(f(X, Y ) Y )] 2 ) E([f(X, Y ) h(y )] 2 ), pour toute fonction (mesurable) h sur R. Autrement dit, g(y ) = E(f(X, Y ) Y ) est la meilleure prediction de f(x, Y ) sachant Y. Pour f(x, y) = x nous avons un cas particulier (cf exercice 5.9) : E([X E(X Y )] 2 ) E([X h(y )] 2 ), pour toute fonction h, et la v.a. E(X Y ) st la meilleure prediction de X sachant Y. Par ailleurs, nous avons la decomposition Var(X) = E([X E(X)] 2 ) = E([X E(X Y ) + E(X Y ) + E(X) } {{ } ] 2 ) =E(E(X Y )) = E([X E(X Y )] 2 ) + E([E(X Y ) E(E(X Y ))] 2 ) = E([X E(X Y )] 2 ) + Var(E(X Y )) E([X E(X Y )] 2 ).

45 7.5. FONCTIONS GENERATRICES Fonctions generatrices On se rappelle (cf le paragraphe 5.2) que la fonction génératrice ϕ X d une v.a. X est définie par ϕ X (t) = E(e tx ). Un outil très efficace est celui de fonction génératrice (cf le paragraphe 5.2) : Définition 7.5 Fonction génératrice d un vecteur aléatoire X = (X 1,..., X n ) (ou fonction génératrice conjointe ϕ X est définie pour t = (t 1,..., t n ) par ϕ X (t) = E(e tt X ), où t T X = n i=1 t i X i. Les fonctions generatrices individuelles peuvent être calculées facilement : ϕ Xi (t) = E(e tx i ) = ϕ X (t 0 ), ou t 0 = (0,...0, t, 0,..., 0) (avec t en i-ème position). La donne de ϕ X determine de façon univoque la loi du vecteur X. Nous avons la caractérisation importante : n v.a. X 1,..., X n seront indépendantes si et seulement si ϕ X (t) = ϕ X1,...,X n (t 1,..., t n ) = ϕ X1 (t 1 )...ϕ Xn (t n ). Définition 7.6 Fonction caractéristique d un vecteur aléatoire X = (X 1,..., X n ) φ X est définie pour t = (t 1,..., t n ) par φ X (t) = E(e itt X ), où t T X = n i=1 t i X i. Comme dans le case d une fonction génératrice, les fonctions caractéristiques individuelles sont données par : φ Xi (t) = E(e itx i ) = ϕ X (it 0 ), ou t 0 = (0,...0, t, 0,..., 0) (avec t en i-ème position). Il est claire que la fonction caractéristique φ X possède les même propriétés que la fonction génératrice ϕ X de X, avec un avantage considerable elle est définie pour tout t R n. Si l integration dans (6.6) peut être difficile, le calcul de la fonction génératrice (ou la fonction caractéristique) de la somme X + Y est très simple : pour X Y, ϕ X+Y (t) = E(e t(x+y ) ) = E(e tx e ty ) = E(e tx )E(e ty ) = ϕ X (t)ϕ Y (t). De même, φ X+Y (t) = E(e it(x+y ) ) = E(e itx )E(e ity ) = φ X (t)φ Y (t). 7.6 Exercices Exercice 7.1 Soit X et Y deux v.a. et r, s, t et u des valeurs réelles. Montrer à partir de la definition de la covariance que 1. Cov(X + s, Y + u) = Cov(X, Y ), 2. Cov(rX, ty ) = rtcov(x, Y ), 3. Cov(rX + s, ry + u) = rtcov(x, Y ), Exercice 7.2

46 46 CHAPITRE 7. COVARIANCE ET CORRÉLATION Soit X et Y des v.a. discrètes à valeurs dans {c 1, c, c + 1}. La loi jointe et les marginales sont données dans la table suivante : 1. Soit c = 0. Calculer l espérance et la covariance de X et Y. 2. Montrer que X et Y sont non-corrélés, quelque soit la valeur de c. 3. X et Y sont-ils indépendants? Exercice 7.3 On se rappelle la relation entre degrés Celsius et degrés Fahrenheit : T F = 9 5 T C Soit X et Y les temperatures moyenne en degrés de Celsius à Paris et à Grenoble. On suppose que Cov(X, Y ) = 3 et ρ(x, Y ) = 0.8. On note par T et S les mêmes temperatures en degrés Fahrenheit. Donner Cov(T, S) et ρ(t, S). Exercice 7.4 Soit X et Y deux v.a.. 1. Exprimer Cov(X, X + Y ) en termes de Var(x) et Cov(X, Y ). 2. X et X + Y sont-ils non-corrélés, positivement ou négativement corrélés, ou tout peut arriver? Exercice 7.5 Démontrer 1. Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z), ( ni=1 2. Cov X i, ) n j=1 Y j = n nj=1 i=1 Cov(X i, Y j ). Exercice 7.6 Montrer que si Var(X i ) = σ 2 et Cov(X i, X j ) = γ pour tous 1 i, j n, alors Var(X X n ) = nσ 2 + n(n 1)γ. Exercice 7.7

47 7.6. EXERCICES 47 Soit X et Y v.a. positives et indépendants de densités Determiner la densité de Z = X + Y. Exercice 7.8 f X (x) = 1 4 xe x/2 et f Y (y) = 1 4 ye y/2. Soient X 1, X 2,..., X n des v.a. indépendantes et identiquement distribuées d espérance µ et de variance σ 2. On pose X = 1 n ni=1 X i. Montrer que 1. E( X) = µ et Var( X) = σ2 n, 2. E ( n i=1 (X i X) 2) = (n 1)σ 2. Exercice 7.9 Soit X le nombre de 1 et Y le nombre de 2 apparaissant lors de n jets d un de équilibre. Calculer Cov(X, Y ). Avant de faire le calcul, sauriez-vous dire si Cov(X, Y ) ou Cov(X, Y ). Indication Utiliser pour cela la relation 2) de l exercice 7.5. Exercice 7.10 Un dé est jeté 2 fois. Soit X la somme des résultats et soit Y la différence entre le premier et le second résultat. Calculer Cov(X, Y ). Exercice 7.11 Les variables aléatoires X et Y ont une densité conjointe donnée par { 2 f(x, y) = e 2x x, si 0 x <, 0 y x, 0 sinon Ca1culer Cov(X, Y ). Exercice 7.12 Un groupe de 20 personnes. compose de 10 hommes et de 10 femmes est réparti aléatoirement en 10 couples. Calculer l espérance et la variance du nombre de couples mixtes. Supposons maintenant que ce groupe de 20 personnes soit en fait composé de 10 couples mariés. Calculer l espérance et la variance du nombre de couples mariés qui seront réunis par le hasard. Exercice 7.13 Soit X et Y deux variables aléatoires exponentielles de paramètre λ indépendantes et S = X +Y. Determiner la loi conditionnelle de X sachant S = s et en déduire E(X S). Exercice 7.14 Soit X et Y deux variables aléatoires indépendantes distribuées respectivement suivant les lois de Poisson de paramètre λ > 0 et de paramètre µ > 0. On note S = X + Y. 1. Determiner la loi de S. 2. Pour tout s N determiner la loi conditionnelle de X sachant S = s. 3. Donner E(X S).

48 48 CHAPITRE 7. COVARIANCE ET CORRÉLATION Exercice 7.15 Soient X, Y 1 et Y 2 les variables aléatoires indépendantes, Y 1 et Y 2 sont normales N(0, 1), et Z = Y 1 + XY X 2 Utiliser la loi conditionnelle P (Z < u X = x) pour montrer que Z N(0, 1). Exercice 7.16 On jette un dés n fois. Calculer la fonction génératrice de la somme X n des résultats. Dériver cette fonction pour obtenir l espérance et la variance de cette somme. Exercice 7.17 Additivité de la loi normale. Vérifier le résultat suivant : soient X 1 et X 2 des v.a. normales indépendantes de paramètres (µ 1, σ 2 1 ) et (µ 2, σ 2 2 ). La variable X = X 1 +X 2 est alors normale de paramètres µ = µ 1 +µ 2, σ 2 = σ 2 1 +σ2 2. Indication : calculez la fonction génératrice Soit X et Y v.a. indépendantes, X N (2, 5) et Y N (5, 9). On définie Z = 3X 2Y Trouver E(Z) et Var(Z). 2. Quelle est la loi de Z?

49 Chapitre 8 Convergence et théorèmes limites Les théorèmes limites constituent les résultats théoriques les plus importants des probabilités. Parmi eux, les principaux sont répertories sous deux dénominations : loi des grands nombres d une part, et théorèmes centraux limites d autre part. On s accorde généralement à les considérer comme des lois des grands nombres s ils énoncent des conditions sous lesquelles la moyenne d une suite de variables aléatoires converge (dans un sens à définir) vers leur espérance commune. Les théorèmes centraux limites par contre déterminent sous quelles hypotheses la somme d un grand nombre de variables aléatoires est de distribution approximativement normale. 8.1 Convergence en probabilité, loi de grands nombres Énoncé de la loi faible des grands nombres Théorème 8.1 (Loi faible des grands nombres) Soient X 1, X 2... une suite de v.a. indépendantes et equidistribuées. On suppose que X 1 (et donc toutes les X i )admet l espérance E(X 1 ) = µ. Alors pour tout ɛ > 0 ( ) 1 n P X i µ n > ɛ 0 lorsque n. i=1 Preuve : Nous démontrerons le théorème en admettant une hypothèse supplémentaire, à savoir que les variables considérées ont une variance σ 2 commune finie. Soit X n = 1 ni=1 n X i. Dans ce cas, comme E( X n ) = µ et Var( X n ) = σ2 n (cf Exercice 7.8), il résulte de l inégalité de Tchebychev que pour tout ɛ > 0, ce qui ë1ablit le résultat. P ( X n µ > ɛ) σ2 nɛ 2 0 quand n Convergence en probabilité Définition 8.1 On dit que la suite de v.a. X n, n = 1, 2,... converge vers la v.a. Y en probabilité et on le note X n P Y si pour tout ɛ > 0 P ( X n Y > ɛ) 0 lorsque n.

50 50 CHAPITRE 8. CONVERGENCE ET THÉORÈMES LIMITES Si X n converge vers Y en probabilité, alors pour toute grande valeur de n, disons n, X n est probablement très voisine de Y. Attention, elle n assure pas cependant que X n devra rester dans un voisinage étroit de Y pour toutes les valeurs de n supérieures à n. Il est donc possible que des larges écarts entre X n et Y peuvent se produire pour une infinité valeurs de n > n (infinité dont la probabilité collective est très faible cependant). Exemple 8.1 Soit X n = x n, n = 1, 2,... une suite deterministe de nombres réels. Alors si X n converge, disons vers x, alors X n P x. En effet, la convergence (déterministe) de X n vers x implique que pour tout ɛ > 0 il existe n < tel que pour tout n n X n x ɛ, et, évidemment, P ( X n x > ɛ) = 0 pour tout n n. Exemple 8.2 Soit X n N (0, 1 n ). Nous avons Ainsi X n P 0 dans ce cas. P ( X n > ɛ) = P ( x n > ɛ n) = Φ(ɛ n) 0 lorsque n Loi forte des grands nombres La loi forte des grands nombres est sans doute le résultat le plus célèbre en théorie des probabilités. Théorème 8.2 (Loi forte des grands nombres) Soient X 1, X 2,... une suite de v.a. indépendantes de même loi, d espérance commune µ finie. Alors, avec probabilité 1 1 n n X i µ quand n, i=1 en d autres termes ( P lim n ) X n = µ = 1. Dans ce cas on dit que la moyenne X n de X i, i = 1,..., n converge vers µ avec probabilité 1 ou encore converge presque sûrement, et on note X n µ p.s. Ce type de convergence est plus fort que la convergence en probabilité : on admet qu il existe pour tout ɛ > 0 une valeur n (ɛ) (qui est peut-être aléatoire) finie avec probabilité 1, telle que pour tout n n, X n µ ɛ. Autrement dit, excursions de X n loin de µ qui autorise la loi faible de grands nombres, sont interdites par la loi forte. 8.2 Théorème central limite Le théorème central limite est l un des plus remarquables résultats de la théorie des probabilités. En gros, il établit que la somme d un grand nombre de variables aléatoires indépendantes suit une distribution approximativement normale. Il fournit donc non seulement une méthode simple pour le calcul approximatif de probabilités liées à des sommes de variables aléatoires, mais il explique également ce fait empirique remarquable que bien des phénomènes naturels admettent une distribution en cloche, c est-à-dire de type normal.

51 8.2. THÉORÈME CENTRAL LIMITE Théorème central limite pour des v.a. indépendantes La clé de la démonstration du théorème central limite est le résultat suivant d analyse, donné sans démonstration. Théorème 8.3 Soient F 1, F 2,... une suite de fonctions de répartition dont les fonctions génératrices sont notées ϕ n, n 1. Soit F une fonction de répartition avec la fonction génératrice correspondante ϕ. Si ϕ n (t) ϕ(t) pour tour t, alors F n (x) F (x) pour toutes les valeurs de x pour lesquelles F est continue. Dans le cas particulier d une f.d.r. F normale standardisée, on sait que ϕ(t) = e t2 /2. Du théorème 8.3, il résulte que si ϕ n (t) e t2 /2 lorsque n, alors F n (x) Φ(x) lorsque n. Nous allons maintenant donner la version la plus simple du théorème central limite. Théorème 8.4 (Théorème central limite) Soient X 1, X 2,... une Suite de v.a. i.i.d, d espérance µ, de variance σ 2. Alors la distribution de Z n = 1 n n i=1 (X i µ) σ tend vers la distribution normale lorsque n, ce qui veut dire que P (Z n z) Φ(z) = 1 2π e t2 /2 dt quand n. Preuve : Nous allons démontrer le théorème en faisant une hypothèse supplémentaire : on admettra que E X 1 3 <. Admettons pour l instant que µ = 0 et σ 2 = 1. Nous allons démontrer le théorème en faisant l hypothèse que la fonction génératrice des moments commune des X i, notée ϕ, existe et est finie. La fonction génératrice des moments ϕ i de X i / n sera ( { }) txi ϕ i (t) = E exp = ϕ(t/ n), n et par conséquent celle de Z n = n n X i i=1 sera Posons l(t) = ln ϕ(t), et remarquons que l(0) = ln(1) = 0, l (0) = ϕ (0) ϕ(0) = µ 1 = 0, n ϕ Zn (t) = ϕ i = [ ϕ(t/ n) ] n. i=1 l (0) = ϕ (0)ϕ(0) [ϕ (0)] 2 [ϕ(0)] 2 = E(X 2 ) [E(X)] 2 = Var(X) = 1, l (0) = ϕ (0)[ϕ(0)] 2 3ϕ (0)ϕ (0)ϕ(0) + 2[ϕ (0)] 3 [ϕ(0)] 3 = E(X 3 ) 3E(X 2 )E(X) + 2E(X) 3 = E(X 3 ).

52 52 CHAPITRE 8. CONVERGENCE ET THÉORÈMES LIMITES Notez que grace au théorème 8.3 pour démontrer le théorème, il nous faut établir que [ϕ(t/ n)] n e t2 /2, ou, ce qui est équivalent, que nl(t/ n) t 2 /2 lorsque n. Pour cela on utilisera le développement de Taylor à l ordre 2 de ϕ : ce que nous permet d écrire : l(t) = l(0) + l (0)t + l (0) t2 2 + O(t3 ) = t2 2 + O(t3 ), lim nl(t/ n) = lim n n n = lim n [ ( )] t 2 t 3 2n + O n 3/2 [ ( )] t 2 t O = t2 n 2. Le théorème central limite est donc démontré pour le cas où µ = 0 et σ 2 = 1. Dans le cas général, on considère les variables standardisées Y i := (X i µ)/σ auxquelles s applique la démonstration ci-dessus, puisque E(Y i ) = 0 et Var(Y i ) = 1 ; le résultat est ainsi établi en toutes circonstances Versions plus générales du théorème central limite Il est possible de démontrer des versions du théorème central limite où les X i sont encore indépendantes mais plus nécessairement identiquement distribuées. L une de ces versions, qui n est d ailleurs pas la plus générale, est donnée plus bas. Théorème 8.5 Soit X 1, X 2,... une suite de v.a. indépendantes d espérances µ i et de variances σi 2, i = 1, 2,... Si de plus (i) les valeurs E(Xi 3 ), i = 1, 2,... sont uniformément bornées, (ii) i=1 σ 2 i =, Alors la distribution de Z n = ni=1 (X i µ i ) ni=1 σ 2 i tend vers la distribution normale lorsque n, ce qui veut dire que P (Z n z) Φ(z) quand n. La demonstration de ce résultat est laissée en exercice Convergence en loi Da le cas ci-dessus on dit que la suite de v.a. Z n converge vers Z N (0, 1) en loi, ou en D distribution, ou encore que Z n converge vers Z faiblement, et on note Z n Z. P On vérifie aisément que si X n X (suite de Xn converge vers X en probabilité) alors D X n X (Xn converge vers X en loi) aussi. Le réciproque n est pas toujours vrai. Par contre, si X n converge en loi vers une valeur réelle a, nous avons F Xn (t) 1{t a} (notez que la fonction de repartition d une v.a. qui est égale à a avec probabilité 1 est exactement 1{t a}) et, évidemment, P (X n < a ɛ) 0 et P (X n > a + ɛ) 0 quand n, et on conclut que X n P a.

53 8.2. THÉORÈME CENTRAL LIMITE 53 1 Loi normale : fonction de répartition Pour une valeur Ù ¼, la table ci-dessous renvoie la valeur Ùµ de la fonction de répartition de la loi normale centrée réduite au point Ù F(u) u Ù Table pour les grandes valeurs de Ù : Ù Ùµ Ù Ùµ Ù Ùµ Ù Ùµ

54 54 CHAPITRE 8. CONVERGENCE ET THÉORÈMES LIMITES 2 Loi normale : quantiles Pour une valeur «¾ ¼ ¼, la table ci-dessous renvoie la valeur ½ ½ «µ de la fonction quantile ½ de la loi normale centrée réduite au point ½ « α F 1 (1 α) « ½

55 8.3. EXERCICES Exercices Exercice 8.1 Un restaurant servant des repas uniquement sur réservation, dispose de 50 places. La probabilité qu une personne ayant réservé ne vienne pas est 1/5. On note N le nombre de repas servis un jour donné. On utilisera l approximation normale pour N. 1. Si le patron accepte 50 réservations, quelle est la probabilité qu il serve plus de 45 repas? 2. S il accepte 55 réservations, quelle est la probabilité qu il se retrouve dans une situation embarrassante? Exercice 8.2 On évalue à 0.4 la probabilité qu une personne en âge d être vaccinée contre la grippe demande effectivement à l être. Sur une population de personnes en âge d être vaccinées, soit N le nombre de personnes qui demanderont à l être. 1. Quel modèle proposez-vous pour N? 2. Si on prépare vaccins, quelle est la probabilité qu il n y en ait pas suffisamment 3. Calculer le nombre m de vaccins qu il faudrait prévoir pour que la probabilité d en manquer soit égale à 0.1. Exercice 8.3 Soient X i, i = l,..., 10 des variables aléatoires ( indépendantes uniformes sur l intervalle (0, 1). 10 ) Évaluer approximativement la probabilité P i=1 X i > 6. Exercice 8.4 Nous avons 100 composants que nous allons employer les uns après les autres. Cela veut dire que le composant 1 sera d abord utilise, puis lorsqu il tombera en panne. il sera remplacé par le composant 2, qui sera lui-même remplace après défaillance par le composant 3, et ainsi de suite. 1. Si la durée de vie du composant i est distribuée de façon exponentielle avec espérance 10 + i/10, i = 1,..., 100, estimer la probabilité que la durée de vie totale de l ensemble des composants dépasse Refaites le même exercice lorsque la distribution de la durée de vie des composants est uniforme sur l intervalle (0, 20 + i 5 ), i = 1,..., 100. Exercice 8.5 Plusieurs personnes pensent que la fluctuation journalière du prix de l action d une société donnée, cotée en bourse, est une variable aléatoire de moyenne 0 et de variance σ 2. Cela veut dire que. si Y représente le prix de l action lors du n-ème jour, n Y n = Y n 1 + X n = Y 0 + X i, n 1, i=1 où X 1, X 2,... sont des variables aléatoires indépendantes identiquement distribuées d espérance 0 et de variance σ 2 Supposons que le prix de l action soit aujourd hui de 100. Si σ 2 = 1, que peut-on dire de la probabilité que le prix de l action soit compris entre 80 et 120 dans cent jours?

56 56 CHAPITRE 8. CONVERGENCE ET THÉORÈMES LIMITES Exercice 8.6 Supposons qu un dé non pipé soit jeté 100 fois. Soit X i la valeur obtenue au i-ème jet. Calculer une approximation pour : ( 100 ) P X i k 100, 1 k 6. Exercice 8.7 i=1 On suppose qu il y a une probabilité égale à 0.1 d être contrôlé lorsqu on prend le tramway. Mr A. fait 700 voyages par an. On utilisera l approximation normale pour le nombre de contrôles. 1. Quelle est la probabilité que Mr A. soit contrôlé entre 60 et 80 fois dans l année? 2. Mr A. est en fait un fraudeur et voyage toujours sans ticket. Sachant que le prix d un ticket est de 1 euro, quelle amende minimale la régie de transports devrait elle fixer pour que le fraudeur ait, sur une période d une année, une probabilité supérieure à 0.75 d être perdant? Exercice 8.8 Soit X 1, X 2,... une suite de variables aléatoires indépendantes. Supposer que E(X i ) = 0, que Var(X i ) = σi 2 et que 1 n lim n n 2 σi 2 = Prouver que, pour tout ɛ > 0, ( ) 1 n P X i > ɛ 0 quand n. n i=1 i=1 2. Utiliser cc résultat pour prouver que si Y i, i = 1, 2,... sont des variables aléatoires indépendantes de Bernoulli, alors pour tout ɛ > 0, ( ) 1 n P X i p(n) n > ɛ 0 quand n. i=1 où E(Y i ) = p i et p(n) = 1 n ni=1 p i. Exercice 8.9 Une pièce de monnaie équilibrée est jetée 1000 fois. Si les 100 premiers jets donnent tous des piles. quelle proportion de piles peut-on s attendre à obtenir lors des 900 derniers jets? Faites un commentaire sur l énoncé la loi forte des grands nombres noie une anomalie dans la masse mais ne la compense pas. Exercice 8.10 Soit X 1, X 2,... v.a. i.i.d. de fonction de repartition F sur R. Pour x R on considère les v.a. Y i = 1{X i x}, i = 1, 2,... et qui est la proportion de X i inférieures à x. ˆF n (x) = 1 n Y i = 1 n 1{X i x} n n i=1 i=1

57 8.3. EXERCICES Les v.a. Y i, i 1, sont-elle indépendantes? de même loi? Determiner la loi de Y 1. Quelle est l espérance et la variance de cette loi? 2. Quelle est la loi des v.a. n ˆF n (x)? 3. Utiliser la loi faible de grands nombres pour montrer que ˆF n (x) P F (x) lorsque n. 4. Utiliser le théorème central limite pour prouver que la suite n( ˆF n (x) F (x)) converge en loi vers une v.a. normale, determiner la moyenne et la variance de la loi limite.

58 58 CHAPITRE 8. CONVERGENCE ET THÉORÈMES LIMITES

59 Chapitre 9 Loi normale multivariée 9.1 Vecteurs aléatoires (rappel) Soit X = ξ 1... ξ p un vecteur aléatoire 1, où ξ 1,..., ξ p sont des variables aléatoires univariées. La fonction de répartition de vecteur aléatoire X est F (t) = P (ξ 1 t 1,..., ξ p t p ), t = (t 1,..., t p ) T R p. Si F (t) est dérivable par rapport a t, la densité de X (la densité jointe de ξ 1,..., ξ p ) existe et est égale à la dérivée mixte f(t) = f(t 1,..., t p ) = p F (t). t 1,..., t p Dans ce cas F (t) = t1 tp... f(u 1,..., u p )du 1...du p Propriétés de densité d une distribution multivariée Nous avons : f(t) 0,... f(t 1,..., t p )dt 1...dt p = 1. La densité marginale de ξ 1,..., ξ k, k < p est (on adopte le symbole f( ) comme notation générique pour les densités) f(t 1,..., t k ) =... f(t 1,..., t p )dt k+1...dt p. Nous avons par le theoreme de changement de variable du cours d analyse : Si X = AY + b où Y est un vecteur aléatoire sur R p avec la densité f Y et A est une matrice p p inversible, alors f X (u) = f Y (A 1 (u b)) Det(A 1 ) = f Y (A 1 (u b)). (9.1) Det(A) Indépendance. Supposons que deux vecteurs aléatoires X 1 et X 2 ont une densité conjointe f(x 1, x 2 ). Ils sont indépendants ssi f(x 1, x 2 ) = f 1 (x 1 )f 2 (x 2 ), où f 1 et f 2 sont des densités de probabilité. Comme dans le cas de deux variables aléatoires, l indépendance est preservée par des transformations mesurables des vecteurs X 1 et X Par convention, le vecteur X R p 1 est un vecteur colonne. 59

60 60 CHAPITRE 9. LOI NORMALE MULTIVARIÉE 9.2 Matrice de covariance d un vecteur aléatoire Le vecteur µ = (µ 1,..., µ p ) T R p est la moyenne du vecteur aléatoire X = (ξ 1,..., ξ p ) T si µ j = E(ξ j ) =... t j f(t 1,..., t p )dt 1...dt p, j = 1,..., p (on suppose, bien évidemment, que les intégrales ci-dessus existent), on écrit alors µ = E(X). Exactement comme dans le cas réel, nous avons pour toute matrice A R q p et b R q, E(AX + b) = AE(X) + b = Aµ + b. Matrice V (X) de covariance du vecteur aléatoire X est donnée par V (X) = E((X µ)(x µ) T ) = (σ ij ) (on note que dans ce cas σ ij n est pas forcement positive), une matrice p p, où σ ij = E((ξ i µ i )(ξ j µ j )) = Cov(ξ i, ξ j ) =... (t i µ i )(t j µ j )f(t 1,..., t p )dt 1...dt p, i, j = 1,..., p Comme σ ij = σ ji, V (X) est une matrice symétrique. On peut définir également la matrice de covariance des vecteurs aléatoires X (p 1) et Y (q 1) : C(X, Y ) = E((X E(X))(Y E(Y )) T ), C R p q. La matrice de covariance possède les propriétés suivantes : 1 o. V (X) = E(XX T ) µµ T, où µ = E(X). 2 o. Pour tout a R p, Var(a T X) = a T V (X)a. Preuve : Notons que par linéarité de l espérance, Var(a T X) = E((a T X E(a T X)) 2 ) = E ( ) = a T E (X µ)(x µ) T a = a T V (X)a. ( (a T (X E(X)) 2) = E ( ) a T (X µ)(x µ) T a Comme Var(a T X) 0, ceci implique que la matrice V (X) est définie-positive. Donc nous avons 3 o. V (X) 0. 4 o. Soit A une matrice p q. Alors V (AX + b) = AV (X)A T. Preuve : Désignons Y = AX + b, alors par linéarité de l espérance, Maintenant, nous avons : ν = E(Y ) = E(AX + b) = Aµ + b et Y E(Y ) = A(X µ). V (Y ) = E(A(X µ)(x µ) T A) = AV (X)A T (linéarité de nouveau). 5 o. C(X, X) = V (X). Dans ce cas C = C T 0 (matrice positive). 6 o. C(X, Y ) = C(Y, X) T. 7 o. C(X 1 + X 2, Y ) = C(X 1, Y ) + C(X 2, Y ). 8 o. Si X et Y sont deux p-vecteurs aléatoires, V (X + Y ) = V (X) + C(X, Y ) + C(Y, X) + V (Y ) = V (X) + C(X, Y ) + C(X, Y ) T + V (Y ). 9 o. Si X Y, alors C(X, Y ) = 0 (matrice nulle) (l implication inverse n est pas vraie). Ceci se démontre comme dans le cas de covariance des v.a. univariées.

61 9.3. RAPPEL DES PROPRIÉTES DES MATRICES SYMÉTRIQUES 61 La matrice de corrélation P de X est donnée par P = (ρ ij ), 1 i, j p avec ρ ij = σ ij σii σjj = Cov(X i, X j ). Var(X i )Var(X j ) On remarque que les éléments diagonaux ρ ii = 1, i = 1,..., p. 9.3 Rappel des propriétes des matrices symétriques Decomposition en valeurs propres La matrice A p p, A = (a ij ), i, j = 1,..., p est symétrique si a ij = a ji, i, j = 1,..., p. La matrice Γ p p est dite orthogonale si Γ 1 = Γ T (ou bien ΓΓ T = Γ T Γ = I) (où I est une matrice identité p p). C.-à.-d. que les colonnes γ j de Γ sont des vecteur orthogonaux de longueur 1 ; de même pour les lignes γ i de Γ. Bien évidemment, Det(Γ) = 1. Nous avons le théorème de décomposition spectrale (de Jordan) : Soit A R p p une matrice symétrique. Alors il existe une matrice orthogonale Γ et la matrice diagonale telles que Λ = Diag(λ i ) = où γ i sont les vecteurs propres orthonormés de A : 2 λ λ p, p A = ΓΛΓ T = λ i γ i γ T i, (9.2) i=1 γ T i γ j = δ ij i, j = 1,..., p, Γ = (γ 1,..., γ p ). Remarques. 1) Même si les valeurs propres d une matrice symétrique peuvent être multiples, tous les vecteurs propres d une telle matrice sont différents. 2) On suppose dans la suite que les valeurs propres λ i, i = 1,..., p sont ordonnées : λ 1 λ 2... λ p. On dit que γ 1 est le premier vecteur propre de A, c.-à.-d. le vecteur propre correspondant à la valeur propre maximale ; γ 2 est le deuxième vecteur propre, et ainsi de suite. Si toutes les valeurs propres λ i, i = 1,..., p sont non-negatives, on appelle la matrice A semi-définie positive (et définie positive si λ i > 0). 2. ici δ ij est l indice de Kronecker : δ ij = 1 si i = j, sinon δ ij = 0.

62 62 CHAPITRE 9. LOI NORMALE MULTIVARIÉE Projecteurs. Matrice P symétrique telle que P 2 = P (matrice idempotente) s appelle matrice de projection (ou projecteur, tout simplement). Toutes les valeurs propres de P sont 0 ou 1. Rang(P ) est le nombre de valeurs propres = 1. Autrement dit, il existe une matrice Γ orthogonale telle que Γ T P Γ = ( I où I est une matrice identité Rang(P ) Rang(P ). En effet, soit v un vecteur propre de P, alors P v = λv, où λ est une valeur propre de P. Comme P 2 = P, (λ 2 λ)v = (λp P )v = (P 2 P )v = 0. Ceci équivaut à dire que λ = 1 si P v 0. ), 9.4 La loi N p (0, I) Loi normale sur R : on rappele que la loi normale sur R N (µ, σ 2 ) est la loi de densité f(x) = 1 (x µ)2 exp( 2πσ 2σ 2 ). Ici µ est la moyenne et σ 2 est la variance. La fonction generatrice de la loi normale N (µ, σ 2 ) est ϕ(t) = exp(µt + σ2 t 2 2 ), en particulier, pour N (0, 1) on a ϕ(t) = e t2 /2. La loi N p (0, I) est la loi du vecteur aléatoire X = (ξ 1,..., ξ p ) T où ξ i, i = 1,..., p sont des variables aléatoires i.i.d. de loi N (0, 1). Propriétés de N p (0, I) : 1 o. La moyenne et la matrice de covariance de X sont : E(X) = 0, V (X) = I. 2 o. La loi N p (0, I) est absolument continue de densité p f(u) = φ(u i ) = (2π) p/2 p exp( 1 2 u2 i ) = (2π) p/2 exp( 1 2 ut u), i=1 i=1 où u = (u 1,..., u p ) T et φ(t) = 1 2π e t2 /2 est la densité de N (0, 1). 3 o. La fonction generatrice de N p (0, I) est, par définition, où a = (a 1,..., a p ) T R p. ( ) ϕ X (a) = E e at X = E = p j=1 ) E (e a jξ j = p e a jξ j j=1 p e a2 j /2 = exp( 1 2 at a), j=1

63 9.5. LOI NORMALE MULTIVARIÉE Loi normale multivariée Définition 9.1 Le vecteur aléatoire X suit une loi normale sur R p si et seulement s il existe une matrice p p A et un vecteur µ R p tels que X = AY + µ, où Y N p (0, I). Propriétés : 1 o. E(X) = µ car E(Y ) = 0. 2 o. V (X) = AV (Y )A T = AA T. On désigne Σ = AA T. 3 o. La fonction generatrice ( (e ) at (AY +µ) ϕ X (a) = E = e at µ E e at X ) = E ( e bt Y ) (avec b = A T a) = e at µ+ 1 2 bt b = e at µ+ 1 2 at Σa. (9.3) Cette derniere propriete peut servir de caractérisation de la loi normale : en effet, ϕ est la fonction generatrice d une loi normale si et seulement si il existe µ R p et une matrice symétrique positive Σ R p p tels que ϕ(a) = e at µ+ 1 2 at Σa, a R p. (9.4) Dans ce cas µ est la moyenne et Σ est la matrice de covariance de la loi normale en question. En consequence, toute loi normale dans R p est entièrement définie par sa moyenne et sa matrice de covariance. Ceci explique la notation : X N (µ, Σ) pour le vecteur aléatoire X de loi normale avec la moyenne µ et la matrice de covariance Σ = Σ T 0. Si la loi normale N (µ, Σ) est non-dégénérée, autrement dit, si la matrice de covariance Σ l est, on verifie facilement grace à (9.1) que X est un vecteur aléatoire de densité ( 1 f(t) = (2π) p/2 Det(Σ) exp 1 ) 2 (t µ)t Σ 1 (t µ). 9.6 Propriétés de la loi normale multivariée On considère ici X N p (µ, Σ), où µ R p et Σ R p p est une matrice symétrique, Σ 0. Les propriétés suivantes sont des conséquences des résultats de la section précédente : (N1) Soit Σ > 0, alors le vecteur aléatoire Y = Σ 1/2 (X µ) satisfait Y N p (0, I). (N2) Les projections a T X de X pour tout a R p sont des variables aléatoires normales univariées : a T X N (a T µ, a T Σa). En particulier, les densités marginales de la loi N p (µ, Σ) sont normales univariées. Le réciproque n est pas vrai!

64 64 CHAPITRE 9. LOI NORMALE MULTIVARIÉE (N3) Toute transformation linéaire d un vecteur normal est un vecteur normal : si Y = AX + c où A R q p et c R q sont une matrice et un vecteur fixes (non-aléatoires), alors Y N q (Aµ + c, AΣA T ). (N4) Soit σ 2 > 0. La loi de X N p (0, σ 2 I) est invariante par rapport aux transformations orthogonales : si Γ est une matrice orthogonale, alors ΓX N p (0, σ 2 I). (La preuve est évidente : il suffit d utiliser (N3) avec A = Γ.) (N5) Tout sous-ensemble de composantes d un vecteur normal p-varié est un vecteur normal : soit X = (X T 1, XT 2 )T, ou X 1 R k et X 2 R p k, alors X 1 et X 2 sont des vecteurs normaux (k- et p k-varié respectivement). Il suffit que l on utilise (N3) avec c = 0 et A R k p, A = (I k, 0) ou I k est une matrice k k identité. On en déduit que X 1 est normal. Pour X 2 on prend A R (p k) p = (0, I p k ). (N6) Deux vecteur normaux en couple sont indépendants si et seulement s ils sont noncorrélés. ( ) X La nécessité étant évidente, il suffit de verifier la suffisance : soit Z =, où X R Y p et Y R q, Z un vecteur normal dans R q+p et C(X, Y ) = 0 (la matrice de covariance entre X et Y ). Pour montrer ( que X) et Y sont indépendants il suffit de montrer que la fonction a generatrice ϕ Z (u), u =, a R b p et b R q, peut être décomposée comme ϕ Z (u) = ϕ X (a)ϕ Y (b). Vérifirons ceci. Nous avons ( ) E(X) E(Z) =, V (Z) = E(Y ) ( V (X) C(X, Y ) C(Y, X) V (Y ) ) = ( V (X) 0 0 V (Y ) ), où V (X) R p p et V (Y ) R q q sont des matrices de covariance de X et de Y. La fonction generatrice φ Z (u) de Z est donc [ ϕ Z (u) = φ Z (a, b) = exp (a T E(X) + b T E(Y )) + 1 ( )] 2 (at, b T a )V (Z) b [ = exp a T E(X) + 1 ] [ 2 at V (X)a exp b T E(Y ) + 1 ] 2 bt V (Y )b = ϕ X (a)ϕ Y (b). pour tout u = ( a b ) Géometrie de la distribution normale multivariée Soit Σ > 0. La densité de N p (µ, Σ) est constante sur les surfaces E C = {x : (x µ) T Σ 1 (x µ) = C 2 }, On appelle ces ensembles les contours de la distribution (lignes/surfaces de niveau). Dans notre cas particulier, E C sont des ellipsoïdes qu on appelle les ellipsoïdes de concentration.

65 9.7. LOIS DÉRIVÉES DE LA LOI NORMALE η 2 3 η ρ = Figure 9.1 Ellipsoïdes de concentration : (η 1, η 2 ) N (0, ()). 9.7 Lois dérivées de la loi normale Loi χ 2 de Pearson C est la loi de la somme Y = η η 2 p, où η 1,..., η p sont des variables aléatoires i.i.d. de loi N (0, 1). On écrit alors Y χ 2 p et on dit que Y suit la loi chi-deux à p dégrès de liberté. La densité de la loi χ 2 p est où et Γ( ) est la fonction gamma : f χ 2 p (y) = C(p)y p/2 1 e y/2 I{0 < y < }, (9.5) Γ(x) = C(p) = On a E(Y ) = p, Var(Y ) = 2p si Y χ 2 p. 0 ( 2 p/2 Γ(p/2)) 1, u x 1 e u/2 du, x > p=1 p=2 p=3 p= Figure 9.2 Densité de loi de chi-deux pour les différentes valeurs de p

66 66 CHAPITRE 9. LOI NORMALE MULTIVARIÉE Loi de Fisher-Snedecor Soit U χ 2 p, V χ 2 q, deux v.a. indépendantes. La loi de Fisher-Snedecor à dégrès de liberté p et q est la loi de Y = U/p V/q. On écrit donc Y F p,q. La densité de F p,q est f Fp,q (y) = C(p, q) y p/2 1 (q + py) p+q 2 I{0 < y < }, (9.6) où C(p, q) = pp/2 q q/2 B(p/2, q/2), Γ(p)Γ(q) avec B(p, q) = Γ(p + q). On peut montrer que cette densité approche la densité f χ 2 p dans la limite quand q F(10,4) F(10,10) F(10,100) Figure 9.3 Densité de loi de Fisher-Snedecor Loi t de Student (W. Gosset) Soit η N (0, 1), ξ χ 2 q deux v.a. indépendantes. La loi de Student à q dégrès de liberté est celle de variable aléatoire Y = η. ξ q On écrit donc Y t q. La densité de t q est f tq (y) = C(q)(1 + y 2 /q) (q+1)/2, y R, (9.7) où C(q) = 1 qb(1/2, q/2). On note que t 1 est la loi de Cauchy et t q tend vers N (0, 1) quand q. On remarque que la loi t q est symétrique. Les queues de t q sont plus lourdes que celles de loi normale standardisée.

67 9.8. THÉORÈME DE COCHRAN N(0,1) t Figure 9.4 Densité de loi t 4 de Student et de la loi normale 9.8 Théorème de Cochran Nous avons le résultat suivant, très utile en statistique : Théorème 9.1 Soit X N p (0, I) et soit A 1,..., A J, J < p, matrices p p telles que (1) A 2 j = A j, (2) A j est symétrique, Rang(A j ) = n j, (3) A j A k = 0 pour j k et J j=1 n j p. 3). Alors, (i) les vecteurs A j X sont indépendants de loi N p (0, A j ), j = 1,..., J, respectivement ; (ii) Les variables aléatoires A j X 2, j = 1,..., J sont indépendantes de loi χ 2 n j, j = 1,..., J. Preuve : (i) Notons que E(A j X) = 0 et V (A j X) = A j V (X)A T j = A j A T j = A 2 j = A j. Puis, A k X et A j X sont de loi jointe normale. Mais C(A k X, A j X) = E(A k XX T A T j ) = A k V (X)A T j = A k A T j = A k A j = 0 pour j k. Par la propriété (N6) de la loi normale, ceci implique que A k X et A j X sont indépendants pour k j. (ii) Comme A j est un projecteur, il existe une matrice Γ orthogonale telle que ( ) ΓA j Γ T Ij 0 =, 0 0 la matrice diagonale de valeurs propres de A j. Comme A j est de rang n j, on a Rang(I j ) = n j, et donc n j A j X 2 = X T A T j A j X = X T A j X = (X T Γ T )Λ(ΓX) = Y T ΛY = ηi 2, i=1 3. ) Certaines versions de ce résultat supposent aussi que A A J = I.

68 68 CHAPITRE 9. LOI NORMALE MULTIVARIÉE ou Y = (η 1,..., η p ) T est un vecteur normal, Y = ΓX N p (0, I) (par la propriété (N4) de la loi normale). D où on conclut A j X 2 χ 2 n j. Par la conservation de l indépendance par transformations mesurables, A j X 2 et A k X 2 sont indépendantes pour j k.

69 9.9. EXERCICES Exercices Exercice 9.1 Soit la densité jointe des v.a. X et Y Quelle est la loi de X, de Y? Exercice 9.2 f(x, y) = 1 2π e x 2 Soit (X, Y ) un vecteur aléatoire de densité 2 e y2 2 [1 + xyi{ 1 x, y 1}], f(x, y) = C exp( x 2 + xy y 2 /2). 1. Montrer que (X, Y ) est un vecteur aléatoire gaussien. Calculer l espérance, la matrice de covariance et la fonction génératrice de (X, Y ). Déterminer le coefficient ρ XY de corrélation de X et Y. 2. Déterminer la loi de X, de Y, de 2X Y. 3. Monter que X et Y X sont des variables aléatoires indépendantes et de même loi. Exercice 9.3 Soit X une v.a. de loi N (0, 1) et Z une v.a. prenant les valeurs 1 ou 1 avec la probabilité 1 2. On suppose X et Z indépendantes. On pose Y = ZX. 1. Montrer que Y suit la loi N (0, 1). 2. Calculer la covariance et la corrélation de X et Y. 3. Calculer P (X + Y = 0). 4. Le vecteur (X, Y ) est-il un vecteur aléatoire normal? Exercice 9.4 Parmi les matrices suivantes, lesquelles peuvent être la matrice de covariance d un vecteur aléatoire X R? ( ) ( ) ( ) ( ) /2 1 1/2 1 1/2,,,? 2 1 1/2 1 1/2 1 1/3 1 Dans la suite, on notera Σ les matrices répondant à la question, et on supposera que X est de loi N 2 (0, Σ). 1. Calculer, pour chaque matrice Σ, les valeurs propres (λ 1, λ 2 ) et les vecteurs propres associés (v 1, v 2 ). 2. Donner la loi jointe de v T 1 X et vt 2 X.

70 70 CHAPITRE 9. LOI NORMALE MULTIVARIÉE Exercice 9.5 Soit ξ et η v.a. indépendantes de loi U[0, 1]. Alors les v.a. X = 2 ln ξ cos(2πη), Y = 2 ln ξ sin(2πη) sont telle que Z = (X, Y ) T N 2 (0, I). Indication : soit (X, Y ) N 2 (0, I). Passer en coordonnées polaires. Exercice 9.6 Soit Z = (Z 1, Z 2, Z 3 ) T un vecteur aléatoire normal, admettant une densité f telle que : ( 1 f(z 1, z 2, z 3 ) = exp 6z z z z ) 1z 2. 4(2π) 3/2 32 Soient X et Y les vecteurs aléatoires définis par : X = Z et Y = ( Le vecteur (X, Y ) de dimension 6, est-il gaussien? Le vecteur X a-t-il une densité? Le vecteur Y a-t-il une densité? ) Z. 2. Les vecteurs X et Y sont-ils indépendants? 3. Déterminer les lois des composantes de Z. Exercice 9.7 Soit (X, Y, Z) T un vecteur aléatoire gaussien de moyenne nulle et dont la matrice de covariance est Σ = On pose U = X + Y + Z, V = X Y + Z, W = X + Y Z. Déterminer la loi du vecteur aléatoire (U, V, W ) T. 2. Déterminer la densité de la variable T = U 2 + V 2 + W 2. Exercice 9.8 Soit un vecteur (X, Y ) gaussien N 2 (µ, Σ) de moyenne et de matrice de covariance : 1. Donner la loi de X + 4Y. µ = ( 0 2 ), Σ = ( Donner la loi jointe des variables Y 2X et X + 4Y. Exercice 9.9 ).

71 9.9. EXERCICES 71 Soit X un vecteur aléatoire normal de dimension n, centré, de matrice de covariance Σ. Quelle est la loi de la v.a. X T Σ 1 X? Exercice 9.10 La taille H des hommes dans un population P est modélisée par une loi de Gauss N (172, 49) (unité : le cm). Dans ce modèle : 1. Quelle est la probabilité pour qu un homme ait une taille inférieure à 160cm? 2. On admet qu il y a environ 15 millions d hommes dans P ; donner une estimation du nombre d hommes de plus de 200cm. 3. Quelle est la probabilité pour que 10 hommes rencontrés au hasard aient tous leur taille dans l intervalle [168,188]cm? La taille H des femmes de P est modélisée par une loi de Gauss N (162, 49) (unité : le cm). 4. Quelle est la probabilité pour qu un homme choisi au hasard soit plus grand qu une femme choisie au hasard? On modélise la taille des éléments d un couple (H, H ) par un vecteur normal où le coefficient de corrélation ρ entre la taille de la femme et la taille de l homme est 0.4 (respectivement 0.4). 5. Calculer la probabilité p (respectivement, p ) que dans un couple l homme soit plus grand que la femme (avant de faire le calcul, pouvez-vous dire dans quel ordre seront rangés p et p?). Exercice 9.11 Soit X 1,..., X n des variables aléatoires i.i.d.. On note X = 1 n X i, s 2 = 1 n (X i n n X) 2 = 1 n Xi 2 n X 2. i=1 i=1 i=1 On appelle X moyenne empirique et s 2 variance empirique de X 1,..., X n. 1. Vérifier que pour tout c réel, 1 n n (X i c) 2 = 1 n (X i n X) 2 + ( X c) 2 = s 2 + ( X c) 2. i=1 i=1 Quelle est l interprétation géométrique de ce résultat? 2. Montrer que 4 E( X) = E(X 1 ) = µ, Var( X) = Var(X 1) n (on suppose, bien évidement, que Var(X) existe). = σ2 n, E(s2 ) = n 1 n 3. Soit X 1,..., X n des variables aléatoires i.i.d. de loi normale, c.-à.-d. X 1 N (µ, σ 2 ). Verifier que (a) X s 2. (b) X N (µ, σ 2 /n). 4. Cf l exercice 7.8 σ2

72 72 CHAPITRE 9. LOI NORMALE MULTIVARIÉE (c) ns2 σ χ2 n Montrer que la variable aléatoire t = n 1 X µ s est distribuée selon la loi de Student t n 1 à n 1 dégrès de liberté.

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

Variables Aléatoires. Chapitre 2

Variables Aléatoires. Chapitre 2 Chapitre 2 Variables Aléatoires Après avoir réalisé une expérience, on ne s intéresse bien souvent à une certaine fonction du résultat et non au résultat en lui-même. Lorsqu on regarde une portion d ADN,

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

4 Distributions particulières de probabilités

4 Distributions particulières de probabilités 4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2 Probabilités Table des matières I Petits rappels sur le vocabulaire des ensembles 2 I.1 s................................................... 2 I.2 Propriétés...................................................

Plus en détail

Probabilités. C. Charignon. I Cours 3

Probabilités. C. Charignon. I Cours 3 Probabilités C. Charignon Table des matières I Cours 3 1 Dénombrements 3 1.1 Cardinal.................................................. 3 1.1.1 Définition............................................. 3

Plus en détail

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300 I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,

Plus en détail

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12 Probabilités. I - Rappel : trois exemples. Exemple 1 : Dans une classe de 25 élèves, il y a 16 filles. Tous les élèves sont blonds ou bruns. Parmi les filles, 6 sont blondes. Parmi les garçons, 3 sont

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos [email protected]

Plus en détail

Qu est-ce qu une probabilité?

Qu est-ce qu une probabilité? Chapitre 1 Qu est-ce qu une probabilité? 1 Modéliser une expérience dont on ne peut prédire le résultat 1.1 Ensemble fondamental d une expérience aléatoire Une expérience aléatoire est une expérience dont

Plus en détail

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie... 1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

P1 : Corrigés des exercices

P1 : Corrigés des exercices P1 : Corrigés des exercices I Exercices du I I.2.a. Poker : Ω est ( l ensemble ) des parties à 5 éléments de l ensemble E des 52 cartes. Cardinal : 5 I.2.b. Bridge : Ω est ( l ensemble ) des parties à

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. [email protected]. http ://freakonometrics.blog.free.

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free. Actuariat I ACT2121 septième séance Arthur Charpentier [email protected] http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement

Plus en détail

Statistiques Descriptives à une dimension

Statistiques Descriptives à une dimension I. Introduction et Définitions 1. Introduction La statistique est une science qui a pour objectif de recueillir et de traiter les informations, souvent en très grand nombre. Elle regroupe l ensemble des

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Calculs de probabilités conditionelles

Calculs de probabilités conditionelles Calculs de probabilités conditionelles Mathématiques Générales B Université de Genève Sylvain Sardy 20 mars 2008 1. Indépendance 1 Exemple : On lance deux pièces. Soit A l évènement la première est Pile

Plus en détail

1 TD1 : rappels sur les ensembles et notion de probabilité

1 TD1 : rappels sur les ensembles et notion de probabilité 1 TD1 : rappels sur les ensembles et notion de probabilité 1.1 Ensembles et dénombrement Exercice 1 Soit Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(p(ω)) = 2 4. Soit k n (

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Probabilités conditionnelles Loi binomiale

Probabilités conditionnelles Loi binomiale Exercices 23 juillet 2014 Probabilités conditionnelles Loi binomiale Équiprobabilité et variable aléatoire Exercice 1 Une urne contient 5 boules indiscernables, 3 rouges et 2 vertes. On tire au hasard

Plus en détail

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre : Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant

Plus en détail

Que faire lorsqu on considère plusieurs variables en même temps?

Que faire lorsqu on considère plusieurs variables en même temps? Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites

Plus en détail

Université Paris 8 Introduction aux probabilités 2014 2015 Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité

Université Paris 8 Introduction aux probabilités 2014 2015 Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité Université Paris 8 Introduction aux probabilités 2014 2015 Licence Informatique Exercices Ph. Guillot 1 Ensemble fondamental loi de probabilité Exercice 1. On dispose de deux boîtes. La première contient

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Probabilités Loi binomiale Exercices corrigés

Probabilités Loi binomiale Exercices corrigés Probabilités Loi binomiale Exercices corrigés Sont abordés dans cette fiche : (cliquez sur l exercice pour un accès direct) Exercice 1 : épreuve de Bernoulli Exercice 2 : loi de Bernoulli de paramètre

Plus en détail

Loi binomiale Lois normales

Loi binomiale Lois normales Loi binomiale Lois normales Christophe ROSSIGNOL Année scolaire 204/205 Table des matières Rappels sur la loi binomiale 2. Loi de Bernoulli............................................ 2.2 Schéma de Bernoulli

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail

Loi d une variable discrète

Loi d une variable discrète MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une

Plus en détail

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7 Feuilles de 1 à 7 Ces feuilles avec 25 exercices et quelques rappels historiques furent distribuées à des étudiants de troisième année, dans le cadre d un cours intensif sur deux semaines, en début d année,

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

CCP PSI - 2010 Mathématiques 1 : un corrigé

CCP PSI - 2010 Mathématiques 1 : un corrigé CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles Chapitre 3 Événements indépendants et Probabilités conditionnelles Indépendance Indépendance Probabilité conditionnelle Definition Deux événements A et B sont dits indépendants si P(A B) = P(A).P(B) Attention

Plus en détail

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Exercices sur le chapitre «Probabilités»

Exercices sur le chapitre «Probabilités» Arnaud de Saint Julien - MPSI Lycée La Merci 2014-2015 1 Pour démarrer Exercices sur le chapitre «Probabilités» Exercice 1 (Modélisation d un dé non cubique) On considère un parallélépipède rectangle de

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Feuille d exercices 2 : Espaces probabilisés

Feuille d exercices 2 : Espaces probabilisés Feuille d exercices 2 : Espaces probabilisés Cours de Licence 2 Année 07/08 1 Espaces de probabilité Exercice 1.1 (Une inégalité). Montrer que P (A B) min(p (A), P (B)) Exercice 1.2 (Alphabet). On a un

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau GEA II Introduction aux probabilités Poly. de révision Lionel Darondeau Table des matières Énoncés 4 Corrigés 10 TD 1. Analyse combinatoire 11 TD 2. Probabilités élémentaires 16 TD 3. Probabilités conditionnelles

Plus en détail

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé

Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé A. P. M. E. P. Exercice 1 5 points 1. Réponse d. : 1 e Le coefficient directeur de la tangente est négatif et n est manifestement pas 2e

Plus en détail

Exercices supplémentaires sur l introduction générale à la notion de probabilité 2009-2010

Exercices supplémentaires sur l introduction générale à la notion de probabilité 2009-2010 Exercices supplémentaires sur l introduction générale à la notion de probabilité 2009-2010 Exercices fortement conseillés : 6, 10 et 14 1) Un groupe d étudiants est formé de 20 étudiants de première année

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Probabilités et statistique. Benjamin JOURDAIN

Probabilités et statistique. Benjamin JOURDAIN Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé Baccalauréat S/L Métropole La Réunion 13 septembre 2013 Corrigé A. P. M.. P. XRCIC 1 Commun à tous les candidats Partie A 1. L arbre de probabilité correspondant aux données du problème est : 0,3 0,6 H

Plus en détail

Calcul élémentaire des probabilités

Calcul élémentaire des probabilités Myriam Maumy-Bertrand 1 et Thomas Delzant 1 1 IRMA, Université Louis Pasteur Strasbourg, France Licence 1ère Année 16-02-2006 Sommaire La loi de Poisson. Définition. Exemple. 1 La loi de Poisson. 2 3 4

Plus en détail

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #4-5

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #4-5 ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #4-5 ARTHUR CHARPENTIER 1 Un certain test médical révèle correctement, avec probabilité 0.85, qu une personne a le sida lorsqu elle l a vraiment et révèle incorrectement,

Plus en détail

Probabilités conditionnelles Exercices corrigés

Probabilités conditionnelles Exercices corrigés Terminale S Probabilités conditionnelles Exercices corrigés Exercice : (solution Une compagnie d assurance automobile fait un bilan des frais d intervention, parmi ses dossiers d accidents de la circulation.

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

MODELES DE DUREE DE VIE

MODELES DE DUREE DE VIE MODELES DE DUREE DE VIE Cours 1 : Introduction I- Contexte et définitions II- Les données III- Caractéristiques d intérêt IV- Evènements non renouvelables/renouvelables (unique/répété) I- Contexte et définitions

Plus en détail

Probabilités conditionnelles

Probabilités conditionnelles Probabilités conditionnelles Exercice Dans une usine, on utilise conjointement deux machines M et M 2 pour fabriquer des pièces cylindriques en série. Pour une période donnée, leurs probabilités de tomber

Plus en détail

Calculs de probabilités

Calculs de probabilités Calculs de probabilités Mathématiques Générales B Université de Genève Sylvain Sardy 13 mars 2008 1. Définitions et notations 1 L origine des probabilités est l analyse de jeux de hasard, tels que pile

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Estimation: intervalle de fluctuation et de confiance. Mars 2012. IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Estimation: intervalle de fluctuation et de confiance. Mars 2012. IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison Estimation: intervalle de fluctuation et de confiance Mars 2012 IREM: groupe Proba-Stat Estimation Term.1 Intervalle de fluctuation connu : probabilité p, taille de l échantillon n but : estimer une fréquence

Plus en détail

Chaînes de Markov au lycée

Chaînes de Markov au lycée Journées APMEP Metz Atelier P1-32 du dimanche 28 octobre 2012 Louis-Marie BONNEVAL Chaînes de Markov au lycée Andreï Markov (1856-1922) , série S Problème 1 Bonus et malus en assurance automobile Un contrat

Plus en détail

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités Chapitre 2 Le calcul des probabilités Equiprobabilité et Distribution Uniforme Deux événements A et B sont dits équiprobables si P(A) = P(B) Si il y a équiprobabilité sur Ω, cad si tous les événements

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

Modélisation et simulation

Modélisation et simulation Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Les indices à surplus constant

Les indices à surplus constant Les indices à surplus constant Une tentative de généralisation des indices à utilité constante On cherche ici en s inspirant des indices à utilité constante à définir un indice de prix de référence adapté

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Introduction au Calcul des Probabilités

Introduction au Calcul des Probabilités Université des Sciences et Technologies de Lille U.F.R. de Mathématiques Pures et Appliquées Bât. M2, F-59655 Villeneuve d Ascq Cedex Introduction au Calcul des Probabilités Probabilités à Bac+2 et plus

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

Coefficients binomiaux

Coefficients binomiaux Probabilités L2 Exercices Chapitre 2 Coefficients binomiaux 1 ( ) On appelle chemin une suite de segments de longueur 1, dirigés soit vers le haut, soit vers la droite 1 Dénombrer tous les chemins allant

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Annexe commune aux séries ES, L et S : boîtes et quantiles

Annexe commune aux séries ES, L et S : boîtes et quantiles Annexe commune aux séries ES, L et S : boîtes et quantiles Quantiles En statistique, pour toute série numérique de données à valeurs dans un intervalle I, on définit la fonction quantile Q, de [,1] dans

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Développement décimal d un réel

Développement décimal d un réel 4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Estimation et tests statistiques, TD 5. Solutions

Estimation et tests statistiques, TD 5. Solutions ISTIL, Tronc commun de première année Introduction aux méthodes probabilistes et statistiques, 2008 2009 Estimation et tests statistiques, TD 5. Solutions Exercice 1 Dans un centre avicole, des études

Plus en détail