Tel que mentionné à la section 9.5, les probabilités utilisées dans les arbres de décision sont des probabilités conditionnelles.



Documents pareils
Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Calculs de probabilités conditionelles

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Les probabilités. Chapitre 18. Tester ses connaissances

Seconde et première Exercices de révision sur les probabilités Corrigé

Probabilités conditionnelles

Probabilités conditionnelles Exercices corrigés

Exercices sur le chapitre «Probabilités»

NOTIONS DE PROBABILITÉS

Probabilités sur un univers fini

Probabilités (méthodes et objectifs)

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Probabilités sur un univers fini

CALCUL DES PROBABILITES

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

Exemple On lance une pièce de monnaie trois fois de suite. Calculer la probabilité d obtenir exactement deux fois pile.

Probabilités conditionnelles Loi binomiale

Calculs de probabilités

PROBABILITÉS CONDITIONNELLES

Exo7. Probabilité conditionnelle. Exercices : Martine Quinio

Couples de variables aléatoires discrètes

Probabilités conditionnelles Loi binomiale

Introduction à l étude des Corps Finis

Probabilités. C. Charignon. I Cours 3

1. Déterminer l ensemble U ( univers des possibles) et l ensemble E ( événement) pour les situations suivantes.

Andrey Nikolaevich Kolmogorov

S initier aux probabilités simples «Question de chance!»

Exercices de dénombrement

P1 : Corrigés des exercices

Espaces probabilisés

Probabilités Loi binomiale Exercices corrigés

EI - EXERCICES DE PROBABILITES CORRIGES

Les probabilités. Guide pédagogique Le présent guide sert de complément à la série d émissions intitulée Les probabilités produite par TFO.

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Feuille d exercices 2 : Espaces probabilisés

Qu est-ce qu une probabilité?

MATH ELEMENTS DU CALCUL DES PROBABILITES

Economie de l Incertain et des Incitations

Chapitre 3. Les distributions à deux variables

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Intégration et probabilités TD1 Espaces mesurés Corrigé

Classification non supervisée

4. Exercices et corrigés

Fluctuation d une fréquence selon les échantillons - Probabilités

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

MATHÉMATIQUES APPLIQUÉES S4 Exercices

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Les indices à surplus constant

YANN ROUDAUT - Professeur de l Ecole Française de Poker - roudaut@ecolefrancaisedepoker.fr

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring

Arbre de probabilité(afrique) Univers - Evénement

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Raisonnement probabiliste

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #4-5

RÉSOLUTION DE SYSTÈMES À DEUX INCONNUES

S initier aux probabilités simples «Question de chance!»

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Règlement du jeu télévisé «JEUX DE NUIT»

Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Ecran : Processeur : OS : Caméra : Communication : Mémoire : Connectique : Audio : Batterie : Autonomie : Dimensions : Poids : DAS :

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Les règles de base du poker :

Université Paris 8 Introduction aux probabilités Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité

Coefficients binomiaux

Algorithmes d'apprentissage

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Probabilité 2 Ω = { P, F } Lancer un sou deux fois. Ω = { PP, PF, FP, FF} Ω = { 2, 3, 4,..., as }

EPREUVES AU CHOIX DU CANDIDAT. Durée : De 09 h 00 à 12 h 00 (Heure de Yaoundé, TU + 1)

All in Lorsqu un joueur n est plus en mesure de miser l entier du montant exigé, il est qualifié de «All in».

Statistiques Décisionnelles L3 Sciences Economiques & Gestion Faculté d économie, gestion & AES Université Montesquieu - Bordeaux

J AI PERÇU DES REVENUS EXCEPTIONNELS OU DIFFÉRÉS, comment les déclarer?

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

La syllabe (1/5) Unité intuitive (différent du phonème) Constituant essentiel pour la phonologie au même titre que phonème et trait

LE PROBLEME DU PLUS COURT CHEMIN

Exercices supplémentaires sur l introduction générale à la notion de probabilité

Comment parier jute sur les sites de paris sportifs

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

PROBLEMES D'ORDONNANCEMENT AVEC RESSOURCES

Intégration et probabilités TD1 Espaces mesurés

Mesure de probabilité, indépendance.

I. Cas de l équiprobabilité

Moments des variables aléatoires réelles

Chapitre 7. Récurrences

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

Corefris RAPPORT ANNUEL Annexe 3 : La hausse des prix de l immobilier est-elle associée à une «bulle» de crédit en France?

IMAGES NUMÉRIQUES MATRICIELLES EN SCILAB

Probabilités. Une urne contient 3 billes vertes et 5 billes rouges toutes indiscernables au toucher.

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

POKER ET PROBABILITÉ

Le bridge c'est quoi? Laval Du Breuil École de bridge Picatou, Québec

CHAPITRE VIII : Les circuits avec résistances ohmiques

Exercices Corrigés Premières notions sur les espaces vectoriels

Les devoirs en Première STMG

Théorèmes de Point Fixe et Applications 1

Modèle Cobit

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Mémoire de la Corporation des associations de détaillants d automobiles présenté dans le cadre du processus prébudgétaire 2014

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

TESTS D'HYPOTHESES Etude d'un exemple

Transcription:

9A Probabilités conditionnelles et théorème de Bayes Probabilités conditionnelles Tel que mentionné à la section 9.5, les probabilités utilisées dans les arbres de décision sont des probabilités conditionnelles. Pour illustrer cette notion, considérons un jeu ordinaire de 52 cartes. Et convenons de noter F et B les deux événements suivants: F : tirer une figure (roi, dame ou valet) B : tirer une carte qui bat un dix (figure ou as) et qui est noire (pique ou trèfle). Si l on tire une carte au hasard d'un jeu de 52 cartes, les chances de tirer une figure sont de 12 sur 52: P(F) = 12 / 52. Dans le contexte du théorème de Bayes, on parlera de probabilité a priori. Supposons que, sans voir la carte tirée, on apprenne que l'événement B s'est réalisé. Cette information restreint la carte tirée à un ensemble de 8 cartes, dont 6 sont des figures. On peut donc affirmer que, compte tenu de l'information disponible, les chances que la carte tirée soit une figure sont maintenant de 6 sur 8. Ainsi, savoir que B s'est réalisé a influencé la probabilité assignée à l'événement F; la probabilité révisée sera dite probabilité a posteriori et sera notée P(F B), ce qui se lit «P de F étant donné B». D'après les commentaires qui précèdent, 6 6 / 52 P(B et F) P(F B) =. 8 8 / 52 P(B) Cette dernière expression est généralement prise comme définition de probabilité conditionnelle. Définition. Soit B, un événement de probabilité non nulle. La probabilité conditionnelle P(A B) qu'un événement A se produise étant donné la réalisation de B se définit ainsi: P(B et A) P(A B) =. P(B) Le théorème de Bayes Il arrive dans certains problèmes pratiques qu'on ait besoin de probabilités a posteriori du type P(A h B), alors que, à partir de considérations théoriques ou de données historiques, on connaisse plutôt les probabilités a priori P(A h ) et les probabilités conditionnelles P(B A h ). Le théorème de Bayes indique comment obtenir les probabilités désirées sous certaines hypothèses sur les événements A h. Pour illustrer ce résultat, nous utiliserons le tirage d une carte d'un jeu de 52. Et nous considérerons les événements suivants: R : tirer une carte rouge (cœur ou carreau) P : tirer un pique

2 Annexe 9A T : tirer un trèfle D : tirer une carte appartenant à l ensemble {2, 2, 2, 3, 7 }. Le tableau ci-dessous donne les effectifs de ces événements. Pour obtenir leur probabilité, il suffit de diviser l effectif par 52, le nombre total de cartes dans un jeu. A priori, les probabilités de tirer une carte rouge, un pique ou un trèfle sont de ½, ¼ et ¼ respectivement. Si l on sait que la carte tirée appartient à l ensemble D, les probabilités a posteriori sont égales à 4/5, 1/5 et 0. R P T Effectif D 4 1 0 5 D ' 22 12 13 47 Effectif 26 13 13 52 Dans cet exemple très simple, on connaît tout et il n est pas nécessaire de recourir à une formule pour obtenir les probabilités qui nous intéressent. Mais, supposons que seules les probabilités a priori P(R) = 26/52 et P(P) = 13/52 et P(T) = 13/52 ainsi que les probabilités conditionnelles P(D R) = 4/26 et P(D P) = 1/13 et P(D T) = 0 soient connues. Et indiquons comment calculer la probabilité a posteriori P(R D). D après la définition de probabilité conditionnelle (appliquée deux fois), P(R D) = P(D et R) = P(R et D) = P(R) P(D R). (*) Les deux facteurs du numérateur sont connus par hypothèse : P(R) = 26/52 et P(D R) = 4/26. Il reste à calculer le dénominateur. Notons d abord que les événements R, P et T constituent une partition de l ensemble fondamental de tous les résultats possibles du tirage, en ce sens que la carte tirée appartiendra nécessairement à un et à un seul de ces trois ensembles (en effet, toute carte est soit rouge, soit un pique, soit un trèfle). Il en résulte que = P(D et R) + P(D et P) + P(D et T). Enfin, appliquant à nouveau la formule définissant les probabilités conditionnelles, = P(R) P(D R) + P(P) P(D P) + P(T) P(D T) Ainsi, 26 4 13 1 13 0 = 52 26 52 13 52 13 P(R D) = (26 / 52) (4 / 26) 5 / 52 1 5 = (4 + 1 + 0) =. 52 52 4 / 52 5 / 52 On notera que le dénominateur de la formule (*) est la somme de trois termes analogues et que le numérateur est l un de ces termes, celui associé à l événement R. Le théorème de Bayes formalise et systématise les calculs que nous venons tout juste d effectuer pour notre exemple inspiré des jeux de cartes. 4 5.

Probabilités conditionnelles et théorème de Bayes 3 Théorème de Bayes. Soient B, un événement de probabilité non nulle ; et A 1,, A p, des événements qui forment une partition de l ensemble fondamental de tous les résultats possibles. Alors, P(A h B) = P(A h ) P(B A h ) / P(B), où P(B) = i P(A i ) P(B A i ). Étude de marché et probabilités a posteriori À titre de deuxième exemple, nous calculons les probabilités a posteriori dans le problème de Boutons Mosaïque qui est traité à la section 9.6. Rappelons que les événements GS, RM et Éc forment une partition de l ensemble fondamental. Et appliquons le théorème de Bayes en prenant pour B l événement PN (indifférence des grossistes). D abord, le dénominateur P(PN) de la formule se calcule ainsi : P(PN) = P(GS) P(PN GS) + P(RM) P(PN RM) + P(Éc) P(PN Éc) = (0,45 0,4) + (0,35 0,4) + (0,20 0,9) = 0,50. Puis, les probabilités a posteriori en cas de réponse négative s obtiennent en divisant par P(PN) le terme correspondant dans la première des équations ci-dessus : P(GS PN) = P(GS) P(PN GS) / P(PN) = (0,45 0,4) / 0,5 = 0,36 P(RM PN) = P(RM) P(PN RM) / P(PN) = (0,35 0,4) / 0,5 = 0,28 P(Éc PN) = P(Éc) P(PN Éc) / P(PN) = (0,20 0,9) / 0,5 = 0,36. On obtient de même la valeur de P(PP), ainsi que les probabilités a posteriori en cas de réponse positive. On retrouve ces probabilités de façon plus visuelle à l aide des trois figures de la page suivante. La première, qui contient les probabilités a priori et les probabilités conditionnelles, est un simple rappel des données du problème. La seconde donne les probabilités conjointes, qui s obtiennent en multipliant probabilités a priori et probabilités conditionnelles. Par exemple, P(GS et PP) = P(GS) P(PP GS) = 0,45 0,6 = 0,27 P(Éc et PN) = P(Éc) P(PN Éc) = 0,20 0,9 = 0,18. Enfin, la troisième donne les probabilités a posteriori. Considérons, à titre d exemple, la branche PN de cette figure. Tout d abord, la probabilité marginale P(PN) est obtenue en additionnant les probabilités des trois événements (notés en bleu sur la figure) «GS et PN», «RM et PN» et «Éc et PN», qui forment une partition de l événement PN : P(PN) = P(GS et PN) + P(RM et PN) + P(Éc et PN) = 0,18 + 0,14 + 0,18 = 0,50. Les probabilités a posteriori correspondent à la proportion de la somme ci-dessus qui provient de chacun des termes : P(GS PN) = P(GS et PN) / P(PN) = 0,18 / 0,50 = 0,36 P(RM PN) = P(RM et PN) / P(PN) = 0,14 / 0,50 = 0,28 P(Éc PN) = P(Éc et PN) / P(PN) = 0,18 / 0,50 = 0,36.

4 Annexe 9A Figure 1 Le problème de Boutons Mosaïque Les données Figure 2 Le problème de Boutons Mosaïque Les probabilités conjointes Figure 3 Le problème de Boutons Mosaïque Les probabilités a posteriori

Probabilités conditionnelles et théorème de Bayes 5 Le théorème de Bayes et l intuition Tversky et Kahneman 1 présentent une application intéressante du théorème de Bayes. Décrivons d abord le problème traité par ces auteurs. Dans une ville, deux compagnies opèrent des taxis : les Verts, qui représentent 85% de la flotte totale, et les Bleus, qui ont les 15% restants. Un accident survient la nuit et le véhicule impliqué quitte la scène. Un témoin affirme qu il s agissait d un taxi Bleu. Quelle est la probabilité que le taxi responsable soit effectivement un Bleu, sachant que la fiabilité des témoignages dans des conditions analogues à celles prévalant lors de l accident est évaluée à 80% (les témoins identifient correctement la couleur du taxi dans 80% des cas, et se trompent dans 20%)? Avant de résoudre le problème, mentionnons que les auteurs ont demandé à plusieurs sujets d évaluer intuitivement cette probabilité. La réponse médiane et modale est 80%. Ainsi, les gens, spontanément, sont prêts à donner une crédibilité élevée à la parole du témoin. Qu en est-il en réalité? Notons B et PB les événements suivants : B : Le taxi est un Bleu PB : Le témoin affirme que le taxi est un Bleu. Définissons de même des événements V et PV. D après l énoncé du problème, P(B) = 0,15 et P(V) = 0,85 P(PB B) = P(PV V) = 0,80 et P(PB V) = P(PV B) = 0,20. On cherche la valeur de P(B PB). Ici, les événements B et V forment une partition de l ensemble fondamental. D après la formule de Bayes, P(PB) = P(B) P(PB B) + P(V) P(PB V) = (0,15 0,8) + (0,85 0,2) = 0,29 P(B PB) = P(B) P(PB B) / P(PB) = (0,15 0,8) / 0,29 = 0,414. On notera que le profane surestime considérablement la valeur de la parole du témoin. Les auteurs tirent des conclusions intéressantes de cette expérience. Quant à nous, c est la nécessité de recourir à un outil abstrait qui retient notre attention : dans l évaluation des probabilités conditionnelles, l intuition ne suffit pas ; l utilisation d une approche formelle s impose pour ne pas errer. 1 Voir Tversky A. et Kahneman D., «Causal schemas in judgment under uncertainty», dans Fishbein, M. (ed.), Progress in Social Psychology, Lawrence Erlbaum, 1980. Cité dans Hogarth R., Judgment and Choice, Wiley, 1980, p. 38. Voir aussi Kahneman D. et Tversky A., «On prediction and judgment», ORI Research Monograph, vol. 12, 1972; Eber N. et Willinger M., L économie expérimentale, La Découverte, (collection Repères, n o 423), 2005.