MAPSI cours 1 : Rappels de probabilités et statistiques

Documents pareils
Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

3. Caractéristiques et fonctions d une v.a.

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Calculs de probabilités conditionelles

Programmes des classes préparatoires aux Grandes Ecoles

Statistiques Descriptives à une dimension

Moments des variables aléatoires réelles

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Espérance conditionnelle

Probabilités. C. Charignon. I Cours 3

Annexe commune aux séries ES, L et S : boîtes et quantiles

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Exercices sur le chapitre «Probabilités»

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

1. Vocabulaire : Introduction au tableau élémentaire

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Couples de variables aléatoires discrètes

Cours de Probabilités et de Statistique

Travaux dirigés d introduction aux Probabilités

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Statistique : Résumé de cours et méthodes

SOCLE COMMUN - La Compétence 3 Les principaux éléments de mathématiques et la culture scientifique et technologique

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Calculs de probabilités

Représentation d une distribution

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

UNE FORMATION POUR APPRENDRE À PRÉSENTER DES DONNÉES CHIFFRÉES : POUR QUI ET POURQUOI? Bénédicte Garnier & Elisabeth Morand

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

P1 : Corrigés des exercices

Probabilités sur un univers fini

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

EI - EXERCICES DE PROBABILITES CORRIGES

Lois de probabilité. Anita Burgun

Que faire lorsqu on considère plusieurs variables en même temps?

Simulation de variables aléatoires

Comment se servir de cet ouvrage? Chaque chapitre présente une étape de la méthodologie

PROBABILITES ET STATISTIQUE I&II

TSTI 2D CH X : Exemples de lois à densité 1

Probabilités conditionnelles Exercices corrigés

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

Probabilités et statistique. Benjamin JOURDAIN

Qu est-ce qu une probabilité?

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Variables Aléatoires. Chapitre 2

Feuille d exercices 2 : Espaces probabilisés

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #12

Probabilités (méthodes et objectifs)

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Université Paris 8 Introduction aux probabilités Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité

données en connaissance et en actions?

NOTES DE COURS STT1700. Introduction à la statistique. David Haziza

Introduction au Data-Mining

Résolution d équations non linéaires

Chapitre 3. Les distributions à deux variables

Probabilités conditionnelles Loi binomiale

Théorie de la Mesure et Intégration

Le modèle de Black et Scholes

Arbre de probabilité(afrique) Univers - Evénement

3. Conditionnement P (B)

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

Probabilités sur un univers fini

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Les devoirs en Première STMG

Relation entre deux variables : estimation de la corrélation linéaire

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

Cours de méthodes de scoring

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

CALCUL DES PROBABILITES

CAPTEURS - CHAINES DE MESURES

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

ECTS CM TD TP. 1er semestre (S3)

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Chapitre 2 Le problème de l unicité des solutions

TD1 Signaux, énergie et puissance, signaux aléatoires

Cours d Analyse. Fonctions de plusieurs variables

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Probabilités III Introduction à l évaluation d options

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Introduction au Calcul des Probabilités

LES GENERATEURS DE NOMBRES ALEATOIRES

MA6.06 : Mesure et Probabilités

Programmation linéaire

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés

Statistique Descriptive Élémentaire

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

1 TD1 : rappels sur les ensembles et notion de probabilité

Probabilités et Statistique

Statistiques Appliquées à l Expérimentation en Sciences Humaines. Christophe Lalanne, Sébastien Georges, Christophe Pallier

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

DENOMBREMENT-COMBINATOIRE-PROBABILITES GENERALES

Image d un intervalle par une fonction continue

Introduction au Data-Mining

Transcription:

MAPSI cours 1 : Rappels de probabilités et statistiques Vincent Guigue LIP6 Université Paris 6, France

Buts de l UE MAPSI cours 1 : Rappels de probabilités et statistiques 2/39 Fonctionnement de l UE Rappels sur les base des probabilités et statistiques Modélisation de situations réelles (images...) Applications concrètes : classification automatique, régression...

Règles de notation MAPSI cours 1 : Rappels de probabilités et statistiques 3/39 Organisation : Cours : théorie & concepts, exemples TD : application & calcul sur feuille TME : mise en oeuvre des méthodes sur des mini-projets Notation : Examen final : 60% Notes de projet & suivi de TME : 40% Note de suivi en TME : 60% (24% du total) Note de rapport de projet : 40% (16% du total)

Vocabulaire (1/3) individu échantillon population Définitions population (statistique) : ensemble des objets (ou personnes) sur lesquels porte l étude individu : chaque élément de la population MAPSI cours 1 : Rappels de probabilités et statistiques 4/39

Vocabulaire (2/3) caractère Age : Taille : Prof : Grade : Individu modalité 57 ans 1m80 militaire Colonel caractères quantitatifs variables statistiques caractères qualitatifs Définitions caractère ordinal Caractères : critères d étude de la population Modalités : les valeurs que peuvent prendre les caractères Caractère quantitatif ou Variable statistique : ensemble de modalités = des nombres + échelle mathématique Caractère qualitatif ou Variable catégorielle : caractère non quantitatif Caractère ordinal : les modalités sont ordonnées MAPSI cours 1 : Rappels de probabilités et statistiques 5/39

Vocabulaire (3/3) MAPSI cours 1 : Rappels de probabilités et statistiques 6/39 Age : Taille : Prof : Grade : Individu 57 ans 1m80 militaire Colonel variable discrète variable continue Définitions sur les variables statistiques Variable discrète : définie sur un espace discret (par exemple des entiers) Variable continue : définie sur un continuum (toutes les valeurs numériques d un intervalle)

Effectifs, fréquences et distributions MAPSI cours 1 : Rappels de probabilités et statistiques 7/39 Quelques définitions de statistiques X : caractère défini sur une population de N individus {x 1,..., x I } modalités de X N i = effectif de x i = nombre d individus pour lesquels X a pris la valeur x i fréquence ou effectif relatif : f i = N i N distribution de X : ensemble des couples {(x 1, f 1 ), (x 2, f 2 ),...} Représentation usuelle sous forme de tableau Statistiques = description d un échantillon Probabilité = description d une population.

MAPSI cours 1 : Rappels de probabilités et statistiques 8/39 Probabilités : approche évènementielle dé inférieur à 3 événement élémentaire événement impossible Ω

Les événements : des ensembles (1/2) A = événement impossible événement = sous-ensemble de Ω A B = B A B C D Ω C D C D MAPSI cours 1 : Rappels de probabilités et statistiques 9/39

Les événements : des ensembles (2/2) MAPSI cours 1 : Rappels de probabilités et statistiques 10/39 Notations ensemblistes : événements = sous-ensembles de Ω = événement impossible A B = événement qui est réalisé si A ou B est réalisé C D = événement qui est réalisé si C et D sont réalisés C D = complémentaire de C D dans Ω = événement qui est réalisé ssi C D ne l est pas A B = = 2 événements qui ne peuvent se réaliser simultanément

Définition des probabilités : le cas discret Définition des probabilités (Kolmogorov) Ω = ensemble fini ou dénombrable d événements élémentaires e k, k K N A = 2 Ω = ensemble des événements Mesure de probabilité : A A, 0 P(A) 1 P(Ω) = 1 A = k L A k, avec L ensemble dénombrable et, j, k L, j k, A j A k =, P(A) = P(A k ). k L = Les probabilités des événements élémentaires déterminent entièrement P conséquence : P(A B) = P(A) + P(B) P(A B) MAPSI cours 1 : Rappels de probabilités et statistiques 11/39

Univers, Evènements et Variable Aléatoire (1/5) MAPSI cours 1 : Rappels de probabilités et statistiques 12/39 Quelques définitions de probabilités Univers Ω : un ensemble dénombrable (fini ou infini) Evènement : un sous-ensemble de l univers Ω Mesure de probabilité : une fonction qui associe à chaque évènement une valeur entre 0 et 1, la probabilité de Ω est 1, et la probabilité d une union dénombrable d évènements incompatibles (ensembles disjoints) est la somme de leurs probabilités. Espace probabilisé : un couple (Ω, P) où P est une mesure de probabilité sur Ω Variable aléatoire

Univers, Evènements et Variable Aléatoire (2/5) MAPSI cours 1 : Rappels de probabilités et statistiques 13/39 Variable aléatoire Lorsqu on est face à une expérience aléatoire, on s intéresse plus souvent à une valeur attribuée au résultat qu au résultat lui-même. Exemples Lorsque l on joue à un jeu de hasard on s intéresse plus au gain que l on peut obtenir qu au résultat du jeu. Nombre de pannes dans un ensemble de systèmes plutôt que l état exact des systèmes Solution : traduire l univers en évènements compréhensibles. variable aléatoire : application de l univers Ω vers un autre ensemble.

Univers, Evènements et Variable Aléatoire (3/5) MAPSI cours 1 : Rappels de probabilités et statistiques 14/39 Exemple du lancer de dé On lance un dé après avoir misé 1EUR. Si le résultat est un 5 ou un 6 on double la mise, sinon perd la mise. Dans ce cas : Ω = {1, 2, 3, 4, 5, 6} Card Ω = 6, Card P(Ω) = 2 6, et e Ω, P(e) = 1 6 Soit X la v.a. qui associe à tout résultat du dé un gain : X(1) = X(2) = X(3) = X(4) = 1 et X(5) = X(6) = (2 1) = 1 X est à valeur dans l ensemble noté X = { 1, 1} R, X : Ω X Question : Comment calculer la probabilité de gagner 1EUR? Réponse : Définir une probabilité sur X, notée P, en retournant dans l espace probabilisé (Ω, P(Ω), P) i.e. utiliser P(résultat du dé =5 ou 6) pour estimer P({1}).

Variable aléatoire à valeurs discrètes (4/5) MAPSI cours 1 : Rappels de probabilités et statistiques 15/39 Définition Variable aléatoire à valeurs discrètes Soit Ω un ensemble dénombrable, et P une mesure de probabilité sur Ω. Soit Ω, un ensemble discret. Une variable aléatoire est une fonction X de Ω muni de la mesure P vers Ω. Exemples Lancer d un dé : Soit Ω = { {1,..., 6} muni de la probabilité uniforme P. 1 si i est pair X : i 0 sinon est une variable aléatoire de (Ω, P) vers Ω = {0, 1}. Lancer de deux dés : Soit Ω = {1,..., 6} 2 muni de la probabilité uniforme P. X : (i, j) i + j est une variable aléatoire de (Ω, P) vers Ω = {2,..., 12}

Variable aléatoire à valeurs discrètes (5/5) MAPSI cours 1 : Rappels de probabilités et statistiques 16/39 Définitions : Loi de probabilité Soit (Ω, P) un espace probabilisé où Ω est dénombrable. Soit Ω un ensemble discret, et X une v.a. de (Ω, P) vers Ω. P X définit une mesure de probabilité sur Ω : E Ω, P X (E ) = P ( X 1 (E ) ) avec X 1 (E ) = { ω Ω X(ω) E } L ensemble des valeurs P X ( {ω } ) pour ω Ω s appelle la loi de probabilité de X. Notations L événement X ], a] sera noté par X a L événement X ]a, b] sera noté par a < X b L événement X {a} sera noté par X = a On a donc P X (B) = P(X 1 (B)) = P(X B)

Description d une population MAPSI cours 1 : Rappels de probabilités et statistiques 17/39 Décrire parfaitement une population = connaitre sa loi de probabilité Exemples selon la nature des variables : en continu : en discret : Probabilité d'observation d'un individu 0.016 0.014 0.012 0.010 0.008 0.006 0.004 0.002 0.000 0 20 40 60 80 100 120 Age (en années) 0.5 0.4 0.3 0.2 0.1 0.0 0 1 2 3 4 Nb d'enfants de moins de 18 ans par famille

Description d une population MAPSI cours 1 : Rappels de probabilités et statistiques 17/39 Décrire parfaitement une population = connaitre sa loi de probabilité Problème général : Comment déduire la loi sur la population si on ne connait qu un échantillon? Réponse dans les cours suivants...

Propriétés Cas général : Une distribution somme à 1 Une probabilité est toujours 0 Cas Continu : Chaque événement élémentaire a une proba = 0 (eg : proba d avoir 40 ans) Mais proba d être dans un intervalle 0 (eg : proba d avoir entre 40 et 50 ans) 0.016 P(A) = surface délimitée par la fonction de densité dans la zone où les événements sont inclus dans A Probabilité d'observation d'un individu 0.014 0.012 0.010 0.008 0.006 0.004 0.002 0.000 0 20 40 60 80 100 120 Age (en années) MAPSI cours 1 : Rappels de probabilités et statistiques 18/39

Probabilités : les détails dans le cas continu MAPSI cours 1 : Rappels de probabilités et statistiques 19/39 0.016 0.014 Probabilité d'observation d'un individu 0.012 0.010 0.008 0.006 0.004 0.002 0.000 0 20 40 60 80 100 120 Age (en années) P(X I) = p(x)dx avec P = proba et p = fonction de densité = connaître p = connaître P intervalles ], x[ = fonction de répartition : F(x) = P(X < x) = I x p(y)dy

Discrétisation MAPSI cours 1 : Rappels de probabilités et statistiques 20/39 Continu Discret Possibilité de discrétisation = regroupement par tranches Modélisation approximative, mais manipulation plus facile 0.0008 0.0007 0.0006 0.0005 0.0004 0.0003 0.0002 0.0001 0.0000 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 Distribution des salaires en France 0.45 0.40 0.35 0.30 0.25 0.20 0.15 0.10 0.05 0.00 0 1000 2000 3000 4000 5000 Distribution des salaires en France discrétisée

Caractéristiques d une loi de probabilités (1/2) MAPSI cours 1 : Rappels de probabilités et statistiques 21/39 Caractéristiques Espérance mathématique ou moyenne : E(X) X discrète : E(X) = x k p k X continue : E(X) = x p(x)dx l espérance mathématique n existe pas toujours Mode : Mo de P (pas toujours unique) : X discrète : p(mo) = max k p(x k ) X continue : p(mo) = max x p(x) Propriétés de l espérance E(aX + b) = ae(x) + b X, Y, E(X + Y ) = E(X) + E(Y )

Caractéristiques d une loi de probabilités (2/2) MAPSI cours 1 : Rappels de probabilités et statistiques 22/39 variance : V (X) ou σ 2 : X discrète : σ 2 = [x k E(X)] 2 p k X continue : σ 2 = [x E(X)] 2 p(x)dx moyenne des carrés des écarts entre les valeurs prises par X et son espérance E(X) écart-type : σ = racine carrée de la variance variance et donc écart-type n existent pas toujours Prop : Y = ax + b, où a et b sont des nombres réels V (Y ) = a 2 V (X) Prop : V (X) = E[X 2 ] E[X] 2

Résumer les informations prépondérantes MAPSI cours 1 : Rappels de probabilités et statistiques 23/39 Idées : 1 Caractériser rapidement une distribution 2 Donner en quelques chiffres une idée approchée de l ensemble de la distribution de probabilité. Espérance, variance + moments statistiques 0.0008 0.0007 0.0006 0.0005 0.0004 0.0003 0.0002 0.0001 0.0000 0 1000 2000 3000 4000 5000 6000 7000 8000 9000 Niveau du sol sur la planète Quantiles (médianes,...) Médiane = 1650, Moyenne = 1950

Médiane d une variable statistique continue MAPSI cours 1 : Rappels de probabilités et statistiques 24/39 Médiane d une variable statistique continue X : variable statistique continue Médiane = le nombre δ tel que les aires situées de part et d autre de ce nombre dans l histogramme représentant X sont égales Médiane M : P(X M) 1 2 et P(X M) 1 2 0.0008 0.0007 0.0006 0.0005 0.0004 0.0003 0.0002 0.0001 0.0000 0 1000 2000 3000 4000 5000 6000 7000 8000 9000

Les quantiles Quantile d une variable discrète X : variable statistique discrète, modalités {x 1,..., x I } population de N individus quantile d ordre α = tout nombre δ tel que : N i αn et N i (1 α)n i {j:x j <δ} i {j:x j >δ} Quantile d une variable continue X : variable statistique continue quantile d ordre α = le nombre δ tel que les aires situées de part et d autre de ce nombre dans l histogramme représentant X sont égales respectivement à α aire totale et (1 α) aire totale MAPSI cours 1 : Rappels de probabilités et statistiques 25/39

Loi de probabilité sur plusieurs variables aléatoires MAPSI cours 1 : Rappels de probabilités et statistiques 27/39 Chaque individu de la population est décrit sur plusieurs caractères Exemples : Carte à jouer : Couleur (Trefle, Carreau, Coeur, Pique), Valeur (7,..., Roi) Sportifs : Age (< 20,..., > 50), Sport pratiqué (Natation...) Loi jointe P(A, B) : décrire toutes les intersections possibles Exemple : Sport \ Age < 20 [20, 30[ [30, 40[, [40, 50[ 50 Natation 0.02 0.05 0.09 0.08 0.08 Jogging 0.10 0.15 0.10 0.07 0.05 Tennis 0.02 0.03 0.06 0.07 0.03 NB : l ensemble de l univers Ω somme toujours à 1

Loi marginale MAPSI cours 1 : Rappels de probabilités et statistiques 28/39 Définition La marginalisation consiste à projeter une loi jointe sur l une des variables aléatoires. Par exemple, extraire P(A) à partir de P(A, B). P(A) = i P(A, B = b i ) Sport \ Age < 20 [20, 30[ [30, 40[, [40, 50[ 50 Marginale Natation 0.02 0.05 0.09 0.08 0.08 0.32 Jogging 0.10 0.15 0.10 0.07 0.05 0.47 Tennis 0.02 0.03 0.06 0.07 0.03 0.21 1 La marginale extraite ici correspond à P(Sport). La nouvelle loi somme toujours à 1.

Loi marginale MAPSI cours 1 : Rappels de probabilités et statistiques 28/39 Définition La marginalisation consiste à projeter une loi jointe sur l une des variables aléatoires. Par exemple, extraire P(A) à partir de P(A, B). P(A) = i P(A, B = b i ) Sport \ Age < 20 [20, 30[ [30, 40[, [40, 50[ 50 Natation 0.02 0.05 0.09 0.08 0.08 Jogging 0.10 0.15 0.10 0.07 0.05 Tennis 0.02 0.03 0.06 0.07 0.03 Marginale 0.14 0.23 0.25 0.22 0.16

Probabilités conditionnelles (1/5) MAPSI cours 1 : Rappels de probabilités et statistiques 29/39 Définition la probabilité d un événement A conditionnellement à un événement B, que l on note P(A B), est la probabilité que A se produise sachant que B s est ou va se produire. Rem : P(A Ω) = P(A) puisqu on sait que Ω sera réalisé Problème : comment calculer P(A B)?

Probabilités conditionnelles (2/5) MAPSI cours 1 : Rappels de probabilités et statistiques 30/39 Exemple Tirer une carte parmi un jeu de 32 cartes Ω = {32 cartes} événements : A = tirer un roi B = tirer un cœur P(A B) =? Interprétation de P(A B) Dans l univers réduit B (Ω = B), quelle est la probabilité de A?

Probabilités conditionnelles (2/5) MAPSI cours 1 : Rappels de probabilités et statistiques 30/39 Exemple Tirer une carte parmi un jeu de 32 cartes Ω = {32 cartes} événements : A = tirer un roi B = tirer un cœur P(A B) =? Interprétation de P(A B) Dans l univers réduit B (Ω = B), quelle est la probabilité de A? Ω = B = coeur (8 cartes) P(A B) = un roi parmi les coeur...

Probabilités conditionnelles (2/5) MAPSI cours 1 : Rappels de probabilités et statistiques 30/39 Exemple Tirer une carte parmi un jeu de 32 cartes Ω = {32 cartes} événements : A = tirer un roi B = tirer un cœur P(A B) =? Interprétation de P(A B) Dans l univers réduit B (Ω = B), quelle est la probabilité de A? Ω = B = coeur (8 cartes) P(A B) = un roi parmi les coeur... P(A B) = 1 8

Probabilités conditionnelles (3/5) MAPSI cours 1 : Rappels de probabilités et statistiques 31/39 Théorème des probabilités totales : En partant de la loi jointe P(A B) = P(A, B) P(B) ou P(A, B) = P(A B)P(B) Interprétation : l observation conjointe de A et B (P(A, B)) correspond à l observation de B ET à l observation de A dans l univers restreint B.

Probabilités conditionnelles (3/5) MAPSI cours 1 : Rappels de probabilités et statistiques 31/39 Théorème des probabilités totales : En partant de la loi jointe P(A B) = P(A, B) P(B) ou P(A, B) = P(A B)P(B) Interprétation : l observation conjointe de A et B (P(A, B)) correspond à l observation de B ET à l observation de A dans l univers restreint B. Exemple : Roi de coeur = Observer un coeur ET observer un roi dans l univers des coeurs

Probabilités conditionnelles (4/5) MAPSI cours 1 : Rappels de probabilités et statistiques 32/39 Propriétés Réversible : P(A, B) = P(A B)P(B) = P(B A)P(A) Théorème de Bayes : P(A B) = P(B A)P(A) P(B) Intégration des probabilités totales : P(A) = i P(A, B = b i ) = i P(A B = b i )P(B i )

Probabilités conditionnelles (5/5) MAPSI cours 1 : Rappels de probabilités et statistiques 33/39 Tableau de probabilité conditionnelle : Sport : P(A) = Natation 0.32 Jogging 0.47 Tennis 0.21 Répartition des ages pour chaque sport : P(B A) = Sport \ Age < 20 [20, 30[ [30, 40[, [40, 50[ 50 Natation 0.06 0.16 0.28 0.25 0.25 Jogging 0.21 0.32 0.21 0.15 0.11 Tennis 0.10 0.14 0.29 0.33 0.14 Propriété : chaque ligne somme à 1 (=chaque ligne est un univers à part) Questions : comment extraire la distribution des ages? Comment obtenir la distribution jointe?

Caractéristiques d une loi de probabilités MAPSI cours 1 : Rappels de probabilités et statistiques 34/39 Propriétés de la variance X, Y, V (X + Y ) = V (X) + V (Y ) + 2cov(X, Y ) où : cov(x, Y ) = covariance de X et Y si X et Y discrètes et p k = P(X = x k, Y = y k ) cov(x, Y ) = [x k E(X)][y k E(Y )]p k si X et Y continues, de densité p(x, y), cov(x, Y ) = [x E(X)][y E(Y )]p(x, y)dxdy

Indépendance probabiliste (1/3) MAPSI cours 1 : Rappels de probabilités et statistiques 35/39 Définition de l indépendance deux événements A et B sont indépendants si : P(A, B) = P(A) P(B) Corrolaire : deux événements A et B sont indépendants si : P(A B) = P(A) (avec P(B) > 0) l indépendance n est pas une propriété du couple (A, B) mais du couple ({A, A c }, {B, B c }) : A et B sont indépendants = A et B c indépendants = A c et B indépendants = A c et B c indépendants

Indépendance probabiliste (2/3) MAPSI cours 1 : Rappels de probabilités et statistiques 36/39 Démonstration : A et B sont indépendants = P(A, B) = P(A) P(B) P(A) = P(A, B) + P(A, B c ) = P(A, B c ) = P(A) P(A, B) = P(A) P(A) P(B) = P(A) [1 P(B)] = P(A) P(B c )

Indépendance probabiliste (3/3) MAPSI cours 1 : Rappels de probabilités et statistiques 37/39 Exemple 8 Répartition d'un échantillon 7 Répartition d'un échantillon 7 6 Niveau d'étude 6 5 4 3 2 1 Niveau d'étude 5 4 3 2 0 1 1 2 0 2 4 6 8 10 12 Niveau de Salaire 0 2 0 2 4 6 8 10 12 Niveau de Salaire Qu est ce qui est dépendant ou indépendant?

Résumé MAPSI cours 1 : Rappels de probabilités et statistiques 38/39 Les 4 règles qui vont vous sauver la vie. Probabilité : x X, 0 P(x) 1 et x X p(x) = 1 Marginalisation P(X 1 = x 1 ) = Conditionalisation : x 2,...,x n P(X 1 = x 1, X 2 = x 2,...) P(X 1, X 2 ) = P(X 1 X 2 )P(X 2 ) (et vice versa) Indépendance : Si X 1 et X 2 sont indépendantes : P(X 1, X 2 ) = P(X 1 )P(X 2 )

Quantifier la dépendance entre X et Y MAPSI cours 1 : Rappels de probabilités et statistiques 39/39 Définition : Coefficient de corrélation linéaire Soit X, Y deux variables. Le coefficient de corrélation linéaire entre X et Y est : cov (X, Y ) r =, σ X σ Y où σ X et σ Y sont les écart-types des variables X et Y.