Loi d une variable discrète



Documents pareils
Moments des variables aléatoires réelles

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Probabilités sur un univers fini

Travaux dirigés d introduction aux Probabilités

1 TD1 : rappels sur les ensembles et notion de probabilité

Simulation de variables aléatoires

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Couples de variables aléatoires discrètes

Lois de probabilité. Anita Burgun

TSTI 2D CH X : Exemples de lois à densité 1

Probabilités sur un univers fini

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Que faire lorsqu on considère plusieurs variables en même temps?

4 Distributions particulières de probabilités

Probabilités Loi binomiale Exercices corrigés

Programmes des classes préparatoires aux Grandes Ecoles

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Coefficients binomiaux

Variables Aléatoires. Chapitre 2

P1 : Corrigés des exercices

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Mesure de probabilité, indépendance.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Correction du baccalauréat ES/L Métropole 20 juin 2014

Exercices sur le chapitre «Probabilités»

Probabilités conditionnelles Loi binomiale

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Probabilités et statistique. Benjamin JOURDAIN

Calculs de probabilités conditionelles

Intégration et probabilités TD1 Espaces mesurés Corrigé

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Estimation et tests statistiques, TD 5. Solutions

3 Approximation de solutions d équations

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Introduction au Calcul des Probabilités

EXERCICE 4 (7 points ) (Commun à tous les candidats)

MA6.06 : Mesure et Probabilités

Espérance conditionnelle

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Chapitre 2. Eléments pour comprendre un énoncé

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

PROBABILITÉS CONDITIONNELLES

Probabilités. C. Charignon. I Cours 3

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

UFR de Sciences Economiques Année TESTS PARAMÉTRIQUES

M2 IAD UE MODE Notes de cours (3)

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

EI - EXERCICES DE PROBABILITES CORRIGES

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Université Paris 8 Introduction aux probabilités Licence Informatique Exercices Ph. Guillot. 1 Ensemble fondamental loi de probabilité

Texte Agrégation limitée par diffusion interne

I. Cas de l équiprobabilité

3. Conditionnement P (B)

Annexe commune aux séries ES, L et S : boîtes et quantiles

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #4-5

MÉTHODE DE MONTE CARLO.

CCP PSI Mathématiques 1 : un corrigé

Pour l épreuve d algèbre, les calculatrices sont interdites.

Loi binomiale Lois normales

Structures algébriques

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #16

Introduction à la théorie des files d'attente. Claude Chaudet

Calcul fonctionnel holomorphe dans les algèbres de Banach

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

4. Martingales à temps discret

BTS Groupement A. Mathématiques Session Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

Image d un intervalle par une fonction continue

Arbre de probabilité(afrique) Univers - Evénement

Transmission d informations sur le réseau électrique

I. Polynômes de Tchebychev

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Exercices supplémentaires sur l introduction générale à la notion de probabilité

Probabilités III Introduction à l évaluation d options

Introduction à l étude des Corps Finis

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Lagrange, où λ 1 est pour la contrainte sur µ p ).

4. Exercices et corrigés

Fluctuation d une fréquence selon les échantillons - Probabilités

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Chapitre 2 Le problème de l unicité des solutions

3. Caractéristiques et fonctions d une v.a.

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Correction du Baccalauréat S Amérique du Nord mai 2007

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Résolution d équations non linéaires

Chaînes de Markov au lycée

BACCALAURÉAT GÉNÉRAL SESSION 2012 OBLIGATOIRE MATHÉMATIQUES. Série S. Durée de l épreuve : 4 heures Coefficient : 7 ENSEIGNEMENT OBLIGATOIRE

Calcul élémentaire des probabilités

Feuille d exercices 2 : Espaces probabilisés

Cours de Tests paramétriques

CALCUL DES PROBABILITES

Communications numériques

Transcription:

MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une variable discrète On notera : X(Ω) l ensemble des valeurs possibles de X E[X] l espérance de X σ(x) l écart type de X F(x) la fonction de répartition de la variable aléatoire X I.. X(Ω) = { ; ; 0; } E[X] = 6 6 + 0 + = E[X ] = ( ) 6 6 + 0 + = 6 V ar(x) = E[X ] E[X] = et σ(x) =. F(x) = P[X x] La fonction F est une fonction constante par intervalle donnée par : F(x) = 0 si x < F(x) = /6 si x < F(x) = / si x < 0 F(x) = / si 0 x < F(x) = si x II.. X(Ω) = { ; 0; } E[X] = /, E[X ] = /, V ar(x) = E[X ] E[X] = /6 et σ(x) = /. F(x) = P[X x] La fonction F est une fonction constante par intervalle donnée par : F(x) = 0 si x < F(x) = / si x < 0 F(x) = / si 0 x < F(x) = si x. X(Ω) = { ; 0; } P[M = ] = P[X = ] P[Y = ] = /6 P[M = ] = P[X = ] + P[Y = 0] P[X = ]P[Y = ] = /6 P[M = 0] = /6 = /6 III. La figure ci-dessous représente la fonction de répartition d une variable aléatoire X. y /. Déterminer la loi de X. / 0 Figure F(x) x. Calculer E[X], var(x) et σ(x) E[X] =, E[X ] = 9 σ(x) = IV. V ar(x) = 7 6 et E(X) = 5/, var(x) = 7/6, σ(x) = / et P[X 5/] = / V. P[X = k] = k =,.., n n. Déterminer E[X] et V ar(x) E[X] = n + ( + +... + n) = n E[X ] = n ( + +... + n ) = n (n + )(n + ) = 6 V ar(x) = E[X ] E[X] = n + n(n + )(n + ) 6 ( n +. Pour le dé tétraédrique, on applique les résultats ci-dessus avec n =. On a alors, E[X] = 5/ et V ar(x) = 5/ VI. X est une variable dont l espérance et la variance valent et Y = X +. Calculer E[Y ] et var(y ). E[Y ] = E[X + ] = E[X] + = 7 V ar(y ) = V ar(x + ) = V ar(x) = V ar(x) = 8 VII. Une urne contient n jetons numérotés de à n. On en tire une poignée et l on note X k la variable aléatoire égale à k si le jeton numéro k se trouve dans la poignée et 0 s il ne s y trouve pas. On note S la somme des numéros tirés dans la poignée.. En considérant qu une poignée est une partie de l ensemble des jetons, déterminer la loi de X k. Puisqu on ne connaît pas le nombre de jetons dans la poignée, il faut la considérer comme une partie de l ensemble des jetons. Ainsi, Card Ω = n [X k = k]= la poignée contient le jeton n k Card[X k = k] = n donc P[X k = k] = n n =. Calculer E[X k ] et E[S] n + ) = n E[X k ] = 0 P[X k = 0] + k P[X k = k] = k E[S] = E[X +... + X n ] = E[X k ] = n(n + ) k = VIII. k= Soit p [0, ] et q = p. Soit S une va pouvant prendre les valeurs et - avec les probas p et q.. Déterminer E[X] et var(x) E[X] = P[X = ] P[X = ] = p q

E[X ] = P[X = ] + P[X = ] = p + q = V ar(x) = (p q) = pq et σ(x) = pq. Soit Y une variable aléatoire de même loi que X et indépendante de celle ci. Soit S = X + Y la variable aléatoire égale à la somme de X et Y. Calculer E[S] et var(s). Quelles sont les valeurs que peut prendre S? Retrouver E[S] et var(s) par le calcul. E[S] = E[X + Y ] = E[X] + E[Y ] = (p q) V ar(s) = V ar(x) + V ar(y ) = 8pq par indépendance de X et Y S peut prendre comme valeurs, 0, et sa loi est : P[S = ] = P ([X = ] [Y = ]) = P[X = ] P[Y = ] = q par indépendance de X et Y P[S = ] = P ([X = ] [Y = ]) = P[X = ] P[Y = ] = p P[S = 0] = p q = pq IX. Loi géométrique.. Quelles valeurs peut prendre N? Pile peut apparaître à n importe quel numéro de tirage et peut éventuellement ne jamais apparaître, ainsi, N(Ω) = N N =,,,..., +. [X = 0]=«La personne fait face au er lancer.» [X = 0]=«La personne fait face au nd lancer.» [X k = 0]=«La personne fait face au (k )ième lancer.» [X k = ]=«La personne fait face au kième lancer.» [N = k]=«le premier pile est apparu au kième lancer.» [N = k] = [X = 0] [X = 0]... [X k = 0] [X k = ]. P[N = k] = P ([X = 0] [X = 0]... [X k = 0] [X k = ]) = P[X = 0] P[X = 0]... P[X k = 0] P[X k = ] par indépendance des variables aléatoires X k P[N = k] = q q... q p = q k p ceci caractérise la loi géométrique.. P[N n] = q k p = p qn q = qn k= qui est la probabilité que le premier pile apparaisse avant l instant n. On en déduit alors que la probabilité que pile n apparaisse jamais est égale à P[N = ] = lim n + qn = 0 à condition que q 5. Se reporter au cours pour la démonstration qui utilise les séries entières : E[N] = p et V ar(n) = q p 6. Applications. 6.. p = q est la proba de transmission avec succès. L instant X de passage avec succès suit une loi géométrique de paramètre p = 0, 9 (par indépendance). P[X = ] = q p = 0, 0009 et P[X < ] = p + pq = 0, 99 Le délai moyen d attente est la valeur moyenne de X soit /p =, : les messages passent donc en moyenne dès le premier essai. Mais ce système est inefficace car il bloque toute communication dès que deux messages entrent en collision. Pour éviter cela, on utilise une technique présentée dans l exercice Aloha et Ethernet. 6.. Soit X le nombre de tirages nécessaires avant de tirer une boule rouge. X suit une loi géométrique de paramètre p = 0, (proportion de boules rouges). On cherche P[X ] = p + pq +.. + pq = (0, 7) = 0, 75 X. Loi hypergéométrique.. Le nombre de boules tirées est n, le nombre de boules blanches est N p ; le nombre maximum de boules blanches que l on peut tirer est donc M = inf(n, Np) X peut donc prendre n importe quelle valeur entière entre 0 et M (inclus tous deux).. Les tirages étant simultanés, l ordre n importe pas. Soit k le nombre de boules blanches tirées ; on peut les choisir de CNp k façons ; les n k boules noires peuvent alors être choisies de C n k Nq façons et le nombre total de poignées de n boules parmi N est CN. n En faisant l hyprothèse d équiprobabilité sur toutes les configurations, en déduit : P[X = k] = Ck Np Cn k Nq CN n si k {0,,,..., M}. Si N +, E[X] = np d après la formule donnée. et V ar(x) npq qui sont les caractéristiques d une loi binomiale (Attention, ceci ne prouve pas que la limite est celle d une loi binomiale!!). En fait, on peut considérer que quand N devient très grand, on a peu de chances de tirer deux fois la même personne et les tirages peuvent être considérés comme sans remise.. X suit une loi hypergéométrique H(000; 0; 0, 0) mais on a tout intérêt à utiliser l approximation par la loi binomiale. En ce cas, P[X = 0] 0, 98 0 = 0, 8, E[X] = 0 0, 0 = 0, et V ar(x) 0, 9 P[X = ] 0 0, 0 0, 98 9 = 0, 7, P[X = ] 5 0, 0 0, 98 8 = 0, 05 et donc P[X ] 0, 999 XI.. P[X k] = + i=k q i p = q k après simplifications. Ainsi, P[X k] = q k et P[Y k] = q k. Soit Z = inf(x, Y ); [Z k] = [X k] [Y k] En effet, si Z k, alors X et Y le sont aussi puisque Z est le plus petit des deux, et si les deux sont plus grands que k alors le plus petit des deux l est également! Puisque l on a supposé X et Y indépendants, on aura donc P[Z k] = P[X k] P[Y k] = (q q ) k. [Z k] = [Z = k] [Z k + ] et ces deux évènements sont disjoints. Ainsi, P[Z k] = P[Z = k] + P[Z k + ] P[Z = k] = P[Z k] P[Z k + ] = (q q ) k ( q q ) Z suit donc une loi géométrique de paramètre q q XII. Soit une variable aléatoire X suivant une loi de Poisson de paramètre λ =. Calculer P([X ]/[X ]) P[X /X ] = P ([X ] [X ]) P[X ] loi binomiale et loi de Poisson XIII. = 0, 66 0, 8. Une urne contient 0 boules dont 5 rouges. On en 0, 77

extrait 7 avec remise. Calculer la proba pour qu il y ait exactement des 7 boules qui soient rouges. Soit X la variable égale au nombre de boules rouges tirées. Les tirages se font avec remise et X suit donc une loi binomiale B(n, p) avec n = 7 et p = 5/0 = 5/8 ; c est le nombre de succès au cours de n expériences de Bernoulli indépendantes. Ainsi P[X = ] = C 7(5/8) (/8) 0, 8. 0% des ordinateurs sortis d une usine sont porteurs d un composant défectueux. 5 ordinateurs sont choisis au hasard. Soit X le nombre d ordinateurs défectueux de cet échantillon. Calculer la loi de X puis la proba de l évènement A =«ou ordinateurs sont défectueux.» X suit une loi binomiale de paramètre n = 5 et p = 0, 9 P[X = ] = C 5 0, 9 0, 0, 07 P[X = ] = C 5 0, 9 0, 0, 008 donc P(A) = 0, 08. La proba d une maladie infantile est de /00. 500 naissances ont été enregistrées dans la ville. Quelle est la proba pour que l on observe au moins 5 cas de cette maladie parmi les nouveaux nés? Le nombre de cas suit une loi binomiale (car on peut supposer la population assez grande) avec n = 500 et p = /00. Comme np = 5, on peut encore approcher cette loi par une loi de Poisson de paramètre λ = 5. Soit X la variable égale au nombre de cas. On cherche : ( P[X ] e 5 + 5 + 5! P[X 5] 0, 559 +.. + 5! ) 0,. Le nombre de pannes annuelles d une machine suit une loi de Poisson de paramètre λ =. Quelle est la probabilité pour que l on observe au moins une panne dans l année? Soit X le nombre de pannes annuelles. P[X ] = P[X = 0] = e 0.865 5. X suit une loi binomiale de paramètre n = 7 et p = 0.9. Ainsi : P[X ] = 0.0 + 0. + 0.7 + 0.8 = 0.99 XIV. λ λk+. P[X = k + ] = e (k + )! et P[X = k] = e λλk k! P[X = k + ] donc = λ P[X = k] k + On passe donc d une proba à l autre en multipliant par λ/(k + ). P[X = 0] = e λ ; une fois calculée cette probabilité, il suffit d appliquer la formule de récurrence ci-dessus.. Notons u k = P[X = k]. On cherche le sens de variation de la suite de terme général u k. u k+ u k = e λλk k! ( λ ) ainsi, la suite sera k + décroissante dès que λ < k + ie. k > λ. P[X ] = 0, 95 P[X ] = P[X = 0] + P[X = ] = e λ (λ + ) = 0, 95 ln(e λ ) + ln(λ + ) = ln 0, 95 λ est solution de l équation ln( + x) x = ln 0, 95 0, 05 Soit φ(x) = ln( + x) x. On voit facilement que cette fonction est décroissante sur R +, continue donc bijective et que l équation φ(x) = ln 0, 95 a donc une solution unique. Un calcul approché de φ(0, ) et φ(0, ) donne λ 0, XV.. X suit une loi binomiale de paramètres n = 00 et p = 0, 0. Ainsi, E[X] = npq et σ = npq, 7. λ = np dans la loi des évènements rares, ie λ = 0, 0n. Si A = [X ] P(A) = P[X ] = e λ ( + λ + λ ) Soit f(x) = e x ( + x + x ) f est continue et dérivable sur R +, f (x) = x e x et l on en déduit donc que f est décroissante. f(6, ) 0, 06,f(6, ) 0, 05 et f(6, ) 0, 09 P(A) 0, 95 f(λ) = 0, 95 f(λ) = 0, 05 λ 6, 0, 0n = 6, n 6 XVI. Une ligne de transmission transporte des fichiers, chaque fichier étant constitué de 0 5 bits. La probabilité qu un bit soit erroné est p = 0, 000 et l on admet que les erreurs sont indépendantes les unes des autres. Soit X la variable aléatoire égale au nombre d erreurs dans la transmission d un fichier donné.. Quelle est la loi de X? Par indépendance des erreurs, il s agit d une loi binomiale de paramètres n et p. Déterminer la probabilité qu un fichier ne contienne aucune erreur. P[X = 0] = q 0000.5 0 5. Déterminer le nombre moyen d erreurs par fichier. E[X] = np = 0. On améliore la qualité de la transmission afin que p = 0 5. Par quelle loi peut-on approcher X? Pourquoi? Calculer alors P[X ] np = on peut approcher la loi de X par une loi de Poisson de paramètre λ = (en utilisant la loi des évènements rares). On a alors P[X ] = e XVII. Le janvier 005, la sonde Cassini-Huygens a envoyé sur terre les premières photos de la surface de Titan. Pour parvenir jusqu à la terre, les signaux provenant de la sonde ont parcouru.5 milliards de kilomètres et ont voyagé durant plus d une heure à une fréquence de 8. Ghz. Ce trajet peut se modéliser par un canal très brouillé et les bits reçus sur la terre peuvent donc être erronés. Pour un rapport signal sur bruit (RSB) de 0.7 db (correspondant à un niveau de bruit très élevé) la probabilité qu un bit arrive erroné est de p = 5 0. Mais la sonde possède un code correcteur très puissant constitué de la concaténation d un code convolutif avec un code de Reed-Solomon de longueur n = 55 et dimension k =. A l aide de ce code, le taux d erreur binaire tombe à une probabilité p = 0 6 pour un rapport RSB de 0.7 db. Une image en noir et blanc de 500 65 pixels codée sur 6 niveaux de gris est transmise en direction de la terre.

Sa taille est donc de n = 500 65 6 = 0 7 bits. On suppose que la transmission ait lieu sans code correcteur et que les bits sont transmis de façon indépendante. Soit X la variable aléatoire égale au nombre de bits erronés durant la transmission de cette image. Quelle est la loi suivie par X? Quels sont ces paramètres? Quel est le nombre moyen d erreurs par image transmise? X suit clairement une loi binomiale de paramètres n =.0 7 et p = 5.0 (nombre de réalisations de n succès indépendants avec proba de succès égale à p). On a donc E[X] = np = 0 6, ce qui est beaucoup pour une transmission.... On suppose maintenant que la transmission utilise le code correcteur de Cassini. Pour un fichier de la même taille que l image ci-dessus, quels sont alors les paramètres de la loi de X? Quel est le nombre moyen d erreurs par image transmise? Calculer P[X 0], P[5 X 5] et P[X 0] p = 0 6 E[X] = 0 ; comme np 5, on ne peut pas approcher par une loi de Poisson.. On transmet une image plus petite de taille 0 6 bits. Quel est le nombre moyen d erreurs? Calculer P[X ] et P[X ] p = 0 6 E[X] = 5, on peut donc approcher par une loi de Poisson de paramètre λ =. On a alors P[X ] = P[X = 0] = e et P[X ] = 5/e Lois conjointes XVIII. Soient X et Y deux variables aléatoires dont la loi conjointe est donnée par le tableau ci-dessous X \ Y 0 TOT 0 0 TOT. Déterminer les lois marginales en X et Y P[X = 0] = /, P[X = ] = /, P[Y = 0] = /, P[X = ] = /. Ces variables sont-elles indépendantes? P[X =, Y = ] = 0 P[X = ] P[Y = ] X et Y ne sont donc pas indépendantes. X \ Y 0 TOT 0 - TOT. P[X = ] = /, P[X = ] = /, P[Y = 0] = /, P[Y = ] = /, E[X] = /, E[Y ] = /, E[X ] =, E[Y ] = /, V ar(x) = 8/9 et V ar(y ) = /9 Cov(X, Y ) = E[XY ] E[X]E[Y ] = /9 0 X et Y ne sont donc pas indépendantes.. On pose S = X + Y. Déterminer la loi de S, son espérance et sa variance. P[S = ] = /, P[S = ] = /, P[S = 0] = /, P[S = ] = 0, E[S] = 0 et V ar(s) = / XX. Soit (U, V ) un couple de variables aléatoires dont la loi est donnée par le tableau ci-après : U\V 0 TOT 0 / 0 / 0 / 0 / / 0 / 0 / TOT / / /.. P[U = ] = P[U = ] = /, P[U = 0] = / et idem pour V. E[U] = E[V ] = 0, E[U ] = E[V ] = et donc V ar(u) = V ar(v ) = E[UV ] = 0 Cov(U, V ) = 0 mais U et V ne sont pas indépendants car P[U = ]P[V = ] = /6 P[U = ; V = ]. Construisons X et Y à partir d un tableau : U V X Y P 0 / 0 / 0 / 0 / D après le tableau, P[X = ] = P[X = ] = /, P[Y = ] = P[Y = ] = / avec X = (U + V )/ et Y = (U V )/ E[XY ] = / + / / / = 0 Cov(X, Y ) = 0 X et Y sont indépendants car P[X = ǫ; Y = ǫ ] = P[X = ǫ]p[x = ǫ ], ǫ, ǫ =, XXI. Soit (X, Y ) un couple de variables aléatoires dont la loi est donnée par le tableau ci-après :. Calculer cov(x, Y ) E[XY ] = 0 Cov(X, Y ) = /8 XIX. On considère un couple (X,Y ) de variables aléatoires dont la loi conjointe est donnée par le tableau ci-dessous X\Y 0 TOT /6 0 /6 / /6 / /6 / TOT / / /. Déterminer les lois marginales en X et Y ainsi que

leur espérance et leur variance. P[X = ] = /, P[X = ] = /, P[Y = ] = P[Y = ] = P[Y = 0] = / E[X] = /, E[X ] =, E[Y ] = 0, E[Y ] = /, V ar(x) = 8/9, V ar(y ) = /. Déterminer la covariance Cov(X, Y ). X et Y sont-elles indépendantes? E[XY ] = /6 + 0 /6 /6 + 0 + /6 = 0 Cov(X, Y ) = E[X]E[Y ] = 0 P[Y = 0]P[X = ] = / / = /9 0 P[Y = 0; X = ] = 0 donc X et Y ne sont pas indépendants.. On pose U = XY et V = Y/X. Déterminer la loi du couple (U, V ). U et V sont-elles indépendantes? X Y U V 0 0 0 0 0 0 U\V 0 TOT / 0 0 / 0 0 / 0 / 0 0 / / TOT / / / U et V ne sont pas indépendantes. Applications. XXII. Protocole Aloha et Ethernet.. Chaque message apparaît selon une loi de Bernoulli de paramètre α. Le nombre de messages à t suit donc une loi binomiale B(N, α). Puisque les messages arrivant sont immédiatement transmis, il y a collision si X > avec probabilité : P[X > ] = P[X = 0] P[X = ] = ( α) N Nα( α) N. L instant où le message essaie à nouveau de passer une première fois suit une loi géométrique (sinon, à chaque instant t +, t +,... la proba reste la même : α). On a : p(t + ) = p, p(t + ) = qp,... Pour une variable géométrique, l espérance est /p. Un nouveau message est émis avec succès s il arrive seul et si les messages en attente n émettent pas. La probabilité cherchée est donc : (N k)α( α) N k ( p) k En effet, ( p) k est la proba qu aucun message en attente n émette. ( α) n k indique qu il reste N k stations dont N k ne doivent pas émettre. Le plus simple est de regarder lorsqu il n y a pas de collision. Notons C cet évènement. Il peut se décrire par 5 aucun message en attente n émet et aucun nouveau n arrive OU aucun message en attente n émet et un seul arrive OU un seul des messages en attente n émet et aucun nouveau n arrive. Ainsi, P( C) = ( p) k ( α) N k +...... + ( p) k (N k)α( α) N k +...... + kp( p) k ( α) N k. On cherche P[X > ] = e λ λe λ = 0, 006 En ce cas, il y a collision puisque tout message arrivant est immédiatement transmis. [N(t + ) = k /N(t) = k] se décrit par un message a été transmis avec succès On notera α k = P[X = k] = e λ λ k /k! la probabilité que k messages arrivent à un instant donné. P[N(t + ) = k /N(t) = k] = α 0 kp( p) k + α ( p) k de même, P[N(t + ) = k/n(t) = k] = ( p) k α + α 0 ( kp( p) k ) et cet évènement se lit le nombre de messages ne change pas si aucun n émet et un message arrive ou si aucun message n arrive et qu aucun message en attente n est transmis avec succès. P[N(t + ) = k + /N(t) = k] = α i 5. On re-émet à t + avec proba p/ si l on a déjà tenté en t + et avec proba p sinon. XXIII. Entropie et information. Nous reprenons la notion de quantité d information vue dans la leçon précédente. Si X est une variable aléatoire prenant comme valeurs {x,..., x n } et si A k est l évènement A k = [X = x k ] pour k =,..., n, alors la quantité d information de l évènement A k est I(A k ) = log P(A k ) = log P[X = x k ] Pour simplifier les notations, on posera p k = P[X = x k ]. L entropie H(X) d une variable aléatoire X est la valeur moyenne de la quantité d information sur toutes les réalisations de X : H(X) = E[I(X)] = p k log p k = P[X = x k ] log P[X = x k ] k= k= H(X) mesure l incertitude moyenne de la variable X.. Montrer que H(X) 0. A quelle condition a-t-on H(X) = 0? H(X) = k p k log p k ; 0 p k log p k 0 log p k 0 H(X) 0 H(X) = 0 p k log p k = 0 k, p k = 0 ou k p k = X =cte.. Montrer que si X suit une loi uniforme sur {x,..., x n }, alors H(X) = log n H(X) = k n log n = n n log n. Soient (p,..., p n ) et (q,..., q n ) deux mesures de q k probabilités. Montrer que p k log 0 p k k= q i p i log = pi ln(q i /p i ) p i= i ln pi (q i /p i ) = ln ln ( q i p i ) = 0

. En déduire que H(X) log n X. En déduire la valeur maximale de l entropie. Interprétation? Si q i = /n, on a p i log (/(np i )) 0 p i log n p i log p i 0 log, +H(X) 0 H(X) log n H(X) est max si X suit une loi uniforme. En ce cas, l incertitude sur X est la plus grande possible. 5. Si X suit une loi de Bernouilli, calculer H(X). Etudier la fonction p H(X). H(X) = p log p q log q donc H(p) = p log p ( p)log ( p) Pour l étude de cette fonction, on se reportera au TD de première année sur les fonctions (H est la fonction d entropie binaire). 6. Calculer H(X) lorsque X suit une loi de Poisson de paramètre λ. + ] λi λi H(X) = [e i! (λ i + log(i!) i log λ) i=0 XXIV. Entropie et information mutuelle.. Montrer que H(X, Y ) = H(Y, X) et I(X; Y ) = I(Y ; X). Montrer que H(X, Y ) = H(X) + H(Y/X) = H(Y ) + H(X/Y ). Montrer que I(X; Y ) = H(X) H(X/Y ) = H(Y ) H(Y/X). Montrer que f(x) = xln x est une fonction convexe.. En déduire que H(X/Y ) H(X) H(X, Y ), X, Y. 5. Montrer que H(X, Y ) H(X) + H(Y ) avec égalité si et seulement si X, Y sont indépendants. XXV. Capacité d un canal de communication. Un canal de communication transmet des symboles (bits ou autres) depuis une source vers un destinataire. Le canal est sans mémoire si la transmission d un bit ne dépend pas du précédent (la sortie ne dépend que de l entrée). Le canal est sans bruit si la sortie correspond à l entrée. En général, un canal est bruité et le bruit perturbe la communication : il peut effacer, atténuer ou changer la valeur des données. Le but du codage de canal est de protéger les données contre le bruit. Ceci peut se faire à l aide des codes correcteurs. En 98, Shannon a démontré que tout canal possède une quantité C appelée sa capacité, telle qu il est possible de transmettre sans erreurs à condition d avoir un débit (en bits par seconde) inférieur à C. Le calcul et la connaissance de C dont donc très importants. On pose C = max P(X) I(X; Y ) C est la valeur maximale de l information mutuelle en sortie du canal et le maximum est calculé sur toutes les probabilités possibles de X en entrée.. Si le canal transmet n valeurs et est sans perte, montrer que C = log n. Le canal binaire symétrique BSC : X et Y sont des variables aléatoires sur {0, }. La probabilité d erreur est p (on l appelle vraisemblance du canal) : P[Y = 0/X = ] = P[Y = /X = 0] = p On supposera que P[X = 0] = P[X = ] = / Déterminer la loi de (X, Y ), calculer H(Y ) et H(Y/X); en déduire C. Etudier la fonction C(p). Interprétation?. Le canal à effacement BEC : On pose P[Y = 0/X = ] = P[Y = 0/X = ] = ǫ et P[X = ] = P[X = ] = / Calculer H(Y ) et H(Y/X). En déduire C. Approfondissements. XXVI. Fonction génératrice. On appelle fonction génératrice d une variable aléatoire X la fonction G définie par : G : [, ] R x G(x) = + P[X = k] xk G est donc la somme d une série entière de rayon de convergence.. Justifier le fait que G est de classe C sur ], [. G est la somme d une série entière de rayon de convergence supérieur ou égal à. D où la réponse.. Déterminer G(x) lorsque X suit une loi de Bernoulli de paramètre p, puis une loi binomiale de paramètres n et p. Même question si X suit une loi géométrique de paramètre p. Si X suit une loi de Bernoulli b(p) : G(x) = px + q Si X suit une loi binomiale B(n, p) : G(x) = Cn k (px)k q n k = (px + q) n Si X suit une loi géométrique G(p) : G(x) = pq k x k = px qx k. Démontrer que E[X] = lim x G (x) et en déduire les espérances des lois usuelles ci-dessus. E[X] = kp[x = k] et G (x) = kp[x = k]x k k k= Il suffit de prendre la limite lorsque x tend vers par valeur inférieure.. La fonction génératrice d une loi de Poisson de paramètre λ est G(x) = e λ λ k k! xk = e λ(x ) k En admettant la propriété, la fonction génératrice de la somme X + Y est donc e (λ+µ)(x ) qui est la fonction génératrice d une loi de Poisson de paramètre λ + µ. De la même façon, la fonction génératrice de la somme de deux lois binomiales est G(x) = (px + q) n+m qui est la fonction d une loi binomiale de paramètres (n + m, p) 5. Démonstration de la loi des évènements rares : Soit Y une variable aléatoire de loi de Poisson de paramètre λ et de fonction génératrice H. Soit X une variable aléatoire de loi binomiale de paramètres n et p et de fonction génératrice G n. On suppose que λ p quand n + n (ie lim np = λ) Démontrer que n + x [, ], lim G n(x) = H(x). Conclure. 6 n +

A vous de le faire! XXVII. Fonction caractéristique. Cet exercice est très voisin du précédent et les techniques de démonstrations sont les mêmes. XXVIII. Cet exercice est assez difficile. Vous pouvez le laisser de côté dans un premier temps.. Déterminer la loi du couple (X, Y ) Par indépendance de X et Y, P[X = k, Y = n] = p q n+k. Déterminer la loi de Z, E[Z] et var(z) (on pourra développer en série entière autour de 0) x [Z k] = [X k] [Y k] P[Z k] = P[X k] par indépendance et identique distribution des deux variables aléatoires. ( ) k P[Z k] = p q i = ( q k+ ) pour k i=0 On en déduit : P[Z = k] = P[Z k] P[Z < k] = ( q k+ ) ( q k ) = pq k ( ( + q)q k ) E[Z] = p kq k p( + q) k 0 k 0 Soit α = kq k et β = kq k En utilisant les techniques classiques des séries entières, on a α = q ( ) q p et β = p ( + q) Ainsi, E[Z] = α β = q q + p q + On laisse tomber le calcul de V ar(z) XXIX. kq k. P[X = k, Y = i] = q k p i, k, i P[Y = i] = P[X = k, Y = i] = p i q k = qp i et de k k la même façon, P[X = k] = q k p X et Y suivent des lois géométriques de paramètres respectifs p et q. Pour tout k et tout i, P[X = k, Y = i] = P[X = k]p[y = i] et X, Y sont donc indépendants. On en déduit alors cov(x, Y ) = 0. S(x) = x = x k avec R = k 0. S (x) = ( x), S (x) = ( x),..., S (k) k! (x) = ( x) k+ = n...(n k + )x n k n k φ(x) = ( x) k+ = k! S(k) (x) = Cn k xn k n k avec un rayon de convergence égal à. P[X = k, Y = n] = C k n pk+ q n k, 0 k n P[X = k] = n k C k n pk+ q n k = p k+ q k φ(q ) = p k+ q k ( q ) k+ = α( α)k avc α = +q X suit une loi géométrique de paramètre α P[Y = n] = Cnp k k+ q n k = pq n Y suit une loi géométrique de paramètre p P[X = k, Y = n] P[X = k/y = n] = = Cn k P[Y = n] pk q n k Qui est une loi binomiale de paramètres n et p 5. NON car P[X = k/y = n] P[X = k] XXX. Soit X le nombre d appels (indépendants) reçus à un standard téléphonique d une entreprise durant un laps de temps fixé. Soit Y le nombre d appels vers le service technique durant le même laps de temps. Chaque appel arrivant au standard a une probabilité p de demander le service technique. Soit n N, λ > 0, q = p. On admet que la loi conjointe de (X, Y ) est donnée par P[X = n, Y = k] = e λλn n! Ck n pk q n k Cette formule étant valable pour 0 k n. Donner le développement en série entière de la fonction e x en précisant le rayon de convergence. En + x n k déduire (n k)! e x = n 0 n=k x n n! avec R = et n k x n k (n k)! = ex. Déterminer les marginales en X et Y ainsi que la probabilité P[Y = k/x = n] P[X = n] = P[X = n, Y = k] = e λλn C n! np k k q n k = e λλn n! X suit une loi de Poisson de paramètre λ P[Y = k] = e λλn n! Ck np k q n k = e λ(pλ)k (λq) n k k! (n k)! n k n k = k! e λ (pλ) k e λq = e pλ(pλ)k k! Y suit donc une loi de Poisson de paramètre λp. P[Y = k/x = n] = P[Y = k, X = n] P[X = n] = C k np k q n k. Les appels arrivent au standard suivant une loi de Poisson. Connaissant le nombre d appels au standard, ceux-ci sont redirigés ou bien vers A ou vers ailleurs. A/X = n est donc binomiale. XXXI.. Soit (X, Y ) un couple de variables aléatoires dont a loi jointe est donnée par : P[X = k, Y = i] = q k p i pour i, k N Déterminer les lois marginales en X et Y et en déduire que ces variables aléatoires sont indépendantes. Calculer Cov(X, Y ) et en déduire E[XY ]. On considère maintenant deux variables X et Y indépendantes, suivant chacune une loi géométrique de paramètre p. On pose S = X + Y Démontrer que [S = n] = n k= ([X = k] [Y = n k]) et en déduire que P[S = n] = (n )p q n pour n. Démontrer que P[X = k/s = n] = 7 n pour

k = 0,..., n. Interpréter ce résultat.. Cette question est plus difficile. On considère n variables indépendantes X,..., X n de même loi géométrique de paramètre p et on pose S n = n k= X k Démontrer par récurrence sur n que avec k n P[S n = k] = C n k pn q k n En se souvenant que X k indique le nombre d essais nécessaires avant le premier succès durant une succession de pile ou face indépendants, donner une interprétation de S n La loi de S n s appelle loi binomiale négative. XXXII. Un sac contient initialement une boule blanche et deux rouges. On répète indéfiniment l opération qui consiste à tirer une boule, la remettre dans le sac si elle est blanche et l éliminer si elle est rouge. Soit X n la variable aléatoire qui vaut si l on a tiré une boule blanche au nième tirage et et 0 dans le cas contraire. Soit T l instant où l on tire la première boule rouge et T celui où l on tire la seconde boule rouge.. Calculer P[T = n], déterminer la fonction génératrice g(s) = + n= P[T = n]s n de T ainsi que E[T ] et var(t ). Calculer P[T = n, T = k] pour n < k. En déduire P[T = k] ainsi que la fonction génératrice h(s) = + k=. Calculer E[T ] P[T = k]s k de T dans les mêmes conditions de manière indépendante avec pour chacun d eux une probabilité p d être défectueux. Indépendamment de la fabrication, on procède à un contrôle des objets de la manière suivante : on fait un tirage aléatoire simulant le lancement d un dé à six faces équilibré. On contrôle l objet si on obtient un. On désigne par S n la variable aléatoire égale au nombre d objets défectueux et par T n le nombre d objets contrôlés qui sont défectueux parmi les n premiers objets.. Quelles sont les lois de S et T?. Déterminer pour n les lois de S n et T n. Calculer l espérance de chacune de ces deux variables aléatoires. On considère la variable aléatoire N égale au numéro du premier objet défectueux et contrôlé. On convient que N = + s il n y en a aucun (la proba de cet évènement est supposée nulle). Calculer P[N = ] et P[N = ], puis P[N = n] pour n. Calculer l espérance de N 5. Soit U la variable aléatoire égale à 0 si N = ou et à S n si N = n Ainsi, U est égale au nombre d objets défectueux non décelés par le contrôle avant que n apparaisse le premier objet défectueux et contrôlé. Calculer P[U = 0, N = n] pour n = puis pour n. En déduire P[U = 0] Calculer P[U =, N = n] (distinguer le nième objet des précédents). En déduire P[U = ] Calculer P[U = k, N = n] puis en déduire P[U = k] k N 6. Que vaut E[U]? 5. En déduire P[X n = 0] et déterminer la loi de X n XXXIII. Soient X, X,..., X n n vaiid suivant une loi de Bernouilli de paramètre p Soit S n = X + X +... + X n pour n Soit Y = X et Y k = [Xk =0] [X k =] pour k Soit enfin T n le nombre de suites ininterrompues de dans la suite (X n ) n. Rappeler la loi de S n, son espérance et sa variance. Déterminer la loi de Y k, son espérance et sa variance. Démontrer que Y k et Y k+ ne sont pas indépendantes mais que Y k et Y k+l le sont si l. Calculer cov(y n, Y n+ ) 5. Montrer que T n = Y +... + Y n et calculer E[T n ] XXXIV. Soit (X n ) n une suite de va de Bernoulli de paramètre p indépendantes définies sur un même espace On pose T = {n N/ X n = } et T = {n N/ n > T, X n = }. Déterminer P[T T = k/t = n]. Montrer que T et T T sont indépendantes et de même loi.. En déduire la loi de T, son espérance et sa variance XXXV. Les objets manufacturés par une usine sont numérotés de à n dans leur ordre de production. Ils sont fabriqués 8