Vecteurs aléatoires I) Vecteurs aléatoires 1.1) Définition On considère un espace probabilisé,, et variables aléatoires,, définies sur Ω à valeurs dans R. On considère l'application de Ω dans Rⁿ définie par : : Ω R,,, On dit que X est un vecteur aléatoire. Soit un -uplet de réels :,,...,, Rⁿ. L'évènement est défini de la façon suivante : ₁ ₁ ₂ ₂... 1.2) Couples de variables aléatoires On considère deux variables aléatoires et définies sur le même espace probabilisé. On définit la loi de probabilité du couple, par : Pour tout Ω et tout Ω,, On écrit souvent,, 1.3) Loi du couple sous forme de tableau On représente la loi du couple sous la forme d'un tableau : Ω Ω Ce tableau, qui ressemble à celui obtenu en terminale pour les fréquences suggère comme dans le cas des fréquences, on aura (addition en ligne ou en colonne) Ω Ω La connaissance des valeurs de entraîne celle de et. La réciproque est fausse en général. On obtient donc les lois des variables (respectivement en additionnant les lignes (respectivement les colonnes). On parle alors de lois marginales. 1.4) Propriétés On a par construction 1 Ω, Ω, 0,1
2) On a pour tout, En effet, la famille d'évènements Ω est un système complet d'évènements. On peut donc écrire : D où la formule proposée. On a de même pour tout Ω, Ω 3 1 Ω,Ω Ω Ω On a 1 Ω Ω Ω On a bien sûr de la même façon : Ω Ω 1.5) Le théorème du transfert pour un couple de VAR On démontre et nous admettrons le théorème suivant : Théorème Soit et deux VAR discrètes définies sur un même espace probabilisé et ϕ une application de R² dans R. On a : Conséquences : Si,, on aura :,, Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω
Ω On démontre exactement de la même façon que : R, R, (on dit que est une forme linéaire) 1.6) Covariance On considère un couple, de variables aléatoires définies sur un même espace probabilisé. Nous avions défini la variance de par : ² Par analogie on définit la covariance des variables et par, Si l'on pose et, on a :, 1.7) Variance et covariance Soit et deux nombres réels, on a avec les mêmes notations que dans le 1.6) ² 2 2 2 2 ² ² 2, 2, Dans le cas particulier où 1, on trouve : 2, Ce qui permet d'écrire une nouvelle formule pour la covariance, 1 2 On a pour 1 et 1 2, 1.8) L'inégalité de Schwarz Avec les conditions du 1.6, on veut comparer, et. On a pour tout λr: ² 2, Or on a toujours 0
Donc R, ² 2, 0 Le trinôme su second degré en λ est donc positif ou nul pour tout λ. Il ne change pas de signe, ce qui signifie que 2, ² 4 0 Et donc, ² On en déduit que, Or On a enfin l'inégalité de Schwarz :, 1.9) Coefficient de corrélation linéaire Soient deux VAR et, on appelle coefficient de corrélation linéaire le nombre, défini par,, L'inégalité de Schwarz permet de dire que,,, 1 Donc 1, 1 1.10) Propriétés de la covariance Soit,,, quatre nombres réels, on a,,, la formule,, 1.11) Variables indépendantes Définition Soient et deux variables définies sur le même espace probabilisé. On dit que les variables X et Y sont indépendantes si et, les évènements et sont indépendants. Autrement dit si et, Conséquences Si les deux variables sont indépendantes alors et,
De même, on a La réciproque est bien entendu vraie. 1.12) Variables indépendantes et covariance Si les deux variables et sont indépendantes, alors, 0 La réciproque est fausse. (voir le TD sur les vecteurs aléatoires pour les variables discrètes et l exercice 2 de l EDHEC 2007 pour les variables continues) On a alors 2 0 On peut conclure : Théorème Si et sont deux variables indépendantes, on a :, 0 Les réciproques sont fausses 1.13) Variables aléatoires mutuellement indépendantes On considère variables aléatoires,,, définies sur un même espace probabilité Ω,,. Dire que ces variables sont mutuellement indépendantes revient à dire que : Ω, Ω,, Ω, II) Variables aléatoires fonctions d'autres variables aléatoires 2.1) Somme de deux VAR Soient et deux VAR définies sur un même espace probabilisé. On définit une variable par
On a montré que 2, On peut définir l'ensemble des valeurs que prend la variable par On peut décrire l'évènement sous la forme Ω, Ω Ω Ω,Ω Tous ces évènements étant incompatibles, on a : Ω,Ω Ce qui se traduit souvent par des probabilités conditionnelles. Si et sont indépendantes, on peut écrire Ω,Ω 2.2) Somme de deux variables de Bernoulli indépendantes de même loi Soit et deux variables de Bernoulli indépendantes de même paramètre. On a 0 0 1 et 1 1. Soit. On a 0,1,2 0 0 0 0 0 1 ² 1 0 1 1 0 0 1 1 0 1 1 21 2 1 1 1 1 ² On reconnaît une loi binomiale de paramètres 2 et. 2.3) Somme de deux variables binomiales indépendantes de même probabilité de succès On considère deux variables aléatoires et telles que,, Soit. On a Ω 0, 0,, par incompatibilité, puis par indépendance : et et 1 1 et 1 et
1 et Les bornes de cette somme obéissent donc à la fois à 0 et 0 Donc 0 et Il faut donc à la fois que soit supérieur à 0 et donc supérieur au plus grand des deux. Il faut également que soit à la fois inférieur à et à, donc au plus petit des deux. en toute rigueur max0, min, En pratique en prenant la convention 0 si ou si 0, on peut considérer que dans tous les cas varie entre 0 et. On est donc ramené à calculer : On reconnaît sous cette forme la formule de Van der Monde dont nous avons donné une démonstration par récurrence en début d année. On a : 1 On reconnaît une loi binomiale de paramètres et. 2.4) Somme de variables aléatoires mutuellement indépendantes On considère variables aléatoires mutuellement indépendantes,, définies sur un même espace probabilisé Ω,,. Posons On a Ω,, Ω,, Ω Ω, Ω,, Ω Ω,, Ω par indépendance On considère maintenant 1variables aléatoires mutuellement indépendantes,,, définies sur un même espace probabilisé Ω,,. On se propose de montrer que les variables et sont indépendantes. On a pour tout Ω et tout Ω Ω,, Ω Ce qui donne par distributivité de l intersection sur la réunion : Ω,, Ω
Puis par incompatibilité, puis par indépendance Ω,, Ω Ω,, Ω On a bien indépendance de et de. D où le théorème Théorème : Soit,,, 1 variables aléatoires mutuellement indépendantes, définies sur un même espace probabilisé. Soit. Alors les variables et sont indépendantes. Conséquence : Variance de la somme de variables aléatoires mutuellement indépendantes. On démontre par récurrence que l on aura : 2.5) Somme de variables de Bernoulli indépendantes et de même loi. On considère des variables de Bernoulli, indépendantes et de même paramètre. Soit la variable définie par Nous allons démontrer que suit une loi binomiale de paramètres et. On procède par récurrence. Nous avons vu au 2.2) que la propriété est vraie pour 2 variables. Montrons que si elle est vraie pour, alors elle est vraie pour 1. Posons, étant une variable de Bernoulli de même paramètre telle que les variables,,, soient mutuellement indépendantes. On a vu dans le 2.4) qu alors et sont des variables indépendantes. Par hypothèse de récurrence,. On sait que ce que l on peut écrire 1,. D après le 2.3) on a bien 1,. Ce qu il fallait démontrer. D où le théorème : Théorème : Soit,, variables de Bernoulli, définies sur un même espace probabilisé, mutuellement indépendantes et de même paramètre. Alors la variable suit une loi binomiale de paramètres et. Conséquences 1 1
2.6) Somme de deux variables de Poisson indépendantes Soit ₁ et ₂. et sont indépendantes. Soit On a pour tout!!!!!!!!! Donc ₁ ₂ On généralise ce résultat par récurrence à une famille finie de variables de Poisson. Théorème : Soit,, une famille de variables de Poisson, mutuellement indépendantes, de paramètres respectifs,,, définies sur un même espace probabilité (Ω,T,P). Soit. La variable suit une loi de Poisson de paramètre. 2.7) Loi du max On considère variables aléatoires,,, mutuellement indépendantes, définies sur un même espace probabilisé Ω,,. On appelle la variable définie sur,, par Ω, max,, Pour établir la loi de probabilité de la variable, nous allons devoir passer par sa fonction de répartition, c est-à-dire déterminer la probabilité de l évènement pour un réel quelconque. Soit ω un élément de Ω tel que, soit réalisé. Dire que, c est dire que 1,,. Mais dire que 1,, revient à dire que est réalisé. Donc Ω, si alors. On peut écrire que Réciproquement si un élément ω est tel que est réalisé alors cela signifie que tous les évènements de cette intersection sont réalisés et donc que 1,, Mais est égal à l une des valeurs,,. Donc. On en déduit que Ω, si alors.
On peut donc écrire que : Et en définitive Ce résultat n a un grand intérêt que si l on sait trouver facilement la fonction de répartition des variables et si elles sont mutuellement indépendantes. Donnons un exemple : On dispose d une urne contenant des boules numérotées de 1 à n, indiscernables au toucher. On extrait une boule de l urne, on note son numéro et on la remet dans l urne. On répète 10 fois cette épreuve. On appelle M la variable aléatoire égale au plus grand des numéros obtenus. On nommera, 1 10, la variable aléatoire correspondant au numéro de la boule tirée à la i-ième épreuve. Déterminer la loi de M. On a bien sûr Ω 1,. On a max,,. Donc d après ce que nous avons dit précédemment, R, Les variables,, sont naturellement mutuellement indépendantes. Elles ont la même loi de probabilité qui est une loi uniforme sur 1,. On a également 1,, 1 1,, 1 On peut en déduire que 1,, par indépendance Remarquons que la formule ci-dessus reste vraie pour 0. En effet l évènement 0 est impossible et l on a bien par la formule : Or Par incompatibilité, on a donc Or Donc 1,, 0 0 0 1 1 1 2.8) Loi du min On se situe dans les mêmes hypothèses que pour la loi du max. On appellera la variable aléatoire définie par min,,,.
On a pour tout ω de Ω, et tout réel, 1,, Et donc Réciproquement si alors puisque est égal à l une des valeurs, on aura. On en déduit que On raisonne ensuite comme dans l exemple de la partie précédente. Remarquons que nous aurions le même résultat avec des inégalités strictes au lieu d inégalités larges : On aura donc si les variables sont mutuellement indépendantes : Ce qui donne en passant à la fonction de répartition : 1 1 1 Et donc 1 1 1 Dans le cas (assez fréquent) où toutes les variables ont la même loi que, on peut écrire : 1 1