Vecteurs aléatoires. I) Vecteurs aléatoires

Documents pareils
Probabilités sur un univers fini

Couples de variables aléatoires discrètes

Fonctions de plusieurs variables

Continuité en un point

Probabilités Loi binomiale Exercices corrigés

Probabilités sur un univers fini

Cours 02 : Problème général de la programmation linéaire

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

TSTI 2D CH X : Exemples de lois à densité 1

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Chapitre 3. Les distributions à deux variables

Cours Fonctions de deux variables

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Exercices sur le chapitre «Probabilités»

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

I. Cas de l équiprobabilité

NOTIONS DE PROBABILITÉS

Chapitre 1 : Évolution COURS

Les indices à surplus constant

108y= 1 où x et y sont des entiers

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Probabilités. C. Charignon. I Cours 3

Programmes des classes préparatoires aux Grandes Ecoles

Exercices de dénombrement

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

III- Raisonnement par récurrence

3 Approximation de solutions d équations

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Planche n o 22. Fonctions de plusieurs variables. Corrigé

Simulation de variables aléatoires

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Probabilités conditionnelles Loi binomiale

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Intégration et probabilités TD1 Espaces mesurés Corrigé

Chaînes de Markov au lycée

Comparaison de fonctions Développements limités. Chapitre 10

1 Définition et premières propriétés des congruences

Théorème du point fixe - Théorème de l inversion locale

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Espaces probabilisés

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Loi binomiale Lois normales

Limites finies en un point

La maison Ecole d ' Amortissement d un emprunt Classe de terminale ES. Ce qui est demandé. Les étapes du travail

Exercices Corrigés Premières notions sur les espaces vectoriels

Moments des variables aléatoires réelles

PROBABILITES ET STATISTIQUE I&II

4. Martingales à temps discret

Calcul différentiel sur R n Première partie

3. Conditionnement P (B)

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Le modèle de Black et Scholes

PRIME D UNE OPTION D ACHAT OU DE VENTE

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Probabilités III Introduction à l évaluation d options

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S

Texte Agrégation limitée par diffusion interne

Calcul élémentaire des probabilités

Introduction au Calcul des Probabilités

Suites numériques 3. 1 Convergence et limite d une suite

Fonctions de deux variables. Mai 2011

Chapitre 6. Fonction réelle d une variable réelle

Lois de probabilité. Anita Burgun

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fluctuation d une fréquence selon les échantillons - Probabilités

Image d un intervalle par une fonction continue

Université Paris-Dauphine DUMI2E 1ère année, Applications

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Fonctions homographiques

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Chapitre 1 Régime transitoire dans les systèmes physiques

Résolution de systèmes linéaires par des méthodes directes

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Feuille d exercices 2 : Espaces probabilisés

Travaux dirigés d introduction aux Probabilités

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Programmation linéaire

Problèmes de Mathématiques Filtres et ultrafiltres

BACCALAURÉAT GÉNÉRAL SESSION 2012 OBLIGATOIRE MATHÉMATIQUES. Série S. Durée de l épreuve : 4 heures Coefficient : 7 ENSEIGNEMENT OBLIGATOIRE

Chapitre 6 Test de comparaison de pourcentages χ². José LABARERE

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Problème 1 : applications du plan affine

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Optimisation des fonctions de plusieurs variables

TESTS D'HYPOTHESES Etude d'un exemple

Equations cartésiennes d une droite

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en Énoncé.

Chapitre 2 Le problème de l unicité des solutions

Exercice : la frontière des portefeuilles optimaux sans actif certain

Estimation et tests statistiques, TD 5. Solutions

Une forme générale de la conjecture abc

Espérance conditionnelle

Transcription:

Vecteurs aléatoires I) Vecteurs aléatoires 1.1) Définition On considère un espace probabilisé,, et variables aléatoires,, définies sur Ω à valeurs dans R. On considère l'application de Ω dans Rⁿ définie par : : Ω R,,, On dit que X est un vecteur aléatoire. Soit un -uplet de réels :,,...,, Rⁿ. L'évènement est défini de la façon suivante : ₁ ₁ ₂ ₂... 1.2) Couples de variables aléatoires On considère deux variables aléatoires et définies sur le même espace probabilisé. On définit la loi de probabilité du couple, par : Pour tout Ω et tout Ω,, On écrit souvent,, 1.3) Loi du couple sous forme de tableau On représente la loi du couple sous la forme d'un tableau : Ω Ω Ce tableau, qui ressemble à celui obtenu en terminale pour les fréquences suggère comme dans le cas des fréquences, on aura (addition en ligne ou en colonne) Ω Ω La connaissance des valeurs de entraîne celle de et. La réciproque est fausse en général. On obtient donc les lois des variables (respectivement en additionnant les lignes (respectivement les colonnes). On parle alors de lois marginales. 1.4) Propriétés On a par construction 1 Ω, Ω, 0,1

2) On a pour tout, En effet, la famille d'évènements Ω est un système complet d'évènements. On peut donc écrire : D où la formule proposée. On a de même pour tout Ω, Ω 3 1 Ω,Ω Ω Ω On a 1 Ω Ω Ω On a bien sûr de la même façon : Ω Ω 1.5) Le théorème du transfert pour un couple de VAR On démontre et nous admettrons le théorème suivant : Théorème Soit et deux VAR discrètes définies sur un même espace probabilisé et ϕ une application de R² dans R. On a : Conséquences : Si,, on aura :,, Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω Ω

Ω On démontre exactement de la même façon que : R, R, (on dit que est une forme linéaire) 1.6) Covariance On considère un couple, de variables aléatoires définies sur un même espace probabilisé. Nous avions défini la variance de par : ² Par analogie on définit la covariance des variables et par, Si l'on pose et, on a :, 1.7) Variance et covariance Soit et deux nombres réels, on a avec les mêmes notations que dans le 1.6) ² 2 2 2 2 ² ² 2, 2, Dans le cas particulier où 1, on trouve : 2, Ce qui permet d'écrire une nouvelle formule pour la covariance, 1 2 On a pour 1 et 1 2, 1.8) L'inégalité de Schwarz Avec les conditions du 1.6, on veut comparer, et. On a pour tout λr: ² 2, Or on a toujours 0

Donc R, ² 2, 0 Le trinôme su second degré en λ est donc positif ou nul pour tout λ. Il ne change pas de signe, ce qui signifie que 2, ² 4 0 Et donc, ² On en déduit que, Or On a enfin l'inégalité de Schwarz :, 1.9) Coefficient de corrélation linéaire Soient deux VAR et, on appelle coefficient de corrélation linéaire le nombre, défini par,, L'inégalité de Schwarz permet de dire que,,, 1 Donc 1, 1 1.10) Propriétés de la covariance Soit,,, quatre nombres réels, on a,,, la formule,, 1.11) Variables indépendantes Définition Soient et deux variables définies sur le même espace probabilisé. On dit que les variables X et Y sont indépendantes si et, les évènements et sont indépendants. Autrement dit si et, Conséquences Si les deux variables sont indépendantes alors et,

De même, on a La réciproque est bien entendu vraie. 1.12) Variables indépendantes et covariance Si les deux variables et sont indépendantes, alors, 0 La réciproque est fausse. (voir le TD sur les vecteurs aléatoires pour les variables discrètes et l exercice 2 de l EDHEC 2007 pour les variables continues) On a alors 2 0 On peut conclure : Théorème Si et sont deux variables indépendantes, on a :, 0 Les réciproques sont fausses 1.13) Variables aléatoires mutuellement indépendantes On considère variables aléatoires,,, définies sur un même espace probabilité Ω,,. Dire que ces variables sont mutuellement indépendantes revient à dire que : Ω, Ω,, Ω, II) Variables aléatoires fonctions d'autres variables aléatoires 2.1) Somme de deux VAR Soient et deux VAR définies sur un même espace probabilisé. On définit une variable par

On a montré que 2, On peut définir l'ensemble des valeurs que prend la variable par On peut décrire l'évènement sous la forme Ω, Ω Ω Ω,Ω Tous ces évènements étant incompatibles, on a : Ω,Ω Ce qui se traduit souvent par des probabilités conditionnelles. Si et sont indépendantes, on peut écrire Ω,Ω 2.2) Somme de deux variables de Bernoulli indépendantes de même loi Soit et deux variables de Bernoulli indépendantes de même paramètre. On a 0 0 1 et 1 1. Soit. On a 0,1,2 0 0 0 0 0 1 ² 1 0 1 1 0 0 1 1 0 1 1 21 2 1 1 1 1 ² On reconnaît une loi binomiale de paramètres 2 et. 2.3) Somme de deux variables binomiales indépendantes de même probabilité de succès On considère deux variables aléatoires et telles que,, Soit. On a Ω 0, 0,, par incompatibilité, puis par indépendance : et et 1 1 et 1 et

1 et Les bornes de cette somme obéissent donc à la fois à 0 et 0 Donc 0 et Il faut donc à la fois que soit supérieur à 0 et donc supérieur au plus grand des deux. Il faut également que soit à la fois inférieur à et à, donc au plus petit des deux. en toute rigueur max0, min, En pratique en prenant la convention 0 si ou si 0, on peut considérer que dans tous les cas varie entre 0 et. On est donc ramené à calculer : On reconnaît sous cette forme la formule de Van der Monde dont nous avons donné une démonstration par récurrence en début d année. On a : 1 On reconnaît une loi binomiale de paramètres et. 2.4) Somme de variables aléatoires mutuellement indépendantes On considère variables aléatoires mutuellement indépendantes,, définies sur un même espace probabilisé Ω,,. Posons On a Ω,, Ω,, Ω Ω, Ω,, Ω Ω,, Ω par indépendance On considère maintenant 1variables aléatoires mutuellement indépendantes,,, définies sur un même espace probabilisé Ω,,. On se propose de montrer que les variables et sont indépendantes. On a pour tout Ω et tout Ω Ω,, Ω Ce qui donne par distributivité de l intersection sur la réunion : Ω,, Ω

Puis par incompatibilité, puis par indépendance Ω,, Ω Ω,, Ω On a bien indépendance de et de. D où le théorème Théorème : Soit,,, 1 variables aléatoires mutuellement indépendantes, définies sur un même espace probabilisé. Soit. Alors les variables et sont indépendantes. Conséquence : Variance de la somme de variables aléatoires mutuellement indépendantes. On démontre par récurrence que l on aura : 2.5) Somme de variables de Bernoulli indépendantes et de même loi. On considère des variables de Bernoulli, indépendantes et de même paramètre. Soit la variable définie par Nous allons démontrer que suit une loi binomiale de paramètres et. On procède par récurrence. Nous avons vu au 2.2) que la propriété est vraie pour 2 variables. Montrons que si elle est vraie pour, alors elle est vraie pour 1. Posons, étant une variable de Bernoulli de même paramètre telle que les variables,,, soient mutuellement indépendantes. On a vu dans le 2.4) qu alors et sont des variables indépendantes. Par hypothèse de récurrence,. On sait que ce que l on peut écrire 1,. D après le 2.3) on a bien 1,. Ce qu il fallait démontrer. D où le théorème : Théorème : Soit,, variables de Bernoulli, définies sur un même espace probabilisé, mutuellement indépendantes et de même paramètre. Alors la variable suit une loi binomiale de paramètres et. Conséquences 1 1

2.6) Somme de deux variables de Poisson indépendantes Soit ₁ et ₂. et sont indépendantes. Soit On a pour tout!!!!!!!!! Donc ₁ ₂ On généralise ce résultat par récurrence à une famille finie de variables de Poisson. Théorème : Soit,, une famille de variables de Poisson, mutuellement indépendantes, de paramètres respectifs,,, définies sur un même espace probabilité (Ω,T,P). Soit. La variable suit une loi de Poisson de paramètre. 2.7) Loi du max On considère variables aléatoires,,, mutuellement indépendantes, définies sur un même espace probabilisé Ω,,. On appelle la variable définie sur,, par Ω, max,, Pour établir la loi de probabilité de la variable, nous allons devoir passer par sa fonction de répartition, c est-à-dire déterminer la probabilité de l évènement pour un réel quelconque. Soit ω un élément de Ω tel que, soit réalisé. Dire que, c est dire que 1,,. Mais dire que 1,, revient à dire que est réalisé. Donc Ω, si alors. On peut écrire que Réciproquement si un élément ω est tel que est réalisé alors cela signifie que tous les évènements de cette intersection sont réalisés et donc que 1,, Mais est égal à l une des valeurs,,. Donc. On en déduit que Ω, si alors.

On peut donc écrire que : Et en définitive Ce résultat n a un grand intérêt que si l on sait trouver facilement la fonction de répartition des variables et si elles sont mutuellement indépendantes. Donnons un exemple : On dispose d une urne contenant des boules numérotées de 1 à n, indiscernables au toucher. On extrait une boule de l urne, on note son numéro et on la remet dans l urne. On répète 10 fois cette épreuve. On appelle M la variable aléatoire égale au plus grand des numéros obtenus. On nommera, 1 10, la variable aléatoire correspondant au numéro de la boule tirée à la i-ième épreuve. Déterminer la loi de M. On a bien sûr Ω 1,. On a max,,. Donc d après ce que nous avons dit précédemment, R, Les variables,, sont naturellement mutuellement indépendantes. Elles ont la même loi de probabilité qui est une loi uniforme sur 1,. On a également 1,, 1 1,, 1 On peut en déduire que 1,, par indépendance Remarquons que la formule ci-dessus reste vraie pour 0. En effet l évènement 0 est impossible et l on a bien par la formule : Or Par incompatibilité, on a donc Or Donc 1,, 0 0 0 1 1 1 2.8) Loi du min On se situe dans les mêmes hypothèses que pour la loi du max. On appellera la variable aléatoire définie par min,,,.

On a pour tout ω de Ω, et tout réel, 1,, Et donc Réciproquement si alors puisque est égal à l une des valeurs, on aura. On en déduit que On raisonne ensuite comme dans l exemple de la partie précédente. Remarquons que nous aurions le même résultat avec des inégalités strictes au lieu d inégalités larges : On aura donc si les variables sont mutuellement indépendantes : Ce qui donne en passant à la fonction de répartition : 1 1 1 Et donc 1 1 1 Dans le cas (assez fréquent) où toutes les variables ont la même loi que, on peut écrire : 1 1