ELEMENTS DE LA THEORIE DES PROBABILITES

Documents pareils
4. Martingales à temps discret

3. Conditionnement P (B)

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés

Théorie de la Mesure et Intégration

Image d un intervalle par une fonction continue

Intégrale de Lebesgue

Mesures gaussiennes et espaces de Fock

Limites finies en un point

Théorie de la Mesure et Intégration

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Théorie de la mesure. S. Nicolay

Chapitre 2 Le problème de l unicité des solutions

Programmes des classes préparatoires aux Grandes Ecoles

Suites numériques 3. 1 Convergence et limite d une suite

La mesure de Lebesgue sur la droite réelle

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Moments des variables aléatoires réelles

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

Suites numériques 4. 1 Autres recettes pour calculer les limites

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Comparaison de fonctions Développements limités. Chapitre 10

Mesures et Intégration

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Université Paris-Dauphine DUMI2E 1ère année, Applications

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Probabilités III Introduction à l évaluation d options

Mesure et Intégration (Notes de cours de L3)

Loi binomiale Lois normales

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Intégration sur des espaces produits

Continuité en un point

Espérance conditionnelle

4 Distributions particulières de probabilités

Construction de l'intégrale de Lebesgue

PRIME D UNE OPTION D ACHAT OU DE VENTE

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Fonctions de plusieurs variables

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Le modèle de Black et Scholes

Calcul Stochastique pour la finance. Romuald ELIE

Calcul fonctionnel holomorphe dans les algèbres de Banach

Commun à tous les candidats

Continuité et dérivabilité d une fonction

3 Approximation de solutions d équations

THÉORIE DE LA MESURE ET DE L INTÉGRATION.

Les indices à surplus constant

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

n N = u N u N+1 1 u pour u 1. f ( uv 1) v N+1 v N v t

Théorème du point fixe - Théorème de l inversion locale

I. Polynômes de Tchebychev

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

EXERCICE 4 (7 points ) (Commun à tous les candidats)

Calculs de probabilités

Probabilités sur un univers fini

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Texte Agrégation limitée par diffusion interne

Probabilités sur un univers fini

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Travaux dirigés d introduction aux Probabilités

Amphi 3: Espaces complets - Applications linéaires continues

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Modèles et Méthodes de Réservation

Cours 02 : Problème général de la programmation linéaire

Qu est-ce qu une probabilité?

Probabilités et Statistique

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Produits d espaces mesurés

Optimisation Discrète

MA6.06 : Mesure et Probabilités

Proposition. Si G est un groupe simple d ordre 60 alors G est isomorphe à A 5.

Coefficients binomiaux

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Simulation de variables aléatoires

Développement décimal d un réel

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

aux différences est appelé équation aux différences d ordre n en forme normale.

Chaînes de Markov au lycée

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

TSTI 2D CH X : Exemples de lois à densité 1

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

CCP PSI Mathématiques 1 : un corrigé

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Le produit semi-direct

Température corporelle d un castor (une petite introduction aux séries temporelles)

Introduction à la théorie des files d'attente. Claude Chaudet

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Problème 1 : applications du plan affine

Transcription:

ELEMENTS DE LA THEORIE DES PROBABILITES Laurent MAZLIAK Cours Préliminaire au DEA de Probabilités Année 2004-2005 20 juillet 2004 L objet de ces notes est de passer en revue un certain nombre de résultats fondamentaux de la théorie des probabilités qui seront utilisés quotidiennement par la suite dans la construction des éléments modernes des méthodes stochastiques, et tout particulièrement des processus aléatoires en temps continu, sujet qui ne sera pas du tout abordé pour l instant. De ce fait, le but de ces notes n est ni d être exhaustif, ni de planer spécialement haut, mais plutôt de procéder à un certain nombre de (r)appels qui puissent permettre d aller plus loin. 1. Espaces de probabilités Dans cette section, on va rappeler des résultats qui doivent être pour la plupart familiers au lecteur, concernant les éléments fondamentaux qui composent le modèle probabiliste. 1.1. Espaces de probabilités. Depuis Kolmogorov (1933), le modèle reconnu pour la présentation d un problème de probabilités rentre dans le cadre de la théorie de la mesure. Définition 1.1. On appelle Espace de Probabilités tout espace mesuré (Ω, F, P ), où Ω est un ensemble non vide, F une tribu sur Ω et P une mesure sur l espace mesurable (Ω, F) telle que P (Ω) = 1. Rappelons que les éléments de F s appelent des événements, Ω est l événement certain, et l événement impossible. Le fait même de cette définition impose comme étant de première nécessité de connaître les résultats les plus importants de la théorie de la mesure. Ces résultats ne seront pas rappelés ici mais la liste suivante (non exhaustive) de propriétés de l intégrale de Lebesgue fait partie de la panoplie de base du futur probabiliste: tribus engendrées par un ensemble de parties B (notée σ(b)) ou par une collection de fonctions (f i ) i I (notée σ(f i, i I)), tribus boréliennes, opérations sur les fonctions mesurables, théorèmes de convergence (Convergence monotone, convergence dominée, lemme de Fatou), interversion des intégrales (théorème de Fubini), inégalité de Hölder, transformée de Fourier (théorème d inversion, convolution). Rappelons tout de même une des multiples versions d un résultat crucial sur les tribus qui sera souvent utilisé. On dit qu un ensemble de parties de Ω, F 0, est une algèbre de Boole s il contient, est stable par complémentaire et par union finie (alors qu une tribu est stable par union dénombrable). De plus, un ensemble de parties de Ω, M, est dit une classe monotone si elle est stable par réunion dénombrable croissante et par intersection dénombrable décroissante. Alors on a Théorème 1.2. (dit de classe monotone). Soient F 0 une algèbre de Boole et M une classe monotone. Si F 0 M, alors σ(f 0 ) M. Preuve: Tout d abord, de manière manifeste, on constate qu une intersection de classes monotones est une classe monotone (et donc on peut définir une notion de classe monotone engendrée), et par ailleurs qu une algèbre de Boole qui est une classe monotone est une tribu. De ce fait, pour montrer le résultat, il suffit de montrer que la classe monotone engendrée par F 0, notée C, est une algèbre de Boole. Soit G = {A, A c C}. Puisque C est une classe monotone, G l est aussi. Par ailleurs, F 0 G et donc C G. Donc C est stable par complémentaire.

Espaces de probabilités 2 Soit maintenant A F 0. Considérons G 1 = {B, B A C}. Clairement, F 0 G 1 et de plus G 1 est une classe monotone. De ce fait, C G 1 et l union d un élément quelconque de C avec un élément de F 0 est donc dans C. Posons G 2 = {B, B C C, C C}. D après l étape précédente, F 0 G 2. Par ailleurs, G 2 est une classe monotone qui contient donc C et C est stable par union finie. L application essentielle du résultat précédent est l identification d une mesure µ. Plus précisément, si deux mesures µ et ν sur le même espace mesurable (Ω, F) coïncident sur une algèbre de Boole F 0, elles coïncident sur σ(f 0 ). En particulier, si σ(f 0 ) = F, les deux mesures sont égales. Notons au passage, à toute fin utile, qu il n est absolument pas suffisant que les deux mesures coïncident sur un système générateur de la tribu pour avoir le résultat (penser aux mesures δ 0 et 2δ 0 sur l ensemble des intervalles ouverts ]a, b[ de R qui ne contiennent pas 0). Ci-dessous, un autre résultat du même genre est proposé. Exercice 1.3. Soit Ω un ensemble. On appelle π-système un ensemble de parties stable par intersection finie. On appelle λ-système un ensemble de parties qui contient l ensemble vide, est stable par complémentation et par réunion dénombrable disjointe (cette dernière condition est donc moins exigente que pour une tribu). a) Montrer que toute intersection de λ-systèmes est un λ-système. b) Montrer qu un π-système qui est aussi un λ-système est une tribu. c) Soient P un π-système et L un λ-système tels que P L. Montrer que σ(p) L (ce résultat est connu sous le nom de πλ théorème ). Une autre notion qui prendra une importance capitale dans l étude des processus stochastiques est celle de complétion d une mesure. Un espace de probabilités (Ω, F, P ) est dit complet si pour tout B F tel que P (B) = 0, A B implique que A F (et donc, naturellement, que P (A) = 0). Rappelons sans démonstration le théorème suivant Théorème 1.4. Soit (Ω, F, P ) un espace de probabilités. Il existe une extension F de la tribu F et une extension P de la mesure P à F telles que P et P coïncident sur F et (Ω, F, P ) est complet. Le résultat élémentaire principal du modèle probabiliste est le Lemme de Borel-Cantelli qui permet d obtenir une probabilité faisant intervenir une infinité d événements sous une hypothèse technique assurant que les événements restent individuellement de probabilité assez petite. Théorème 1.5. (lemme de Borel-Cantelli) Soit (A n ) une suite d événements de l espace de probabilités (Ω, F, P ). On suppose que n 0 P (A n ) < +. Soit A l événement une infinité de A i se produisent simultanément. Alors, P (A) = 0. Preuve: Il suffit de remarquer que A = A n. On a alors N 0 n N P (A) = lim P ( A n ) lim P (A n ) = 0. N + N + n N n N Il peut sembler étonnant qu une majoration aussi grossière que celle dont résulte le théorème précédent puisse être utile. En fait, il faut plutôt sentir son importance comme provenant du fait qu on ne peut souvent rien écrire d autre. Exercice 1.6. Soit l espace de probabilités ([0, 1], B([0, 1]), IP ) où P est la mesure de Lebesgue. On définit pour ω Ω, d n (ω) = ω n où ω = d n (ω) 2 n est la décomposition dyadique de ω. Soit l n (ω) la n 1

Espaces de probabilités 3 longueur de la chaîne de zéros partant de d n (ω): l n (ω) = k signifie que d n (ω) = = d n+k 1 = 0 et d n+k (ω) = 1. a) Montrer que P ({ω, l n (ω) r}) = 2 r. b) Soit (r n ) n 0 une suite de réels telle que n 0 2 rn < +. Montrer que P ({ω, l n (ω) r n infiniment souvent}) = 0. c) Soit e n (ω) = ω n 1 k=1 d k(ω)2 k 2 n+1 l erreur relative commise en estimant ω par son développement dyadique limité à l ordre n 1. Alors, pour ε > 0, P ({ω, e n (ω) 1 n 1+ε infiniment souvent}) = 0. 1.2. Variables aléatoires. A partir de maintenant, sauf mention contraire, (Ω, F, P ) désignera un espace de probabilités. Une variable aléatoire va servir à concentrer le hasard sur le résultat d une expérience aléatoire. Quand on considère une variable aléatoire, on s intéresse à l effet produit par le hasard sur une telle expérience. Avec cette idée, la définition est naturelle. Définition 1.7. On appelle variable aléatoire à valeurs dans l espace mesurable (E, E) toute application mesurable X de (Ω, F) dans (E, E). Quand E = R, on définit (quand l intégrale existe) l espérance (ou moment d ordre 1) de X par E(X) = Ω X(ω)dP (ω). On fera naturellement l abus standard en supposant que cette quantité est toujours définie (et éventuellement infinie) dans le cas où X est à valeurs positives. Plus généralement, le moment d ordre p 1 de la variable aléatoire réelle X, quand cette quantité est définie, est donné par E(X p ). L inégalité de Hölder montre alors que si X admet un moment d ordre p 1, elle admet des moments de tous ordres 1 q p. Par ailleurs, la variance de X admettant un moment d ordre 2 est donnée par Var(X) = E((X E(X)) 2 ) = E(X 2 ) E(X) 2. Rappelons immédiatement deux importantes inégalités de base liées aux moments. Proposition 1.8. Soit X une variable aléatoire réelle. (i) (Inégalité de Markov) Si X 0, alors pour tout a > 0, P (X > a) E(X). a (ii) (Inégalité de Bienaymé-Tchebitcheff) Quand X admet une variance, pour tout ε > 0, Preuve: Exercice. P ( X E(X) > ε) Var(X) ε 2. Le transport du hasard se fait alors à travers le concept central de loi de la variable aléatoire X. Définition 1.9. On appelle loi de la variable aléatoire X à valeurs dans l espace mesurable (E, E), la mesure de probabilités sur (E, E) image de P par X. On la notera classiquement µ X. En d autres termes, µ X est la mesure définie sur E par µ X (A) = P (X A) où la notation (X A) désigne l événement {ω, X(ω) A}. Insistons sur l interprétation capitale de cette notion. Quand on considère la loi de X, on oublie complètement ce qui se passe sur l espace Ω. Tout se passe comme si le hasard se concentrait désormais sur l espace E avec la loi µ X qui devient de ce fait le nouvel espace de probabilités. Ceci peut être particulièrement intéressant si l ensemble E (contrairement à Ω) s avère être un ensemble ayant de

Espaces de probabilités 4 bonnes propriétés comme R d ou des espaces de fonctions. De multiples exemples montreront par la suite l intérêt d un tel transport. L utilisation standard de la notion de loi se fait à travers le résultat suivant. Proposition 1.10. Soit X une variable aléatoire à valeurs dans (E, E). Alors pour toute fonction mesurable bornée (ou positive)sur E à valeurs dans R, on a E(f(X)) = f(x)µ X (dx). E Preuve: Pour f = 1 A où A E, la relation cherchée est la définition même de la loi image. On raisonne ensuite classiquement pour passer aux fonctions étagées puis aux fonctions f mesurables bornées. Exercice 1.11. Soit X une variable aléatoire à valeurs dans R. a) Montrer que X est essentiellement bornée au sens où ε > 0, il existe M > 0 telle que P ( X M) < ε. b) Montrer qu il existe une probabilité Q équivalente à P telle que E Q (X) < +. c) Soit (X n ) n 0 une suite de variables aléatoires réelles. Montrer qu il existe une suite de réels strictement positifs (λ n ) n 0 telle que la série n 0 λ n X n converge p.s. Déduire l existence d une probabilité Q équivalente à P sous laquelle toutes les X n admettent un moment d ordre 1. 1.3. Filtrations et temps d arrêt. Nous allons jusqu à la fin de cette première section dire quelques mots concernant les collections de variables aléatoires indéxées par un paramètre temporel discret, autrement dit ce qu on appelle des processus stochastiques. Avant cela, introduisons deux notions qui joueront par la suite un grand rôle. Définition 1.12. On appelle filtration sur l espace mesurable (Ω, F) une suite croissante (F n ) n N de sous-tribus de F. L idée de cette notion est de modéliser un accroissement d information au cours du temps. On note F = σ( F n ). Naturellement, il n y a aucune raison pour que F n = F (en général F n n 0 n 0 n 0 n est même pas une tribu), ni que F = F. Quand l espace (Ω, F) est muni d une filtration on dit qu il s agit d un espace filtré. Exemple 1.13. Soit Ω = [0, 1]. On considère F n l ensemble des réunions disjointes d intervalles du type [k/2 n, k + 1/2 n [, 0 k 2 n 1. F n est une filtration sur (Ω, B([0, 1])) et n 0 F n B([0, 1]) = F. Etroitement liée à la notion de filtration est celle de temps d arrêt (dont le nom prendra son sens dans la section suivante). Définition 1.14. Soit (Ω, F, (F n ) n 0, P ) un espace mesurable filtré. On appelle temps d arrêt sur (Ω, F, (F n ) n 0, P ) une variable aléatoire τ à valeurs dans N { } telle que, pour tout n N l événement (τ n) appartient à F n. Les principales propriétés élémentaires des temps d arrêt sont les suivantes. Proposition 1.15. a) Soient τ et σ deux temps d arrêt. τ σ, τ σ sont des temps d arrêt b) Si τ = lim n + τ n où les τ n forment une suite croissante de temps d arrêt, τ est un temps d arrêt. c) τ est un temps d arrêt si et seulement si n, (τ = n) F n.

Preuve: Exercice. Espaces de probabilités 5 Il convient de remarquer que la dernière propriété énoncée (c) est spécifique au cas discret et ne sera pas valable en temps continu. Il est aussi important de remarquer qu un temps déterministe fixé considéré comme variable aléatoire constante est un temps d arrêt. Exercice 1.16. Soit τ un temps d arrêt de la filtration (F n ). On considère a) Montrer que F τ est une tribu ( passé de τ ). F τ = {A F, A (τ n) F n, n N}. b) Montrer que si τ σ sont deux temps d arrêt, F τ F σ. c) Montrer que si τ = t, t N, on a F τ = F t. 1.4. Processus stochastique. Loi d un processus. On va introduire ici les bases de la théorie des processus stochastiques à temps discret. L extension des notions au cas continu occupera une bonne partie du premier semestre, car, naturellement, le cas discret est spécialement simple structurellement, en particulier en ce qui concerne les questions liées à la mesurabilité. Définition 1.17. a) On appelle processus stochastique indexé par N à valeurs dans (E, E) toute suite de variables aléatoires (X n ) n 0 à valeurs dans (E, E). b) Si l espace de probabilité est filtré par une filtration (F n ) n 0 on dit que le processus (X n ) n 0 est adapté si pour tout n N, X n est une variable aléatoire F n mesurable. c) Par ailleurs, à tout processus (X n ) n 0 est associée une filtration dite naturelle définie par F n = σ(x 0, X 1,..., X n ). Naturellement, un processus est toujours adapté à sa filtration naturelle. Un processus stochastique X = (X n ) n 0 peut être conçu comme une variable aléatoire à valeurs dans E N. De ce fait, sa loi µ X est une probabilité sur l espace mesurable dit canonique (E N, E N ) où la tribu E N est engendrée par les ensembles du type πn 1 (B) où B E n+1 et π n ((ω i ) i 0 ) = (ω 0, ω 1,..., ω n ). L espace mesurable (E N, E N ) est dit espace canonique des processus à valeurs dans E. Le processus canonique X est défini sur E N par X n ((ω k ) k 0 ) = ω n. On voit immédiatement que la donnée d un processus stochastique entraîne l existence d une famille de probabilités µ n sur (E n+1, E n+1 ) définies par µ n (A 0 A n ) = P (X 1 A 0,..., X n A n ). Les probabilités µ n s appelent les répartitions finies du processus. De manière manifeste, µ n (dx 0,..., dx n ) = µ n+1 (dx 0,..., dx n, dx n+1 ). (1.1) E La question qui se pose naturellement est la réciproque: si une famille de probabilités (µ n ) n 0 sur (E n+1, E n+1 ) n 0 satisfait la condition de compatibilité précédente (1.1), existe-t-il un processus à valeurs dans E admettant les µ n comme répartitions finies? La réponse est donnée par le théorème de Kolmogorov suivant dont une démonstration dans deux cas particuliers importants sera faite dans la section 3, à charge pour le lecteur de vérifier l absence de cercle vicieux. On peut aussi voir une démonstration directe par exemple dans [2]. Théorème 1.18. Soit E un espace métrique séparable et soit (µ n ) n 0 une famille de probabilités sur les espaces produit (E n+1, E n+1 ) n 0 qui satisfait la condition de compatibilité (1.1). Alors il existe une unique probabilité P sur l espace canonique telle que sous P le processus canonique X admette les lois µ n comme répartitions finies. Pour terminer cette section, nous allons présenter l exemple fondamental de temps d arrêt. Considérons un processus stochastique (X n ) n 0 à valeurs dans (E, E). Soit A E. On appelle temps d entrée dans A la variable aléatoire à valeurs dans N {+ } définie par τ A = inf{n 0, X n A} et temps de retour dans A la variable aléatoire à valeurs dans N {+ } définie par σ A = inf{n 1, X n A}. Dans ces deux définitions, la valeur prise est infinie si l ensemble considéré est vide. On a alors

Espaces de probabilités 6 Proposition 1.19. Pour tout A E, τ A et σ A sont des temps d arrêt de la filtration naturelle (F n ) du processus X. Preuve: Soit n 0. On a (τ A = n) = (X 0 / A,..., X n 1 / A, X n A) et ce dernier ensemble est manifestement dans F n. D après la Proposition 1.15 c), τ A est un temps d arrêt. De même, pour n 1, (σ A = n) = (X 1 / A,..., X n 1 / A, X n A) qui est aussi dans F n. Exercice 1.20. Soit E un ensemble dénombrable. (Ω, F, (F n ) n 0, (X n ) n 0 ) est l espace des applications de Ω = E N vers E. Soit θ : Ω Ω l opérateur de translation, défini par θ((ω n ) n 0 ) = (ω n+1 ) n 0, et (θ n ) n 0 la suite de ses itérées (i.e. θ 0 = identité et θ n = θ θ, n fois). a) Montrer que X n θ m = X n+m et θ 1 n (F m ) = σ(x n,..., X n+m ). b) Soient τ et ν deux temps d arrêt de la filtration (F n ) n 0 (éventuellement τ = ν). b1)montrer que, pour tout entier positif k, k + τ θ k est un temps d arrêt. b2) Montrer que ρ = ν + τ θ ν est un temps d arrêt. Montrer que, si on suppose de plus que ν et τ sont finis, X τ θ ν = X ρ. b3) Pour A E, notons τ A (ω) = inf{n 0; X n (ω) A} σ A (ω) = inf{n 1; X n (ω) A} les temps d atteinte et de retour en A. Soit σ un temps d arrêt. Montrer que et que, si A B, τ A = τ B + τ A θ τb. σ + τ A θ σ = inf{k σ; X k A} σ + σ A θ σ = inf{k > σ; X k A} (1.2)