CHAÎNES DE MARKOV. Master MIMSE Bordeaux

Documents pareils
4. Martingales à temps discret

Moments des variables aléatoires réelles

Intégration et probabilités TD1 Espaces mesurés Corrigé

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

3. Conditionnement P (B)

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Chapitre 2 Le problème de l unicité des solutions

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Simulation de variables aléatoires

Programmes des classes préparatoires aux Grandes Ecoles

Calcul fonctionnel holomorphe dans les algèbres de Banach

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Théorie de la Mesure et Intégration

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

Intégration et probabilités TD1 Espaces mesurés

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Travaux dirigés d introduction aux Probabilités

Théorème du point fixe - Théorème de l inversion locale

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Université Paris-Dauphine DUMI2E 1ère année, Applications

Chapitre 2. Eléments pour comprendre un énoncé

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Amphi 3: Espaces complets - Applications linéaires continues

Calcul intégral élémentaire en plusieurs variables

Probabilités III Introduction à l évaluation d options

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Continuité en un point

Logique. Plan du chapitre

Limites finies en un point

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

MATHS FINANCIERES. Projet OMEGA

Calcul Stochastique pour la finance. Romuald ELIE

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Intégration sur des espaces produits

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Probabilités et statistique. Benjamin JOURDAIN

Espérance conditionnelle

Dérivées d ordres supérieurs. Application à l étude d extrema.

MA6.06 : Mesure et Probabilités

Exercices sur le chapitre «Probabilités»

I. Polynômes de Tchebychev

Couples de variables aléatoires discrètes

Image d un intervalle par une fonction continue

Calcul différentiel sur R n Première partie

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Texte Agrégation limitée par diffusion interne

Raisonnement probabiliste

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

EI - EXERCICES DE PROBABILITES CORRIGES

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

1.1 Codage de source et test d hypothèse

ILT. Interfacultair Instituut voor Levende Talen. Actes de communication. Serge Verlinde Evelyn Goris. Katholieke Universiteit Leuven

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

M2 IAD UE MODE Notes de cours (3)

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Bien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Polynômes à plusieurs variables. Résultant

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

Problème 1 : applications du plan affine

Continuité d une fonction de plusieurs variables

Calculs de probabilités

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Probabilités et Statistique

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Probabilités sur un univers fini

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Structures algébriques

Le modèle de Black et Scholes

Continuité et dérivabilité d une fonction

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Probabilités. C. Charignon. I Cours 3

Programmation linéaire

Processus aléatoires avec application en finance

Condition de stabilité d'un réseau de les d'attente à deux stations et N classes de clients 1

Filtrage stochastique non linéaire par la théorie de représentation des martingales

TSTI 2D CH X : Exemples de lois à densité 1

Une forme générale de la conjecture abc

Différentiabilité ; Fonctions de plusieurs variables réelles

Chapitre 2. Matrices

Correction du baccalauréat ES/L Métropole 20 juin 2014

Calcul différentiel. Chapitre Différentiabilité

Loi d une variable discrète

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

Programmation Linéaire - Cours 1

SEANCE 4 : MECANIQUE THEOREMES FONDAMENTAUX

Transcription:

CHAÎNES DE MARKOV MICHEL BONNEFONT Master MIMSE Bordeaux Dans tout ce cours on se placera sur un espace d états E fini ou dénombrable. Dans ce chapitre, on va s intéresser à l étude de phénomènes aléatoires dépendant du temps. Dans l étude d un tel processus aléatoire, ce qui nous intéresse particulièrement c est de connaître la loi de ce qui va passer dans le futur en tenant compte de toutes les informations obtenues dans le passé. Dans de nombreuses situations, on peut faire l hypothèse simplificatrice suivante : A un instant t donné, le futur du processus ne dépend pas de tout le passé (c est-à-dire de toute la trajectoire jusqu à l instant t) mais juste de la position actuelle à l instant t. Le processus est alors appelé processus de Markov et dans le cas où le temps est discret : chaîne de Markov. Exemples : (1) Gestion de stock : Dans de nombreuses situations, on peut considérer que le stock à l instant n + 1 : S n+1 s écrit S n+1 S n + R n+1 où R n+1 est une variable aléatoire qui ne dépend que de la valeur du stock à l instant n : S n. (2) Prix d une action : Dans de nombreuses situations, on peut considérer que prix d une action à l instant n + 1 : A n+1 peut s écrire : A n+1 A n (1 + r n+1 ) où r n+1 est une variable aléatoire qui ne dépend que de la valeur du prix de l action à l instant n : A n. 1. Définitions et premières propriétés Définition 1.1. Soit (Ω, F, P) un espace probabilisé et (X n ) n N une suite variables aléatoires définie sur (Ω, F, P) à valeurs dans E. On dit que (X n ) n N est une chaîne de Markov si, pour tout (n + 1)-uplet (x 0, x 1,..., x n ) de points de E tel que P( {X j x j }) > 0 on a 0 j n 1 (1.1) P(X n x n X n 1 x n 1, X n 2 x n 2,..., X 0 x 0 ) P(X n x n X n 1 x n 1 ). La matrice Q n (Q n (x, y)) x,y E défine par Q n (x, y) P(X n y X n 1 x) est appelée matrice de transition de la chaîne de Markov (au temps n). Q n (x, y) désigne donc la probabilité de passer de l état x E à l état y E au temps n. On dit que la chaîne de Markov est homogène si la matrice de transition ne dépend pas de n. On note alors Q la matrice de transition. Dans toute la suite, nous ne considérerons que des chaînes de Markov homogènes. La loi de X 0 est appelée loi initiale de la chaîne de Markov. 1

2 MICHEL BONNEFONT La propriété (??) s appelle la propriété de Markov. Elle équivaut à dire que la loi de X n conditionnellement à (X 0, X 1,..., X n 1 ) est en fait la loi de X n conditionnellement à X n 1. La propriété de Markov signifie bien que le futur (immédiat) ne dépend du passé (toute la trajectoire) qu à travers le présent (le point actuel). Exercice 1.2. Un premier exemple : Marche aléatoire sur Z. Soit (Z n ) n N une suite de v.a. indépendantes et identiquement distribuées (i.i.d.) de loi de Rademacher R(p), 0 p 1 ; c est-à-dire, P(Z n +1) p et P(Z n 1) 1 p. On définit alors X n Z 1 +... + Z n, n 0 et X 0 0. Montrer que (X n ) est bien une chaîne de Markov homogène. Si p 1/2 on parle de marche aléatoire symétrique. Bien sûr, on peut faire la même chose en dimension d. La marche aléatoire symétrique est alors obtenue en prenant P(Z i e 1 ) P(Z i e 1 )... P(Z i e d ) P(Z i e d ) 1 2d, i 1, où (e 1, e 2,..., e d ) est la base usuelle de Z d. 2. Matrices stochastiques Définition 2.1. Une matrice P (P i,j ) i,j E est une matrice stochastique si elle vérifie : (1) i, j E, P i,j 0 (2) i E, j E P i,j 1 Exemple 2.2. 1/2 1/2 0 (1) 1/3 0 2/3 est une matrice stochastique. 0 1 0 (2) La matrice P (P i,j ) i,j N donnée pour tout i N par et P 0,0 P 0,1 1/2 est stochastique. { P i,i+1 P i,i 1 1/4 P i,i 1/2 Proposition 2.3. Si Q est une matrice de transition d une chaîne de Markov, alors Q est une matrice stochastique. Preuve. Exercice. Proposition 2.4. Soient P et Q deux matrices stochastiques de même taille alors le produit P Q est aussi une matrice stochastique. Démonstration. Soient P et Q deux matrices stochastiques alors

CHAÎNES DE MARKOV 3 P Q est bien définie, en effet la série à termes positifs (P Q) i,j l E P i,l Q l,j converge : P et Q sont stochastiques donc, pour tout l E, Q l,j P i,l 1. P i,l 1, donc P i,l Q l,j l E l E l E Montrons que P Q est stochastique : Q) i,j j E(P P i,l Q l,j j E l E l E j E P i,l Q l,j P i,l 1. l E j E l E P i,l Q l,j par Fubini-Tonelli, 1 et Corollaire 2.5. Soit Q une matrice stochastique, alors pour tout n N, Q n est aussi une matrice stochastique. (Pour n 0, par convention, on pose Q 0 : Id). Démonstration. Récurrence immédiate (à faire soi-même). Interprétation et représentation : Il est facile d associer à une matrice stochastique un graphe orienté, pondéré. L ensemble des sommets du graphe sera l espace d états E et les arêtes orientées (pondérées) représenteront les valeurs non nulles de la matrice stochastique. Dans le cas d une matrice de transition Q d une chaîne de Markov homogène, la pondération sur l arête orientée (x, y) correspond à la probabilité de la chaîne de passer de l état x à l état y. Exercice 2.6. Faire les graphes associés aux deux exemples de l Exemple??. 3. Loi au temps n de la chaîne de Markov Pour le résultat suivant, on considère (exceptionnellement) que la chaîne de Markov n est pas nécessairement homogène. Proposition 3.1. Soit (X n ) n N une chaîne de Markov définie sur (Ω, F, P) à valeurs dans E. Pour tout n N, pour tous x, y E, on définit Q n (x, y) P(X n x X n 1 x n 1 ). Alors on a : n N, x 0, x 1,..., x n E, P(X 0 x 0, X 1 x 1,..., X n x n ) P(X 0 x 0 )Q 1 (x 0, x 1 )... Q n (x n 1, x n ). Démonstration. Montrons ce résultat par récurrence sur n. C est trivial pour n0. Supposons le résultat vrai pour n 0 alors P(X n+1 x n+1,...,x 0 x 0 ) P(X n+1 x n+1 X n x n,..., X 0 x 0 )P(X n x n,..., X 0 x 0 ), P(X n x n,..., X 0 x 0 )P(X n+1 x n+1 X n x n ), P(X n x n,..., X 0 x 0 )Q n+1 (x n, x n+1 ), P(X 0 x 0 )Q 1 (x 0, x 1 )... Q n (x n 1, x n )Q n+1 (x n, x n+1 )

4 MICHEL BONNEFONT On a bien démontré le résultat souhaité. Remarque 3.2. La réciproque est vraie : s il existe une suite de matrices ((Q n (x, y)) x,y E ) n N telle que n N, x 0, x 1,..., x n E, P(X 0 x 0, X 1 x 1,..., X n x n ) P(X 0 x 0 )Q 1 (x 0, x 1 )... Q n (x n 1, x n ) alors (X n ) n N est une chaîne de Markov. Exercice 3.3. Le prouver. Corollaire 3.4. Sous les mêmes hypothèses : (X n ) n 0 une chaîne de Markov non nécessairement homogène et de loi initiale L(X 0 ) : µ. La loi de X n au temps n est donnée par la formule : pour x E (3.1) P(X n x) µ(z 0 )Q 1 (z 0, z 1 )... Q n (z n 1, x). z 0,z 1,...,z n 1 E Ici, nous revenons au cas d une chaîne de Markov homogène. Dans ce cas, nous obtenons le corollaire important suivant Corollaire 3.5. Soit (X n ) n 0 une chaîne de Markov homogène de matrice de transition Q et de loi initiale L(X 0 ) : µ. On note Q n la puissance n-ième de la matrice Q, alors : (1) La loi de X n au temps n est donnée par la formule : P(X n x) µ(z 0 )Q(z 0, z 1 )... Q(z n 1, x) z 0,z 1,...,z n 1 E y E µ(y)q n (y, x) (2) Pour x, y E, le terme Q n (x, y) correspond à la probabilité de passer de l état x à l état y en exactement n étapes. Remarque 3.6. Il est bien pratique d écrire les mesures comme des vecteurs lignes et les fonctions comme des vecteurs colonnes. Avec cette convention, la loi de la chaine de Markov au temps n de loi initiale µ s écrit simplement : L(X n ) µp n c est-à-dire P(X n x) (µp n )(x). Avec cette convention, pour calculer l espérance E[f(Z)] où Z est de loi ν sur E et f est une fonction (bornée) sur E, on a E[f(Z)] z E ν(z)f(z) νf.

En particulier, l espérance E[f(X n )] se calcule comme CHAÎNES DE MARKOV 5 E[f(X n )] z E(µP n )(z)f(z) µp n f. Démonstration. La probabilité de passer de x à y en 2 étapes est égale à P (X 2 y X 0 x) z E P (X 1 z, X 2 y X 0 x) z E Q(x, z)q(z, y). Ce dernier terme n est rien d autre que le terme (x, y) de la matrice Q 2. Plus généralement, pour n 2, la probabilité de passer de x à y en n étapes est égale à P (X n y X 0 x) P (X 1 z 1,..., X n 1 z n 1, X n y X 0 x 0 ) z 1,...,z n 1 E z 1,...,z n 1 E Q(x, z 1 )Q(z 1, z 2 )... Q(z n 1, y). Ce dernier terme n est rien d autre que le terme (x, y) de la matrice Q n. Pour obtenir la loi de X n, il nous suffit de déterminer P(X n x) pour tout x E. On a P(X n x) z 0 E P(X 0 z 0, X n x) z 0 E P(X 0 z 0 )P(X n x X 0 z 0 ) z 0 E µ(z 0 )Q n (z 0, x). Remarque 3.7. Dans le cas d une chaîne de Markov non nécessairement homogène de loi initiale, la loi de X n s écrit L(X n ) µq 1 Q 2... Q n. Exercice 3.8. Calculer P 2 pour les deux matrices de l exemple??. Tracer les graphes de P et P 2 dans chacun des cas. Exercice 3.9. On note a, b et c les états de la chaîne 1 de l exemple?? et f la fonction définie par f(a) 1, f(b) 2, f(c) 3. On note µ 0 la mesure de probabilité uniforme sur {a, b, c}. Calculer la loi de la chaîne au temps 1 et au temps 2. Calculer également : E[f(X 1 )] et E[f(X 2 )]. Même question pour la marche aléatoire symétrique sur Z de loi initiale δ 0 et pour la fonction f définie par f(x) x 2, x Z.

6 MICHEL BONNEFONT Corollaire 3.10. En reprenant les hypothèses de la proposition?? (chaîne non nécessairement homogène), on a également, pour n N, 0 k n, x k, x k+1,..., x n E, P(X n x n,..., X k x k ) P(X k x k )Q k (x k, x k+1 )... Q n (x n 1, x n ). Démonstration. P(X n x n,..., X k x k ) P(X n x n,..., X k x k, X k 1 x k 1,..., X 0 x 0 ), x 0,x 1,...,x k 1 E x 0,x 1,...,x k 1 E x 0,x 1,...,x k 1 E P(X 0 x 0 )Q 1 (x 0, x 1 )... Q k (x k 1, x k )Q k+1 (x k, x k+1 )... Q n (x n 1, x n ), P(X k x k, X k 1 x k 1,..., X 0 x 0 )Q k+1 (x k, x k+1 )... Q n (x n 1, x n ), P(X k x k )Q k+1 (x k, x k+1 )... Q n (x n 1, x n ). 4. Une caractérisation des chaînes de Markov Proposition 4.1. Soit E et F deux ensembles dénombrables, et pour tout n 1, soit f n une application de E F dans E. Soit X 0 et (Y n ) n 1 des v.a. mutuellement indépendantes, X 0 à valeurs dans E, Y n à valeurs dans F pour tout n 1. Soit enfin (X n ) n 1 à valeurs dans E définies par X n+1 f n (X n, Y n+1 ), n N. Alors (X n ) n N est une chaîne de Markov. Démonstration. On remarque que P(X n+1 x n+1,..., X 0 x 0 ) P(f n (x n, Y n+1 ) x n+1, X n x n,..., X 0 x 0 ), P(Y n+1 z, X n x n,..., X 0 x 0 ), z,f n(x n,z)x n+1 P(Y n+1 z)p(x n x n,..., X 0 x 0 ). z,f n(x n,z)x n+1 Donc on a P(X n+1 x n+1 X n x n,..., X 0 x 0 ) z,f n(x n,z)x n+1 P(Y n+1 z). De la même façon on peut facilement montrer que P(X n+1 x n+1 X n x n ) P(Y n+1 z) z,f n(x n,z)x n+1 ce qui montre bien que (X n ) n N est une chaîne de Markov. Remarque 4.2. Si de plus, f n f et les (Y n ) n N sont dentiquement distribués et que X n+1 f(x n, Y n+1 ), alors (X n ) n N est une chaîne de Markov homogène.

CHAÎNES DE MARKOV 7 Remarque 4.3. La réciproque est vraie. Si (X n ) est une chaîne de Markov sur E, alors on peut représenter X n+1 f n (X n, Y n+1 ) pour une certaine fonction f : (N, E, F ) E et des variables aléatoires indépendantes Y n et indépendante de X 0. 5. Propriétés de Markov faible et forte 5.1. Propriété de Markov faible. Notation 5.1. Dans toute la suite on notera F n la tribu engendrée par les v.a. X 0,..., X n, autrement dit F n σ(x 0,..., X n ). On notera également P x la probabilité conditionnelle sachant {X 0 x}, x E. Théorème 5.2. Propriété de Markov faible Soit (X n ) n N une chaîne de Markov. Alors pour tous n N, x E et conditionnellement à {X n x}, (X n+p ) p N est une chaîne de Markov de loi initiale δ x. Deplus elle est indépendante de F n ; c est-à-dire, pour tout A F n, pour tous m > 0, x 0, x 1,..., x m E P(A {X n+1 x 1,..., X n+m x m } X n x) P(X n+1 x 1,..., X n+m x m X n x) P(A X n x) P x (X 1 x 1,..., X m x m ) P(A X n x). Avant de faire la démonstration, nous allons établir 2 lemmes. Lemme 5.3. Soit (Ω, F, P) un espace probabilisé et soient A, B, C F tels que P(B C) > 0. Alors P(A B C) P(A B C). Démonstration. Soit Q( ) : P( C). Q est une probabilité. Par définition de la probabilité conditionnelle, on a P(A B C) Q(A B) Q(A B) P(A B C) Q(B) P(B C) P(A B C) P(A B C). P(B C) Lemme 5.4. Soit (X n ) n 0 une chaîne de Markov. Soit 0 et x 0, x n, x n+1 E tels que P({X n x n } {X 0 x 0 }) > 0. Alors P (X n+1 x n+1 X n x n, X 0 x 0 ) P (X n+1 x n+1 X n x n ). Démonstration. En sommant sur toutes les trajectoires possibles et en utilisant la définition d une chaîne de Markov, on trouve :

8 MICHEL BONNEFONT P (X n+1 x n+1, X n x n, X 0 x 0 ) P (X n+1 x n+1 X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) z 1,z 2,z n 1 E z 1,z 2,z n 1 E P (X n+1 x n+1 X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) P (X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) P (X n+1 x n+1 X n x n ) P (X n x n, X n 1 z n 1,..., X 1 z 1, X 0 x 0 ) z 1,z 2,z n 1 E P (X n+1 x n+1 X n x n ) P (X n x n, X 0 x 0 ) D où : P(X n+1 x n+1 X n x n, X 0 x 0 ) P (X n+1 x n+1 X n x n ). Revenons à la démonstration de la propriété de Markov faible. Démonstration. Montrons d abord que (X n+p ) p N est une chaîne de Markov. Soit, m 1 et x 1,..., x m E, on a en utilisant le lemme ci-dessus : P x (X m+n x m X n+m 1 x m 1,..., X n+1 x 1 ) P(X m+n x m X n+m 1 x m 1,..., X n+1 x 1, X n x) P(X m+n x m X n+m 1 x m 1 ) P(X m+n x m X n+m 1 x m 1, X n x) P x (X m+n x m X n+m 1 x m 1 ). Montrons maintenant l indépendance conditionnelle. Il suffit de la montrer pour A {X 0 y 0,..., X n y n }. En effet par σ-additivité de P, on peut l obtenir pour tout A F n. Il suffit de plus de regarder le cas y n x (sinon les deux membres sont nuls). On a P(A {X n+1 x 1,..., X n+m x m } X n x) P(X 0 y 0,..., X n x, X n+1 x 1,..., X n+m x m X n x), P(X 0 y 0,..., X n x, X n+1 x 1,..., X n+m x m ), P(X n x) P(X 0 y 0,..., X n x) Q n+1 (x, x 1 )Q n+2 (x 1, x 2 )... Q n+m (x m 1, x m ), P(X n x) P(A) P(X n x) P(X n+1 x 1,..., X n+m x m X n x) P(A X n x)p(x n+1 x 1,..., X n+m x m X n x).

5.2. Propriété de Markov forte. CHAÎNES DE MARKOV 9 Définitions 5.5. Une filtration est une suite croissante de tribus, c est à dire une suite de tribus (G n ) n N vérifiant G 0 G 1... G n... (σ(x 0,..., X n )) n N (F n ) n N est appelée filtration engendrée par (X n ) n N. Définition 5.6. Soit (X n ) n N une suite de v.a. définies sur (Ω, F, P). Soit τ une v.a. définies sur le même espace probabilisé. On dit que τ est un temps d arrêt adapté à la suite (X n ) n N (ou temps d arrêt adapté à la filtration (F n ) n N ) si : a) τ prend ses valeurs dans N { }, b) n 0, on a {τ n} F n. Remarque 5.7. On peut remplacer la condition b) par la condition b ) n 0, on a {τ n} F n. Exercice 5.8. Le prouver! Exercice 5.9. Soit (X n ) n N une suite de v.a. à valeurs dans E. Montrer que les v.a. suivantes sont des temps d arrêt adaptés à la suite X n : les v.a. constantes p.s., le temps d entrée dans l ensemble A, noté T A, donné par T A inf{n N, X n A}, le temps de retour en A, noté S A, donné par S A inf{n N, X n A}, T S, T S et T + S où T et S sont des temps d arrêt. Proposition-Définition 5.10. Soit τ un temps d arrêt adapté à la filtration (F n ) n. On pose F σ(f n, n 0). On définit F τ F par F τ {A F, n 0, A {τ n} F n }. F τ est une tribu appelée tribu des événements antérieurs à τ. Démonstration. n 0, Ω {τ n} {τ n} F n donc Ω F τ. Soit (A k ) k N F τ, montrons que k N A k F τ. On a ( ) A k {τ n} (A k {τ n}) F n. k N k N Donc k N A k F τ. Soit A F τ, montrons que A F τ. Soit B A {τ n}, on a A {τ n} (A {τ n}) {τ n} (A {τ n}) {τ n} F n, car A {τ n} et {τ n} sont dans F n. Donc A F τ. Exercice 5.11. On reprend l exemple de la marche aléatoire sur Z. On pose τ : inf{n, X n 10}. On note B : { n N, n τ, X n 10}. Montrer que B appartient à F τ.

10 MICHEL BONNEFONT Exercice 5.12. Soit τ un temps d arrêt. On note σ(τ) la tribu engendrée par τ. Montrer que l on a l inclusion : σ(t ) F τ. A-t-on égalité? Théorème 5.13. Propriété de Markov forte Soit (X n ) n N une chaîne de Markov homogène de paramètres (µ, P ) et τ un temps d arrêt adapté à (X n ) n N. Pour tout x E et conditionnellement à {τ <, X τ x}, la suite (X τ+n ) n N est une chaîne de Markov de paramètres (δ x, P ). De plus elle est indépendante de F τ ; c est-à-dire, pour tout A F τ, x 1,..., x m E P ({X τ+n x n,..., X τ x 0 } A {τ < + } X τ x 0 ) P x0 ({X n x n,..., X 1 x}) P (A {τ < + } X τ x 0 ). Remarque 5.14. En prenant τ k on retrouve la propriété de Markov faible. Remarque 5.15. En particulier, on a aussi que P ({X τ+n x n,..., X τ x 0 } {τ < + } X τ x 0 ) P x0 ({X n x n,..., X 1 x}). Démonstration. Soit A F τ, en écrivant A {τ < } comme l union disjointe A {τ < } m 0 A {τ m} on a P ({X τ+n x n,..., X τ x 0 } A {τ < + }) m 0 P ({X τ+n x n,..., X τ x 0 } A {τ m} {X τ x 0 }) m 0 P ({X m+n x n,..., X m x 0 } A {τ m} {X m x}) m 0 P ({X m+n x n,..., X m x 0 } X m x) P (A {τ m} {X m x}) P ({X m x 0 }) P x0 ({X n x n,..., X 1 x}) m 0 P (A {τ m} {X m x 0 }) P x0 ({X n x n,..., X 1 x}) P (A {τ < + } {X τ x 0 }) ; où on a utilisé la propriété de Markov faible à la troisième égalité en remarquant que A {τ m} F m. Donc, pour A F τ, en divisant par P ({τ < + } X τ x 0 ), on obtient P ({X τ+n x n,..., X τ x 0 } A {τ < + } {X τ x 0 }) P x0 ({X n x n,..., X 1 x}) P (A {τ < + } X τ x 0 ). En particulier, on remarque que P ({X τ+n x n,..., X τ x 0 } {τ < + } X τ x 0 ) P x0 ({X n x n,..., X 1 x}).

et donc en particulier, on remarque que CHAÎNES DE MARKOV 11 P {τ<+ Xτ x 0 } (X τ+n+1 x n+1 X τ+n x n..., X τ x 0 ) P x0 (X n+1 x n+1 X n x n..., X 0 x 0..., X 1 x) P x0 (X n+1 x n+1 X n x n ) P {τ<+ Xτ x 0 } (X τ+n+1 x n+1 X τ+n x n ). Cette dernière égalité traduit exactement la propriété de Markov de la suite (X τ+n ) n N conditionnellement à l évènement {τ <, X τ x}. Exemple d application : Soit (X n ) n 0 une marche aléatoire sur Z partant de 0. Soit τ le temps d atteinte de 10 : τ : inf{k 0, X k 10}. Alors conditionnellement à {τ < + }, (X τ+n ) n 0 est aussi une marche aléatoire partant de 10. De plus elle est indépendante de F τ, c est-à-dire elle est indépendante des trajectoires avant τ.