[M. Gubinelli - Contrôle des chaînes de Markov - M1 MMD 2011/ poly 2 - v.1] Arrêt optimal

Documents pareils
Espérance conditionnelle

Limites finies en un point

Filtrage stochastique non linéaire par la théorie de représentation des martingales

3. Conditionnement P (B)

Intégration et probabilités TD1 Espaces mesurés

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

4. Martingales à temps discret

Moments des variables aléatoires réelles

Texte Agrégation limitée par diffusion interne

Image d un intervalle par une fonction continue

Simulation de variables aléatoires

Le modèle de Black et Scholes

Intégration et probabilités TD1 Espaces mesurés Corrigé

Introduction à l étude des Corps Finis

Amphi 3: Espaces complets - Applications linéaires continues

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Probabilités III Introduction à l évaluation d options

Programmation linéaire

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Sujet 4: Programmation stochastique propriétés de fonction de recours

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Sur certaines séries entières particulières

Les indices à surplus constant

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

M2 IAD UE MODE Notes de cours (3)

aux différences est appelé équation aux différences d ordre n en forme normale.

CCP PSI Mathématiques 1 : un corrigé

Chp. 4. Minimisation d une fonction d une variable

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Modèles et Méthodes de Réservation

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Calcul Stochastique pour la finance. Romuald ELIE

Calcul fonctionnel holomorphe dans les algèbres de Banach

Intégration sur des espaces produits

GEA II Introduction aux probabilités Poly. de révision. Lionel Darondeau

Théorème du point fixe - Théorème de l inversion locale

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Probabilités sur un univers fini

Chapitre 7 : Intégration sur un intervalle quelconque

Programmation linéaire et Optimisation. Didier Smets

La demande Du consommateur. Contrainte budgétaire Préférences Choix optimal

Chapitre 2 Le problème de l unicité des solutions

choisir H 1 quand H 0 est vraie - fausse alarme

Exercices - Polynômes : corrigé. Opérations sur les polynômes

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Raisonnement par récurrence Suites numériques

Intégrale de Lebesgue

Optimisation Discrète

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

La valeur présente (ou actuelle) d une annuité, si elle est constante, est donc aussi calculable par cette fonction : VA = A [(1-1/(1+k) T )/k]

Condition inf-sup pour l Elément Fini de Taylor-Hood È ¾ -iso-è ½

Fonctions de plusieurs variables

3 Approximation de solutions d équations

6. Les différents types de démonstrations

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Circuits RL et RC. Chapitre Inductance

Résolution de systèmes linéaires par des méthodes directes

Principe de symétrisation pour la construction d un test adaptatif

INF 232: Langages et Automates. Travaux Dirigés. Université Joseph Fourier, Université Grenoble 1 Licence Sciences et Technologies

Le produit semi-direct

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

PRIME D UNE OPTION D ACHAT OU DE VENTE

Théorie de la Mesure et Intégration

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

Mesure et Intégration (Notes de cours de L3)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Corrigé du baccalauréat S Pondichéry 12 avril 2007

Continuité en un point

Théorie de la mesure. S. Nicolay

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Résolution d équations non linéaires

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Construction d un cercle tangent à deux cercles donnés.

Programmes des classes préparatoires aux Grandes Ecoles

Équations non linéaires

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Rupture et plasticité

CHAPITRE 5. Stratégies Mixtes

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Capes Première épreuve

Proposition. Si G est un groupe simple d ordre 60 alors G est isomorphe à A 5.

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Calculs de probabilités avec la loi normale

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

COURS GESTION FINANCIERE A COURT TERME SEANCE 2 COUVERTURE DU BESOIN DE FINANCEMENT CHOIX DU NIVEAU DU FONDS DE ROULEMENT

Gestion du niveau de la franchise d un contrat avec bonus-malus. Pierre THEROND & Stéphane BONCHE

MCMC et approximations en champ moyen pour les modèles de Markov

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

P1 : Corrigés des exercices

Chapitre 5 : Flot maximal dans un graphe

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Processus et martingales en temps continu

Approximations variationelles des EDP Notes du Cours de M2

Transcription:

Rappels sur les processus et sur les temps d arrêt 1 [M. Gubinelli - Contrôle des chaînes de Markov - M1 MMD 2011/2012-20110926 - poly 2 - v.1] Arrêt optimal 1 Rappels sur les processus et sur les temps d arrêt Soit (Ω, A, P) un espace probabilisé et F = {F n } n 1 une filtration (c-à-d une famille croissante des sous-tribus de A). La filtration détermine ce qu on sait et ce qu on n sait pas à un instant de temps donné: tout événement A F n est déterminé au temps n. Un processus (X n ) n 1 est dit adapté ssi X n F n pour tout n. Il est prévisible si X 1 est constante et X n F n1 pour tout n > 1. Il est intégrable si X n L 1 (Ω) pour tout n. Il est une martingale (sur/sous) si il est intégrable et X n = E[X n+1 F n ] (, ) pour tout n 1. L espérance conditionnelle d une v.a. F intégrable par rapport à une tribu G est une v.a. intégrable E[F G] telle que E[GF] = E[GE[F G]] pour tout v.a. bornée F qui est G mesurable. Un temps d arrêt T est une v.a. T: Ω telle que les événements {T = k} sont F k mesurables pour tout k. Cette condition équivaut à demander que {T k} F k pour tout k. Quelques propriétés des temps d arrêt: {T > k} F k, {T k} F k1, si T, S sont t.a. alors T S = min (T, S) et T S = max(t, S) sont t.a. ((T S)(ω)=min (T(ω), S(ω))). La tribu F T engendrée par le temps d arrêt T est la plus petite tribu qui contient les événements A A tels que {T k} A F k pour tout k, i.e. F T = σ(a A: {T k} A: k, A F k ) Une fonction G est F T mesurable ssi GI {T =k} est F k mesurable pour tout k. C est une caractérisation équivalente des fonctions F T mesurables. Pour le prouver on note que il est vrai pour les fonction caractéristiques G = I B où B F T et que on peut approcher n importe quelle fonction F T mesurable par des combinaison linéaires des fonctions caractéristiques. Si on note G k = GI {T =k} alors on a que (G k ) k 1 est un processus adapté et que G=G T. Donc toute fonction G F T peut être écrite comme la valeur au temps T d un processus adapté (G k ) k 1. Si (X n ) n 1 est un processus adapté alors le processus arrêté en T : X n = X n T est adapté et X T est F T mesurable. Si (M n ) n 1 est une martingale alors (M n) n 1 est une martingale. Si S, T sont deux t.a. alors on dit que S T si S(ω) T(ω) presque sûrement. Si S, T sont deux t.a. tels que S T alors F S F T. Preuve: La tribu F S est engendrée par les événements A A tels que {S k} A F k. Mais alors si A F S on a que {T k} A = {S T k} A = {T k} ({S k} A) F k car {T k} F k et {S k} A F k par hypothèse. Donc tous les générateurs A de F S sont aussi générateurs de F T et donc F S F T. Lemme 1. Si les t.a. sont bornées et (M n ) n 1 est une martingale, alors E[M T F S ] =M S. (1) Démonstration. Soit tel que S T par l hypothèse de borninude des t.a. On montre d abord que E[M F T ] = M T. Par la définition d espérance conditionnelle on doit montrer que E[M G] = E[M T G] pour toute fonction bornée G qui est F T mesurable. On a que GI {T =n} F n et que E[M G] = n=1 = n=1 E[M GI {T =n} ] = n=1 E[M n GI {T =n} ] = n=1 E[E[M F n ] GI {T =n} ] E[M T GI {T =n} ] = E[M T G]. Maintenant on a que E[M T F S ] = E[E[M F T ] F S ] = E[M F S ] =M S car F S F T.

2 Section 2 Remarque 2. Une propriétés analogues sont vraie pour les sous/sur martingales. Soit (X n ) n 1 une sous-martingale, alors il existe toujours une martingale (M n ) n 1 et un processus prévisible croissante (A n ) n 1 (i.e. A n F n1 et A n+1 A n ) tels que X n = M n + A n. En effet si M doit être une martingale on a que X n A n = M n = E[M n+1 F n ] = E[X n+1 A n+1 F n ] = E[X n+1 F n ] A n+1 et donc il suffit définir A par A 1 = 0 et A n+1 A n = E[X n+1 F n ] X n 0 pour tout n > 1. Alors si X est une sous-martingales avec décomposition X n =M n + A n on a que E[X T F S ] = E[M T F S ] + E[A T F S ] = M S + E[A T F S ] M S + E[A S F S ] = M S + A S =X S car A T A S par la croissance de (A n ) n 1 et le fait que T S. Remarque 3. Si F est une v.a. intégrable alors F n = E[F F n ] est une martingale. Donc le lemme précèdent donne que E[F F S ] = F S pour tout t.a. bornée S. Donc on peut calculer l espérance conditionnelle par rapport à la tribu F S en prenant la valeur au temps n = S de l espérance conditionnelle calculé par rapport à F n. 2 Arrêt optimal en horizon fini On considère un processus adapté (Y n ) n 1 et on se pose le problème d optimiser la valeur E[Y T ] parmi tous les temps d arrêt T (pour la filtration F). L interprétation est que Y n (ω) est le gain qu on obtient si on décide de s arrêter au temps n et qu on cherche à optimiser le gain moyen attendu en fonction de la règle d arrêt que on se donne (que est la seule chose raisonnable au temps initial, i.e. sans connaître au préalable l évolution du système). On retient seulement les règles d arrêt T: Ω R qui sont telles que {T = n} F n, c-à-d pour lesquelles on sait dire si il faut s arrêter au temps n seulement en fonction de l histoire observée jusqu à ce moment-là. On considère d abord le problème en horizon fini, i.e. on se donne fixé, on appelle T l ensemble des temps d arrêt bornés par et on optimise parmi tous les t.a. T T. Soit J = sup T T E[Y T ] le gain moyen optimal. On appelle T temps d arrêt optimal si E[Y T ] =J. otation: L infimum tronqué inf A pour un ensemble A R est donné par inf A = inf A si A et inf =. La solution du problème d arrêt optimal (comme de la plus part des problèmes d optimisation) passe par la détermination d une fonction valeur Z n associé aux différent choix qui sont encore disponibles au temps n. La fonction valeur représente le gain sur lequel on peut espérer en fonction de tous l information que j ai accumulé jusqu au temps n, i.e. de F n. Elle doit satisfaire les propriétés suivantes: Z n F n : elle est un processus adapté. On doit être capable de la déterminer seulement en fonction des informations disponibles au temps n. Z n Y n : au temps n ce que j espère gagner ne peut pas être inférieur à ce que je peux gagner en m arrêtant tout de suite à n. Z n E[Z n+1 F n ] : ma position a une valeur qui n est pas inférieure à ce que j espère gagner en moyenne à l étape suivante (étant donné que je connais déjà F n ). En effet à chaque étape j ai deux choix (m arrêter ou continuer) sauf au temps final où je dois forcement m arrêter et donc gagner Y. On défini donc la fonction valeur par Z = Y, Z n = sup (Y n, E[Z n+1 F n ]) pour 1 n< (2) Elle est une sur-martingale qui majore Y. En effet on va montrer qu elle est l enveloppe de Snell de Y, i.e. la plus petite sur-martingale Q tel que Q n Y n pour tout 0 n. Théorème 4. Soit (Y n ) n 1 un processus adapté tel que E Y n < pour tout n 1. On défini Z n par l eq. ( 2) et un t.a. T = inf {k : Y k = Z k }. Alors la suite (Z n T ) n 1 est une martingale et E[Z 1 ] = E[Z T ] = E[Y T ] = J.

Arrêt optimal en horizon fini 3 Le t.a. T est optimal et Z est l enveloppe de Snell de Y. Remarque 5. On utilisera souvent des écritures du genre T = inf {k : Y k = Z k } pour définir des temps d arrêt. Ils sont abrégées pour T (ω) = inf {k : Y k (ω) = Z k (ω)}. Exercice: montrer que il s agit bien d un temps d arrêt. Démonstration. Par définition Z n E[Z n+1 F n ] et Z n Y n. Sur l événement {T n} on a Z n = E[Z n+1 F n ] donc le processus Z n Z 6 n T est une martingale par rapport à (F n) n 1. En effet E[1 A Z (n+1) T ] = E[1 A Z n T ] pour tout A F n. Donc si on considère les deux temps d arrêt n T et T on a n T T et E[Z T F n T ] = Z n T qui équivaut à dire E[Z T F n T ] =Z n T. En prenant l espérance on a, pour tout t.a. T : E[Y T ] (1) E[Z T ] (2) E[Z 1 ] = (3) E[Z T ] = (4) E[Y T ] où l inégalité (1) est donne par la propriété que Y n Z n pour tout n et donc pour tout t.a. T, l inégalité (2) est la propriété de sur-martingale de Z n par rapport au t.a. T, l égalité (3) est donne par la propriété de martingale du processus arrêté Z n et enfin l égalité (4) est du au fait que Y T = Z T par définition de T. Cela étant vrai pour n importe quelle t.a. T on a que E[Y T ] = J et donc que T est un t.a. optimal pour Y. Le gain optimal est donné par J = E[Z 1 ]. On va montrer que Z est l enveloppe de Snell de Y : en effet soit Q un autre sur-martingale qui domine Y : au temps final on a Q Y = Z. De plus si on a Q n Z n pour tout n > k alors Q k E[Q k+1 F k ] E[Z k+1 F k ] et Q k Y k, donc on a aussi Q k Z k et on a établi la domination aussi a l instant k. Par induction (rétrograde) on a domination à tout temps 1 k et donc Z est effectivement la plus petite des sur-martingales qui dominent Y. On peut conclure que le gain optimal est donné par l espérance en 1 de l enveloppe de Snell de Y. Corollaire 6. Le t.a. T est le plus petit t.a. optimal: si S est un autre t.a. optimal alors T S presque sûrement. Démonstration. Supposons que P(T > S) > 0. Alors pour ω Ω tel que T (ω) > S(ω) on a que Y S (ω) < Z S (ω) car T (ω) est le premier k ou on a l égalité Y k (ω) = Z k (ω). Comme l événement {T > S } a une probabilité positive on obtient que E[Y S ] < E[Z S ] strictement. Mais par la propriété de sur-martingale de Z on en déduit que E[Y S ] < E[Z S ] E[Z 1 ] = J et cela est en contradiction avec l hypothèse que S est optimal (i.e. E[Y S ] = sup T E[Y T ] = J ). Remarque 7. Si F est une v.a. positive ( 0) et l événement {F > 0} a probabilité strictement positive, alors E[F] > 0. En effet si P(F > 0) > 0 alors P(F ε) > 0 pour ε > 0 suffisamment petit (pourquoi?). Et donc E[F] E[F I F ε ] E[εI F ε ] εp(f ε) >0. Remarque 8. On observe qu une définition équivalente de T est T = inf {k : Y k E[Z k+1 F k ] } Corollaire 9. Le temps d arrêt T = inf {k : Y k > E[Z k+1 F k ]} est le plus grand temps d arrêt optimal: si S est un t.a. optimal alors S T p.s.. Démonstration. Supposons que P(T < S) > 0. On remarque que Z n = Z n (T +1) est une martingale (en effet si n T alors Y n E[Z n+1 F n ] et donc Z n = E[Z n+1 F n ]). D une part on a que E[Z S F S ] = Z S par la martingalité de Z. On remarque aussi que {T S} F S et donc que Y S I T S Z S I T S = Z S I T S = E[Z T I T S F S ] =E[Z T I T S F S ]. (3) D autre part, si on pose Z +1 = Z alors (Z n ) n=1,,+1 est encore une sur-martingale et donc on a que E[Z S (T +1) F T +1] Z T +1 (inégalité de sur-martingale avec les deux t.a. T + 1 S (T +1) + 1). Pour le fait que {T <S} F T et que Y S Z S : E[Y S I T <S] E[Z S I T <S] = E[Z S (T +1) I T <S] = E[E[Z S (T +1) F T +1] I T <S] (4) E[Z T +1 I T <S] = E[E[Z T +1 F T ] I T <S] < E[Y T I T <S] E[Z T I T <S]

4 Section 2 où on a utilisé aussi le fait que par la définition de T on a Y T > E[Z T +1 F T ]. L eq. (3) et l eq. (4) donnent que E[Y S ] = E[Y S I T S] + E[Y S I T <S] < E[Z T I T S] + E[Z T I T <S] = E[Z T ] = E[Y T ] qui est en contradiction avec l hypothèse d optimalité de S. Remarque 10. Il sera utile de donner une preuve détaillé du fait que Y T > E[Z T +1 F T ]. Commencer par montrer que si F est une v.a. intégrable et T est un t.a. alors E[F F T ]I T =n = E[F F n ]I T =n = E[F I T =n F n ]. De suite écrire Y T = n=1 Y n I T =n et conclure. 2.1 Problèmes avec structure markovienne Dans cette section on considère des problèmes d arrêt optimal (horizon fini) pour lesquels le processus des gains Y est une fonction connue d une chaîne de Markov X pour la filtration F. On montre que pour cette classe de problèmes la fonction valeur Z a une forme simple. Un processus de Markov X pour la filtration F et à valeurs dans l espace dénombrable S est un processus adapté (X n ) n=1,2, tel que X n : Ω S et que P(X n+1 = x F n )=P(X n+1 = x X n ) =P n (X n, x) x S, n 1 où P n est le noyau de transition du processus de Markov au temps n P n (x, y) = P(X n+1 = y X n = x) qui vérifie y S P n(x, y) = 1 pour tout x S et n 1. Si P n (x, y) = P(x, y) indépendamment de n on dit que le processus de Markov est homogène. P n est aussi appelé matrice de transition. Exemple 11. Dans le problème de la princesse la suite (X n ) n=1,, est un processus de Markov avec espace d états S = {1,, } et noyau de transition donné par P n (x, y) = P(X n+1 = y X n = x)=p(x n+1 = y)= 1 n + 1 I 1 y n+1 par indépendance des X n. On remarque que ce n est par un processus homogène en temps. Exemple 12. Dans le problème de Moser si on fait l hypothèse que la loi des X n est à valeurs dans l espace dénombrable S on a que les X n constituent un processus de Markov avec matrice de transition homogène P(x, y) =π(y) où π(y)=p(x 1 = y). Soit X un processus de Markov pour la filtration F et le processus des gains soit de la forme Y n = ϕ n (X n ) pour une famille de fonctions {ϕ n : S R: n = 1,, }. Considérons le problème d arrêt optimal associé. Par induction on montre que Z n σ(x n ) i.e. qu il existent des fonctions V n : S R telles que Z n = V n (X n ). En effet Z = Y = ϕ (X ) σ(x ) donc on peut prendre V (x) = ϕ (x). Si on suppose que Z n+1 = V n+1 (X n+1 ) σ(x n+1 ) alors on a que E[Z n+1 F n ] = E[V n+1 (X n+1 ) F n ] = E[V n+1 (X n+1 ) X n ] par la propriété de Markov et donc que Z n = sup (Y n, E[Z n+1 F n ]) = sup (ϕ n (X n ), E[V n+1 (X n+1 ) X n ]) = V n (X n ) pour une fonction V n. Cela conclut l argument d induction. En utilisant la matrice de transition on peut écrire que E[V n+1 (X n+1 ) X n ] = y S V n+1 (y)p n (X n, y)=p n V n+1 (X n ) où on a utilisé la notation Pψ(x) = y S P(x, y)ψ(y). Les fonctions V n sont données par l itération suivante: V (x) = ϕ (x) et V n (x)=sup (ϕ n (x), P n V n+1 (x)) pour1 n <. La règle d arrêt T devient T = inf {n : ϕ n (X n ) = V n (X n )} = inf {n : ϕ n (X n ) P n V n+1 (X n )}. Donc si on défini les ensembles D n = {x S: ϕ n (x) = V n (x)} = {x S: ϕ n (x) P n V n+1 (x)} on a que T = inf {n : X n D n }: le premier temps où X n entre dans le domaine D n (qui change lui aussi avec le temps).

Arrêt optimal en horizon fini 5 Supposons que la suite X soit donnée par des v.a. indépendantes. Dans ce cas la matrice de transition est P n (x, y) = π n (y) où π n (y) = P(X n = y) est la loi de X n. On voit que P n ψ(x) ne dépend pas de x et P n ψ(x) = y S ψ(y)π n(y) = E[ψ(X n )]. La fonction valeur est V n (x) = sup (ϕ n (x), E[V n+1 (X n+1 )]). Si on note c n = E[V n (X n )] alors c = E[ϕ (X )], c n = E[sup (ϕ n (X n ), c n+1 )] et T = inf {n : ϕ n (X n ) > c n+1 }. Le problème de la détermination de la fonction valeur est donc ramené au calcul des constantes c n qui dépendent seulement des ϕ n et des lois des X n. Le gain moyen optimal est donné par c 1 = E[Z 1 ]. 2.2 Problèmes monotones Définition 13. On défini la règle d anticipation à une étape (1-step lookahead rule ou 1-sla) pour le problème avec horizon en étant donnée par le temps d arrêt T 1sla = inf {n < : Y n E[Y n+1 F n ]}. Autrement dit la règle 1-sla demande de s arrêter à n si n est le premier temps où le gain Y n est supérieur ou égale au gain moyen qu on peut réaliser en s arrêtant à la prochaine étape. On s arrête à si Y n < E[Y n+1 F n ] pour tout n [1, 1]. Lemme 14. On a que T 1sla T et donc par le Corollaire 6 que T 1sla Tˆ pour tout t.a. optimal Tˆ. Démonstration. Pour tout n < on a que E[Y n+1 F n ] E[Z n+1 F n ]. Alors Y n < E[Y n+1 F n ] E[Z n+1 F n ] pour tout n < T 1sla ce que implique que T 1sla T. Le lemme dit que si la règle 1-sla demande de continuer alors il est optimale de le faire (car n importe quelle règle d arrêt optimale demande aussi de continuer). Définition 15. Le problème d arrêt est dit monotone ssi A 1 A 2 A 3 sûrement où A k est l événement A n = {Y n E[Y n+1 F n ]} F n. A 1 presque Théorème 16. La règle 1-sla est optimale pour tout problème monotone d horizon fini. Démonstration. Il suffit de montrer que T 1sla = T. On sait déjà que T 1sla T. Pour conclure il nous reste à établir que T 1sla T p.s.. Sur l événement {T 1sla = k} on a que A k est vérifie. En conséquence, pour la monotonie du problème, on a que tout A n pour k n 1 sont vérifies. Mais cela entraîne que A 1 Y 1 E[Y F 1 ] = E[Z F 1 ] Z 1 = Y 1 par A 2 on a que Y 2 E[Y 1 F 2 ] = E[Z 1 F 2 ] Z 2 = Y 2 et aussi de suite jusqu au prouver que Y k = Z k et donc que T k = T 1sla car T est le premier temps n où l égalité Y n = Z n est vérifié. Donc on a montré que nécessairement T T 1sla et donc que T = T 1sla.