De la marche aléatoire persistante vers le processus du télégraphe.

Documents pareils
Commun à tous les candidats

MATHS FINANCIERES. Projet OMEGA

Module 7: Chaînes de Markov à temps continu

Le modèle de Black et Scholes

3. Conditionnement P (B)

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Probabilités III Introduction à l évaluation d options

Amphi 3: Espaces complets - Applications linéaires continues

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Moments des variables aléatoires réelles


Processus aléatoires avec application en finance

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Travaux dirigés d introduction aux Probabilités

Calcul Stochastique pour la finance. Romuald ELIE

Cours d Analyse. Fonctions de plusieurs variables

Programmes des classes préparatoires aux Grandes Ecoles

Continuité et dérivabilité d une fonction

MODELES DE DUREE DE VIE

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

4. Martingales à temps discret

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Intégration et probabilités TD1 Espaces mesurés Corrigé

TD1 Signaux, énergie et puissance, signaux aléatoires

Modélisation aléatoire en fiabilité des logiciels

Génération de signaux multifractals possédant une structure de branchement sous-jacente.

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Espérance conditionnelle

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Chp. 4. Minimisation d une fonction d une variable

I. Polynômes de Tchebychev

F411 - Courbes Paramétrées, Polaires

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Équation de Langevin avec petites perturbations browniennes ou

6 Equations du première ordre

Introduction à l analyse numérique : exemple du cloud computing

Limites finies en un point

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

4 Distributions particulières de probabilités

RO04/TI07 - Optimisation non-linéaire

Travail en collaboration avec F.Roueff M.S.Taqqu C.Tudor

Comparaison de fonctions Développements limités. Chapitre 10

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

Markov processes and applications to queueing/risk/storage theory and mathematical biology

Repérage d un point - Vitesse et

Introduction à la théorie des files d'attente. Claude Chaudet

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Correction du Baccalauréat S Amérique du Nord mai 2007

Programmation linéaire

Table des matières. I Mise à niveau 11. Préface

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Intégration et probabilités TD1 Espaces mesurés

Cours de Calcul stochastique Master 2IF EVRY. Monique Jeanblanc

Variables Aléatoires. Chapitre 2

Chapitre 7 : Intégration sur un intervalle quelconque

14. Introduction aux files d attente

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

Finance, Navier-Stokes, et la calibration

Modélisation des risques

Condition de stabilité d'un réseau de les d'attente à deux stations et N classes de clients 1

Chafa Azzedine - Faculté de Physique U.S.T.H.B 1

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Simulation de variables aléatoires

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

MÉTHODE DE MONTE CARLO.

Produits de crédit en portefeuille

Théorèmes du Point Fixe et Applications aux Equations Diérentielles

Partie 1 - Séquence 3 Original d une fonction

Modèles et Méthodes de Réservation

Texte Agrégation limitée par diffusion interne

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

TSTI 2D CH X : Exemples de lois à densité 1

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

Température corporelle d un castor (une petite introduction aux séries temporelles)

Chapitre 2 Le problème de l unicité des solutions

Propriétés des options sur actions

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Théorie de la Mesure et Intégration

Polynômes à plusieurs variables. Résultant

Probabilités sur un univers fini

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Cours de méthodes de scoring

CCP PSI Mathématiques 1 : un corrigé

Options exotiques. April 18, 2000

Equations différentielles linéaires à coefficients constants

Résumé des communications des Intervenants

Génération de scénarios économiques

1.1.1 Signaux à variation temporelle continue-discrète

Commande de systèmes non retardés par retour de sortie statique échantillonné

Loi binomiale Lois normales

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

Capes Première épreuve

Fonctions de plusieurs variables

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Systèmes de communications numériques 2

Transcription:

De la marche aléatoire persistante vers le processus du télégraphe. Cénac, Chauvin, Herrmann, Vallois Université de Bourgogne 28 mars 2012 Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 1 / 26

Introduction Plan de l exposé 1 Introduction : ajouter de la mémoire dans les modèles stochastiques 2 Mémoire de courte durée : marches aléatoires persistantes et comportement asymptotique 3 Processus du télégraphe (processus déterministe par morceaux). Propriétés. 4 Mémoire de longueur variable et processus déterministes par morceaux. Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 2 / 26

Introduction La plupart des modèles stochastiques appliqués à la finance ou à l assurance partent du principe d absence de mémoire tant pour les événements observés que pour l action d agents sur les marchés. La plupart des modèles sont markoviens. Dans la pratique, les événements (les sinistres, par exemple) et le comportement des acteurs sont des événements présentant une corrélation temporelle. Deux exemples: Telesca et Lovallo (Physica A, 2006) Are global terrorist attacks time-correlated? Recrudescences d agressions ou acalmies. persistant economic fears keep investors on edge Fin. Times, 2008. Possibilités: 1) garder un modèle markovien qui de temps en temps change de classe de risques. 2) introduire de la mémoire dans les modèles pour appréhender la persistance inhérente au sous-jacent. Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 3 / 26

marches persistantes Le point de départ... On considère sans doute le modèle additif markovien le plus simple (sans être trivial) en temps discret: la marche aléatoire symétrique. Ses accroissements (Y n, n 0) sont définis dans { 1, 1}, sont indépendants et P(Y n = 1) = P(Y n = 1) = 1/2. On définit la marche t X t = Y n, t N +. n=0 Le processus est sans mémoire. Le changement d échelle classique permet d obtenir un processus stochastique en temps continu markovien: le mouvement brownien ( x 0). Z s = x X s/ T, T = 2 x Le processus interpolé: ( Z s, s 0) converge en loi vers (W s, s 0). Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 4 / 26

marches persistantes Un modèle à mémoire courte Définition d une marche aléatoire persistante dont la mémoire est de longueur 1: t X t = Y i, t N +. i=0 Les accroissements (Y t ) forment une chaîne de markov de probabilité de transition ( ) 1 α α π = 0 < α < 1, 0 < β < 1. β 1 β si α + β = 1, les accroissements sont indep. (sans mémoire) le cas symétrique: α = β a été étudié (description de la loi de X t ) par Fürth ( 20) Taylor ( 21) Goldstein ( 51) Weiss ( 94, "02) Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 5 / 26

marches persistantes X t la marche persistante 1 β β 1 α 1 α 1 α 0 α β α X 0 = Y 0 = 1 t Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 6 / 26

marches persistantes La persistance (qui provient d une mémoire à court terme) a une influence non négligeable sur le processus à long terme (Vallois & Tapiero "07): E +1 [X t ] := E[X t X 0 = Y 0 = +1] = α β 2β (t + 1) 1 ρ (1 ρ) 2 (1 ρt+1 ). avec ρ = 1 α β. Fonction génératrice: Φ(λ, t) = E +1 [λ Xt ], (λ > 0). Proposition La fonction génératrice satisfait Φ(λ, t) = a + θ t + + a θ t avec θ ± = 1 2 ( 1 α ( 1 α 2 D = + (1 β)λ) 4(1 α β) λ λ + (1 β)λ ± ) D, a + = (1 β)λ2 + β λθ D et a = λ a +. Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 7 / 26

marches persistantes Idée de preuve: la fonction génératrice est déterminée grâce à la décomposition Φ(λ, t) = Φ (λ, t) + Φ + (λ, t), où Φ (λ, t) = E[λ Xt 1 {Yt= 1}] et Φ + (λ, t) = E[λ Xt 1 {Yt=1}]. solution du système: Φ (λ, t + 1) = 1 α λ Φ (λ, t) + β λ Φ +(λ, t) Φ + (λ, t + 1) = αλφ (λ, t) + (1 β)λφ + (λ, t) La distribution marginale du processus (X t, t N) dépend fortement de la mémoire courte de ses accroissements. Cette mémoire est elle encore présente dans la dynamique du processus limite (changement d échelle)? Z s = x X s/ T Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 8 / 26

marches persistantes Procédure de changement d échelle Soit (Y t, t N) une CM de transition ( π 1 α0 c = 0 x α 0 + c 0 x β 0 + c 1 x 1 β 0 c 1 x ). Soit (X t, t N) la marche aléatoire d accroissements (Y t ) et (Z s, s T N) le processus renormalisé Z s = x X s/ T, ( T > 0, x > 0). On notera ( Z s, s 0) l interpolation linéaire de Z. Quel est le processus limite lorsque T et x tendent vers 0? deux paramètres: le coefficient d asymétrie ρ 0 = 1 α 0 β 0 et η 0 = β 0 α 0. Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 9 / 26

marches persistantes Premier cas: le coefficient d asymétrie est différent de 1 Si ρ 0 = 1 α 0 β 0 1 alors la limite par changement d échelle fait disparaître la mémoire: la processus limite est markovien. 1 Si r T = x avec r > 0. Alors ( Z t, t 0) rtη 0 1 ρ 0. 2 Si r T = 2 x avec r > 0, alors (ξ t, t 0) defini par ξt = Z t t rη 0 + (1 ρ 0 ) T converge en loi vers (ξt 0, t 0), quand x 0, où ( τ ξt 0 = 2r + η ) 0τ r(1 + ρ 0 ) ( η 2 ) 0 1 ρ 0 (1 ρ 0 ) 2 t + 1 1 ρ 0 (1 ρ 0 ) 2 W t, avec τ = (c 0 + c 1 )/2 et τ = (c 1 c 0 )/2. Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 10 / 26

marches persistantes Second cas: le coefficient d asymétrie est égal à 1 α 0 = β 0 = 0, dans ce cas, les transitions sont données par ( ) π 1 c0 = x c 0 x (c c 1 x 1 c 1 0, c 1 > 0). x Théorème (2010) La marche aléatoire interpolée ( Z t, t 0) converge en loi ( x = T ) vers le processus du télégraphe intégré (ITN) (Z c 0,c 1 t, t 0). Description de l ITN: (e n, n 1) une suite d exponentielle E(1) i.i.d. N c 0,c 1 t = k 1 1 {λ1 e 1 +λ 2 e 2 +...+λ k e k t}, avec λ k = On définit Z c 0,c 1 t = t 0 ( 1) Nc 0,c 1 u du. Dans le cas symétrique (i.e. c 0 = c 1 ), on note N c 0 t (resp. Z c 0 { 1/c0 si k est pair 1/c 1 sinon. Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 11 / 26 t )

marches persistantes Z t 0 λ 1 e 1 λ 2 e 2 λ 3 e 3 λ 4 e 4 t le processus du télégraphe intégré Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 12 / 26

marches persistantes Idée de preuve: On note T 1 = inf{t 1 : Y t Y 0 } et T k+1 = inf{t > T k : Y t Y Tk }; k 1. Alors les variables aléatoires A k = T k T k 1 sont indépendantes et T A 2k (resp. T A 2k+1 ) converge en loi vers E(1/c 0 ) (resp. E(1/c 1 )). Remarques le processus du télégraphe intégré n est pas un processus markovien. Il possède une mémoire instantanée. (Z t, D Z t ) et (Z t, N t ) sont markoviens. le ITN est l un des processus déterministes par morceaux les plus simples. il n y a que ces deux processus limites possibles: le télégraphe intégré (mémoire instantanée) ou le Brownien avec dérive (sans mémoire). Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 13 / 26

Processus du télégraphe Description du télégraphe intégré. Propriétés Rappel: Z c 0,c 1 t = t 0 ( 1) Nc 0,c 1 u du avec le processus de comptage N c 0,c 1 t = k 1 1 {λ1 e 1 +λ 2 e 2 +...+λ k e k t}, avec λ k = { 1/c0 si k est pair 1/c 1 sinon. Proposition La loi de Z c 0,c 1 t est donnée par f (t, x) = P(Z c 0,c 1 t dx) = e c 1t δ t (dx) + e τt f (t, x)1 [ t,t] (x), [ c 0 c 1 (t + x) ( )] e τx I 1 ( c 0 c 1 (t t x 2 x 2 ) )+c 1 I 0 c 0 c 1 (t 2 x 2 ) 2 où τ = (c 0 + c 1 )/2, τ = (c 0 c 1 )/2 et I ν (ξ) = m 0 (ξ/2) ν+2m m!γ(ν+m+1). Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 14 / 26

Processus du télégraphe Description du générateur: si F : R N R est continue et bornée avec z F (z, n) de classe C 1 pour tout n alors d dt E[F (Z c 0,c 1 t, N c 0,c 1 t [ F )] = E z (Z c 0,c 1 t, N c 0,c 1 t )( 1) Nc 0,c 1 t [( + E ) F (Z c 0,c 1 t, N c 0,c 1 t + 1) F (Z c 0,c 1 t, N c 0,c 1 t ) )] t 2N+1} + c 11 c {N 0,c 1 t 2N}. ( c 0 1 {N c 0,c 1 En appliquant à F (z, n) = e µz 1 n 2N puis F (z, n) = e µz 1 n 2N+1 on obtient la transformée de Laplace E[e µz c 0,c 1 t ] = 1 [( µ + τ) sinh(t E) + E cosh(t ] E) e τt E avec E = µ 2 2τµ + τ 2. Et finalement F (µ, s) = 0 e st E[e µz c 0,c 1 t ]dt = s + 2τ µ (s + τ) 2 E ] Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 15 / 26

Processus du télégraphe Une petite curiosité... dans le cas symétrique Soit u(x, t) = 1 { } f (x + at) + f (x at), x R, t 0. 2 l unique solution de l équation des ondes 2 u t 2 = a2 2 u x 2, u(x, 0) = f (x), u (x, 0) = 0. t [ ( w(x, t) = E u x, t 0 ( 1)Nc s ds )], solution de l eq. du télégraphe (TE) 2 w w +2c t2 t = a2 2 w x 2, w(x, 0) = f (x), w t (x, 0) = 0. généralisation dans le cas asymétrique: système de deux équations le processus du télégraphe converge par changement d échelle vers un mouvement brownien (cas symétrique). Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 16 / 26

VLMC & Télégraphe généralisé Mémoire de longueur variable et processus déterministes par morceaux. La mémoire de longueur finie sur les accroissements de la marche aléatoire n aboutit qu à une mémoire instantanée par changement d échelle et passage à la limite. Besoin d un processus à mémoire de longueur variable On construit une chaîne de Markov (Y n, M n ) où (Y n ) est le processus des accroissements: la marche aléatoire est définie par X t = t n=0 Y n. M n N représente la mémoire des accroissements. ( ) ( ) π (i, k), (i, k + 1) = 1 π (i, k), ( i, 1) = 1 α i,k, i = ±1, k 1, En fait M n = inf{1 i n : Y n i Y n } Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 17 / 26

VLMC & Télégraphe généralisé Y n +1 (Y 2, M 2 ) 1 α +,1 1 α +,2 1 α +,3 α,2 1 (Y 0, M 0 ) 1 α,1 (Y 1, M 1 ) 1 M n Figure: Description d une trajectoire de (Y n, M n ) n 0 Une remarque : σ(y 0, M 0, M 1,..., M n ) = σ(m 0, Y 0,..., Y n ). Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 18 / 26

VLMC & Télégraphe généralisé M t X t 1 α +,1 α+,2 1 α,1 1 α,2 1 α,3 0 α,4 α+,1 α,1 t Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 19 / 26

VLMC & Télégraphe généralisé Le comportement en temps long de la chaîne de Markov permet de décrire l asymptotique de la marche aléatoire. Sous l hypothèse n 1 Θ ± := α ±,k ) = n 1 k=1(1 n 1 P ± (n) < la chaîne de Markov (Y t, M t ) t N admet une proba invariante. Ainsi E(X t ) lim = Θ 2 Θ 1. t t Θ 1 + Θ 2 De plus, si n 1 np ±(n) < avec alors il existe une constante C R telle que { lim E(X t ) t Θ } 2 Θ 1 = C. t Θ 1 + Θ 2 Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 20 / 26

VLMC & Télégraphe généralisé Loi de X t pour tout t N avec (Y 0, M 0 ) = (1, 1) (formule compliquée). Théorème En choisissant une variable géométrique τ indépendante de (X t ) avec P(τ = k) = µ k (1 µ), k 0. on obtient l expression de la fonction génératrice double E[λ Sτ ]: { ( ( ) (µ 1) λµ µ P λ) + P+ (λµ) + (λµ 1) P ( } µ λ) P+ (λµ) µ(λµ 1) P + (λµ) + λµ(µ λ) P ( µ λ) + (λµ 1)(µ λ) P ( µ λ) P+ (λµ) où P ± est défini pour 0 < x < 1 par P ± (x) = k 1 P ±(k)x k. la génératrice dble n est plus forcément une fraction rationnelle si α,k = α alors P (x) = k 1 (1 α)k 1 x k = x 1 (1 α)x. si α,k = 1 α/k, then P (x) = k 1 αk 1 x k (k 1)! = xe αx. Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 21 / 26

VLMC & Télégraphe généralisé Changement d échelle et processus limite Soit x > 0. On suppose α i,k = f i (k x ) x + α i,k,ε x, k 1, i = ± où f et f + sont des fonctions positives qui satisfont 0 f i (u)du =. On note ( Z t ) l interpolée linéaire de Z t = x X k, t = k t, avec := t = x. On définit le processus de comptage: N t = sup{n 0 : T n t} = n 1 1 { Tn t}, où T n est la suite des temps de changements d états des accroissements (Y n ). Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 22 / 26

VLMC & Télégraphe généralisé Théorème Soit Y 0 = M 0 = 1, une suite (e n, n 1) de v.a. indépendantes telle que t P(e 2n 1 > t) = exp f + (u)du, 0 t P(e 2n > t) = exp f (u)du. 0 On définit le processus de comptage N 0 t = n 1 1 {e 1 +...+e n t}, alors (N t, t 0) converge en loi vers (N 0 t, t 0) quand 0. Idée de preuve: P( (T 2k+1 T 2k ) > t) = (1 α +,1 )... (1 α +, t/ ). { } On pose δ (t) := log P( (T 2k+1 T 2k ) > t) = t/ j=1 log(1 α +,j ). Comme f + est une fonction continue, t/ lim δ t (t) = lim f + (j ) = f + (u)du. 0 0 0 j=1 Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 23 / 26

VLMC & Télégraphe généralisé Corollaire Soit m t = t sup{e 1 +... + e k : e 1 +... + e k t}. Condition initiale X0 = 1. On définit le processus mémoire renormalisé t Mt = M k, Yt = Y k pour k =. ( Z t, Yt, Mt Alors la convergence en loi suivante est vérifiée: ) ( t Zt 0 = De plus, 0 ( ) Zt 0, ( 1) N0 t, mt, t 0 et processus markoviens. 0 ( 1) N0 s ds, ( 1) N0 t, m t ), ( ( 1) N0 t, mt, t 0 ) sont des Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 24 / 26

VLMC & Télégraphe généralisé Lois des sauts de la dérivée 1 Si f est une fonction constante alors (e 2n ) est une suite d exponentielle (loi sans mémoire). 2 Si f (x) = αλx α 1 avec α > 0 et λ > 0 alors e 2n est une suite de v.a. de Weibull de paramètres (α, λ). 3 Si f (x) = λ x 1 {x x 0 } avec x 0 > 0, alors e 2n suit une loi de Pareto. Double transformée de Laplace Il est possible de calculer L(r, γ) := [ 0 e rt E qui est égal à e γz 0 t ] dt, r > 0, γ > 0, (r + γ)r (r γ)r + (r + γ) + R (r γ) + R + (r + γ) (r γ)r (r γ) + (r + γ)r + (r + γ) (r 2 γ 2 )R (r γ)r + (r + γ), avec R ± (z) = 0 e zt t 0 f ±(u) du dt, z R. Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 25 / 26

VLMC & Télégraphe généralisé Remarque: un lien entre le processus des accroissements (Y n ) (temps discret) et le double peigne (VLMC) décrivant les mots de longueur infinie dans un alphabet à deux lettres {0, 1}. Exemple:... 1000111010 Quelques questions ouvertes: loi du processus Zt 0 à t fixé: fait intervenir des sommes de lois de Weibull ou sommes de lois de Pareto ou... description du générateur et utilisation pour établir des ponts entre différentes EDP Cénac, Chauvin, Herrmann, Vallois () Université de Bourgogne, Dijon 28 mars 2012 26 / 26