L3 MIS 4.3 Processus de Poisson non-homogène Un processus de Poisson est dit non-homogène lorsque son intensité dépend du temps. Les postulats précédents deviennent : (i) P(N(t+ h) N(t)= N(t)= x)=λ(t)h+ o(h). (ii) P(N(t+ h) N(t)> N(t)= x)= o(h). On établit alors le résultat suivant (cf. TD 6, exercice 5) : P(N(t)= k)= Λ(t)k k! e Λ(t) avec Λ(t)= t 0 λ(s)ds. Λ est appelé mesure de concentration ou encore compensateur du processus. On peut donner une définition du processus de Poisson non homogène analogue la définition 5 : Définition 6 - Soit {N(t), t 0}, un processus de comptage sur R +. On note N(A) le nombre d événements survenus dans A, un intervalle de R +. On dit que {N(t), t 0} est un processus de Poisson de mesure de concentration Λ, si : quelque soit (A, A 2,..., A m ) une partition de R +, les variables aléatoires N(A ), N(A 2 ),..., N(A m ) sont indépendantes. pour tout intervalle A de R +, la loi de N(A) est une loi de Poisson de paramètre Λ(A) : Pr(N(A)= k)= Λ(A)k k! exp{ Λ(A)} () Remarquons que : EN(A)]= EN(0,b))] EN(0,a))]=Λ(b) Λ(a) Loi des dates d événements Notons, comme précédemment, S k, la date où se produit la kème événement. La relation (4) nous permet d écrire : + Λ(t) i Pr(S k t)= Pr(N(t) k)= i=k i! e Λ(t) En dérivant, on obtient sans difficulté une expression de la densité de la loi de S k en fonction de la mesure de concentration : f Sk (t)= Λ(t)k (k )! Λ (t) e Λ(t) (2) 40
PROCESSUS ALÉATOIRES - CHAÎNES DE MARKOV Loi des interarrivées Elle s obtient en utilisant la relation qui existe entre les dates et le nombre d événements. En effet, Pr(S k S k > x S k = s)= Pr(Ns,s+ x]=0) On a donc : Pr(S k S k > x S k = s)= exp{ Λ(s+ x) Λ(s)]} On pourra donc calculer la loi des interarrivées par : Pr(S k S k > x) = = + 0 + 0 Pr(S k S k > x S k = s) f Sk (s)ds exp{ Λ(s+ x)} Λ(s)k 2 (k 2)! dλ(s) Exemple Un exemple classique de processus de Poisson non homogène est le processus de Weibull dont l intensité est de la forme : λ(t)= β α β tβ. La loi de N(t) est alors une loi de Poisson de paramètre : t ( ) β t β Λ(t)= 0 α β uβ du=. α Posons Λ(t)=λ.t β avec λ=/α β, la loi de S k s écrira : f Sk (t)= (λ.tβ ) k (k )!.βλtβ exp{ λ.t β }= λk Γ(k).tkβ.e λ.tβ Le calcul de la loi des interarrivées est difficile. 4.4 Processus de Naissance Une généralisation naturelle du processus de Poisson consiste à considérer que la probabilité d occurrence d un événement à une date donnée dépend du nombre d événements qui s est déjà produit. Cette situation se rencontre en biologie dans l étude de la reproduction d où le nom : Processus de Naissance. Il trouve également de nombreuses applications industrielles, en particulier dans l étude des phénomènes de queue. Ces processus appartiennent à la famille des processus de Markov (états discrets, temps continu). On fait l hypothèse de stationnarité i.e. la probabilité de transition : p i, j (t) = P( N(t+ u) = j 4
L3 MIS N(u)= i ), i, j = 0,,2,..., ne dépend pas de u. Dans le processus de naissance, l occurence de l événement d intérêt dépend du nombre d événement qui a déjà eu lieu. Un processus de naissance peut donc être vu comme un processus de Poisson particulier où l intensité ne serait plus constante mais dépendante de la taille de la population. Définition 7 Un processus de Markov {N(t), t 0} à valeurs dans Z est un processus de naissance ssi il satisfait les conditions suivantes : Pour h 0, (i) P(N(t+ h) N(t)= N(t)= n)=λ n h+ o,n (h) (ii) P(N(t+ h) N(t)=0 N(t)= n)= λ n h+ o 2,n (h) (iii) P(N(t+ h) N(t)<0 N(t)= n)=0, (n 0) Un exemple classique d intensité est λ n = nβ. La probabilité de voir apparaître un nouvel individu dans la population est directement proportionnelle à la taille de la population. On appelle ce processus le processus de Yule. L hypothèse sous-jacente est que chaque individu à une probabilité βh+ o(h) de donner naissance à un nouvel individu dans un intervalle de longueur infinitésimale h. Si on supppose l indépendance et pas d interactions, on peut écrire : P(N(t+ h) N(t)= N(t)= n)=c n βh+ o(h)] βh]n = nβh+ o n (h). Sans perte de généralité et pour simplifier les calculs, on ajoute parfois le postulat N(0)=0. Des postulats (i) et (ii), on déduit : P(N(t+ h) N(t) 2 N(t)= n)= o,n (h)+ o 2,n (h) (3) On pose p n (t)= P(N(t)= n). On a p 0 (t+ h)= p 0 (t)p 0 (h). D après (i), Pr(N(h) N(0)=0 N(0)=0)= λ 0 h+ o,0 (h) d où p 0 (h)= λ 0 h+ o,0 (h). On peut donc écrire : p 0 (t+ h) p 0 (t)= λ 0 hp 0 (t)+ o,0 (h)p 0 (t). En divisant par h et en passant à la limite, il vient l équation différentielle : p 0 (t)= λ 0p 0 (t) 42
PROCESSUS ALÉATOIRES - CHAÎNES DE MARKOV dont la solution est : p 0 (t)=exp{ λ 0 t} puisque p 0 (t)=. Considérons le cas k> 0. En appliquant le théorème des probabilités totales, il vient : p n (t+ h) n = P(N(t+ h)= n)= P(N(t+ h)= n N(t)= k) P(N(t)= k) n = P(N(t+ h) N(t)= n k N(t)= k) p k (t) = P(N(t+ h) N(t)=0 N(t)= n) p n (t) + P(N(t+ h) N(t)= N(t)= n ) p n (t) n 2 + P(N(t+ h) N(t)= n k N(t)= k) p k (t) Or pour,,...,n 2, on a : P(N(t+ h) N(t)= n k N(t)= k) p k (t) P(N(t+ h) N(t)= n k N(t)= k) P(N(t+ h) N(t) 2 N(t)= k) = o,k (h)+ o 2,k (h) On écrira donc : P(N(t+ h) N(t)= n k N(t)= k)= o 3,n,k (h), pour,...,n 2. De plus, P(N(t+ h) N(t)=0 N(t)= n)= λ n h+ o,n (h) et P(N(t+ h) N(t)= N(t)= n )=λ n h+ o,n (h) d après (i) et (ii). On a donc : et n 2 p n (t+ h)= p n (t)λ n h+ o,n (h)]+ p n (t) λ n h+ o,n (h)]+ p k (t)o 3,n,k (h) p n (t+ h) p n (t)=λ n hp n (t) λ n hp n (t)+ o n (h) } {{ } o n (h) En divisant par h de part et d autre de l égalité et en passant à la limite, il vient l équation différentielle : p n (t)= λ n p n (t)+λ n p n (t) pour n. Il s agit donc de résoudre le système d équations différentielles : p 0 (t)= λ 0p 0 (t) p n (t)= λ n p n (t)+λ n p n (t), n 43
L3 MIS avec les conditions initiales : p 0 (0)= et p n (0)=0, n>0. Procédons par récurrence. La première équation donne : p 0 (t)= e λ0t. Pour n =, on a l équation : p (t)+λ p (t) = λ 0 p 0 (t) qui est une équation différentielle du er ordre avec second membre. La solution de l équation sans second membre est : p (t)=ce λt. On fait varier la constante et on calcule : p (t)=c (t)e λ t λ C(t)e λ t. C(t) est alors obtenu en résolvant : C (t)e λ t = λ 0 e λ 0t. Il vient : C(t)= λ 0 λ λ 0 e (λ 0 λ )t + K. Or p (0)=0=C(0) donc K = λ 0 λ λ 0 et Pour n=2, on a : p 2 (t)+λ 2p 2 (t)=λ p (t). p (t)= λ 0 λ λ 0 e λ 0t e λ t ]. Comme précédemment, on résout cette équation sans le second membre. On obtient : p 2 (t) = Ce λ 2t. On fait varier la constante et on résout : C (t)e λ 2t = λ p (t) soit C (t)= λ 0λ λ λ 0 e (λ 0 λ 2 )t e (λ λ 2 )t ]. Il vient : C(t)= λ 0λ e (λ 0 λ 2 )t ] + e (λ λ2)t + K λ λ 0 λ 2 λ 0 λ λ 2 Or p 2 (0)=0=C(0), donc K = λ ] 0λ +. λ λ 0 λ 2 λ 0 λ λ 2 On a alors la solution p 2 (t) : λ 0 λ e (λ 0 λ 2 )t ] p 2 (t) = + e (λ λ2)t e λ 2t λ λ 0 λ 2 λ 0 λ λ 2 λ 0 λ e λ 0 t e λ 2t = + e λt e λ2t ] λ λ 0 λ 2 λ 0 λ λ 2 e λ 0t = λ 0 λ (λ λ 0 )(λ 2 λ 0 ) + e λt (λ λ 0 )(λ λ 2 ) e λ2t où B 0,2 = = λ 0 λ B 0,2 e λ 0t + B,2 e λ t + B 2,2 e λ 2t ] (λ λ 0 )(λ 2 λ 0 ), B,2= On conjecture alors peut alors pour n 2, (λ 0 λ )(λ 2 λ ) et B 2,2= (λ 2 λ 0 )(λ λ 2 ) (λ 0 λ 2 )(λ λ 2 ). p n (t)=λ 0 λ n B 0,n e λ 0t + +B n,n e λ nt ] ] 44
PROCESSUS ALÉATOIRES - CHAÎNES DE MARKOV avec, en supposant que les λ k sont tous distincts, B 0,n = B k,n = B n,n = (λ λ 0 ) (λ n λ 0 ) (λ 0 λ k ) (λ k λ k )(λ k+ λ k ) (λ n λ k ) (λ 0 λ n ) (λ n λ n )., pour 0< k<n, Soin est laissé au lecteur de montrer ce résultat par récurrence. Exemple Dans le cas du processus de Yule, en supposant qu il y a initialement un individu dans la population, l intensité s écrit : λ n = (n+)β. On trouve alors en appliquant les formules ci-dessus : p n (t)= e βt ( e βt ) n, n. (cf. Exercice 3, TD 7). N(t) suit donc une loi géométrique de paramètre e βt. Supposons que l on ait initialement N individus dans la population. A chaque individu est associé un processus de naissance d intensité λ(t)=βt. On peut alors caractériser la loi de la taille de la population à un instant quelconque t, N(t) comme la loi de la somme de N v.a. indépendantes de loi géométrique de paramètre e βt. On en déduit alors (voir Exercice 8, TD ) que le nombre de naissances suit une loi binomiale négative de paramètres (N, e βt ). On peut montrer que le temps qui s écoule entre deux naissances est une variable aléatoire dont la loi est exponentielle. Plus précisement, le temps T i qui s écoule entre la ième naissance et la (i+)ème naissance suit une loi exponentielle de paramètre λ i. On peut montrer également que ces v.a. T i sont indépendantes. 45