4.3 Processus de Poisson non-homogène

Documents pareils
Moments des variables aléatoires réelles

Suites numériques 4. 1 Autres recettes pour calculer les limites

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

MODELES DE DUREE DE VIE

Simulation de variables aléatoires

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Probabilités sur un univers fini

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

4 Distributions particulières de probabilités

Introduction à la théorie des files d'attente. Claude Chaudet

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

Le modèle de Black et Scholes

4. Martingales à temps discret

Chapitre 2 Le problème de l unicité des solutions

Modélisation aléatoire en fiabilité des logiciels

TP N 57. Déploiement et renouvellement d une constellation de satellites

Module 7: Chaînes de Markov à temps continu

Texte Agrégation limitée par diffusion interne

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Fonctions homographiques

14. Introduction aux files d attente

Variables Aléatoires. Chapitre 2

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

La fonction exponentielle

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Intégrale de Lebesgue

Mathématiques financières

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

La mesure de Lebesgue sur la droite réelle

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Introduction au Calcul des Probabilités

Probabilités sur un univers fini

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel

Comment démontrer des formules sans effort? exposé de maîtrise

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

MA6.06 : Mesure et Probabilités

Fonctions de plusieurs variables

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Espérance conditionnelle

PROBABILITES ET STATISTIQUE I&II

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Loi d une variable discrète

Chapitre 2. Matrices

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Chapitre 1. L intérêt. 2. Concept d intérêt. 1. Mise en situation. Au terme de ce chapitre, vous serez en mesure de :

aux différences est appelé équation aux différences d ordre n en forme normale.

Université Paris-Dauphine DUMI2E 1ère année, Applications

Équation de Langevin avec petites perturbations browniennes ou

Intégration et probabilités TD1 Espaces mesurés Corrigé

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Peut-on imiter le hasard?

Modèles et Méthodes de Réservation

PRIME D UNE OPTION D ACHAT OU DE VENTE

Les indices à surplus constant

LISTE D EXERCICES 2 (à la maison)

Chaînes de Markov au lycée

Suites numériques 3. 1 Convergence et limite d une suite

Dualité dans les espaces de Lebesgue et mesures de Radon finies

3. Conditionnement P (B)

Sur certaines séries entières particulières

Markov processes and applications to queueing/risk/storage theory and mathematical biology

Mesure et Intégration (Notes de cours de L3)

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable

Limites finies en un point

Probabilités III Introduction à l évaluation d options

Exercices - Nombres complexes : corrigé. Formes algébriques et trigonométriques, module et argument

3 Approximation de solutions d équations

Processus de comptage, Poisson mélange, fonction de perte exponentielle, système bonus-malus.

1 Définition et premières propriétés des congruences

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en Énoncé.

Pierre Thérond Année universitaire

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Lagrange, où λ 1 est pour la contrainte sur µ p ).

Chapitre 1 Régime transitoire dans les systèmes physiques

Comparaison de fonctions Développements limités. Chapitre 10

TESTS D'HYPOTHESES Etude d'un exemple

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

ALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Calcul élémentaire des probabilités

Modélisation et simulation du trafic. Christine BUISSON (LICIT) Journée Simulation dynamique du trafic routier ENPC, 9 Mars 2005

Données longitudinales et modèles de survie

Correction de l examen de la première session

Optimisation Discrète

Bien lire l énoncé 2 fois avant de continuer - Méthodes et/ou Explications Réponses. Antécédents d un nombre par une fonction

Continuité en un point

Options exotiques. April 18, 2000

Coefficients binomiaux

Sujet 4: Programmation stochastique propriétés de fonction de recours

COURS GESTION FINANCIERE A COURT TERME SEANCE 2 COUVERTURE DU BESOIN DE FINANCEMENT CHOIX DU NIVEAU DU FONDS DE ROULEMENT

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Lois de probabilité. Anita Burgun

Que faire lorsqu on considère plusieurs variables en même temps?

Qu est-ce qu une probabilité?

Physique : Thermodynamique

Une forme générale de la conjecture abc

Probabilités. C. Charignon. I Cours 3

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. 29 mai 2015

Transcription:

L3 MIS 4.3 Processus de Poisson non-homogène Un processus de Poisson est dit non-homogène lorsque son intensité dépend du temps. Les postulats précédents deviennent : (i) P(N(t+ h) N(t)= N(t)= x)=λ(t)h+ o(h). (ii) P(N(t+ h) N(t)> N(t)= x)= o(h). On établit alors le résultat suivant (cf. TD 6, exercice 5) : P(N(t)= k)= Λ(t)k k! e Λ(t) avec Λ(t)= t 0 λ(s)ds. Λ est appelé mesure de concentration ou encore compensateur du processus. On peut donner une définition du processus de Poisson non homogène analogue la définition 5 : Définition 6 - Soit {N(t), t 0}, un processus de comptage sur R +. On note N(A) le nombre d événements survenus dans A, un intervalle de R +. On dit que {N(t), t 0} est un processus de Poisson de mesure de concentration Λ, si : quelque soit (A, A 2,..., A m ) une partition de R +, les variables aléatoires N(A ), N(A 2 ),..., N(A m ) sont indépendantes. pour tout intervalle A de R +, la loi de N(A) est une loi de Poisson de paramètre Λ(A) : Pr(N(A)= k)= Λ(A)k k! exp{ Λ(A)} () Remarquons que : EN(A)]= EN(0,b))] EN(0,a))]=Λ(b) Λ(a) Loi des dates d événements Notons, comme précédemment, S k, la date où se produit la kème événement. La relation (4) nous permet d écrire : + Λ(t) i Pr(S k t)= Pr(N(t) k)= i=k i! e Λ(t) En dérivant, on obtient sans difficulté une expression de la densité de la loi de S k en fonction de la mesure de concentration : f Sk (t)= Λ(t)k (k )! Λ (t) e Λ(t) (2) 40

PROCESSUS ALÉATOIRES - CHAÎNES DE MARKOV Loi des interarrivées Elle s obtient en utilisant la relation qui existe entre les dates et le nombre d événements. En effet, Pr(S k S k > x S k = s)= Pr(Ns,s+ x]=0) On a donc : Pr(S k S k > x S k = s)= exp{ Λ(s+ x) Λ(s)]} On pourra donc calculer la loi des interarrivées par : Pr(S k S k > x) = = + 0 + 0 Pr(S k S k > x S k = s) f Sk (s)ds exp{ Λ(s+ x)} Λ(s)k 2 (k 2)! dλ(s) Exemple Un exemple classique de processus de Poisson non homogène est le processus de Weibull dont l intensité est de la forme : λ(t)= β α β tβ. La loi de N(t) est alors une loi de Poisson de paramètre : t ( ) β t β Λ(t)= 0 α β uβ du=. α Posons Λ(t)=λ.t β avec λ=/α β, la loi de S k s écrira : f Sk (t)= (λ.tβ ) k (k )!.βλtβ exp{ λ.t β }= λk Γ(k).tkβ.e λ.tβ Le calcul de la loi des interarrivées est difficile. 4.4 Processus de Naissance Une généralisation naturelle du processus de Poisson consiste à considérer que la probabilité d occurrence d un événement à une date donnée dépend du nombre d événements qui s est déjà produit. Cette situation se rencontre en biologie dans l étude de la reproduction d où le nom : Processus de Naissance. Il trouve également de nombreuses applications industrielles, en particulier dans l étude des phénomènes de queue. Ces processus appartiennent à la famille des processus de Markov (états discrets, temps continu). On fait l hypothèse de stationnarité i.e. la probabilité de transition : p i, j (t) = P( N(t+ u) = j 4

L3 MIS N(u)= i ), i, j = 0,,2,..., ne dépend pas de u. Dans le processus de naissance, l occurence de l événement d intérêt dépend du nombre d événement qui a déjà eu lieu. Un processus de naissance peut donc être vu comme un processus de Poisson particulier où l intensité ne serait plus constante mais dépendante de la taille de la population. Définition 7 Un processus de Markov {N(t), t 0} à valeurs dans Z est un processus de naissance ssi il satisfait les conditions suivantes : Pour h 0, (i) P(N(t+ h) N(t)= N(t)= n)=λ n h+ o,n (h) (ii) P(N(t+ h) N(t)=0 N(t)= n)= λ n h+ o 2,n (h) (iii) P(N(t+ h) N(t)<0 N(t)= n)=0, (n 0) Un exemple classique d intensité est λ n = nβ. La probabilité de voir apparaître un nouvel individu dans la population est directement proportionnelle à la taille de la population. On appelle ce processus le processus de Yule. L hypothèse sous-jacente est que chaque individu à une probabilité βh+ o(h) de donner naissance à un nouvel individu dans un intervalle de longueur infinitésimale h. Si on supppose l indépendance et pas d interactions, on peut écrire : P(N(t+ h) N(t)= N(t)= n)=c n βh+ o(h)] βh]n = nβh+ o n (h). Sans perte de généralité et pour simplifier les calculs, on ajoute parfois le postulat N(0)=0. Des postulats (i) et (ii), on déduit : P(N(t+ h) N(t) 2 N(t)= n)= o,n (h)+ o 2,n (h) (3) On pose p n (t)= P(N(t)= n). On a p 0 (t+ h)= p 0 (t)p 0 (h). D après (i), Pr(N(h) N(0)=0 N(0)=0)= λ 0 h+ o,0 (h) d où p 0 (h)= λ 0 h+ o,0 (h). On peut donc écrire : p 0 (t+ h) p 0 (t)= λ 0 hp 0 (t)+ o,0 (h)p 0 (t). En divisant par h et en passant à la limite, il vient l équation différentielle : p 0 (t)= λ 0p 0 (t) 42

PROCESSUS ALÉATOIRES - CHAÎNES DE MARKOV dont la solution est : p 0 (t)=exp{ λ 0 t} puisque p 0 (t)=. Considérons le cas k> 0. En appliquant le théorème des probabilités totales, il vient : p n (t+ h) n = P(N(t+ h)= n)= P(N(t+ h)= n N(t)= k) P(N(t)= k) n = P(N(t+ h) N(t)= n k N(t)= k) p k (t) = P(N(t+ h) N(t)=0 N(t)= n) p n (t) + P(N(t+ h) N(t)= N(t)= n ) p n (t) n 2 + P(N(t+ h) N(t)= n k N(t)= k) p k (t) Or pour,,...,n 2, on a : P(N(t+ h) N(t)= n k N(t)= k) p k (t) P(N(t+ h) N(t)= n k N(t)= k) P(N(t+ h) N(t) 2 N(t)= k) = o,k (h)+ o 2,k (h) On écrira donc : P(N(t+ h) N(t)= n k N(t)= k)= o 3,n,k (h), pour,...,n 2. De plus, P(N(t+ h) N(t)=0 N(t)= n)= λ n h+ o,n (h) et P(N(t+ h) N(t)= N(t)= n )=λ n h+ o,n (h) d après (i) et (ii). On a donc : et n 2 p n (t+ h)= p n (t)λ n h+ o,n (h)]+ p n (t) λ n h+ o,n (h)]+ p k (t)o 3,n,k (h) p n (t+ h) p n (t)=λ n hp n (t) λ n hp n (t)+ o n (h) } {{ } o n (h) En divisant par h de part et d autre de l égalité et en passant à la limite, il vient l équation différentielle : p n (t)= λ n p n (t)+λ n p n (t) pour n. Il s agit donc de résoudre le système d équations différentielles : p 0 (t)= λ 0p 0 (t) p n (t)= λ n p n (t)+λ n p n (t), n 43

L3 MIS avec les conditions initiales : p 0 (0)= et p n (0)=0, n>0. Procédons par récurrence. La première équation donne : p 0 (t)= e λ0t. Pour n =, on a l équation : p (t)+λ p (t) = λ 0 p 0 (t) qui est une équation différentielle du er ordre avec second membre. La solution de l équation sans second membre est : p (t)=ce λt. On fait varier la constante et on calcule : p (t)=c (t)e λ t λ C(t)e λ t. C(t) est alors obtenu en résolvant : C (t)e λ t = λ 0 e λ 0t. Il vient : C(t)= λ 0 λ λ 0 e (λ 0 λ )t + K. Or p (0)=0=C(0) donc K = λ 0 λ λ 0 et Pour n=2, on a : p 2 (t)+λ 2p 2 (t)=λ p (t). p (t)= λ 0 λ λ 0 e λ 0t e λ t ]. Comme précédemment, on résout cette équation sans le second membre. On obtient : p 2 (t) = Ce λ 2t. On fait varier la constante et on résout : C (t)e λ 2t = λ p (t) soit C (t)= λ 0λ λ λ 0 e (λ 0 λ 2 )t e (λ λ 2 )t ]. Il vient : C(t)= λ 0λ e (λ 0 λ 2 )t ] + e (λ λ2)t + K λ λ 0 λ 2 λ 0 λ λ 2 Or p 2 (0)=0=C(0), donc K = λ ] 0λ +. λ λ 0 λ 2 λ 0 λ λ 2 On a alors la solution p 2 (t) : λ 0 λ e (λ 0 λ 2 )t ] p 2 (t) = + e (λ λ2)t e λ 2t λ λ 0 λ 2 λ 0 λ λ 2 λ 0 λ e λ 0 t e λ 2t = + e λt e λ2t ] λ λ 0 λ 2 λ 0 λ λ 2 e λ 0t = λ 0 λ (λ λ 0 )(λ 2 λ 0 ) + e λt (λ λ 0 )(λ λ 2 ) e λ2t où B 0,2 = = λ 0 λ B 0,2 e λ 0t + B,2 e λ t + B 2,2 e λ 2t ] (λ λ 0 )(λ 2 λ 0 ), B,2= On conjecture alors peut alors pour n 2, (λ 0 λ )(λ 2 λ ) et B 2,2= (λ 2 λ 0 )(λ λ 2 ) (λ 0 λ 2 )(λ λ 2 ). p n (t)=λ 0 λ n B 0,n e λ 0t + +B n,n e λ nt ] ] 44

PROCESSUS ALÉATOIRES - CHAÎNES DE MARKOV avec, en supposant que les λ k sont tous distincts, B 0,n = B k,n = B n,n = (λ λ 0 ) (λ n λ 0 ) (λ 0 λ k ) (λ k λ k )(λ k+ λ k ) (λ n λ k ) (λ 0 λ n ) (λ n λ n )., pour 0< k<n, Soin est laissé au lecteur de montrer ce résultat par récurrence. Exemple Dans le cas du processus de Yule, en supposant qu il y a initialement un individu dans la population, l intensité s écrit : λ n = (n+)β. On trouve alors en appliquant les formules ci-dessus : p n (t)= e βt ( e βt ) n, n. (cf. Exercice 3, TD 7). N(t) suit donc une loi géométrique de paramètre e βt. Supposons que l on ait initialement N individus dans la population. A chaque individu est associé un processus de naissance d intensité λ(t)=βt. On peut alors caractériser la loi de la taille de la population à un instant quelconque t, N(t) comme la loi de la somme de N v.a. indépendantes de loi géométrique de paramètre e βt. On en déduit alors (voir Exercice 8, TD ) que le nombre de naissances suit une loi binomiale négative de paramètres (N, e βt ). On peut montrer que le temps qui s écoule entre deux naissances est une variable aléatoire dont la loi est exponentielle. Plus précisement, le temps T i qui s écoule entre la ième naissance et la (i+)ème naissance suit une loi exponentielle de paramètre λ i. On peut montrer également que ces v.a. T i sont indépendantes. 45