Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction décembre 2003 Serge HADDAD LAMSADE - CNRS Université Paris-Dauphine Patrice MOREAUX LAMSADE & LERI-RESYCOM - URCA t 2 p 3 t 4 p 6 t 6 p 8 t 8 p 1 t 1 p 2 K p 5 t 9 t 3 p 4 t 5 p 7 t 7
PLAN Rappels sur les processus stochastiques Réseaux de Petri Sémantique(s) stochastique(s) d un RdP RdPS à lois exponentielles (SPN) et GSPN Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 2
1. Rappels sur les processus stochastiques Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 3
Un processus stochastique à événements discrets # Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 4
Comportement d un processus Comportement transitoire Probabilité d être en s à l instant t : π t (s) Nombre moyen de visites à s entre t et t Comportement stationnaire Existence d un comportement stationnaire? π(s) = lim t->inf π t (s) tel que Σπ(s) = 1 Calcul du comportement stationnaire $% Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 5
Théorie du renouvellement Existence d indices aléatoires d événements (i 1,,i k, ) tels que le processus après l événement e ik soit une réplique probabiliste du processus après l événement e i1. π& τ ' ()*τ Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 6
Chaînes de Markov à temps discret π ( + + Comportement transitoire π n+1 = π n. P (en appliquant les probabilités conditionnelles) π n = π 0. P n - π n+m = π m. P n nb n = π 0.(I+P+ + P n ) Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 7
Analyse stationnaire d'une CMTD # $ ** % $ %& ** $ # % $ ' π, π,,, Conclusion : un comportement stationnaire π existe et π est l unique solution de : X.P = X (lim n->inf π n+1 = lim n->inf π n. P) et X t.1 = 1 Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 8
Chaînes de Markov à temps continu µ δ π (δ (δµ # - %- µ -. - Un processus équivalent génère des événements à un taux λ > Max( Q s,s ) à l occurrence d un événement, applique une probabilité de passage à l état courant : + λ + P s,s = (µ s,s / λ) et P s,s = 1 - Σ s ¹s P s,s Observation : P = I + λ -1. Q Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 9
Analyse d'une CMTC Comportement transitoire Analyse du processus équivalent Probabilité d être en s à l instant t conditionnée par le nombre d événements entre 0 et t : π t = π 0.Σ n=0 à inf (e -λ.t (λ.t) n / n). P n Série «rapidement» convergente d où approximation possible )* +,-.& )/ π # ) π *- * Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 10
Processus semi-markovien * & 0 %# + ( 1 + Hypothèses similaires Conclusion : un comportement stationnaire π existe π(s) = [E(T s ). X(s) / å E(T s ). X(s') ] où X est une solution de : X.P = X Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 11
Processus de Markov régénératif /,,, %, ) 0 ) ),,0, ) 0, ) ) ), p s*,z* = retour(s*,z*,inf) durée(s*,s) = visite(s*,z*,t).dt durée(s*) = Σ durée(s*,s) π(s) = [Σ X(s*).durée(s*,s) ] / [Σ X(s*).durée(s*) ] où X est une solution de : X.P = X Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 12
2. Réseaux de Petri Rappels ultra rapides Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 13
Modèle de la concurrence et de la synchronisation des SED p 11 p 21 t 1 2.p 11 + 4.p 21 + 3.p 21 t 1 p 12 p 22 p 13 t 11 t 21 p 14 p 26 1.p 11 + 3.p 21 + 1.p 12 + 1.p 22 + 3.p 21 t 1 t 11 t 21 1.p 11 + 3.p 21 + 1.p 13 +1.p 14 + 1.p 22 + 3.p 21 Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 14
Où est le temps? Durée ou délai de franchissement? durée nulle - délai non nul (SPN) marquage du RdP = état «visible» durée non nulle - délai nul (TPN) marquage du RdP = état «éphémère» Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 15
3. Sémantiques stochastiques des RdP Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 16
Sémantique stochastique d un RdP Définition de trois politiques Politique de choix prochaine transition à franchir Politique de service influence du degré de franchissement Politique de mémoire influence du franchissement sur les franchissements suivants Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 17
Politique de choix Présélection Tirages multiples Choix probabiliste : 2 & & 3 2π & π & π 3 Réalisation : 2 & & 3 21 &1 &1 3-21 3atteint au moins deux fois? Oui Non Choix de Tirage du délai choisi 1 correspondant à 1 Choix probabiliste (postsélection) : 2 & 3 2π & π 3 Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 18
Politique de service t3 considérée comme un serveur de franchissements : serveur non réentrant (single-server) réalisation : 21&1&13 serveur réentrant (infinite-server) réalisation : 21&1&1&1 &123 serveur à degré de réentrance borné (multiple-server) (par exemple t3 de degré 2) réalisation : 21& 1& 1& 1 3 Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 19
Politique de mémoire (1) 1 421 &1 3 Quelle est l influence du franchissement de t1 sur le prochain franchissement de t2 et t3? 1. Aucune influence resampling memory - un nouveau choix de franchissement conduit à de nouveaux tirages Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 20
Politique de mémoire (2) 1 421 &1 3 Quelle est l influence du franchissement de t1 sur le prochain franchissement de t2 et t3? 2. Influence sur les transitions encore franchissables enabling memory (e.g. time-out) - nouveau tirage lorsque t2 sera à nouveau franchissable - tirage conservé et décrémenté pour t3 : x3 - x1 Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 21
Politique de mémoire (3) 1 421 &1 3 Quelle est l influence du franchissement de t1 sur le prochain franchissement de t2 et t3? 3. Influence sur toutes les transitions age memory (e.g. suspension d'un travail) - tirage décrémenté et gelé jusqu'à la prochaine franchissabilité pour t2 : x2 - x1 - tirage conservé et décrémenté pour t3 : x3 - x1 Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 22
Politique de mémoire (4) Définition de la politique par paire de transitions (t,t') Interaction avec la politique de service Réalisation (éventuellement antérieure): {x 2, x 1, x 1, x 1 } avec x 2 < min{ x 1, x 1, x 1 } Quel délai de t1 supprimer? - le dernier arrivé (dernier tirage) - le premier arrivé - le plus long délai --- Attention à l'impact sur les techniques d'analyse --- Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 23
Politique de mémoire (5) Liaison avec les politiques des réseaux de file d attente PRS PRD PRI ST 1 ST 1 ST 1 ST 2 =ST 1 ST 2 t E t D t RE t F t E t D t RE t F t E t D t RE t F - Premptive ReSume = age memory - Premptive Repeat Different = enabling memory - Premptive Repeat Identical = pas de correspondance Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 24
4. RdPS à lois exponentiels et GSPN Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 25
RdPS à lois exponentielles (1) X ti de densité f ti (t) = e -wi.t, wi est le taux de la loi Comportement du processus en mode single-server. Soit m un marquage et t1,,tk les transitions franchissables: - la durée de séjour en m est une loi exponentielle de taux w i - la probabilité que x i soit la réalisation minimale est w i /w i - la distribution du temps résiduel x i t sachant qu'aucune transition n'est franchie avant t est identique à la distribution initiale (lois sans mémoire) - la distribution du temps résiduel x i x j sachant que tj est franchie est identique à la distribution initiale Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 26
RdPS à lois exponentielles (2) ) Le comportement futur du processus ne dépend que du marquage courant La loi exponentielle donne la même sémantique pour les différentes politiques de mémoire et service Une loi à support continu R+ est à postsélection automatique - Donc : tout est «simple» Le processus stochastique est une chaîne de Markov isomorphe au graphe d'accessibilité (t i wi) Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 27
RdPS généralisés (1) états tangibles 3 états évanescents 3 t2, t3 transitions à délai nul : transitions immédiates - toujours franchies avant les transitions exponentielles - nécessitent une postsélection Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 28
RdPS généralisés (2) états tangibles 3 états évanescents 3 t2, t3 transitions immédiates présélection: - tables de distribution par sous-ensemble T - poids pi normalisés lors du choix Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 29
Analyse des RdPSG (1) Le processus de marquage est un processus semimarkovien - dont les états évanescents ont une probabilité stationnaire nulle On s intéresse en général aux états tangibles On peut s intéresser aux fréquences de tir des transitions immédiates Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 30
Analyse des RdPSG (2) Principe de l analyse 0. processus -> DTMC 1. DTMC -> DTMC des tangibles (DTMC-T) - résolution de la DTMC-T - pondération par les temps de séjour (équivalent: DTMC -> CTMC des tangibles, résolution de la CTMC) Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 31
Analyse des RdPSG (3) processus semi-markovien dont les états évanescents ont une probabilité stationnaire nulle &6 * * &6 (6 * * * * * * &6 * &6 *+ * π ( ' +' + (+ 7 + 77) + 7 + (+ 7 8 77. + 77. + 7 *4 ( * * 5 *4 ( * * 5 '*+'' ' * *4 ( * * 5&6 *4 ( * * 5&6 &6 3 π '( '' Les réseaux de Petri stochastiques modèles et méthodes 1. Introduction -- 32