CHAINE DE MARKOV CACHEE CMC. Exemple

Documents pareils
I. Cas de l équiprobabilité

Modélisation du comportement habituel de la personne en smarthome

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Architecture des Systèmes d Information Architecture des Systèmes d Information

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Les probabilités. Chapitre 18. Tester ses connaissances

Calculs de probabilités conditionelles

Jean-Philippe Préaux

Plus courts chemins, programmation dynamique

L exclusion mutuelle distribuée

CALCUL DES PROBABILITES

Resolution limit in community detection

Probabilités sur un univers fini

Initiation à LabView : Les exemples d applications :

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Cours de Master Recherche

Coefficients binomiaux

CAISSE ENREGISTREUSE ELECTRONIQUE SE-G1

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Introduction à l approche bootstrap


Correction du baccalauréat ES/L Métropole 20 juin 2014

Fluctuation d une fréquence selon les échantillons - Probabilités

MATHS FINANCIERES. Projet OMEGA

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Probabilités Loi binomiale Exercices corrigés

I. Introduction aux fonctions : les fonctions standards

Apprentissage Automatique

Feuille d exercices 2 : Espaces probabilisés

Master IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008

MIS 102 Initiation à l Informatique

Pourquoi l apprentissage?

Module 7: Chaînes de Markov à temps continu

Probabilités conditionnelles Loi binomiale

«Cours Statistique et logiciel R»

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Exercices sur le chapitre «Probabilités»

Chapitre 5 : Flot maximal dans un graphe

La classification automatique de données quantitatives

Chap 4: Analyse syntaxique. Prof. M.D. RAHMANI Compilation SMI- S5 2013/14 1

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

DE L ALGORITHME AU PROGRAMME INTRO AU LANGAGE C 51

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Correction du baccalauréat S Liban juin 2007

Compression Compression par dictionnaires

Surveillance et maintenance prédictive : évaluation de la latence de fautes. Zineb SIMEU-ABAZI Univ. Joseph Fourier, LAG)

P1 : Corrigés des exercices

Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien

Prénom : Matricule : Sigle et titre du cours Groupe Trimestre INF1101 Algorithmes et structures de données Tous H2004. Loc Jeudi 29/4/2004

Modélisation et simulation du trafic. Christine BUISSON (LICIT) Journée Simulation dynamique du trafic routier ENPC, 9 Mars 2005

Annexe 6. Notions d ordonnancement.

2. Détermination de la teneur en eau

Introduction aux algorithmes répartis

IdR Trading et Microstructure CA Cheuvreux. Charles-Albert Lehalle

VI. Tests non paramétriques sur un échantillon

Arbre de probabilité(afrique) Univers - Evénement

Gnuplot. Chapitre Lancer Gnuplot. 3.2 Options des graphes

Abdenour Hacine-Gharbi. Sélection de paramètres acoustiques pertinents pour la reconnaissance de la parole

Algorithmes de recherche

Programmation Linéaire - Cours 1

Nouveau Barème W.B.F. de points de victoire 4 à 48 donnes

Alarme domestique- Présentation

Systèmes et algorithmes répartis

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Evaluation des performances de programmes parallèles haut niveau à base de squelettes

Continuité et dérivabilité d une fonction

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

3. SPÉCIFICATIONS DU LOGICIEL. de l'expression des besoins à la conception. Spécifications fonctionnelles Analyse fonctionnelle et méthodes

Théorèmes de Point Fixe et Applications 1

Quelques Algorithmes simples

FONCTION DE DEMANDE : REVENU ET PRIX

Couples de variables aléatoires discrètes

Cours Informatique 1. Monsieur SADOUNI Salheddine

Examen d informatique première session 2004

Mise à jour: 29 janvier Instructions Paiement en ligne

COMMENT CREER VOS BANDES GRAND FORMAT?

Leçon n 4. Analyse graphique Techniques de construction de barres et styles de. Fenêtres d analyse graphique. Leçon n 4

SOLUTION DE GESTION COMMERCIALE POUR IMPRIMEURS

INDICE DE FRÉQUENCE DES ACCIDENTS DE SERVICE

Guide Numériser vers FTP

Représentation d un entier en base b

Propositions législatives et notes explicatives concernant la Loi de l impôt sur le revenu

Complétez, signez la Convention ci-après et paraphez les conditions générales,

YANN ROUDAUT - Professeur de l Ecole Française de Poker - roudaut@ecolefrancaisedepoker.fr

Aspects théoriques et algorithmiques du calcul réparti L agglomération

Propriétés des options sur actions

Transmission d informations sur le réseau électrique

Ensimag 1ère année Algorithmique 1 Examen 2ième session 24 juin Algorithmique 1

EVALUATION Nombres CM1

Ce document synthétise les principaux aspects de DayTrader Live, le service le plus haut de gamme de DayByDay.

Polytech Montpellier IG PROJET C Réseaux sociaux : recherche de composantes fortement connexes

Table des matières. Table des matières

Qualité du logiciel: Méthodes de test

FÉDÉRATION MAROCAINE DES SOCIÉTÉS D'ASSURANCES ET DE RÉASSURANCE FICHIER CENTRAL CRM. MANUEL D UTILISATION Version 1.0

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Défi SSQ Groupe financier

Transcription:

CHAINE DE MARKOV CACHEE CMC Exemple Exemple : On dispose de 3 urnes contenant des boules blanches, noires et grises dans des proportions différentes. On note par P(B/u i ), P(N/u i ), P(G/u i ) les probabilités de tirer une boule blanche, noir ou grise de l urne u i (i=1,2,3). Un opérateur invisible choisi, à des instants réguliers, une urne et tire une boule de cette urne et annonce la couleur. S il choisi T urnes il annoncera (à un observateur) la séquence des T couleurs tirés notée O T. Ainsi, au temps t, l opérateur choisi une urne u t et tire une boule de couleur o t de cette urne. On suppose que le tirage d une boule au temps t est indépendant du tirage de la boule au temps t-1. 1

Exemple (suite) On fait l hypothèse que l opérateur choisi la séquence des urnes suivant un modèle d une chaîne de Markov ayant pour paramètres {π, A} et dont les états sont les urnes. Cette chaîne sera dite cachée (puisque l opérateur est invisible). Ainsi : La séquence U T =u 1 u 2.u T sera dite la séquence des états cachée (car invisible) et elle est générée par la chaîne de Markov cachée. La séquence O T =o 1 o 2.o T sera dite la séquence des observations qui sera annoncée à l observateur. CMC : définition chaîne de Markov M : le nombre des symboles observables. N : le nombre des états cachées. V={v 1,v 2,,v M } : l ensemble des symboles observables. Q={,,,q N } : l ensemble des états cachées. Π=[π i ] : la table de probabilités de l état initial de la CM. A=[a ij ] : matrice N*N des probabilités de transition de la CM. B=[b i (v k )] : matrice N*M avec b i (v k )=P(v k /q i ) (probabilité de l émission de l état v k par l état q i ). T : taille d une séquence d observations. Notation : les paramètres du modèle seront notés par : λ=(π, A, B) 2

Génération d une séquence d observations Une séquence d observations O T =o 1 o 2 o T est générée de la manière suivante : 1. Faire t=1, choisir un état initial i 1 selon la distribution Π. Choisir o 1 selon la table de probabilité de l émission de l état i 1 (la table b i 1 () ). 2. Choisir l état selon les probabilités de transitions, i t étant l indice de l état au temps t, choisir o t+1 selon la table de probabilité de l émission de l état d indice i t (la table b i t+1 () ). Faire t=t +1. 3. Si t<t alors retourner à l étape 2 sinon Fin. I T =i 1 i 2 i T : la séquence des indices des états cachées. O T =o 1 o 2 o T : la séquence des symboles observés Trois problèmes Problème 1 : Etant donné la séquence d observations O T =o 1 o 2 o T et le modèle (de CMC) de paramètre λ=(π,a,b), comment calculer P(O T /λ)? Problème 2 : Etant donné la séquence d observations O T =o 1 o 2 o T comment choisir la séquence des états sous-jacentes i 1 i 2 i T et qui est optimal suivant un certain critère? Problème 3 : Comment ajuster les paramètres λ=(π,a,b) afin de maximiser P (O T /λ)? 3

Problème 1 Calcule de P(O T /λ) Une manière immédiate pour calculer cette probabilité est d énumérer toutes le séquences I T =i 1 i 2 i T d états possibles et de calculer : Avec : Chaîne de Markov Indépendance des observations D où Mais cette formule est très coûteuse en temps de calcule. Ordre de calcule 2TN T Méthodes Forward et Backward Ces deux méthodes utilisent implicitement le graphe suivant :........ t=1 t=2 t=3 t=t L arc q i q j existe si et seulement si a ij >0, il sera valué par a ij 4

Calcule de P(O T /λ) Méthode Forward On définit α t (i)=p(o 1 o 2 o t, i t =i /λ) Observations partielles Calcule de α t 1. α 1 (i)= π i b i (o 1 ) pour i=1,,n 2. Pour t=1,2,,t-1 et pour j=1,,n α t (N) a Ni a 2i α t (2) α t (1) a 1i Calcule de P(O T /λ) Méthode Backward On calcule β t (i)=p(o t+1 o t+2 o T / i t =i,λ) Calcule de α t 1. β T (i)=1 pour i=1,,n 2. Pour t=t-1,,1 et pour i=1,2,,n Observations partielles a in β t+1 (N)b N (o t+1 ) i a i1 a i2 β t+1 (2)b 2 (o t+1 ) β t+1 (1)b 1 (o t+1 ) 5

Calcule de p(o T /λ) On a : Pour tout t Problème 2 : Décodage Détermination de la séquence cachée «optimale» Trouver la séquence des états cachées qui explique au mieux» la séquence des observations. Déterminer : Or Déterminer Algorithme de Viterbi 6

Problème 2 : Algorithme de Viterbi On définit : La séquence des états cachés i 1 i 2 i t-1 qui maximise la probabilité d avoir observé : les observations jusqu au temps t-1 l état au temps t l observation au temps t Par définition : Problème 2 : Algorithme de Viterbi Etape 1 : pour i=1,,n δ 1 (i)=π i b i (o 1 ) et Ψ 1 (i)=0 Etape 2: Pour t=2 T faire FIN Etape 3 : On tire Etape 4 : (reconstitution de la séquence) Pour t=t-1,, 1 7

Problème 3 Détermination des paramètres Etant donné un modèle et une séquence d observation, modifier les paramètres du modèle afin de reproduire au mieux les observations. On définit : La probabilité de passer de l état q i à l état q j au temps t Probabilité d être à l état q i au temps t Problème 3 Détermination des paramètres Représente la fréquence relative des transitions à travers l état q i Représente la fréquence relative des transitions de l état q i à l état q j 8

Algorithme Problème 3 (suit) Détermination des paramètres - Initialiser les paramètres λ 0 =(Π 0,A 0,B 0 ) - Répéter l étape itérative suivante : 1. Les paramètres courants λ=(π,a,b) permettent de calculer les nouveaux paramètres par : 2. 3. 9