Master IAD Module PS. Reconnaissance de la parole (suite) Modèles de Markov et bases de données. Gaël RICHARD Février 2008



Documents pareils
Master IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Apprentissage Automatique

Probabilités sur un univers fini

Calculs de probabilités

Abdenour Hacine-Gharbi. Sélection de paramètres acoustiques pertinents pour la reconnaissance de la parole

Modélisation du comportement habituel de la personne en smarthome

Chaînes de Markov au lycée

Probabilités sur un univers fini

Texte Agrégation limitée par diffusion interne

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

NOTIONS DE PROBABILITÉS

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

CarrotAge, un logiciel pour la fouille de données agricoles

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Cours d initiation à la programmation en C++ Johann Cuenin

GPA770 Microélectronique appliquée Exercices série A

Simulation de variables aléatoires

Calculs de probabilités conditionelles

Probabilités Loi binomiale Exercices corrigés

CALCUL DES PROBABILITES

Introduction à la théorie des files d'attente. Claude Chaudet

Qu est-ce qu une probabilité?

Plus courts chemins, programmation dynamique

Les probabilités. Chapitre 18. Tester ses connaissances

Probabilités. I Petits rappels sur le vocabulaire des ensembles 2 I.1 Définitions... 2 I.2 Propriétés... 2

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

Exercices de dénombrement

Module 7: Chaînes de Markov à temps continu

Programmation linéaire et Optimisation. Didier Smets

Les indices à surplus constant

Arbre de probabilité(afrique) Univers - Evénement

3 Approximation de solutions d équations

Feuille TD n 1 Exercices d algorithmique éléments de correction

Principe de symétrisation pour la construction d un test adaptatif

Moments des variables aléatoires réelles

TD1 Signaux, énergie et puissance, signaux aléatoires

Probabilité. Table des matières. 1 Loi de probabilité Conditions préalables Définitions Loi équirépartie...

Probabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1

Métriques de performance pour les algorithmes et programmes parallèles

Cours d introduction à l informatique. Partie 2 : Comment écrire un algorithme? Qu est-ce qu une variable? Expressions et instructions

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Définitions. Numéro à préciser. (Durée : )

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

P1 : Corrigés des exercices

Correction de l examen de la première session

Processus aléatoires avec application en finance

Probabilités. C. Charignon. I Cours 3

Baccalauréat ES/L Métropole La Réunion 13 septembre 2013 Corrigé

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

Couples de variables aléatoires discrètes

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Coefficients binomiaux

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

LE PROBLEME DU PLUS COURT CHEMIN

K W = [H 3 O + ] [OH - ] = = K a K b à 25 C. [H 3 O + ] = [OH - ] = 10-7 M Solution neutre. [H 3 O + ] > [OH - ] Solution acide

Exercices sur le chapitre «Probabilités»

Calculabilité Cours 3 : Problèmes non-calculables.

Résolution de systèmes linéaires par des méthodes directes

Correction du baccalauréat ES/L Métropole 20 juin 2014

L E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exo7. Probabilité conditionnelle. Exercices : Martine Quinio

1 de 46. Algorithmique. Trouver et Trier. Florent Hivert. Mél : Florent.Hivert@lri.fr Page personnelle : hivert

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Quantification Scalaire et Prédictive

LISTE D EXERCICES 2 (à la maison)

TP: Représentation des signaux binaires. 1 Simulation d un message binaire - Codage en ligne

Théorèmes de Point Fixe et Applications 1

EXPLOITATIONS PEDAGOGIQUES DU TABLEUR EN STG

Exemple On lance une pièce de monnaie trois fois de suite. Calculer la probabilité d obtenir exactement deux fois pile.

4. Martingales à temps discret

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Chap 4: Analyse syntaxique. Prof. M.D. RAHMANI Compilation SMI- S5 2013/14 1

Espaces probabilisés

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #4-5

Représentation d un entier en base b

La classification automatique de données quantitatives

Résolution d équations non linéaires

Table des matières. I Mise à niveau 11. Préface

Programmation linéaire

TD1 PROPAGATION DANS UN MILIEU PRESENTANT UN GRADIENT D'INDICE

Représentation des Nombres

Arithmétique binaire. Chapitre. 5.1 Notions Bit Mot

Web Science. Master 1 IFI. Andrea G. B. Tettamanzi. Université de Nice Sophia Antipolis Département Informatique andrea.tettamanzi@unice.

Chapitre 7. Récurrences

Programmation linéaire

Le modèle de Black et Scholes

Hedging delta et gamma neutre d un option digitale

Calcul différentiel sur R n Première partie

Raisonnement probabiliste

Outils logiciels pour la combinaison de vérification fonctionnelle et d évaluation de performances au sein de CADP

Chapitre 5 : Flot maximal dans un graphe

Correction du baccalauréat S Liban juin 2007

Introduction au Calcul des Probabilités

PROBABILITÉS CONDITIONNELLES

Transcription:

Master IAD Module PS Reconnaissance de la parole (suite) Modèles de Markov et bases de données Gaël RICHARD Février 2008 1

Reconnaissance de la parole Introduction Approches pour la reconnaissance vocale Paramétrisation Distances et mesures de distortion spectrale Alignement Temporel et Programmation dynamique (DTW) Introduction aux modèles de Markov Cachés Bases de données pour la reconnaissance Exemples d applications Gaël RICHARD Master IAD-PS Février 2008 2

Chaînes de Markov discrètes Gaël RICHARD Master IAD-PS Février 2008 3

Chaînes de Markov discrètes Notations t=1,2 sont les instants de changement d états est l état à l instant t La probabilité d être dans l état j sachant que l on a été dans l état i au temps t-1 et dans l état k à l état t-2, etc est: Chaînes de Markov du premier ordre: Gaël RICHARD Master IAD-PS Février 2008 4

Chaînes de Markov discrètes (notations) Système dont les changements d états sont indépendants du temps: Avec les propriétés suivantes: Probabilité de l état initial Gaël RICHARD Master IAD-PS Février 2008 5

Exercice: Modèle Météo à 3 états Ecrire la matrice de transition A Sachant qu à t=1 le temps est ensoleillé, quelle est la probabilité (connaissant le modèle) que le temps pour les 7 prochains jours soit (Soleil, Soleil, pluie, pluie, Soleil, Nuageux, Soleil)? Sachant que le système est dans un état connu, quelles est la probabilité qu il reste dans cet état pendant exactement d jours? Gaël RICHARD Master IAD-PS Février 2008 6

Exercice: Modèle Météo à 3 états (correction) La matrice A vaut: Soit l observation: Gaël RICHARD Master IAD-PS Février 2008 7

Exercice: Modèle Météo à 3 états (correction) Soit la séquence d observation: O = (i, i, i, i,. i, j i) Gaël RICHARD Master IAD-PS Février 2008 8

Extension aux modèles de Markov cachés Modèle Pile (P) ou Face (F) Fournit une séquence d observations Le premier modèle qui vient à l esprit est le modèle suivant où une seule pièce de monnaie est utilisée Gaël RICHARD Master IAD-PS Février 2008 9

Extension aux modèles de Markov cachés Construire d autres modèles en supposant que l on a: 2 pièces de monnaie qui possèdent un biais différent (par exemple la pièce A a une probabilité 0.6 de sortir Face alors que la pièce B a une probabilité 0.4 de sortir Face) Extrapoler à un modèle de 3 pièces de monnaie Gaël RICHARD Master IAD-PS Février 2008 10

Extension aux modèles de Markov cachés (solution) Gaël RICHARD Master IAD-PS Février 2008 11

Extension aux modèles de Markov cachés Modèle des boules et des urnes M couleurs Le tirage s effectue de la façon suivante: Une urne est sélectionnée (selon une procédure aléatoire) Une boule est ensuite tirée dans cette urne. La couleur de la boule constitue l observation La boule est replacée dans l urne et une nouvelle urne peut être sélectionnée pour le tirage suivant Gaël RICHARD Master IAD-PS Février 2008 12

Extension aux modèles de Markov cachés Le tirage est effectué dans une autre pièce ne permet pas de savoir dans quelle urne a été tirée chaque boule Un modèle approprié: modèle de markov à N états Gaël RICHARD Master IAD-PS Février 2008 13

Caractérisation des HMM Un modèle HMM pour des données d observations discrètes sera caractérisé par: Le nombre N d états du modèle Modèle HMM ergodique Modèle HMM Gauche-droite est l état à l instant t Le nombre M de symboles distincts d'observation par état (soit la taille de l'alphabet) Ex P et F pour le modèle Pile ou Face Ex. Les couleurs pour le modèle Boules et urnes On notera ces symboles sous la forme: Gaël RICHARD Master IAD-PS Février 2008 14

Caractérisation des HMM La matrice A=a ij de transition entre états où Notons que a ij =0 pour les transitions impossibles La distribution de probabilité B=b j (k) d observation des symboles où définit la distribution de probabilité des symboles dans l'état j La distribution de l état initial pour laquelle Gaël RICHARD Master IAD-PS Février 2008 15

Caractérisation des HMM En résumé, la spécification complète d un HMM est donnée par: Paramètres N et M du modèle La specification des symboles d observation La spécification des probabilités A, B et Π On notera par convention pour désigner le modèle complet. Ce modèle inclut une mesure de probabilité soit: Gaël RICHARD Master IAD-PS Février 2008 16

HMM: Générateur d observations (Exercice) Supposons les modèles à 3 états suivants dans le cadre d une expérience Pile ou Face: avec chaque probabilité de transition étant gale à 1/3 (la probabilité d état initiale étant également égale à 1/3) Questions: Etat 1 Etat 2 Etat3 P(F) 0.5 0.75 0.25 P(P) 0.5 0.25 0.75 1. Connaissant la séquence O=(F F F F P F P P P P), quelle est la séquence d états la plus probable? Quelle est la probabilité d observer cette séquence et celle de cette séquence d états 2. Quelle est la probabilité que la séquence d observation provienne entièrement de l état 1? 3. En est-il de même avec la séquence O=(F P P F P F F P P F)? 4. Quelles seraient vos réponses avec la matrice de transition suivante: a11=0.9 A21=0.45 a33=0.45 a12=0.05 a22=0.1 a32=0.45 a13=0.05 a23=0.45 a33=0.1 Gaël RICHARD Master IAD-PS Février 2008 17

Les trois problèmes des HMM Problème 1: Évaluer la probabilité d'une séquence d'observations. connaissant la séquence d'observation et le modèle, comment peut-on calculer qui est la probabilité de la séquence d'observations, connaissant le modèle. Problème 2: Retrouver la séquence d'états optimale. connaissant la séquence d'observation et le modèle comment choisit-on la séquence d'état qui est optimale au sens d'un certain critère (i.e. la séquence d'état qui "explique" au mieux les observations) Gaël RICHARD Master IAD-PS Février 2008 18

Les trois problèmes des HMM Problème 3: Ré-estimer les paramètres du modèle. Comment ajuste-t-on les paramètres du modèle pour maximiser qui est la probabilité de la séquence d'observation connaissant le modèle. Gaël RICHARD Master IAD-PS Février 2008 19

Problème 1: Évaluer la probabilité d'une séquence d'observations. connaissant la séquence d'observation et le modèle, comment peut-on calculer la probabilité de la séquence d'observations, connaissant le modèle. Solution intuitive: énumérer toutes les séquences d états de taille T (N T séquences possibles) Soit q l une de ces séquences: En supposant que les observations sont statistiquement indépendantes: On en déduit: Gaël RICHARD Master IAD-PS Février 2008 20

Problème 1: Évaluer la probabilité d'une séquence d'observations. la probabilité d'une telle séquence d'états est aussi donnée par: La probabilité jointe de O et q est le produit des deux termes La probabilité de la séquence O est donnée en sommant cette probabilité jointe sur l ensemble des séquences d états possibles q Gaël RICHARD Master IAD-PS Février 2008 21

Problème 1: Évaluer la probabilité d'une séquence d'observations. Interprétation à t=1: nous sommes dans l état q 1 avec la probabilité et nous générons un symbole o 1 avec la probabilité à t=2, nous faisons une transition à l état q 2 à partir de l état q1 avec la probabilité et générons le symbole o 2 avec la probabilité et ainsi de suite jusqu à o T Gaël RICHARD Master IAD-PS Février 2008 22

Problème 1: Évaluer la probabilité d'une séquence d'observations. Complexité de l approche pour évaluer multiplications additions Calcul impossible même pour des petites valeurs de N (nombre d états) et T (nombre d observations). Une solution: l algorithme forward (ou récurrence avant) Gaël RICHARD Master IAD-PS Février 2008 23

Algorithme Forward Soit la variable définie par : qui est la probabilité de la séquence d observations partielle et de l état i à l instant t connaissant le modèle Algorithme: Initialisation Récursion Arrêt Gaël RICHARD Master IAD-PS Février 2008 24

Algorithme Forward Approche largement moins complexe: multiplications additions De façon similaire, on peut définir un algorithme backward à partir de la probabilité de la séquence d observation partielle de t+1 à la fin étant donné l état i au temps t et le modèle: Gaël RICHARD Master IAD-PS Février 2008 25

Problème 2: Retrouver la séquence d'états optimale. On cherche ici à trouver une séquence optimale d états connaissant la séquence d observations L approche couramment retenue est de trouver l unique meilleure séquence d états (ou encore chemin) Méthode basée sur la programmation dynamique : l algorithme de Viterbi Gaël RICHARD Master IAD-PS Février 2008 26

Problème 2: Retrouver la séquence d'états optimale. On introduit la notion de meilleur chemin partiel jusqu au temps t et finissant à l état i: Par récurrence, on peut alors déterminer: En pratique, il sera aussi nécessaire de garder la séquence d états pour chaque temps t. Ce sera réalisé à l aide du tableau Gaël RICHARD Master IAD-PS Février 2008 27

Problème 2: Retrouver la séquence d'états optimale. Algorithme: Initialisation Récursion Arrêt Rétropropagation (chemin optimal) Gaël RICHARD Master IAD-PS Février 2008 28

Exercice: Algorithme de Viterbi Soit le modèle choisi pour l expérience avec 3 pièces avec les probabilités suivantes: Etat1: P(P) = P(F) = 0.5 Etat2: P(P)=0.75; P(F) = 0.25 Etat 3: P(P) = 0.25; P(F)=0.75 Tous les aij =1/3; probabilités initiales = 1/3 Quel est la séquence d état optimale obtenue par l algorithme de Viterbi pour l observation (F F F F P F P P P P)? Gaël RICHARD Master IAD-PS Février 2008 29

Problème 3: Ré-estimer les paramètres du modèle. Problème plus complexe Utilisation de l algorithme de Baum-Welch (aussi connu sous le nom d algorithme Expectation-Maximisation) Objectif: Ré-estimer les paramètres du modèle pour maximiser localement Gaël RICHARD Master IAD-PS Février 2008 30

Ré-estimer les paramètres du modèle (2) Définissons la probabilité d être dans l état i à l instant t et dans l état j à l instant t + 1 connaissant le modèle, et la séquence d observation O: On a: Gaël RICHARD Master IAD-PS Février 2008 31

Ré-estimer les paramètres du modèle (2) Interprétation: est l ensemble des chemins vérifiant les conditions requises par l équation précédente: Gaël RICHARD Master IAD-PS Février 2008 32

Ré-estimer les paramètres du modèle (3) La probabilité d être dans l état i à l instant t connaissant la séquence d observation O et le modèle est, et s écrit: Par ailleurs, si l on somme sur le temps t, on obtient une quantité qui peut être interprétée comme une estimation du nombre de fois que l état i est visité (Si l on ne somme que sur les T-1 premiers indices, on a une estimation du nombre de transitions à partir de l état i). De même, si l on somme la variable sur le temps (sur les T premiers indices), on obtient une estimation du nombre de transitions de l état i vers l état j. Gaël RICHARD Master IAD-PS Février 2008 33

Ré-estimer les paramètres du modèle (4) On obtient finalement: Gaël RICHARD Master IAD-PS Février 2008 34

Ré-estimer les paramètres du modèle (5) Ainsi, à partir du modèle courant on obtient un modèle réestimé pour lequel, on a: On peut montrer que l approche décrite est équivalente à l utilisation de l algorithme EM qui maximisera par rapport à la fonction auxilliaire de Baum : Gaël RICHARD Master IAD-PS Février 2008 35

Densités d observations continues Les paramètres prennent en général des valeurs continues, d où l intérêt d utiliser des densités d observation continues Pour des modèles simples (par exemple sommes de Gaussiennes), on peut trouver des expressions analytiques pour les formules de réestimation. Gaël RICHARD Master IAD-PS Février 2008 36

Densités d observations continues Modèle par somme de Gaussiennes Avec: Gaël RICHARD Master IAD-PS Février 2008 37

Approche par Mélanges de Gaussiennes (Voir Cours O. Cappé http://tsi.enst.fr/~ocappe/em_tap.pdf) Modèle de mélange Exemple à 2 dimensions avec 1, 2 puis 3 gaussiennes 6000 6000 5000 5000 4000 4000 likelihood likelihood 3000 3000 2000 2000 1000 1000 0 0-5 -4-2 0 2 5 4 6 10 8 10 15 12 value value Gaël RICHARD Master IAD-PS Février 2008 38

Approche par Mélanges de Gaussiennes (GMM) Exemple de modèles à 2 composantes Gaël RICHARD Master IAD-PS Février 2008 39

Approche par Mélanges de Gaussiennes (GMM) Exemple de modèles à 2 composantes Gaël RICHARD Master IAD-PS Février 2008 40

Equivalence de modèles Equivalence entre un état d'une chaîne de Markov cachée avec une densité d'observation sous la forme d'un mélange de Gausiennes un modèle multi-états en parallèle contenant chacun une des Gaussiennes du mélange: Gaël RICHARD Master IAD-PS Février 2008 41

Formules de ré-estimation Où la probabilité d'être dans l'état j au temps t avec la k ième Gaussienne du mélange représentant o t est donnée par: Gaël RICHARD Master IAD-PS Février 2008 42

Exemples d application Application de dialogue (technologie LIMSI-Vecsys) Application boursière: Live quotes (08 92 702 440) Grand public Peu de langage naturel Démo RATP : serveur SIEL (démo interne) Illustration du barge in (interruption du système) Démo SNCF: Système RECITAL (0 805 90 22 22) Grand public Langage naturel plus développé Pas de barge in Gaël RICHARD Master IAD-PS Février 2008 43