Extraction de mots-clefs dans des vidéos Web par Analyse Latente de Dirichlet



Documents pareils
Apprentissage Automatique

Recherche d information en langue arabe : influence des paramètres linguistiques et de pondération de LSA

Traduction automatique à partir de corpus comparables: extraction de phrases parallèles à partir de données comparables multimodales

Laboratoire 4 Développement d un système intelligent

Étude de la performance des modèles acoustiques pour des voix de personnes âgées en vue de l adaptation des systèmes de RAP

Évaluation de G-LexAr pour la traduction automatique statistique

EXTRACTION DE CONNAISSANCES À PARTIR DE DONNÉES TEXTUELLES VUE D ENSEMBLE

De la modélisation linguistique aux applications logicielles: le rôle des Entités Nommées en Traitement Automatique des Langues

Rapport : Base de données. Anthony Larcher 1

1 Description générale. Résumé

Apprentissage statistique dans les graphes et les réseaux sociaux

Lamia Oukid, Ounas Asfari, Fadila Bentayeb, Nadjia Benblidia, Omar Boussaid. 14 Juin 2013

Structuration des décisions de jurisprudence basée sur une ontologie juridique en langue arabe

RI sociale : intégration de propriétés sociales dans un modèle de recherche

Classification Automatique de messages : une approche hybride

Ressources lexicales au service de recherche et d indexation des images

Projet de Master en Informatique: Web WriteIt!

Formation GISEH Module rédacteur 7, 9 juin 5, 12 juillet 2011

Indexation sémantique au moyen de coupes de redondance minimale dans une ontologie

Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar

Trois approches du GREYC pour la classification de textes

Introduction au Data-Mining

Application d un algorithme de traduction statistique à la normalisation de textos

Une plate-forme open-source de recherche d information sémantique

Quel est l apport de la détection d entités nommées pour l extraction d information en domaine restreint?

Reconnaissance automatique de la parole à l aide de colonies de fourmis

Apport de l information temporelle des contextes pour la représentation vectorielle continue des mots

Multi-catégorisation de textes juridiques et retour de pertinence

Les modes de recherche sur le Web 2.0

N SIMON Anne-Catherine

JADT /06/2010 Rome Utilisation de la visualisation en nuage arboré pour l'analyse littéraire

Recherche d Information(RI): Fondements et illustration avec Apache Lucene. par Majirus

Description de Produit Logiciel. AMI News Monitor v2.0. SPD-AMINM-10 v1.0

Morphosyntaxe de l'interrogation en conversation spontanée : modélisation et évaluations

TRAITEMENT AUTOMATIQUE DES LANGUES. Licence d'informatique 2ème Année Semestre 1. Département d'informatique Université de Caen Basse-Normandie

Expériences de formalisation d un guide d annotation : vers l annotation agile assistée

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Optimiser le référencement naturel de son site web

Principe de symétrisation pour la construction d un test adaptatif

Contributions à la reconnaissance robuste de la parole

Introduction au datamining

INF6304 Interfaces Intelligentes

Introduction au Data-Mining

Modélisation du comportement habituel de la personne en smarthome

Un dictionnaire électronique pour apprenant de l'arabe (langue seconde) basé sur corpus

Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services

GKR. Geological Knowledge Representation Base de connaissances métallogéniques

UTILISATION DU WEB COMME MEGA-BASE DE DONNÉES LINGUISTIQUE : APPLICATION À LA TRADUCTION DE COOCCURRENCES LEXICALES FRANÇAISES-ANGLAISES

Chapitre IX. L intégration de données. Les entrepôts de données (Data Warehouses) Motivation. Le problème

Détection de têtes dans un nuage de points 3D à l aide d un modèle de mélange sphérique

Intégration d une étape de pré-filtrage et d une fonction multiobjectif en vue d améliorer le système ExtraNews de résumé de documents multiples

Formula Negator, Outil de négation de formule.

Luc Grivel (*, **)

Learning Object Metadata

Une méthode d apprentissage pour la composition de services web

Entreposage de données complexes pour la médecine d anticipation personnalisée

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

Campagnes adwords web

TEXT MINING Tour d Horizon

Historique. Architecture. Contribution. Conclusion. Définitions et buts La veille stratégique Le multidimensionnel Les classifications

Evolution et architecture des systèmes d'information, de l'internet. Impact sur les IDS. IDS2014, Nailloux 26-28/05/2014

E-Gen : traitement automatique des offres d emploi

Bases de données documentaires et distribuées Cours NFE04

ACADÉMIE DE NANTES UNIVERSITÉ DU MAINE THÈSE. présentée à l Université du Maine pour obtenir le diplôme de DOCTORAT

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12

Campagne de Communication Prévisionnelle. Web Intelligence & Réputation Internet

Extraction automatique de modèles de processus pour l étude de la résolution collective de problèmes dans les communautés du logiciel libre

R-ICP : une nouvelle approche d appariement 3D orientée régions pour la reconnaissance faciale

Dafoe Présentation de la plate-forme UIMA

Proposition des cadres d évaluation adaptés à un système de RI personnalisé

Introduction à la B.I. Avec SQL Server 2008

Intégration de la dimension sémantique dans les réseaux sociaux

Modèles graphiques probabilistes pour la reconnaissance de formes

Ecole Technique «Transformation de données documentaires» Poitiers, mars Atelier 1: Sphinx. import, conversion, export de données

Mesure agnostique de la qualité des images.

CommentWatcher. plateforme Web open-source pour analyser les discussions sur des forums en ligne. Marian-Andrei RIZOIU

Abdenour Hacine-Gharbi. Sélection de paramètres acoustiques pertinents pour la reconnaissance de la parole

D origine destiné à la conception de blog, WordPress est devenu l outil incontournable dans la liste des systèmes de gestion de contenus..

Cognit Ive Cas d utilisation

EP A1 (19) (11) EP A1 (12) DEMANDE DE BREVET EUROPEEN. (43) Date de publication: Bulletin 2009/25

Instrumentation de la recherche en Education : analyse épistémologique de quelques logiciels d aide à l analyse d enregistrements vidéos

Le langage SQL Rappels

Sciences de Gestion Spécialité : SYSTÈMES D INFORMATION DE GESTION

INTELLIGENCE ECONOMIQUE : ENJEUX ET RETOUR D EXPERIENCE PILOTE DANS SEPT PMI DE BOURGOGNE

Plan de la présentation

Table des matières. Préface...5. Introduction...9

Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence

La recherche documentaire et la recherche d informations professionnelles. BU Sciences BIU Montpellier PPE 2012

Masses de données et calcul : à l IRIT. 8 octobre 2013

Analyse des réclamations d allocataires de la CAF : un cas d étude en fouille de données

Déjeuner de la Technologie 23 Mars 2007 Gestion de Documents Electroniques. Thierry GUILLOTIN - Elie FRANCIS EVER TEAM

Etudier l informatique

Recherche d information textuelle

En 2010, on compte environ 1,65 milliard d utilisateurs d internet, Introduction

Introduction aux SGBDR

e-recrutement : recherche de mots-clés pertinents dans le titre des annonces d emploi

MCMC et approximations en champ moyen pour les modèles de Markov

THESE. Thème. Contributions aux techniques de recherche d informations

Transcription:

Extraction de mots-clefs dans des vidéos Web par Analyse Latente de Dirilet RÉSUMÉÑÓ Ñ ºÑÓÖ ÙÒ Ú¹ Ú ÒÓÒº Ö ÓÖ ºÐ Ò Ö ÙÒ Ú¹ Ú ÒÓÒº Ö Mohamed Morid 1 Georges Linarès 1 (1) LIA-CERI, Université d Avignon et des Pays de Vaucluse Cet article présente une méthode d étiquetage de vidéos collectées sur une plate-forme de partage de vidéos. Cette méthode combine un système de reconnaissance de la parole, qui extrait les contenus parlés des vidéos, et un module d extraction de mots-clefs opérant sur les transcriptions automatiques. La difficulté majeure, dans cette caractérisation de vidéos par un ensemble de mots-clefs, est liée aux performances du SRAP qui sont souvent très faibles sur des vidéos générées par les utilisateurs.dans cet article, une méthode d extraction de mots-clefs robuste aux erreurs de reconnaissance est proposée. Cette méthode repose sur la projection des contenus parlés dans un espace thématique obtenue par Analyse Latente de Dirilet. Nos expériences sont réalisées sur un ensemble de vidéos collectées sur une plate-forme de partage communautaire. Elles montrent l intérêt du modèle proposé, en particulier dans les situations d éec du système de transcription automatique. ABSTRACT LDA-based tagging of Web videos This article presents a method for the automatic tagging of youtube videos. The proposed method combines an automatic spee recognition system, that extracts the spoken contents, and a keyord extraction system that aims at finding a small set of tags representing the video. In order to improve the robustness of the tagging system to the recognition errors, a video transcription is represented in a semantic space obtained by Latent Dirilet Allocation (LDA), in hi ea dimension is automatically aracterized by a list of eighted terms and uncks. Our experiments demonstrate the interest of su a model to improve the robustness of the tagging system, especially hen spee recognition (ASR) system produce highly errorneous transcript of spoken contents. MOTS-CLÉS : Reconnaissance de la parole, analyse des contenus, catégorisation audio, multimédia. KEYWORDS: Spee recognition, content analysis, audio categorization, multimedia. Actes de la conférence conjointe JEP-TALN-RECITAL 2012, volume 1: JEP, pages 273 280, Grenoble, 4 au 8 juin 2012. c 2012 ATALA & AFCP 273

1 Introduction Les plates-formes de partage de vidéos sur Internet se sont fortement développées ces dernières années. En 2011, YouTube augmentait d une heure d enregistrement déposée toutes les secondes. Malheureusement, l utilisation de ces collections de vidéos, souffre de l absence d informations structurées et fiables. L indexation réalisée par l hébergeur repose essentiellement sur les mots-clefs fournis par les utilisateurs, éventuellement sur les résumés ou le titre des documents. Malheureusement, ces méta-données sont souvent incomplètes ou erronées, parfois volontairement : certains utilisateurs oisissent des mots-clefs qui favorisent le référencement jusqu à s éloigner significativement du contenu réel de la vidéo déposée. Ceci implique donc des tags non représentatifs du contenu même de la vidéo.. Cet article propose une méthode pour l extraction automatique de mots-clefs des contenus parlés d une vidéo. Cette méthode repose sur un processus en 2 étapes qui réalisent respectivement la transcription automatique de la parole puis l extraction de mots-clefs. Un des problèmes majeurs de cet enaînement extraction/analyse des contenus est lié au composant de reconnaissance de la parole, qui est souvent peu performant sur des données Web, dont la diversité de forme et de fond est extrême et qui sont généralement éloignées des conditions d entraînement des systèmes. Deux pistes sont typiquement suivies pour exploiter des transcriptions bruitées par les erreurs de reconnaissance. La première consiste à améliorer la robustesse du reconnaisseur de parole, de façon à éviter les situations d éec massif du système, qui rendraient la transcription inutilisable. Cette voie requière le plus souvent des données caractéristiques de la tâe, données qui sont difficiles à collecter et coûteuses à annoter. L autre possibilité est d améliorer la tolérance du système d analyse aux erreurs de reconnaissance. Cet article présente une stratégie robuste pour l extraction de mots-clefs issus d une transcription automatique des segments parlés d une vidéo. Cette méthode repose sur l idée que le niveau lexical est particulièrement sensible aux erreurs de reconnaissance et qu une représentation de plus haut niveau pourrait permettre de limiter l impact négatif de ces erreurs sur les modules d analyse. Le document source est projeté dans un espace thématique dans lequel le document peut être vu comme une association de thèmes. Cette représentation intermédiaire est obtenue par une analyse Latente de Dirilet appliquée à grand corpus de textes. Une méthode originale utilisant cette décomposition pour déterminer les mots-clefs caractéristiques du document source est ensuite proposée. L extraction de mots-clefs est un thème classique du traitement automatique du langage naturel. La section suivante dresse un panorama rapide des approes les plus courantes et discute de leur capacité à traiter des textes bruités par les erreurs de reconnaissance. Notre proposition est ensuite détaillée : la section 3 décrit l aritecture globale du système, la section 4 présente le processus de construction de l espace thématique et les métriques utilisées. La méthode d extraction des mots-clefs dans cet espace est présentée dans la section 5, puis évaluée dans la section 6. L article se termine par une conclusion et quelques perspectives. 274

2 État de l art La reere de mots-clefs dans des documents textuels est un problème classique du traitement automatique du langage naturel. L approe la plus populaire consiste à extraire les mots de plus fort TFxIDF (Term Frequency.Inverse Document Frequency), qui mesure la fréquence du mot dans le document, normalisée par la fréquence du mot dans un grand corpus. Cette mesure a été déclinée en différentes variantes utilisant des ressources externes, la position du mot candidat dans le document (Frank et al., 1999; Deegan et al., 2004; HaCohen-Kerner et al., 2005) ou des connaissances linguistiques (Hulth, 2003). La reere de mots-clefs dans des documents parlés présente des difficultés particulières, dues aux spécificités de l oral et à l usage de systèmes de reconnaissance automatique de la parole pour l extraction des contenus linguistiques. Quelques travaux utilisent des approes haut niveau, basées sur des ontologies ou des connaissances linguistiques explicites. (van der Plas et al., 2004) utilise Wordnet et EDR, un dictionnaire électronique de noms propres, pour extraire les concepts dominants d un texte annoté automatiquement. D autre approes reposent sur des modèles statistiques, utilisées initialement sur des bases purement textuelles ; par exemple, (Suzuki et al., 1998) utilise LSA pour l extraction de motsclefs dans une base de données encyclopédique. Ce type de teniques a ensuite été appliqué avec succès à de très nombreux problèmes de traitement de la parole. Par exemple, (Bellegarda, 2000) utilise LSA (Latent Semantic Analysis) pour extraire les phrases les plus significatives d un document parlé. L extraction de mots-clefs peut être vue comme une forme extrême de résumé. Dans (?), les auteurs utilisent le modèle CBC (Comitee Based CLustering) et l analyse latente de Dirilet (LDA) pour extraire un ensemble de mots supposés résumer le document. Les résultats obtenus démontrent l efficacité de LDA et semble robuste aux erreurs de reconnaissance, qui est un des points critiques des systèmes d analyse des contenus parlés. Notre proposition est d utiliser la décomposition en thèmes latents obtenus par LDA pour trouver les thèmes latents composants la retranscription issu de la vidéo. Ainsi, est extrait les motsclefs caractéristiques de vidéos disponibles sur Internet, qui représentent des conditions peu contrôlées, particulièrement difficiles à traiter par un système de reconnaissance de la parole. 3 Méthode proposée - Aritecture générale La méthode d étiquetage proposée repose d abord sur la transcription automatique des contenus parlés du document. Les sorties du module de reconnaissance sont ensuite projetées dans un espace thématique obtenu par LDA. Nous considérons que le concept principal du document, qui doit être caractérisé par les motsclefs, est une combinaison de thèmes latents représentés par les thèmes LDA. Les mots-clefs sont donc extraits par un processus de sélection et de combinaison des thèmes les plus représentatifs du document à étiqueter (cf.figure 1). Diverses règles de combinaisons, telles que l union et l intersection sont proposées et évaluées. Ces méthodes sont comparées à l approe classique à base de TFxIDF. Ce système d extraction de tags se décompose en trois phases : (1) Création d un espace de 275

thèmes, (2) projection de la retranscription dans cet espace pour (3) déterminer un ensemble de thèmes proe puis (4) en extraire un ensemble de tags représentatif de la vidéo (cf.figure 1) : Retranscription Tags de la video youtube journal - guignols -... Projection du document dans l espace de thèmes Précision Corpus Ensemble de thèmes T 0 T n Ensemble de thèmes proes T 25 T 121 T 167 Tags trouvés Création de l espace de thèmes Intersection entre thèmes FIGURE 1 Extraction des mots-clefs par union ou intersection de thèmes. 4 Espace thématique LDA est un modèle génératif qui considère un document comme un sac de mots résultant d une combinaison de thèmes latents. L étude statistique des cooccurrences des mots dans une base permet d extraire des classes de mots cooccurrents, qu on assimile souvent à des thèmes, bien que rien ne permette d établir explicitement un lien entre le modèle statistique et l interprétation en thèmes qui pourrait en être faite. (Rigouste et al., 2006) a clairement établi les avantages de LDA comparé à d autres modèles génératifs du même type, largement utilisés en traitement automatique du langage naturel, par exemple LSI (Latent Semantic Indexing), équivalent à LSA (Kubota Ando et Lee, 2001)) ou sa variante probabiliste (Probabilistic Latent Semantic Indexing, PLSI, (Hofmann, 1999)). Toutes ces méthodes requièrent des ensembles de données suffisants pour être une estimation correcte de leurs paramètres. Nous avons oisi d utiliser Wikipédia et la collection des dépêes de l agence France presse (AFP) de 2000 à 2006, qui représentent respectivement 1G et 4.5 Go pour un total d environ 1 milliard de mots et 3 millions d articles. Ces deux bases sont lemmatisées avec TreeTagger (Stein et Smid, 1995) pour retirer l ensemble de mots vides (articles, propositions,...) avant d estimer un modèle à 5000 thèmes de 30 mots, nombre oisi empiriquement. Nous obtenons un ensemble de mots en minuscule sans termes vide. Ceci permet de traiter des mots pouvant être trouver par le système de reconnaissance de la parole. 4.1 Représentation des thèmes LDA Les thèmes LDA sont représentées par un vecteur composé du poids des mots du lexique dans le thème (P( i t)). Le vecteur de poids d un thème V t est composé des probabilités des mots i 276

saant le thème t, pondérées par l IDF (Définition dans la section 4.2) du mot : V t [i] = P( i t).id f ( i ) 4.2 Représentation vectorielle des documents Un document peut être considéré comme un point dans un espace vectoriel R k, aque coordonnée i du vecteur W d représentant un indicateur du poids du mot dans le document. Ce poids (W d [i] = t f ( i ) id f ( i ) r p( i )) combine la mesure (t f.id f ) et la position (r p) du mot i dans le document (Salton, 1989) : t f () = n()(d) D, id f () = log k {d : d}, n( i )(d) i=0 d r p() = f p où n()(d) est le nombre d occurrences du mot dans d, et D est la collection complète de documents. Cette valeur est identique pour tous les mots d un même document, la pondération liée à la première occurrence du mot dans le document est notée r p. Elle peut donc être simplifié par r p() = 1 car tout les mots sont issus d un même document. f p étant la position de la f p première occurrence du mot dans le document. 4.3 Similarité document/thème Nous avons vu que les documents étaient caractérisés par des vecteurs de TFxIDFxRP, et que les thèmes étaient représentés par des vecteurs de probabilités de mots conditionnées aux thèmes et normalisées par l IDF. La mesure du cosinus est utilisée pour évaluer la similarité entre ces deux vecteurs : V t [i].w d [i] i d Sim(d, t) =. V t [i] 2. W d [i] 2 i d i t 5 Extraction des mots-clefs Il s agit ici d extraire les n mots-clefs de la projection du document dans l espace thématique. La stratégie proposée est d isoler les m thèmes principaux et de combiner leurs vecteurs caractéristiques. Dans nos expériences, m est fixé empiriquement à 100 thèmes. Deux approes peuvent être suivies ; la première consiste à erer les éléments communs aux thèmes principaux du document ; l autre consiste à extraire les mots de plus forts poids de l ensemble des thèmes caractéristiques. La première approe va nous amener à erer les mots-clefs dans l intersection des thèmes, la seconde dans l union. Pour les deux méthodes, les n mots de score sc() les plus 277

élevé de acun des thèmes sont sélectionnés pour commencer, avec n égal au nombre de tags associés à la vidéo : m sc() = Sim(d, t k ).P( t k ) (1) k=0 où P( t k ) représente la probabilité du mot saant la thème t k et Sim(d, t k ) la similarité t k et d le document. 6 Expériences Le corpus de tests est composé d environ 100 vidéos françaises comportant 14 tags en moyenne hébergées sur la plate-forme YouTube. Le premier traitement consiste à appliquer le système de reconnaissance à la bande son de ces vidéos. Le système, dérivé de celui que le LIA a engagé dans la campagne d évaluation ESTER 2008 (Linarès et al., 2007), est utilisé. La segmentation est produite avec l outil GPL du LIUM (Meignier et Merlin, 2010). Le moteur de reconnaissance utilise des modèles classiques à base de modèles de Markov et de statistiques 4-grammes, avec un algorithme de reere A* appliqué à un treillis de phonèmes. Les modèles acoustiques sont des modèles contextuels avec un partage d états par arbres de décisions. Ces modèles sont appris sur les données produites par les 2 campagnes ESTER successives et par le projet EPAC, pour un total d environ 250 heures de données annotées. Le jeu de modèles est composé de 20000 HMMs pour un peu plus de 5000 états partagés. Les modèles à mélange de gaussiennes associés à ces états sont des mixtures à 32 composantes. La dépendance au genre est introduite à la fin du processus d estimation, par adaptation MAP de ce modèle. Les modèles de langage sont des 4-grammes classiques estimés, pour l essentiel, sur environ 200M de mots du journal français Le Monde, le corpus ESTER (environ 2M de mots) et le corpus GI- GAWORD, composé des dépêes d informations sur la période de 2000 à 2006, pour environ 1 milliard de mots. Le décodeur exécute deux passes. La première est un décodage rapide (3xRT) en 4-grammes, qui permet l adaptation au locuteur des modèles acoustiques ; la seconde est effectuée avec une exploration plus complète de l espace de reere (les coupures sont moins strictes) et utilise ces modèles adaptés. Elle est exécutée en environ 5 fois le temps réel sur une maine de bureau standard. La transcription manuelle de la parole est une tâe lourde. De façon à estimer le niveau de performance du système sur des vidéos issues du Web, 10 des 100 vidéos de test, oisies aléatoirement, ont été transcrites manuellement, ce qui représente environ 35 minutes de parole. Sur cet éantillon assez réduit, le système obtient un taux d erreur mot de 63.7%, évidemment très élevé mais conforme à ce qu on pouvait attendre du décodage de documents Web, très divers sur le fond et enregistrés dans des conditions variables - mais le plus souvent difficiles et peu contrôlées. Ces vidéos sont le résultats de la requête "journal actualité" soumise à la plate-forme YouTube. Ainsi, l ensemble des vidéos contient 6166 tags dont 903 absents du vocabulaire du modèle LDA. Ceci représente environ 14% de mots hors-vocabulaire (cf.table 1). L extraction de mots-clefs est vue comme une tâe de détection des tag utilisateurs, qui sont considérés ici comme référence unique. Les performances sont mesurées de façon classique, en 278

Méthode Tags trouvés Précision Tags utilisateurs iranien atomique netanyahou livni intel arabe 1 TFxIDFxRP vrai ehoud iranien jérusalem sécuritaire iran 0.16 Intersection iranien étranger vrai iran atomique jérusalem 0.33 Union ancelier gouvernement iranien ancien virtuel laisser 0.16 TABLE 1 Exemple de tags trouvés par les méthodes d extraction de mots-clefs par intersection, union des thèmes et TFxIDFxRP comparées au tags de l utilisateur pour une vidéo. terme de Précision. Les résultats montrent que l intersection est très clairement supérieure à l union des thèmes, ce qui peut sembler assez contre-intuitif. Par ailleurs, cette méthode est très nettement supérieure à la classique TFxIDFxRP, ce qui valide l idée, qui a motivé ce travail, que l abstraction réalisée par la projection dans l espace thématique limite l effet négatif des erreurs de reconnaissance. Dans la (cf.table 2) est présentée la précision pour acune des méthodes. Intersection Union TFxIDFxRP Précision 4.8% 0.9% 2.8% TABLE 2 Précision comparées de la méthode d extraction de mots-clefs par intersection, union des thèmes thématiques, par TFxIDFxRP La faiblesse de ces résultats est due au taux de tags n apparaissant pas dans la retranscription (14%), et aux erreurs du système RAP. 7 Conclusions et perspectives Dans cet article, une méthode d étiquetage automatique de vidéos est proposée. Celle-ci repose sur la localisation du document dans un espace thématique issu d une analyse latente de Dirilet. Différentes méthodes d extraction des mots clefs dans cet espace sont proposées. Nos expériences montrent que cette représentation thématique du document permet de réduire l effet négatif des erreurs de reconnaissance : les méthodes proposées dépassent très significativement l approe classique à base de TFxIDFxRP, qui opère dans une représentation de niveau lexical. Dans l absolu, les performances obtenues peuvent sembler relativement faibles (moins de 5% de Précision). Néanmoins, cette évaluation repose sur la comparaison des résultats du système et des tags qui sont effectivement donnés par les utilisateurs ; on peut considérer qu il s agit la d une référence elle-même assez bruitée et des expériences complémentaires permettraient probablement de consolider les résultats obtenus ici (par exemple en proposant des annotations produites par différents utilisateurs plutôt que par l uploader seul). De façon plus générale, nos résultats confirment la robustesse supérieure apportée par la projection du document dans des représentations de relativement haut niveau. Valider ce principe sur d autres tâes classiques liées à l indexation ou à l interprétation de la parole est une des pistes que nous développerons dans l avenir. 279

Références BELLEGARDA, J. (2000). Exploiting latent semantic information in statistical language modeling. Proceedings of the IEEE, 88(8):1279 1296. DEEGAN, M., SHORT, H., ARCHER, D., BAKER, P., MCENERY, T. et RAYSON, P. (2004). Computational linguistics meets metadata, or the automatic extraction of key ords from full text content. RLG Digines, 8(2). FRANK, E., PAYNTER, G., WITTEN, I., GUTWIN, C. et NEVILL-MANNING, C. (1999). Domain-specific keyphrase extraction. In International joint conference on artificial intelligence, volume 16, pages 668 673. Citeseer. HACOHEN-KERNER, Y., GROSS, Z. et MASA, A. (2005). Automatic extraction and learning of keyphrases from scientific articles. Computational Linguistics and Intelligent Text Processing, pages 657 669. HOFMANN, T. (1999). Probabilistic latent semantic indexing. In Proceedings of the 22nd annual international ACM SIGIR conference on Resear and development in information retrieval, pages 50 57. ACM. HULTH, A. (2003). Improved automatic keyord extraction given more linguistic knoledge. In Proceedings of the 2003 conference on Empirical methods in natural language processing-volume 10, pages 216 223. Association for Computational Linguistics. KUBOTA ANDO, R. et LEE, L. (2001). Iterative residual rescaling : An analysis and generalization of lsi. LINARÈS, G., NOCÉRA, P., MASSONIE, D. et MATROUF, D. (2007). The lia spee recognition system : from 10xrt to 1xrt. In Proceedings of the 10th international conference on Text, spee and dialogue, pages 302 308. Springer-Verlag. MEIGNIER, S. et MERLIN, T. (2010). Lium spkdiarization : an open source toolkit for diarization. In CMU SPUD Workshop, volume 2010. RIGOUSTE, L., CAPPÉ, O. et YVON, F. (2006). Quelques observations sur le modele lda. Actes des IXe JADT, pages 819 830. SALTON, G. (1989). Automatic text processing : the transformation. Analysis and Retrieval of Information by Computer. STEIN, A. et SCHMID, H. (1995). Etiquetage morphologique de textes français avec un arbre de décisions. Traitement automatique des langues, 36(1-2):23 35. SUZUKI, Y., FUKUMOTO, F. et SEKIGUCHI, Y. (1998). Keyord extraction using term-domain interdependence for dictation of radio nes. In Proceedings of the 17th international conference on Computational linguistics-volume 2, pages 1272 1276. Association for Computational Linguistics. van der PLAS, L., PALLOTTA, V., RAJMAN, M. et GHORBEL, H. (2004). Automatic keyord extraction from spoken text. a comparison of to lexical resources : the edr and ordnet. Arxiv preprint cs/0410062. 280