Adaptation du modèle de langue pour le tri des réponses dans les BD
|
|
|
- Bénédicte Thibodeau
- il y a 10 ans
- Total affichages :
Transcription
1 Adaptation du modèle de langue pour le tri des réponses dans les BD Abdelhamid CHELLAL * Mohand BOUGHANEM * Karima AMROUCHE ** *Institut de Recherche en Informatique de Toulouse, 118 route de Narbonne Toulouse Cedex 9, France {abdelhamid.chellal,bougha}@irit.fr ** Ecole Supérieure Nationale de l Informatique, Alger, Algérie [email protected] RÉSUMÉ. L information sur le web est de plus en plus extraite depuis des bases de données (BD) où les langages d interrogation sont basés sur une recherche exacte. L utilisateur se trouve confronté au problème de réponses nombreuses lorsque sa requête est peu sélective. Pour remédier à ce problème, plusieurs approches ont été proposées, à l instar de celles utilisant les techniques de relaxation des requêtes. D autres travaux proposent de classifier les résultats. Une autre classe d approches, au quelle on s intéresse, suggère l adaptation des techniques de la recherche d information (RI) pour trier les résultats dans les BD. On propose dans cet article, une adaptation du modèle de langue de la RI pour trier les tuples retournés selon leur score de pertinence vis-à-vis la requête. Ce score est évalué par un modèle de langue bi-gramme qui combine, à travers un lissage par interpolation, les probabilités d occurrence des valeurs des attributs dans l ensemble des tuples retournés ainsi que dans la BD. Nous avons évalué l efficacité de notre approche sur une table contenant tuples. Les résultats préliminaires obtenus montrent l intérêt d exploiter les dépendances entre les valeurs d attributs.. ABSTRACT. Information over the web is increasingly retrieved from relational databases using exact query matching. As result, the user can be confronted to the problem of overabundant answers in the case of imprecise query. To overcome this problem, several approaches have been proposed we distinguish those based on automatic strengthening of the predicates used in vague conditions. Others works suggest the use of classifications techniques to provide users with hierarchical clustering schemas of their query results. Another class of approaches proposes the adaptation of information retrieval (IR) approaches for ranking tuples returned for a query. We discuss in this paper, an adaptation of IR based language model to rank results according to their relevance score. This score is evaluated using bi-gramm language model smoothed by interpolation between the probabilities of occurrence of attributes values in the result set and their probabilities of occurrence in the DB. We evaluate the effectiveness of our approach with a table with16842 tuples. The preliminary results show the interest of exploiting attribut s value dependency. MOTS-CLÉS : Recherche d information, tri dans les BD, problème réponses nombreuse, modèle de langue. KEYWORDS: Information retrieval, DB rank, overabundant answers, language model.
2 A Chellal, M Boughanem, K Amrouche 1. Introduction Une multitude des bases de données telles que les bibliothèques numériques, les bases de données scientifiques, les systèmes de commerce en ligne et les systèmes de réservation de voyages sont aujourd hui disponibles grâce à des interfaces d interrogation en ligne sur internet. La recherche d information dans les bases de données (BD) est de plus en plus sollicitée par de simples utilisateurs. Cependant, compte tenu du modèle de sélection des réponses, souvent basé sur un appariement exact, du volume d information de plus en plus important, et de l imprécision dans l expression de son besoin, l utilisateur se trouve souvent confronté aux problèmes de réponses vides (Empty Answer Problem) lorsque sa requête est très sélective ou de réponses nombreuses (Overbundant Answer Problem) dans le cas de requête peu sélective (Agrawal et al., 2003) (Samyr et al., 2014) ( Premkumar et al., 2014). Dans cet article, on s intéresse plus particulièrement à la seconde problématique, qui apparait lorsque l'utilisateur n a pas une idée précise de son besoin d'information et dont l expression est généralement vague ou imprécise. Dans une telle situation, il pose une requête large et peu sélective pour éviter l'exclusion des résultats potentiellement intéressants. En réponse à une telle requête, le système peut retourner un nombre important de tuples dont l exploitation peut être fastidieuse. Tous les tuples retournés satisfont toutes les conditions spécifiées dans la requête. Ceci est dû au modèle classique d interrogation utilisé dans les Systèmes de Gestion de Bases de Données (SGBD). Ces derniers dans leur majorité supportent uniquement un modèle d interrogation booléen de type tout ou rien (Agrawal et al., 2003) et (Meng et al., 2009) où la notion de pertinence n existe pas. La correspondance est exacte, les données répondent complètement à une requête ou ne répondent pas. Pour départager les tuples résultats, une solution est d aller regarder les attributs non spécifiés. Cependant le traitement de ce type d attributs est particulièrement difficile puisqu on ne connait pas «a priori» quelles sont les préférences de l utilisateur (Chakrabarti et al., 2004). La mesure de la pertinence d une ressource (un document par exemple) vis-à-vis d une requête et le classement des résultats par ordre décroisant de cette pertinence sont au cœur des préoccupations de la RI. Une panoplie de modèles de RI a été proposée, on en trouve une bonne partie d entre eux dans l ouvrage de (Baeza-Yates et al., 2011). Certains ont été adaptés pour répondre à cette problématique de tri de réponse en BD, comme le modèle vectoriel (Agrawal et al., 2003) ) et le modèle probabiliste de base (Chaudhuri et al., 2004). Ces modèles considèrent un tuple comme un document. Dans cet article, on considère également qu un tuple correspond à un document et on propose une approche basée sur l adaptation du modèle de langue (ML) de la
3 Adaptation du ML pour le tri dans les BD 3 RI (Ponte et al., 1998) pour trier les résultats retournés selon leur pertinence vis-àvis de la requête. Pour estimer le score de pertinence nous utilisons un modèle de langue bi-gramme modélisent la distribution des bi-valeurs d attributs dans un tuple. Plus précisément, ces probabilités sont estimées à travers les fréquences d cooccurrence des valeurs des attributs spécifiés et non spécifiés dans la requête avec un lissage par interpolation (Hiemstra, 1998) qui combine linéairement le modèle de l ensemble des résultats et de la base de données. La fonction de calcul de score de pertinence proposée prend en considération les différences afférentes aux types de conditions utilisées dans la requête qui peuvent être soient atomiques «A i = q i», soient de type BETWEEN (pour les attributs numériques) ou IN (pour les attributs catégoriels). En effet, dans le cas de condition de type BETWEEN et IN, les tuples retournés contiennent des valeurs différentes dans les attributs spécifiés en plus des différences dans les valeurs des attributs non spécifiés. A cet effet, nous proposons deux variantes pour calculer le score de pertinence locale des valeurs des attributs selon le type de condition. Il convient de noter que dans le cadre du tri des résultats des bases de données, la notion de pertinence n est pas identique à celle connu en RI, ici elle correspond à une préférence utilisateur puisque tous les tuples de l ensemble des résultats retournés par le SGBD satisfont les conditions de la requête. Le reste de cet article est organisé comme suit : dans la section 2, un aperçu sur quelques travaux de recherche qui traitent le problème de réponses nombreuses est donné. Nous présentons ensuite notre approche dans la section 3. Une évaluation expérimentale de l approche proposée avec une discussion sont présentées respectivement dans les sections 4 et 5. On termine ensuite par une conclusion. 2. Etat de l art Pour remédier à cette problématique et faciliter l exploitation voire l exploration des réponses nombreuses, trois catégories de solution ont été proposées dans la littérature. La première propose une reformulation de la requête initiale où les prédicats des conditions vagues sont réduits automatiquement pour obtenir un nombre restreint de réponses (Bosc et al., 2006) (Bosc et al., 2008) (Samyr et al., 2014). La deuxième catégorie (Bechchi et al., 2010) (Chen et al., 2004) (Chakrabarti et al., 2004) suggère la classification des résultats retournés et leur présentation sous forme d une arborescence de navigation qui facilite leur exploration. La troisième catégorie consiste à trier les résultats selon leur degré de pertinence vis-à-vis de la requête en adoptant les techniques de la Recherche d Information classique (RI) (Agrawal et al., 2003) (Chaudhuri et al, 2004) (Su et al, 2006) et (van Bunningen et al, 2007). Plusieurs modèles de la RI ont été adaptés pour répondre au besoin de tri en base de données, on en trouve par exemple une adaptation du modèle vectoriel (Agrawal
4 A Chellal, M Boughanem, K Amrouche et al., 2003), deux adaptations du modèle probabiliste (Chaudhuri et al., 2004) (Chaudhuri et al., 2006) et (van Bunningen et al., 2007) et l approche QRRE «Query Result Ranking for E-commerce» (Su et al, 2006). Dans tous ces modèles, un tuple est considéré comme un document représenté par l ensemble des valeurs de ses attributs. La table entière ou la BD représente la collection de documents. Dans (Chaudhuri et al., 2004) (Chaudhuri et al., 2006), les auteurs proposent l adaptation de modèle probabiliste de base de la RI. Le choix de ce modèle a été motivé par sa capacité à traiter les dépendances existantes entre les valeurs des attributs, contrairement à d autres modèles tels que le modèle vectoriel. L approche proposée utilise l historique des requêtes pour détecter les relations de dépendance entre les valeurs des attributs spécifiés et les attributs non spécifiés dans la requête. La fonction de calcul du score de pertinence proposée s exprime comme suit : Où, D est une table de la base de données ayant n tuples {t 1,,t n } et un ensemble A de m attributs A= { A 1,,A m }. X Q et Y Q = A- X Q représentent respectivement l ensemble des attributs spécifiés et non spécifiés dans la requête Q. W est l historique des requêtes «workload». Dans cette fonction, le est composé de deux facteurs. Le premier estime l importance globale du tuple tandis que le second évalue sa pertinence conditionnelle. Les probabilités et sont évaluées par la fréquence de la valeur y dans l historique et dans la base de données respectivement. est similaire à IDF (inverse document frequency) utilisé dans la RI. Les probabilités et sont les probabilités de x sachant y dans l historique des requête W et dans la table D, elles sont estimées par les fréquences des cooccurrences des valeurs x et y. Ces probabilités sont précalculées et sauvegardées dans une table auxiliaire ce qui représente une des limités de cette approche notamment à cause du problème de leurs mises à jour suivant l évolution des données de la BD. Une autre limitation de cette approche est l utilisation de l historique des requêtes W qui n est pas toujours disponible. Dans QRRE (Su et al., 2006) la fonction d évaluation du score de pertinence combine l importance des valeurs des attributs avec le degré de préférence des attributs. Ces facteurs sont estimés par des distributions de probabilité des valeurs des attributs dans la base de données et dans l ensemble des tuples résultat. Cette approche se base sur l attribut «prix» dans l évaluation du degré de préférence des valeurs des autres attributs ce qui fait qu elle est applicable uniquement dans les BD commerciales. Cette dépendance à un attribut constitue la limite majeure de cette approche.
5 Adaptation du ML pour le tri dans les BD 5 Dans (Agrawal et al., 2003) les auteurs proposent une adaptation du modèle vectoriel. Les requêtes et les tuples sont représentés dans l espace de tous les attributs. Le score de pertinence entre une requête Q : ( ) et un tuple T : ( ) est évalué par: Où est le coefficient de similarité entre la valeur de l attribut spécifiée dans la requête et la valeur afférente au même attribut dans le tuple T. Il est estimé par : est une adaptation de la pondération TF-IDF utilisée dans la RI. représente l importance inverse de la valeur q de l attribut A k dans la base de données. Elle est évaluée selon la nature de l attribut (catégorique ou numérique). représente l importance de la valeur q dans l historique des requêtes. Plus il y a des requêtes dans l historique ayant la valeur q dans l attribut A k plus cette valeur est importante. Une seconde catégorie d approches suggère la classification des résultats. On cite ici les travaux de (Chakrabarti et al., 2004) et (Bechchi, 2010). Dans (Chakrabarti et al., 2004) une méthode de construction automatique d une arborescence de navigation des réponses basée sur le contenu des tuples dans l ensemble des résultats a été proposée. A chaque niveau, la répartition se fait sur la base d'un attribut unique, qui reste le même pour tous les nœuds de ce niveau. Un attribut est utilisé une seule fois comme facteur de classement. L ordre dans lequel les attributs sont présentés dans l arborescence et les valeurs utilisées pour éclater les domaines des attributs afférents sont inférés à travers l exploitation de l historique des requêtes. Les attributs qui apparaissent le plus dans les anciennes requêtes sont présentés dans les premiers niveaux. Dans (Bechchi, 2010) l auteur propose l algorithme ESRA «Explore Select Rearrange Algorithm» qui opère sur les résumés des données au lieu des données elles-mêmes. Il utilise les résumés SAINTETIQ (Raschia et al., 2002) (Saint-Paul et al., 2005) pré-calculés sur l ensemble des données pour regrouper les réponses d une requête utilisateur en un ensemble de classes organisées hiérarchiquement. Un autre type d approche consiste à réduire automatiquement la portée des conditions de la requête de telle sorte qu elle puisse retourner un nombre réduit de réponses en rapport avec la requête originale (Bosc et al., 2006) (Bosc et al., 2008) (Samyr et al., 2014). Dans (Samyr et al., 2014) les auteurs proposent une transformation basée sur le concept de proximité sémantique des prédicats flou (Hadj Ali et al., 2003) qui permet de traiter les deux problématiques afférentes aux
6 A Chellal, M Boughanem, K Amrouche réponses nombreuses et réponses vides et ce en élargissant ou en réduisant les intervalles des conditions selon le cas. Il convient de noter que le principe de relaxation des conditions a été proposé initialement pour traiter le problème de réponse vide. Il s agit d assouplir les contraintes sur les données recherchées vers une forme moins restrictive, de façon à ce que le nouvel ensemble de réponses soit plus grand que l ensemble original (Amer-Yahia et al., 2002). Dans le cas de réponses nombreuses, (Samyr et al., 2014) utilise les mêmes principes pour restreindre les conditions et réduire ainsi le nombre des réponses retournées. 3. Un modèle de langue pour le tri des réponses nombreuses 3.1. Principe de l approche proposée Les modèles de langue en recherche d information sont basées sur l hypothèse suivante: «un utilisateur en interaction avec un système de recherche fournit une requête en pensant à un ou plusieurs documents qu il souhaite retrouver». La requête est alors inférée par l utilisateur à partir de ces documents (Ponte et al., 1998). La pertinence d un document vis-à-vis d une requête est évaluée par la probabilité que la requête soit générée par le modèle de langue du document. Un modèle de langue est défini par «une fonction de probabilité P qui assigne une probabilité P(s) à un mot ou une séquence de mots s dans une langue» (Boughanem et al., 2004). En recherche d information, les modèles de langue ont été introduits en 1998 par Ponte et Croft (Ponte et al., 1998) qui voient le score d un document face à une requête comme la probabilité que la requête soit générée par le modèle du document. En pratique et pour simplifier les calculs, il est supposé dans les modèles de langue, qu un terme t i ne dépend que de ses i-1 prédécesseurs. Ainsi, les modèles les plus utilisés sont les modèles unigramme, bigramme et trigramme. Dans le modèle bi-gramme, il est supposé qu un terme ne dépend que de son prédécesseur immédiat. Ainsi, la probabilité d une séquence S= est évaluée par (Song et al., 1999): Par analogie à la RI, on considère que lorsqu un utilisateur fait une recherche dans une base de données, il a en tête le ou les tuples idéaux à son besoin d information. Il traduit ces tuples sous forme d une requête dans laquelle il spécifie les valeurs des attributs qu il souhaite. En général la requête ne contient pas tous les attributs du tuple. En effet, l utilisateur n est pas censé connaître le schéma détaillé
7 Adaptation du ML pour le tri dans les BD 7 de la base de données mais il peut avoir connaissance uniquement des attributs les plus importants où fournis par l interface web. Le principe de notre approche est le suivant : on considère que le score de pertinence d un tuple T retourné par le SGBD en réponse à une requête Q est défini par la probabilité de son appartenance au modèle de langue des bonnes réponses (M brq ) où brq R : l ensemble des réponses retournés par le SGBD. Ainsi, le calcul de la pertinence du tuple T vis-à-vis d une requête Q revient donc à mesurer la vraisemblance, la probabilité que la requête Q soit générée par le modèle langue des bonnes réponses : Pour estimer la probabilité P(T M brq ), il est possible de faire des hypothèses simplificatrices. Par exemple, on peut supposer que les valeurs des attributs sont indépendantes les unes des autres (un sac de valeurs d attributs) comme c est le cas dans la recherche d information textuelle (un sac de mots). Cependant, dans les bases de données, il y a une dépendance fonctionnelle entre les valeurs des attributs (Chaudhuri et al., 2004). Dans notre approche, on suggère l utilisation d un modèle de langue bi-gramme pour estimer la probabilité P(T M brq ). Ce choix est motivé d une part par sa simplicité et d autre par sa capacité de capter une partie des dépendances existantes entres les valeurs d attribut deux à deux. De plus avec les modèle de langue on n aura pas besoins ni d une phase de prétraitement pour estimer les probabilités ni de l historique de requêtes Score de pertinence des tuples vis-à-vis de la requête Soit D une table d une BD ayant m attributs,. Soit l ensemble des tuples résultats retournés en réponse à une requête conjonctive où n est le nombre d attribut spécifiés dans la requête avec. Chaque est représenté par les valeurs des attributs. Pour différencier entre les attributs spécifiés et non spécifiés dans la requête, on définit S et comme étant respectivement l ensemble des attributs spécifiés et l ensemble des attributs non spécifiés dans la requête. Pour trier les tuples qui satisfont les conditions de la requête, il faut tout d abord déterminer le(s) critère(s) qui permettent de les départager (différencier). Pour ce faire, nous proposons d explorer les différences qui existent dans les valeurs des attributs, non spécifiés dans la requête. En particulier, notre intuition porte sur l exploitation des dépendances existantes entres les valeurs des attributs spécifiés dans la requête et les valeurs des attributs non spécifiés. Les tuples dont les valeurs des attributs non spécifiés ont une forte dépendance avec les valeurs spécifiées dans
8 A Chellal, M Boughanem, K Amrouche la requête seront privilégiés. On suppose que l utilisateur préfèrerait les tuples ayant des valeurs des attributs qui dépendent de ceux qu il a spécifiés dans sa requête. Dans les bases de données, l ordre entre les valeurs des attributs et a j n a pas d importance. On considère que les valeurs des attributs sont dépendantes entre elles, car elles décrivent le même tuple, mais leur ordre d apparition n a aucune influence. On suppose que l on peut capturer une partie de ces dépendances en prenant les attributs deux à deux. Ainsi, pour adapter l équation [1] à notre contexte, on considère que le tuple T est une suite des valeurs d attributs dépendantes les unes aux autres deux à deux où l ordre n a aucune importance.. On obtient alors : Où représente la probabilité que l attribut ait la valeur a j sachant que l attribut a la valeur. Dans l équation [2] on traite le cas général dans lequel on ne fait pas de distinction entre les attributs spécifiés et les attributs non spécifiés dans la requête. Cette distinction sera discutée dans les sections et La notion de dépendance entre deux valeurs des différents attributs est évaluée selon la distribution des données dans l ensemble R et la table D. Elle se traduit par la fréquence de leur apparition dans les mêmes tuples dans l ensemble R et dans la table. Plus la fréquence d occurrence dans les mêmes tuples des deux valeurs est grande plus leur dépendance est forte. Pour évaluer on utilise un lissage avec interpolation qui permet d assigner des probabilités non nulles. On a opté pour un lissage par modèle de la collection (Hiemstra, 1998). La est mesurée par une combinaison linéaire du modèle de l ensemble des résultats R et du modèle la table D. On obtient alors : (respectivement ) estime la dépendance entre les deux valeurs et dans l ensemble R (respectivement dans la table D). Le paramètre est une constante fixée de manière expérimentale. Les probabilités et sont estimées en utilisant l estimation de vraisemblance maximale (Maximum Likelihood, ou ML) et ce comme suit : Où :
9 Adaptation du ML pour le tri dans les BD 9 - (resp représente le nombre de tuples dans l ensemble R (resp dans la table D) ayant la valeur pour l attribut A i et la valeur a j pour l attribut A j ; - (resp ) est le nombre de tuples dans l ensemble R (respectivement dans la table D). La probabilité est estimée de la même manière que : La question qui se pose à cette étape de la définition du modèle porte sur les attributs à prendre en compte dans l estimation des probabilités. Ceci dépend du type des conditions spécifiés dans la requête ; conditions atomiques de type ( ) et conditions de type BETWEEN (pour les attributs numériques) ou IN (pour les attributs catégoriels). Nous discutons ces deux cas dans ce qui suit Cas de requête avec des conditions atomiques Dans le cas des requêtes avec des conditions atomiques de type ( ), les valeurs des attributs spécifiés sont les mêmes pour tous les tuples retournés. Par conséquent, les probabilités sont les mêmes pour tous les tuples de l ensemble R. De ce fait, au lieu de considérer que les valeurs des attributs sont toutes dépendantes les unes aux autres deux à deux, on opte pour une solution intermédiaire, déjà utilisée par (Chaudhuri et al., 2004). On s intéresse à la dépendance entre les attributs spécifiés et non spécifies. On exploite uniquement les dépendances partielles entres attributs de l ensemble S et ceux de l ensemble NS. Par ailleurs, on note aussi que tous les tuples retournés ont les mêmes valeurs dans les attributs spécifiés ( ). Ainsi est la même pour tous les tuples résultats. Par conséquent, n a aucun impact sur le résultat du tri, elle sera donc ignorée. L équation [2] peut s écrie alors comme suit : La probabilité représente le degré de dépendance de la valeur de l attribut non spécifié sachant que la valeur est spécifiée dans la requête Q. Si on remplace dans l équation [3] par «puisque» et par son estimation, on obtient :
10 A Chellal, M Boughanem, K Amrouche Pour illustrer notre approche, on va suivre l exemple suivant : supposant la requête avec des conditions atomiques suivante : sur une table ayant cinq attributs. Alors, le score de pertinence d un tuple résultat vis-à-vis de la requête est calculé comme suit: Les probabilités, et ne sont pas prises en compte parce qu elles ont les mêmes valeurs pour tous les tuples résultats, elles n influent donc pas sur le tri Cas de requête avec des conditions BETWEEN et IN Une forme plus générale des requêtes est celle ayant des conditions de type pour les attributs numériques et pour les attributs catégoriels. Dans ce contexte, les tuples résultats contiennent des valeurs différentes dans les attributs spécifiés. Pour illustrer l importance de ces différences, considérant à titre d exemple une requête Q : kilométrage BETWEEN (50000,150000) AND (année = 2009) sur une table de véhicule d occasion. Dans cet exemple, il est plus probable que les voitures ayant un kilométrage proche de Km soient plus intéressantes pour l utilisateur par rapport à celles ayant un kilométrage proche de Km. Cependant, cette hypothèse peut être mise en cause vu que les voitures anciennes ayant un kilométrage faible ont un prix élevé, donc moins intéressantes par rapport aux autres voitures datant de A travers l exemple susmentionné, on remarque que pour trier de manière efficace les tuples ; contrairement aux requêtes avec des conditions atomiques, on ne peut pas ignorer les dépendances qui existent entre les attributs spécifiés. Donc, tous les attributs de la table seront considérés. Pour adapter l équation [2] à ce type de condition BEWTEEN et IN on note que: Les probabilités ne sont pas identiques pour tous les tuples lorsque l attribut est spécifié par une condition de type BETWEEN ou IN. Par conséquent, elles doivent être prises en considération ; La préférence d un tuple pour un utilisateur change en fonction des valeurs des attributs spécifiés. Pour cela, on doit prendre en considération les dépendances entre les valeurs des attributs spécifiés en plus des dépendances entre les valeurs des attributs spécifiés et non spécifiés.
11 Adaptation du ML pour le tri dans les BD 11 Ainsi, dans le cas où la requête est composée uniquement des conditions de type BETWEEN et IN, la fonction de calcul du score de pertinence peut s exprimer par : Forme générale de la fonction du calcul du score de pertinence De ce qui précède, il ressort que le score de pertinence global dépend étroitement des types des conditions utilisés dans la requête. Dans le cas d une requête contenant les deux types de conditions (atomique, BETWEEN et IN). Le score de pertinence est calculé en combinant les fonctions [3] et [4] et ce, selon le type de la condition afférente à chaque attribut spécifié dans la requête. Si on considère que est l ensemble des conditions spécifiées dans la requête, alors la forme générale de la fonction de calcul du score de pertinence peut s exprimer de la manière suivante : 4. Evaluation expérimentale L évaluation d un système de recherche d information s appuie essentiellement sur l estimation de la qualité des informations retrouvées par ce dernier. Dans le cas du traitement du problème des réponses nombreuses dans les bases de données, on s intéresse plus particulièrement à la capacité du système proposé à mettre en début de liste les tuples les plus pertinents qui satisfait l utilisateur vis-à-vis de sa requête. Pour évaluer l efficacité de notre approche, nous l avons implémentée et expérimentée sur une table d une base de données de voitures d occasion extraite à partir du site web ( L objectif escompté à travers cette évaluation expérimentale est de démontrer l impact du modèle de langue bi-gramme sur le tri des résultats nombreuses en base de données et par la même évaluer la qualité du tri de notre approche. Afin d effectuer cette évaluation, nous avons suivi le même protocole d évaluation et nous avons adopté la même métrique «la précision moyenne» que celle utilisée par (Chaudhuri et al, 2004) (Chaudhuri et al., 2006) pour évaluer le modèle probabiliste.
12 A Chellal, M Boughanem, K Amrouche 4.1. Protocole d évaluation Nous avons demandé à cinq (5) personnes de soumettre trois (3) requêtes chacun sur la table «véhicule» selon leur préférence. Cette table contient tuples, elle est composée des attributs suivants : «id, marque, modèle, version, année, transmission, énergie, kilométrage, puissance, options, couleur» dont deux sont numériques «année et kilométrage» et les autres attributs sont catégoriels. Chaque requête avait en moyenne 2,4 attributs spécifiés. Le nombre moyen des tuples résultats retournés en réponse aux 15 requêtes est de 217 tuples, avec un maximum de 494 tuples et un minimum de 92 pour une table ayant tuple. Ces chiffres illustrent bien que les réponses nombreuses est un problème récurent lors d une recherche dans une base de données. Le tableau N 1 présente cinq requêtes parmi les 15 (une requête pour chaque utilisateur). N Requête Tuples retournés Q3 Modèle IN{ 207, 308}, kilométrage <= année BETWEEN (2009, 2011) Q4 Marque IN {Peugeot, Renault}, Modèle IN{ 308, Megan 215 3}, année BETWEEN (2008, 2011) Q7 Modèle IN{ Symbol, Clio classic},année BETWEEN 202 (2007, 2010), energie = Essence Q14 Modèle IN{Clio, Clio3}, année BETWEEN(2004, 2009) 494 Q15 Modèle = 207, année >= 2007, kilométrage <= Tableau 1. Exemple de requêtes du protocole d évaluation. Il est très difficile de demander aux utilisateurs de trier ; pour chaque requête, tous les tuples retournés selon leur pertinence. Pour pallier cette difficulté, nous avons adopté la stratégie suivie par (Chaudhuri et al., 2004) et (Su et al., 2006) qui consiste en: pour chaque requête Q i, nous avons généré une liste de 30 tuples susceptibles de contenir un bon mélange de tuples «pertinent» et «non pertinents» vis-à-vis de cette requête. On rappelle que la notion de pertinence ici correspond à une préférence utilisateur). La liste des 30 tuples est composée des 10 premiers tuples retournés par notre approche et les 10 premiers tuples retourné par le SGBD (sans aucun tri) ; avec suppression des tuples en double, auxquels il a été ajouté dix tuples choisis aléatoirement. Avant d être présentés à l utilisateur, les 30 tuples sélectionnés ont été triés aléatoirement. Ensuite, nous avons présenté les requêtes avec les listes correspondantes à chaque utilisateur. Leur rôle était de choisir les dix (10) meilleurs tuples qu ils préfèrent le plus; qualifiés de pertinents, parmi les 30 tuples des listes afférentes à chaque requête. Les autres tuples sont considérés non pertinents. Enfin, nous avons appliqué notre fonction de calcul de score de pertinence et comparé les deux résultats pour chaque requête de test.
13 Adaptation du ML pour le tri dans les BD 13 Pour évaluer l impact de notre approche, nous avons adopté comme ligne de base la liste par défaut retournée par le SGBD sans aucune fonction de tri. De plus, nous avons implémenté une fonction de tri aléatoire «RANDOM» des résultats retournés Résultats expérimentaux Les résultats présentés ci-dessous ont été obtenus avec la valeur du paramètre pour laquelle nous avons eu les meilleurs résultats sur l ensemble des expérimentations effectuées La qualité du tri des tuples retournés Pour évaluer la qualité du tri des résultats retournés, nous avons utilisé les mesures de précision / rappel. Nous utilisons la précision à 10 (P@10) et la précision moyenne MAP (Median Average Precision), la moyenne des précisions obtenues à chaque occurrence d un tuple pertinent dans la liste triée. La précision est le ratio entre le nombre de tuples pertinents retournés et le nombre total de tuples retournés. La précision à 10 tuples (P@10) est celle calculée pour les dix premiers tuples. On rappelle ici que les utilisateurs ont été invités à choisir les dix (10) meilleurs tuples qu ils préfèrent le plus. Ainsi, la P@10 nous permet d évaluer la façon dont la préférence de l'utilisateur est capturée par notre approche. La figure n 1 illustre les P@10 obtenues par les trois approches évaluées. 1 La précision P@10 0,8 0,6 0,4 0,2 Notre approche RANDOM SGBD Figure 1. La précision P@10 obtenue pour chaque requête. Ces résultats préliminaires montrent que l approche proposée permet en effet une amélioration des résultats de 14 requêtes sur 15. Pour la requête n 3 qui présente un résultat différent, la P@10 de notre approche est légèrement inferieure à celui du SGBD. Cela est dû au fait que dans les 324 tuples résultats il n y a pas beaucoup de différence dans les valeurs des attributs non spécifiés ce qui ne permet pas de bien les départagés automatiquement.
14 A Chellal, M Boughanem, K Amrouche Le moyenne des précisions moyennes La moyenne des précisions moyennes MAP obtenue par notre approche est de 0,79 suivie de 0,32 et de 0,13 respectivement pour la liste par défaut du SGBD et le tri aléatoire. Notre approche SGBD RANDOM MAP 0,79 0,32 0,13 Tableau 2. La moyenne des précisions moyennes. 5. Discussion Les travaux les plus proches au notre sont l adaptation du modèle de probabiliste de base de la RI (Chaudhuri et al., 2004) (Chaudhuri et al., 2006) et la proposition du (Su et al., 2006). Les avantages principaux de notre approche par rapport à ces deux travaux portent principalement sur : - Phase de prétraitement : dans notre approche le score de pertinence est calculé en une seule phase. Il n y a pas de phase de pré traitement. Par contre, l approche QRRE (Su et al., 2006) requière une phase de pré traitement afin d estimer les histogrammes (mono-attribut et bi-attribut) de fréquence d occurrence des différentes valeurs des attributs. Presque la même démarche est adoptée dans la phase de pré traitement de l approche de (Chaudhuri et al., 2004). Les probabilités atomiques qui composent la fonction d évaluation du score de pertinence sont calculées et sauvegardées dans des tables auxiliaires ; Par ailleurs, l inconvénient majeur des phases de prétraitement est la mise à jour des données estimées avec l évolution des données de la base données. L historique des requêtes : notre approche ne se base pas sur l historique des requêtes, qui n est pas toujours disponible, comme c est le cas dans l adaptation du modèle probabiliste proposée dans (Chaudhuri et al., 2004) ; Indépendance du domaine : notre approche est indépendante du domaine, le calcul du score de pertinence ne dépend pas d un attribut spécifique parmi les attributs de la table comme c est le cas dans l approche QRRE (Su et al., 2006). Dans cette dernière, l attribut «Prix» joue un rôle principal dans l estimation du degré d importance des valeurs des attributs. Cette dépendance vis-à-vis de l attribut «Prix» fait que l approche QRRE est applicable uniquement dans les bases de données commerciales.
15 Adaptation du ML pour le tri dans les BD Conclusion Cet article présente une adaptation du modèle de langue de la recherche d information pour le tri des tuples dans les bases de données. Le but est de remédier à un problème récurrent en base de données en l occurrence, les réponses nombreuses. Le principe de notre approche est basé sur le calcul du score de pertinence des tuples résultats vis-à-vis de la requête en s appuyant sur les modèles statistiques de langue. Le modèle de langue choisi est le modèle bi-gramme. Ce choix est motivé par sa capacité à capter les dépendances entre les valeurs des attributs spécifiés dans la requête et ceux qui ne le sont pas. Le modèle proposé se base sur l hypothèse que l utilisateur préfèrerait les tuples ayant des valeurs des attributs non spécifiés fortement dépendantes des valeurs spécifiées dans sa requête. Nous avons évalué notre approche en adoptant le même protocole d évaluation que celui suivi par les deux travaux connexes. Les résultats obtenus par notre approche en termes de qualité de tri des résultats retournés et de capture des préférences montrent que trier les tuples en exploitant les dépendances des valeurs des attributs spécifiés dans la requête et ceux qui ne le sont pas, est bénéfique pour l utilisateur. Bibliographie Agrawal, S., Chaudhuri, S., Das, G., Gionis, A., «Automated Ranking of Database Query Results», CIDR Conference, Amer-Yahia, S., C., Srivastava, D., «Tree Pattern Relaxation», EDBT 02, Prague, Czech Republic, p , Baeza-Yates Ricardo A., Ribeiro-Neto Berthier A., Modern Information Retrieval: the concepts and Technology behind search (2 nd edition) ACM Press, Bechchi Mounir., Clustering-based Approximate Answering of Query Result in Large and Distributed Databases. Thèse doctorat en informatique, Université de Nantes, Boughanem, M. Kraaij W., Nie J.Y., «Modèles de langue pour la recherche d informations», Les systèmes de recherche d informations - Modèles conceptuels, ed.hermes, pp , Bosc, P., Hadjali, A., Pivert, O., «About Overabundant Answers to Flexible Queries» acte des 11th International Conference on Information Processing and Management of Uncertainty in Knowledge-Based Systems IPMU 06, Paris, 2-7 July 2006, p Bosc, P., Hadjali, A., Pivert, O., «Empty versus overabundant answers to flexible queries» Fuzzy Sets and Systems Journal, vol. 159, n 12, 2008, p
16 A Chellal, M Boughanem, K Amrouche Chakrabarti, K., Chaudhuri, S., and Hwang, S. «Automatic categorization of query results». In Proceedings of the SIGMOD Conference, p , Chaudhuri S, Das G, Hristidis V, Weikum G, «Probabilistic Ranking of Database Query Results»,Proceedings of the 30th VLDB Conference, Toronto, Canada, Chaudhuri, S., Das, G., Hristidis, V. «Probabilistic information retrieval approach for ranking of database query results.». ACM Trans. Database Syst., vol. 31, n 3, 2006, p Chen Z. Y, Li. T, Addressing diverse user preferences in SQL-Query-Result navigation. In Proceedings of the SIGMOD Conference,2007, p Hadj Ali A., Dubois D, Prade H., «Qualitative Reasoning Based on Fuzzy Relative Orders of Magnitude», IEEE Transactions on Fuzzy Systems, vol. 11, n 1, 2003, p Hiemstra, D., «A linguistically motivated probabilistic model of information retrieva l», European Conference of Digital Library (ECDL98), Sept. 1998, Springer Verlag. Meng, X., Ma, Z., M., Yan L., «Answering Approximate Queries over Autonomous Web Databases», Track: XML and Web Data / Session: XML Querying, 2009 MADRID. Ponte, J., M., Bruce, W., Croft, A., «Language Modeling Approach to Information Retrieval», Research and Development in Information Retrieval, ACM-SIGIR, 1998, p Premkumar, S., Gayathri, K., Raghuram, I.S., «Estimation of Ranking Score for Database Query Results», International Journal of Advanced Research in Computer Science and Software Engineering, vol. 4, n 6, June 2014, p Raschia G., Mouaddib N., «SAINTETIQ: a fuzzy set-based approach to database summarization», Fuzzy Sets Syst., vol. 129, n 2, 2002, p Saint-Paul R, Raschia G, Mouaddib N., «General purpose database summarization», In VLDB 05, 2005, p Samyr A.M., Silvio do Lago P., «Dealing with Empty and Overabundant Answers to Flexible Queries», Journal of Data Analysis and Information Processing, 2014, vol. 2, p Song Fei., Croft W. Bruce., «A General Language Model for Information Retrieval», Proceedings of the eighth international conference on Information and knowledge management (CIKM), 1999, p Su Weifeng, Jiying Wang, Qiong Huang, Fred Lochovsky. «Query Result Ranking over E- commerce Web Databases», CIKM 06, November 6 11, 2006, Arlington, VA Virginia, USA. VanBunningen A. H., Fokkinga M. M., Peter M.G. Apers «Ranking Query Results using Context-Aware Preferences», IEEE 23rd International Conference on Data Engineering Workshop, 2007.
RI sociale : intégration de propriétés sociales dans un modèle de recherche
RI sociale : intégration de propriétés sociales dans un modèle de recherche Ismail Badache 1 Institut de Recherche en Informatique de Toulouse, UMR 5505 CNRS, SIG 118 Route de Narbonne F-31062 Toulouse
Lamia Oukid, Ounas Asfari, Fadila Bentayeb, Nadjia Benblidia, Omar Boussaid. 14 Juin 2013
Cube de textes et opérateur d'agrégation basé sur un modèle vectoriel adapté Text Cube Model and aggregation operator based on an adapted vector space model Lamia Oukid, Ounas Asfari, Fadila Bentayeb,
Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services
69 Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services M. Bakhouya, J. Gaber et A. Koukam Laboratoire Systèmes et Transports SeT Université de Technologie de Belfort-Montbéliard
Une méthode d apprentissage pour la composition de services web
Une méthode d apprentissage pour la composition de services web Soufiene Lajmi * Chirine Ghedira ** Khaled Ghedira * * Laboratoire SOIE (ENSI) University of Manouba, Manouba 2010, Tunisia [email protected],
Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair
Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair Raja Chiky, Bruno Defude, Georges Hébrail GET-ENST Paris Laboratoire LTCI - UMR 5141 CNRS Département Informatique et Réseaux
Proposition des cadres d évaluation adaptés à un système de RI personnalisé
Proposition des cadres d évaluation adaptés à un système de RI personnalisé Mariam Daoud, Lynda Tamine-Lechani Laboratoire IRIT, Université Paul Sabatier 118 Route de Narbonne, F-31062 TOULOUSE CEDEX 9
Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R
Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R Yves Aragon, David Haziza & Anne Ruiz-Gazen GREMAQ, UMR CNRS 5604, Université des Sciences
Recherche d information en langue arabe : influence des paramètres linguistiques et de pondération de LSA
RÉCITAL 2005, Dourdan, 6-10 juin 2005 Recherche d information en langue arabe : influence des paramètres linguistiques et de pondération de LSA Siham Boulaknadel (1,2), Fadoua Ataa-Allah (2) (1) LINA FRE
Forthcoming Database
DISS.ETH NO. 15802 Forthcoming Database A Framework Approach for Data Visualization Applications A dissertation submitted to the SWISS FEDERAL INSTITUTE OF TECHNOLOGY ZURICH for the degree of Doctor of
Classification Automatique de messages : une approche hybride
RECIAL 2002, Nancy, 24-27 juin 2002 Classification Automatique de messages : une approche hybride O. Nouali (1) Laboratoire des Logiciels de base, CE.R.I.S., Rue des 3 frères Aïssiou, Ben Aknoun, Alger,
Hervé Couturier EVP, SAP Technology Development
Hervé Couturier EVP, SAP Technology Development Hervé Biausser Directeur de l Ecole Centrale Paris Bernard Liautaud Fondateur de Business Objects Questions à: Hervé Couturier Hervé Biausser Bernard Liautaud
Principe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, [email protected] 2 Université
Recherche d Information(RI): Fondements et illustration avec Apache Lucene. par Majirus Fansi @majirus
1 Recherche d Information(RI): Fondements et illustration avec Apache Lucene par Majirus Fansi @majirus Résumé Fondements de la Recherche d Information (RI) Noyau de toute application de RI Éléments à
Information utiles. [email protected]. webpage : Google+ : http://www.ibisc.univ-evry.fr/ digiusto/
Systèmes de gestion de bases de données Introduction Université d Evry Val d Essonne, IBISC utiles email : [email protected] webpage : http://www.ibisc.univ-evry.fr/ digiusto/ Google+ : https://plus.google.com/u/0/b/103572780965897723237/
Laboratoire 4 Développement d un système intelligent
DÉPARTEMENT DE GÉNIE LOGICIEL ET DES TI LOG770 - SYSTÈMES INTELLIGENTS ÉTÉ 2012 Laboratoire 4 Développement d un système intelligent 1 Introduction Ce quatrième et dernier laboratoire porte sur le développement
Sécurisation du stockage de données sur le Cloud Michel Kheirallah
Sécurisation du stockage de données sur le Cloud Michel Kheirallah Introduction I Présentation du Cloud II Menaces III Exigences de sécurité IV Techniques de sécurisation 2 26/02/2015 Présentation du Cloud
Introduction à la B.I. Avec SQL Server 2008
Introduction à la B.I. Avec SQL Server 2008 Version 1.0 VALENTIN Pauline 2 Introduction à la B.I. avec SQL Server 2008 Sommaire 1 Présentation de la B.I. et SQL Server 2008... 3 1.1 Présentation rapide
APPROCHE DE LA SURVEILLANCE DES SYSTEMES PAR RESEAUX DE PETRI SYNCHRONISES FLOUS
THE PUBLISHING HOUSE PROCEEDINGS OF THE ROMANIAN ACADEMY, Series A, OF THE ROMANIAN ACADEMY Volume 9, Number 2/2008, pp. 000 000 APPROCHE DE LA SURVEILLANCE DES SYSTEMES PAR RESEAUX DE PETRI SYNCHRONISES
Modélisation d objets mobiles dans un entrepôt de données
Tao Wan, Karine Zeitouni Laboratoire PRISM, Université de Versailles 45, avenue des Etats-Unis, 78035 Versailles Cedex, France [email protected], [email protected] http://www.prism.uvsq.fr/users/karima/
Introduction aux bases de données
Introduction aux bases de données Références bibliographiques Jeff Ullman,Jennifer Widom, «A First Course in Database systems», Prentice-Hall, 3rd Edition, 2008 Hector Garcia-Molina, Jeff Ullman, Jennifer
données en connaissance et en actions?
1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)
INF6304 Interfaces Intelligentes
INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie
Le Langage SQL version Oracle
Université de Manouba École Supérieure d Économie Numérique Département des Technologies des Systèmes d Information Le Langage SQL version Oracle Document version 1.1 Mohamed Anis BACH TOBJI [email protected]
THÈSE. présentée à TÉLÉCOM PARISTECH. pour obtenir le grade de. DOCTEUR de TÉLÉCOM PARISTECH. Mention Informatique et Réseaux. par.
École Doctorale d Informatique, Télécommunications et Électronique de Paris THÈSE présentée à TÉLÉCOM PARISTECH pour obtenir le grade de DOCTEUR de TÉLÉCOM PARISTECH Mention Informatique et Réseaux par
Structuration des décisions de jurisprudence basée sur une ontologie juridique en langue arabe
Structuration des décisions de jurisprudence basée sur une ontologie juridique en langue arabe Karima Dhouib, Sylvie Després Faiez Gargouri ISET - Sfax Tunisie, BP : 88A Elbustan ; Sfax [email protected],
Formula Negator, Outil de négation de formule.
Formula Negator, Outil de négation de formule. Aymerick Savary 1,2, Mathieu Lassale 1,2, Jean-Louis Lanet 1 et Marc Frappier 2 1 Université de Limoges 2 Université de Sherbrooke Résumé. Cet article présente
MEDLINE BANQUE DE DONNÉES EN MÉDECINE INTERFACE PUBMED INITIATION
MEDLINE BANQUE DE DONNÉES EN MÉDECINE INTERFACE PUBMED INITIATION document préparé par : CSSS-IUGS SERVICE DE BIBLIOTHÈQUE Janvier 2008 INTRODUCTION Medline est une banque de données bibliographique produite
Langage SQL : créer et interroger une base
Langage SQL : créer et interroger une base Dans ce chapitre, nous revenons sur les principales requêtes de création de table et d accès aux données. Nous verrons aussi quelques fonctions d agrégation (MAX,
OpenPaaS Le réseau social d'entreprise
OpenPaaS Le réseau social d'entreprise Spécification des API datastore SP L2.3.1 Diffusion : Institut MinesTélécom, Télécom SudParis 1 / 12 1OpenPaaS DataBase API : ODBAPI...3 1.1Comparaison des concepts...3
Les bases de données
Les bases de données Introduction aux fonctions de tableur et logiciels ou langages spécialisés (MS-Access, Base, SQL ) Yves Roggeman Boulevard du Triomphe CP 212 B-1050 Bruxelles (Belgium) Idée intuitive
REMOTE DATA ACQUISITION OF EMBEDDED SYSTEMS USING INTERNET TECHNOLOGIES: A ROLE-BASED GENERIC SYSTEM SPECIFICATION
REMOTE DATA ACQUISITION OF EMBEDDED SYSTEMS USING INTERNET TECHNOLOGIES: A ROLE-BASED GENERIC SYSTEM SPECIFICATION THÈSE N O 2388 (2001) PRÉSENTÉE AU DÉPARTEMENT D'INFORMATIQUE ÉCOLE POLYTECHNIQUE FÉDÉRALE
Modélisation géostatistique des débits le long des cours d eau.
Modélisation géostatistique des débits le long des cours d eau. C. Bernard-Michel (actuellement à ) & C. de Fouquet MISTIS, INRIA Rhône-Alpes. 655 avenue de l Europe, 38334 SAINT ISMIER Cedex. Ecole des
physicien diplômé EPFZ originaire de France présentée acceptée sur proposition Thèse no. 7178
Thèse no. 7178 PROBLEMES D'OPTIMISATION DANS LES SYSTEMES DE CHAUFFAGE A DISTANCE présentée à l'ecole POLYTECHNIQUE FEDERALE DE ZURICH pour l'obtention du titre de Docteur es sciences naturelles par Alain
Sécuristation du Cloud
Schémas de recherche sur données chiffrées avancés Laboratoire de Cryptologie Thales Communications & Security 9 Avril 215 9/4/215 1 / 75 Contexte Introduction Contexte Objectif Applications Aujourd hui
Gestion de données incertaines et de leur provenance
Gestion de données incertaines et de leur provenance Pierre Senellart Séminaire INSERM & Institut TELEOM 7 octobre 2008 P. Senellart (TELEOM ParisTech) Données incertaines et provenance 07/10/2008 1 /
Distinguer les requêtes pour améliorer la recherche d information XML
Lyon - France Distinguer les requêtes pour améliorer la recherche d information XML Kurt Englmeier ***, Gilles Hubert *, Josiane Mothe *,** *Institut de Recherche en Informatique de Toulouse Equipe SIG/EVI
Guide de recherche documentaire à l usage des doctorants. Partie 1 : Exploiter les bases de données académiques
Guide de recherche documentaire à l usage des doctorants Partie : Exploiter les bases de données académiques Sylvia Cheminel Dernière mise à jour : décembre 04 PANORAMA DES SOURCES DOCUMENTAIRES ACADEMIQUES...
OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT)
OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT) LAGGOUNE Radouane 1 et HADDAD Cherifa 2 1,2: Dépt. de G. Mécanique, université de Bejaia, Targa-Ouzemour
Face Recognition Performance: Man vs. Machine
1 Face Recognition Performance: Man vs. Machine Andy Adler Systems and Computer Engineering Carleton University, Ottawa, Canada Are these the same person? 2 3 Same person? Yes I have just demonstrated
BIG Data et R: opportunités et perspectives
BIG Data et R: opportunités et perspectives Guati Rizlane 1 & Hicham Hajji 2 1 Ecole Nationale de Commerce et de Gestion de Casablanca, Maroc, [email protected] 2 Ecole des Sciences Géomatiques, IAV Rabat,
Quelques patterns pour la persistance des objets avec DAO DAO. Principe de base. Utilité des DTOs. Le modèle de conception DTO (Data Transfer Object)
Quelques patterns pour la persistance des objets avec DAO Ce cours présente des modèles de conception utilisés pour effectuer la persistance des objets Université de Nice Sophia-Antipolis Version 1.4 30/8/07
Évaluation d une architecture de stockage RDF distribuée
Évaluation d une architecture de stockage RDF distribuée Maeva Antoine 1, Françoise Baude 1, Fabrice Huet 1 1 INRIA MÉDITERRANÉE (ÉQUIPE OASIS), UNIVERSITÉ NICE SOPHIA-ANTIPOLIS, I3S CNRS pré[email protected]
Architecture N-Tier. Ces données peuvent être saisies interactivement via l interface ou lues depuis un disque. Application
Architecture Multi-Tier Traditionnellement une application informatique est un programme exécutable sur une machine qui représente la logique de traitement des données manipulées par l application. Ces
DSL. Domain Specific Language. À l'aide des technologies Eclipse Modeling. Goulwen Le Fur [email protected]. Le 23 novembre 2012
DSL Domain Specific Language À l'aide des technologies Eclipse Modeling Le 23 novembre 2012 Goulwen Le Fur [email protected] Le but de cette session Montrer : Ce qu'est-un DSL/DSM Comment implémenter
Cours Bases de données
Informations sur le cours Cours Bases de données 9 (10) séances de 3h Polycopié (Cours + TD/TP) 3 année (MISI) Antoine Cornuéjols www.lri.fr/~antoine [email protected] Transparents Disponibles
TRS: Sélection des sous-graphes représentants par l intermédiaire des attributs topologiques et K-medoïdes
TRS: Sélection des sous-graphes représentants par l intermédiaire des attributs topologiques et K-medoïdes Mohamed Moussaoui,Wajdi Dhifli,Sami Zghal,Engelbert Mephu Nguifo FSJEG, Université de Jendouba,
Exemple accessible via une interface Web. Bases de données et systèmes de gestion de bases de données. Généralités. Définitions
Exemple accessible via une interface Web Une base de données consultable en ligne : Bases de données et systèmes de gestion de bases de données The Trans-atlantic slave trade database: http://www.slavevoyages.org/tast/index.faces
IBM SPSS Direct Marketing 21
IBM SPSS Direct Marketing 21 Remarque : Avant d utiliser ces informations et le produit qu elles concernent, lisez les informations générales sous Remarques sur p. 109. Cette version s applique à IBM SPSS
EXTRACTION DE CONNAISSANCES À PARTIR DE DONNÉES TEXTUELLES VUE D ENSEMBLE
ème Colloque National AIP PRIMECA La Plagne - 7- avril 7 EXTRACTION DE CONNAISSANCES À PARTIR DE DONNÉES TEXTUELLES VUE D ENSEMBLE Bruno Agard Département de Mathématiques et de Génie Industriel, École
Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien
Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien Denis Cousineau Sous la direction de Roberto di Cosmo Juin 2005 1 Table des matières 1 Présentation
Plan du cours : Zippers. Des fonctions sur les listes avec position. Des fonctions sur les listes avec position
Plan du cours : Le problème : naviguer efficacement une structure de données Ce qui ne marche pas Ce qui marche : les de Huet Exemples Comment dériver des pour tout type de données Pour en savoir plus
CURRICULUM VITAE. Informations Personnelles
CURRICULUM VITAE Informations Personnelles NOM: BOURAS PRENOM : Zine-Eddine STRUCTURE DE RATTACHEMENT: Département de Mathématiques et d Informatique Ecole Préparatoire aux Sciences et Techniques Annaba
Sélection d un moteur de recherche pour intranet : Les sept points à prendre en compte
Sélection d un moteur de recherche pour intranet : Les sept points à prendre en compte 1Les bases : vos objectifs 2 Sélection d un moteur de recherche pour intranet : Les sept points à prendre en compte
1. LA GESTION DES BASES DE DONNEES RELATIONNELLES
Dossier G11 - Interroger une base de données La base de données Facturation contient tout un ensemble d'informations concernant la facturation de la SAFPB (société anonyme de fabrication de produits de
Préparer un état de l art
Préparer un état de l art Khalil DRIRA LAAS-CNRS, Toulouse Unité de recherche ReDCAD École Nationale d ingénieurs de Sfax Étude de l état de l art? Une étude ciblée, approfondie et critique des travaux
Logiciel Libre Cours 3 Fondements: Génie Logiciel
Logiciel Libre Cours 3 Fondements: Génie Logiciel Stefano Zacchiroli [email protected] Laboratoire PPS, Université Paris Diderot 2013 2014 URL http://upsilon.cc/zack/teaching/1314/freesoftware/
Big Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université
DATA QUERY : MODÉLISATION AVANCÉE DE VOS DONNÉES
Online Intelligence Solutions DATA QUERY : MODÉLISATION AVANCÉE DE VOS DONNÉES Marion JOFFRE, Chef de produit marketing WHITE PAPER Table des matières CONTEXTE 3 Un suivi précis et détaillé de l ensemble
Apprentissage Automatique
Apprentissage Automatique Introduction-I [email protected] www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Cours Base de données relationnelles. M. Boughanem, IUP STRI
Cours Base de données relationnelles 1 Plan 1. Notions de base 2. Modèle relationnel 3. SQL 2 Notions de base (1) Définition intuitive : une base de données est un ensemble d informations, (fichiers),
Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57
Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation
Ressources lexicales au service de recherche et d indexation des images
RECITAL 2011, Montpellier, 27 juin - 1er juillet 2011 Ressources lexicales au service de recherche et d indexation des images Inga Gheorghita 1,2 (1) ATILF-CNRS, Nancy-Université (UMR 7118), France (2)
ADMINISTRATION DE ADOBE LIVECYCLE MOSAIC 9.5
ADMINISTRATION DE ADOBE LIVECYCLE MOSAIC 9.5 Informations juridiques Copyright 2010 Adobe Systems Incorporated and its licensors. All rights reserved. Administration d Adobe LiveCycle Mosaic 9.5 13 octobre
Une proposition d extension de GML pour un modèle générique d intégration de données spatio-temporelles hétérogènes
303 Schedae, 2007 Prépublication n 46 Fascicule n 2 Une proposition d extension de GML pour un modèle générique d intégration de données spatio-temporelles hétérogènes Samya Sagar, Mohamed Ben Ahmed Laboratoire
Encryptions, compression et partitionnement des données
Encryptions, compression et partitionnement des données Version 1.0 Grégory CASANOVA 2 Compression, encryption et partitionnement des données Sommaire 1 Introduction... 3 2 Encryption transparente des
Bases de données - Modèle relationnel
Bases de données - Modèle relationnel Introduction SITE :http://www.univ-orleans.fr/lifo/members/mirian.halfeld/ BD - Mírian Halfeld-Ferrari p. 1 Les bases de données - Bibliographie Ullman and Widom,
Solution A La Gestion Des Objets Java Pour Des Systèmes Embarqués
International Journal of Engineering Research and Development e-issn: 2278-067X, p-issn: 2278-800X, www.ijerd.com Volume 7, Issue 5 (June 2013), PP.99-103 Solution A La Gestion Des Objets Java Pour Des
Prototype de canal caché dans le DNS
Manuscrit auteur, publié dans "Colloque Francophone sur l Ingénierie des Protocoles (CFIP), Les Arcs : France (2008)" Prototype de canal caché dans le DNS Lucas Nussbaum et Olivier Richard Laboratoire
Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données
Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données Marc Boullé Orange Labs 2 avenue Pierre Marzin 22300 Lannion [email protected],
Recherche bibliographique
Séminaire «Maîtrise de l information scientifique» Recherche bibliographique Dernière mise à jour : 07/01/2015 - Auteur : Frédérique Flamerie Recherche bibliographique : méthode & outils La recherche bibliographique
Dans cette définition, il y a trois notions clés: documents, requête, pertinence.
Introduction à la RI 1. Définition Un système de recherche d'information (RI) est un système qui permet de retrouver les documents pertinents à une requête d'utilisateur, à partir d'une base de documents
Intégration de la dimension sémantique dans les réseaux sociaux
Intégration de la dimension sémantique dans les réseaux sociaux Application : systèmes de recommandation Maria Malek LARIS-EISTI [email protected] 1 Contexte : Recommandation dans les réseaux sociaux
Amélioration de la fiabilité d inspection en CND grâce à la fusion d information : applications en rayons X et ultrasons
Amélioration de la fiabilité d inspection en CND grâce à la fusion d information : applications en rayons X et ultrasons Ahmad OSMAN 1a, Valérie KAFTANDJIAN b, Ulf HASSLER a a Fraunhofer Development Center
XML et recherche d information
Chapitre 4 XML et recherche d information 4.1. Introduction La nature des collections de documents électroniques évolue. Elles intègrent de plus en plus des meta-informations et notamment des informations
Direction des Études et Synthèses Économiques Département des Comptes Nationaux Division des Comptes Trimestriels
Etab=MK3, Timbre=G430, TimbreDansAdresse=Vrai, Version=W2000/Charte7, VersionTravail=W2000/Charte7 Direction des Études et Synthèses Économiques Département des Comptes Nationaux Division des Comptes Trimestriels
Contrôle stochastique d allocation de ressources dans le «cloud computing»
Contrôle stochastique d allocation de ressources dans le «cloud computing» Jacques Malenfant 1 Olga Melekhova 1, Xavier Dutreilh 1,3, Sergey Kirghizov 1, Isis Truck 2, Nicolas Rivierre 3 Travaux partiellement
Infrastructure PLM pour la capitalisation et la réutilisation de données en conception mécanique
Infrastructure PLM pour la capitalisation et la réutilisation de données en conception mécanique Guillaume Ducellier 1, Benoit Eynard 1, Emmanuel Caillaud 2 1 Université de Technologie de Troyes 12 rue
Plan de cours ADM 992C Page 1. École des sciences de la gestion Département de management et technologie Université du Québec à Montréal
Plan de cours ADM 992C Page 1 École des sciences de la gestion Département de management et technologie Université du Québec à Montréal ADM-992C LES TECHNOLOGIES D'AIDE À LA PRISE DE DÉCISION DANS LES
Bases de données relationnelles
Bases de données relationnelles Système de Gestion de Bases de Données Une base de données est un ensemble de données mémorisé par un ordinateur, organisé selon un modèle et accessible à de nombreuses
Modélisation de bases de données : Le modèle relationnel
Modélisation de bases de données : Le modèle relationnel Rappel chapitre 1 C est quoi un modèle? Type de modèle : Modèle hiérarchique Modèle réseau Modèle objet Modèle relationnel Cours BD Dr REZEG K 1
Langage SQL (1) 4 septembre 2007. IUT Orléans. Introduction Le langage SQL : données Le langage SQL : requêtes
Langage SQL (1) Sébastien Limet Denys Duchier IUT Orléans 4 septembre 2007 Notions de base qu est-ce qu une base de données? SGBD différents type de bases de données quelques systèmes existants Définition
Le langage SQL Rappels
Le langage SQL Rappels Description du thème : Présentation des principales notions nécessaires pour réaliser des requêtes SQL Mots-clés : Niveau : Bases de données relationnelles, Open Office, champs,
Introduction aux SGBDR
1 Introduction aux SGBDR Pour optimiser une base Oracle, il est important d avoir une idée de la manière dont elle fonctionne. La connaissance des éléments sous-jacents à son fonctionnement permet de mieux
Évaluation et implémentation des langages
Évaluation et implémentation des langages Les langages de programmation et le processus de programmation Critères de conception et d évaluation des langages de programmation Les fondations de l implémentation
RAPID 3.34 - Prenez le contrôle sur vos données
RAPID 3.34 - Prenez le contrôle sur vos données Parmi les fonctions les plus demandées par nos utilisateurs, la navigation au clavier et la possibilité de disposer de champs supplémentaires arrivent aux
Bases de données avancées Introduction
Bases de données avancées Introduction Dan VODISLAV Université de Cergy-Pontoise Master Informatique M1 Cours BDA Plan Objectifs et contenu du cours Rappels BD relationnelles Bibliographie Cours BDA (UCP/M1)
www.lafamily.ch en 16 différences
Cas d étude no 3 www.lafamily.ch en 16 différences juin 2003 Le mandat réalisé avec QuickSite de transformation du site existant de Lafamily.ch, centre globale d information pour les familles, à été de
Entreposage de données complexes pour la médecine d anticipation personnalisée
Manuscrit auteur, publié dans "9th International Conference on System Science in Health Care (ICSSHC 08), Lyon : France (2008)" Entreposage de données complexes pour la médecine d anticipation personnalisée
iqtool - Outil e-learning innovateur pour enseigner la Gestion de Qualité au niveau BAC+2
iqtool - Outil e-learning innovateur pour enseigner la Gestion de Qualité au niveau BAC+2 134712-LLP-2007-HU-LEONARDO-LMP 1 Information sur le projet iqtool - Outil e-learning innovateur pour enseigner
Bases de données réparties: Fragmentation et allocation
Pourquoi une base de données distribuée? Bibliographie Patrick Valduriez, S. Ceri, Guiseppe Delagatti Bases de données réparties: Fragmentation et allocation 1 - Introduction inventés à la fin des années
IFT3902 : (Gestion de projet pour le) développement, (et la) maintenance des logiciels
IFT3902 : (Gestion de projet pour le) développement, (et la) maintenance des logiciels Yann-Gaël Guéhéneuc Professeur adjoint [email protected], local 2345 Département d informatique et de recherche
plate-forme PaaS (Audit)
Contrôle d accès dans une plate-forme PaaS (Audit) Ahmed BOUCHAMI, Olivier PERRIN, LORIA Introduction La sécurité d une plate-forme collaborative nécessite un module d authentification et un module de
Big Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci http://liris.cnrs.fr/hamamache.kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de
Bases de données Cours 1 : Généralités sur les bases de données
Cours 1 : Généralités sur les bases de données POLYTECH Université d Aix-Marseille [email protected] http://odile.papini.perso.esil.univmed.fr/sources/bd.html Plan du cours 1 1 Qu est ce qu une
Francis BISSON (06 794 819) Kenny CÔTÉ (06 836 427) Pierre-Luc ROGER (06 801 883) IFT702 Planification en intelligence artificielle
Francis BISSON (06 794 819) Kenny CÔTÉ (06 836 427) Pierre-Luc ROGER (06 801 883) PLANIFICATION DE TÂCHES DANS MS PROJECT IFT702 Planification en intelligence artificielle Présenté à M. Froduald KABANZA
Bases de données documentaires et distribuées Cours NFE04
Bases de données documentaires et distribuées Cours NFE04 Introduction a la recherche d information Auteurs : Raphaël Fournier-S niehotta, Philippe Rigaux, Nicolas Travers pré[email protected] Département
BES WEBDEVELOPER ACTIVITÉ RÔLE
BES WEBDEVELOPER ACTIVITÉ Le web developer participe aux activités concernant la conception, la réalisation, la mise à jour, la maintenance et l évolution d applications internet/intranet statiques et
