Optimisation d un tuteur intelligent à partir d un jeu de données fixé
|
|
|
- Damien Lefrançois
- il y a 10 ans
- Total affichages :
Transcription
1 Optimisation d un tuteur intelligent à partir d un jeu de données fixé Lucie Daubigney 1, 3 Matthieu Geist 1 Olivier Pietquin 1,2 (1) Equipe de recherche IMS, Supélec (Metz, France) (2) UMI 2958, GeorgiaTech - CNRS (Metz, France) (3) Equipe-projet Maia, Loria (Nancy, France) pré[email protected] RÉSUMÉ Dans cet article, nous présentons une méthode générale pour optimiser un tuteur intelligent dans le domaine de l acquisition d une seconde langue. Plus particulièrement, le processus d optimisation a pour but de trouver une stratégie qui propose la meilleure séquence de phases d évaluation et d enseignement afin de maximiser l augmentation des connaissances de l apprenant. La principale caractéristique de la méthode proposée est qu elle est capable d apprendre la meilleure stratégie à partir d un jeu fixe de données, collectées à partir d une stratégie définie à la main. Ainsi, aucun modèle, ni cognitif ni probabiliste de l apprenant, n est nécessaire. Seules sont requises des observations du comportement de l apprenant alors qu il interagit avec un système non-optimal. Pour ce faire, un algorithme de programmation dynamique approchée en mode hors-ligne est utilisé : l algorithme LSPI (Least Square Policy Iteration). Des résultats obtenus avec des données simulées semblent prometteurs. ABSTRACT Optimization of a tutoring system from a fixed set of data In this paper, we present a general method for optimizing a tutoring system with a target application in the domain of second language acquisition. More specifically, the optimisation process aims at learning the best sequencing strategy for switching between teaching and evaluation sessions so as to maximise the increase of knowledge of the learner in an adapted manner. The most important feature of the proposed method is that it is able to learn an optimal strategy from a fixed set of data, collected with a hand-crafted strategy. This way, no model (neither cognitive nor probabilistic) of learners is required but only observations of their behavior when interacting with a simple (non-optimal) system. To do so, a particular batch-mode approximate dynamic programming algorithm is used, namely the Least Square Policy Iteration algorithm. Experiments on simulated data provide promising results. MOTS-CLÉS : Tuteurs intelligents, apprentissage par renforcement. KEYWORDS: Tutoring systems, reinforcement learning. Actes de la conférence conjointe JEP-TALN-RECITAL 2012, volume 1: JEP, pages , Grenoble, 4 au 8 juin c 2012 ATALA & AFCP 241
2 1 Introduction Le travail décrit dans cet article se place dans le cadre plus général d un projet européen 1 qui vise à développer un tuteur intelligent pour l aquisition d une deuxième langue (particulièrement pour le français et l allemand). Dans le cadre de ce projet, un jeu sérieux, intégré dans Second Life, et qui exploite un environnement de réalité virtuelle en 3 dimensions a été conçu (I-FLEG) (Amoia et al., 2011). De la situation privilégiée dans laquelle se trouve l apprenant lorsqu un ordinateur l assiste à acquérir de nouvelles connaissances, il est possible de tirer avantage de plusieurs caractéristiques. Parmi celles-ci, la personnalisation de la séquence d apprentissage est à souligner et fera l objet de cette contribution. De plus, le technologie basée sur le web facilite la collecte d une grande quantité de données qui peuvent être utilisées pour optimiser le fonctionnement du tuteur intelligent. Il a été montré assez tôt que la personnalisation de l enseignement est très importante dans la relation entre enseignants et apprenants (Bloom, 1968). Idéalement, chaque apprenant devrait recevoir des cours adaptés qui lui permettaient d obtenir le meilleur en fonction de ses capacités. C est tout naturel de penser que cette situation pourrait être rencontrée avec des tuteurs intelligents, installés sur des ordinateurs personnels ou accessibles depuis l Internet. Pourtant, la situation actuelle est loin d être satisfaisante car les systèmes présentement commercialisés sont conçus pour un large public et non pour chaque apprenant. Pire encore, ils s addressent à un étudiant moyen qui généralement n existe même pas. C est particulièrement vrai dans le contexte de l aquisition d une seconde langue où les erreurs sont très dépendantes de l apprenant, à cause notamment de confusions lexicales et d erreurs de prononciation liées à des causes culturelles et d éducation. Il est donc important de concevoir des systèmes qui sont capables d adapter leur comportement au profil particulier de chaque apprenant. Nous allons supposer ici que le degré de liberté de l interface est dans la séquence constituée d une suite de choix entre phase d enseignement et phase d évaluation. Une phase d enseignement aura pour but d améliorer les connaissances d un apprenant tandis qu une phase d évaluation aura pour objectif de quantifier ce savoir. Ainsi, étant donnée une situation (définie par rapport à l historique des interactions avec l apprenant), le système devra choisir quelle phase proposer ensuite. L adaptation à l apprenant intervient dans la séquence de décisions. Celle-ci diffère d un apprenant à l autre. Le problème d adaptation du comportement du système à l utilisateur peut ainsi être vu comme un problème de décisions séquentielles. Dans cet article, nous proposons de résoudre ce problème en utilisant une méthode d apprentissage automatique, l apprentissage par renforcement (AR) (Sutton et Barto, 1998). Particulièrement, nous avons utilisé un algorithme d AR en mode hors-ligne (appelé Least Square Policy Iteration (LSPI) (Lagoudakis et Parr, 2003)). Ces méthodes ont été récemment et avec succès utilisées dans le domaine des systèmes de dialogues parlés (Pietquin et al., 2011b). Ce travail se démarque de précédentes tentatives d utiliser l AR dans le contexte des tuteurs intelligents (Beck et al., 2000; Iglesias et al., 2009) car l apprentissage se fait en mode hors-ligne avec un jeu de données fixé. Seules les données collectées avec un système dont le comportement et les prises de décisions sont codées à la main ou bien provenant des traces d utilisation de systèmes déjà déployés sont nécessaires. En conséquence, contrairement aux précédents travaux, la méthode proposée ici ne requière ni une modélisation de l apprenant, ce qui évite donc les erreurs liées à l imperfection du modèle, ni une interaction avec ce dernier durant l apprentissage. Le fait de ne 1. ALLEGRO : financé par le programme INTERREG-IVa et la Région Lorraine. 242
3 pas laisser interagir l apprenant avec le tuteur pendant que celui-ci apprend le bon comportement permet de ne pas mettre l apprenant face à des situations non maîtrisées (qui pourraient le lasser). En effet, durant l apprentissage de la meilleurs séquence de décisions, la cohérence du comportement du tuteur n est pas garantie. Le reste de l article est organisé comme suit : la section 2 présente l apprentissage par renforcement de façon théorique. Ensuite, la section 3 montre comment le problème d optimisation dans le cadre du tutorat remplit le paradigme de l AR. Des résultats expérimentaux sont présentés dans la section 4 et montrent l efficacité de la méthode. Enfin, la section 5 conclut le travail. 2 Apprentissage par renforcement L apprentissage par renforcement (AR) (Sutton et Barto, 1998) est un paradigme général d apprentissage automatique qui a pour but de résoudre des problèmes de prise de décisions séquentielles. Dans ce cadre, un agent interagit avec un système qu il essaie de contrôler. Le système est composé d états et le contrôle consiste à exercer des actions sur le système. Après que chaque action a été effectuée par l agent, le système passe d un état à un autre et génère une récompense immédiate qui est visible par l agent. Le but de l agent est d apprendre une correspondance entre les états et les actions qui vont lui permettre de maximiser un cumul de récompenses (récompenses à long terme). Pour cela, l agent recherche la meilleure séquence d actions et non les actions qui sont les meilleures localement. 2.1 Processus décisionnels de Markov Pour résoudre le problème d apprentissage par renforcement décrit ci-dessus, le paradigme des Processus décisionnels de Markov (PDM) est traditionnellement utilisé. Un PDM est défini par un n-uplet S, A, R, P, γ, où S est l ensemble constitué de tous les états possibles, A l ensemble d actions, R la fonction de récompense, P l ensemble des probabilités de transisitions markoviennes et γ est le facteur d actualisation (pondérant les récompenses futures). Une stratégie ou une politique π est une application de S dans A. Etant donnée une politique π, chaque état de S peut être associé à une valeur (V π : S ) définie comme étant l espérance de la somme des récompenses pondérées obtenues par l agent sur un horizon infini en partant de l état s et en suivant la politique π : V π (s) = E[ γ k r k s 0 = s, π]. (1) k=0 Une fonction sur une paire état-action peut être définie : Q π : S A. Cela ajoute un degré de liberté dans le choix de la première action choisie : Q π (s, a) = E[ γ i r i s 0 = s, a 0 = a, π]. (2) i=0 La fonction Q (s, a) est la fonction Q optimale associée à la politique optimale π. Cette dernière est celle qui maximise le valeur de chaque état (ou de chaque paire état-action) : π = argmax π V π = argmax π Q π. La politique optimale est gloutonne par rapport à la fonction Q 243
4 optimale : π (s) = argmax a A Q (s, a). La programmation dynamique (Bellman, 1957) a pour but de calculer la politique optimale, en utilisant la fonction Q comme intermédiaire, dans le cas où les probabilités de transition ainsi que la fonction de récompense sont connues. Particulièrement, l algorithme d itération de la politique calcule la politique optimale de façon itérative. Une politique initiale est arbitrairement choisie : π 0. A l itération k, la politique π k 1 est évaluée, c est-à-dire que la fonction Q qui lui est associée, Q π k 1 (s, a), est calculée. Pour cela, la propriété de Markov sur les probabilités de transition est utilisée pour réécrire l équation 2 : Q π (s, a) = E s s,a[r(s, a, s ) + γq π (s, π(s ))] = T π Q π (s, a) (3) Cette équation est appelée l équation d évaluation de Bellman et T π est l opérateur associé. L opérateur T π est linéaire et l équation 3 définit ainsi un système linéaire qui peut être résolu de manière exacte. La politique est ensuite améliorée en utilisant le fait que π k est gloutonne par rapport à Q π k 1 : π k (s) = argmaxq k 1 (s, a) (4) a A Les étapes d évaluation et d amélioration sont répétées jusqu à ce que π k converge vers π (qui peut être démontré comme se produisant après un nombre fini d itérations, quand π k = π k 1 ). 2.2 Programmation dynamique approchée Bien qu elle paraisse très intéressante, la méthode proposée ci-dessous est difficilement applicable à des situations réelles pour deux raisons. Tout d abord, il est supposé que les probabilités de transition ainsi que la fonction de récompense sont connues. Cela est rarement le cas, surtout avec des systèmes qui interagissent avec des humains car cela reviendrait à modéliser leur comportement. Le plus souvent, seulement des exemples d interations sont disponibles, au travers de collectes de données et de traces d utilisation qui constituent des trajectoires dans l espace état-action. Mais il devient alors nécessaire d apprendre à partir d un jeu de données fixé. Deuxièmement, l itération de la politique suppose que la fonction Q puisse être exactement représentée et que sa valeur puisse être stockée dans un tableau pour chaque paire état-action, pour qu ainsi l expression 3 représente un système d équations. Cependant, pour des problèmes réels, les espaces d état et/ou d action sont souvent trop grands (et même parfois continus) pour que cette hypothèse tienne. La programmation dynamique approchée (PDA) a pour but d estimer la politique optimale à partir de trajectoires lorsque l espace d état est trop grand pour une représentation tabulaire. La fonction Q est alors approchée par une représentation paramétrique ˆQ θ (s, a) tandis que la connaissance du modèle est remplacée par une base d exemples de transitions. Dans cet article, une approximation linéaire de la fonction Q est choisie : ˆQ θ (s, a) = θ T φ(s, a) où θ p est un vecteur de paramètres et φ(s, a) un jeu de fonctions de base (ou attributs). Toutes les fonctions qui peuvent se mettre sous cette forme définissent un espace d hypothèses = { ˆQ θ θ p }. Chaque fonction Q peut se projeter sur cet espace à l aide d un opérateur de projection Π défini tel que : ΠQ = argmin Q ˆQ θ 2. (5) ˆQ θ Le but des algorithmes de PDA est de cacluler le meilleur jeu de paramètres θ étant donné les fonctions de base. 244
5 2.2.1 Least-Squares Policy Iteration Least-Squares Policy Iteration (LSPI) est un algorithme de PDA (Lagoudakis et Parr, 2003). LSPI est inspiré de méthodes d itération sur la politique et alterne phase d évaluation avec phase d amélioration de la politique. La phase d amélioration est la même que celle décrite précédemment (la politique est gloutonne par rapport à la fonction Q évaluée) mais la phase d évaluation doit apprendre une représentation approximative de la fonction Q en utilisant des échantillons. Dans LSPI, cela est fait en utilisant une version off-policy de l algorithme Least- Squares Temporal Differences (LSTD) (Bradtke et Barto, 1996), c est-à-dire une version dans laquelle la politique évaluée n est pas celle qui a généré les données. L objectif est de trouver une approximation Q θ de Q. Seulement, les valeurs de la fonction ne sont pas directement observables. Le problème est donc plus difficile à réoudre qu un problème de régression. La fonction Q étant le point fixe de l opérateur de Bellman, il pourrait paraître raisonnable de chercher Q θ tel que Q θ TQ θ. Toutefois, il n y a aucune raison que l espace d hypothèse soit stable par application de l opérateur de Bellman. LSTD consiste donc à calculer le point fixe de Q θ = ΠTQ θ, qui existe bien. En pratique, T π n est pas connu (les probabilités de transition de sont pas connues) mais un jeu de N transitions {(s j, a j, r j, s j ) 1 j N } est disponible. Le problème de point fixe précédent s exprime alors ainsi : θ π = argmin θ N C N j (θ, θ π ), (6) j=1 C N j (θ, θ π ) = (r j + γ ˆQ θπ (s j, π(s j )) γ ˆQ θ (s j, a j )) 2. Grâce à la paramétrisation linéaire, une solution analytique peut être calculée : N N θ π = ( φ j φ π j ) 1 φ j r j (7) j=1 avec φ j = φ(s j, a j ) j=1 et φ π j = φ(s j, a j ) γφ(s j, π(s j )). L algorithme LSPI fonctionne ainsi comme suit. Une politique initiale π 0 est choisie. Ensuite, à l itération k (avec k > 1), la fonction Q de la politique π k 1 est estimée en utilisant LSTD et π k est gloutonne par rapport à cette fonction Q estimée. L algorithme se termine quand un critère d arrêt est atteint, par exemple quand la différence entre deux politiques consécutives est inférieure à une certaine valeur. 3 Le comportement du tuteur vu comme un PDM Ainsi que présentée dans l introduction, la personnalistion d un tuteur intelligent peut se voir comme équivalente à un problème de décisions séquentielles dans lequel l agent doit alterner entre phases d enseignement et phases d évaluation. Par exemple, dans le cadre de l acquisition d une seconde langue, le tuteur peut choisir de proposer un exercice de grammaire, suivi d un exercice de conjugaison et seulement ensuite proposer une évaluation à l apprenant sur les deux notions précedemment enseignées. L utilisation de l apprentissage par renforcement pour 245
6 résoudre ce problème d optimisation a déjà été proposé dans (Beck et al., 2000) et (Iglesias et al., 2009). Le travail présenté dans cette publication diffère des précédents car il se propose d utiliser une méthode qui apprend une stratégie optimale à partir de données fixées. Ainsi, aucune interaction avec l apprenant n est requise durant l apprentissage et n importe quel système peut être amélioré en utilisant simplement des traces d utilisation. Pour trouver la séquence optimale de décisions à l aide de l apprentissage par renforcement, il faut traduire le problème de tutorat dans le cadre du paradigme des processus décisionnels de Markov et ainsi définir un espace d état, un espace d action et une fonction de récompense (les probabilités de transition ne sont pas connues mais l information qu elles apportent est remplacée par un jeu de données provenant de traces d utilisation du système). En ce qui concerne les actions, elles sont au nombre de deux : commencer une phase d évaluation ou commencer une phase d enseignement. La représentation de l état doit contenir des informations sur le contexte de l interaction, c est-à-dire l information suffisante mais nécessaire pour prendre une décision. Ici l espace d état est défini comme un vecteur à deux dimensions : la première dimension est le taux de bonnes réponses que l apprenant a déjà fournies (valeur continue entre 0 et 1) et la deuxième dimension est le nombre de phases d enseignement que le système a déjà proposées (valeur entière). Il est à noter que cette représentation hybride (continue/discrète) de l espace d état est totalement différente de ce qui a été proposé dans différents travaux et qu elle nécessite une approximation de la fonction de valeur. Le but pour le système est ici de tirer le meilleur de chaque apprenant et non de lui faire atteindre un taux de réussite fixé, en-dessous duquel on considère que l apprenant a échoué (par exemple, dans (Iglesias et al., 2009) ce taux est fixé à 90% ; la progression de l apprenant n est pas prise en compte s il ne l atteint jamais au cours de l apprentissage). Enfin, la récompense est fournie par le taux de bonnes réponses de l apprenant après une phase d évaluation (une récompense est obtenue après chaque phase d évaluation, aucune après celle d enseignement). A nouveau, le but est de maximiser le cumul de ces taux en fonction des capacités de l apprenant. Pour cela, le système doit proposer la séquence qui fait augmenter le plus rapidement les connaissances de l élève puisque son but est de maximiser la séquence de récompenses. 4 Expériences Nous n avions pas de données disponibles au moment de la rédaction de cet article ; nous avons donc simulé des interactions entre le système et l apprenant. Le modèle de l apprenant est inspiré de (Corbett et Anderson, 1994). Le modèle est basé sur un jeu de probabilités qui simulent le fait que les connaissances d un apprenant augmentent ou non après avoir suivi une phase d enseignement et qui simulent des réponses à des questions. Il est important de garder à l esprit que le modèle a seulement été utilisé pour générer des données concordantes avec notre représentation d état mais qu il n est pas explicitement pris en compte pour élaborer la stratégie d apprentissage. Du point de vue de l apprentissage par renforcement, tout se passe comme si les données étaient générées par des utilisateurs réels. Générer des données avec un modèle a aussi l avantage de tester les stratégies de façon statistiquement cohérente. Les données prennent la forme de traces d interactions (une interaction étant simplement une décision du sytème suivie de la réaction de l apprenant). Pour obtenir les données, l utilisateur simulé doit interagir avec un système initial dont le comportement est défini par une politique codée à la main (ici le choix des actions est totalement aléatoire : des phases d évaluation et d enseignement alternent avec une probabilité de 50%). L algorithme LSPI présenté section est appliqué ensuite sur des 246
7 jeux de données de tailles différentes. Les résultats sont présentés figure 1. Sur cette figure, la récompense cumulée obtenue par l apprenant en utilisant la politique apprise par le système est tracée en fonction du nombre d interactions contenues dans le jeu de données d entraînement utilisé par l algorithme LSPI. Le but de cette expérience est d identifier le nombre d interactions requis pour apprendre une politique dont les performances sont supérieures à une simple politique définie à la main. Les performances des politiques apprises sont comparées à celles des politiques aléatoires utilisées pour la collecte de données et à celles issues d une politique codée à la main qui alterne des phases d enseignement et d évaluation Somme des recompenses ponderees Marche aleatoire Question/lecon LSPI Nombre d interactions FIGURE 1 Résultats Il apparaît clairement sur la figure qu en utilisant 500 interactions (une interaction n étant pas une session entière de tutorat mais simplement une décision suivie par la réaction de l apprenant, ce qui fait de 500 un nombre plutôt bas), la politique apprise est meilleure qu une politique aléatoire. Ensuite, après 1000 intéractions, la politique apprise devient meilleure que la politique codée à la main. Il est donc possible d utiliser les traces d un système existant pour apprendre des politiques optimales. De façon à mesurer la reproductibilité de l apprentissage (c est-à-dire la sensibilité à la composition du jeu de données), LSPI a été appliqué 100 fois et les politiques apprises ont été testées 1000 fois sur les apprenants simulés. L intervalle de confiance à 95% a aussi été caclulé. Il montre que les résultats ne sont que peu sensibles à l aléat dans les données. C est assez important car dans des applications réelles, il n est pas possible de contrôler la qualité des données puisque seules des traces d utilisation sont disponibles. Après 1500 interactions, l intervalle de confiance ne varie plus beaucoup. 5 Conclusion Dans cette contribution, une méthode pour optimiser un tuteur intelligent qui aide à l acquisition d une seconde langue a été proposée. Le problème d optimisation est d abord exprimé comme un problème de décisions séquentielles qui peut être résolu grâce à un algorithme d apprentissage 247
8 par renforcement. Puisque le comportement des apprenants est difficile à prédire, une méthode sans modèle est préférable. La méthode choisie n utilise donc que des traces d interactions entre l apprenant et le système à optimiser. Les performances de la stratégie d interactions apprise dépassent celles des stratégies basiques utilisées pour collecter les données. Dans le futur, les collectes de données avec des étudiants réels commenceront en utilisant l environnement virtuel I-FLEG. Ainsi, une perspective immédiate est de collecter des traces d utilisation de ce système pour apprendre des stratégies optimales d enseignement. Nous souhaiterions aussi utiliser d autres algorithmes d AR (Geist et Pietquin, 2010) capables d utiliser l incertitude sur l estimation des paramètres de la fonction Q (Geist et Pietquin, 2011) de façon à améliorer la stratégie en ligne (pendant que le système est utilisé), grâce à des stratégies d exploration qui évitent de perturber l apprenant. Cette méthode a déjà été appliquée avec succès à des gestionnaires de dialogues parlés (Pietquin et al., 2011a; Daubigney et al., 2011). Références AMOIA, M., GARDENT, C. et PEREZ-BELTRACHINI, L. (2011). A serious game for second language acquisition. In Proceedings of the Third International Conference on Computer Aided Education (CSEDU 2011), Noordwijkerout (The Netherlands). BECK, J. E., WOOLF, B. P. et BEAL, C. R. (2000). ADVISOR : A machine learning architecture for intelligent tutor construction. In Proceedings of the National Conference on Articial Intelligence, pages , Menlo Park, CA. MIT Press. BELLMAN, R. (1957). Dynamic Programming. Dover Publications, sixth édition. BLOOM, B. S. (1968). Learning for mastery. Evaluation comment, 1(2):1 5. BRADTKE, S. J. et BARTO, A. G. (1996). Linear Least-Squares algorithms for temporal difference learning. Machine Learning, 22(1-3): CORBETT, A. T. et ANDERSON, J. R. (1994). Knowledge tracing : Modeling the acquisition of procedural knowledge. User modeling and user-adapted interaction, 4(4): DAUBIGNEY, L., GASIC, M., CHANDRAMOHAN, S., GEIST, M., PIETQUIN, O. et YOUNG, S. (2011). Uncertainty management for on-line optimisation of a POMDP-based large-scale spoken dialogue system. In Proceedings of the Twelfth Annual Conference of the International Speech Communication Association (Interspeech 2011). GEIST, M. et PIETQUIN, O. (2010). Kalman Temporal Differences. Journal of Artificial Intelligence Research (JAIR), 39: GEIST, M. et PIETQUIN, O. (2011). Managing Uncertainty within the KTD Framework. In Proceedings of the Workshop on Active Learning and Experimental Design (AL&E collocated with AISTAT 2010), Journal of Machine Learning Research Conference and Workshop Proceedings, Sardinia (Italy). 12 pages - to appear. IGLESIAS, A., MARTINEZ, P., ALER, R. et FERNANDEZ, F. (2009). Learning teaching strategies in an adaptive and intelligent educational system through reinforcement learning. Applied Intelligence, 31(1): LAGOUDAKIS, M. G. et PARR, R. (2003). Least-squares policy iteration. Journal of Machine Learning Research, 4: PIETQUIN, O., GEIST, M. et CHANDRAMOHAN, S. (2011a). Sample Efficient On-line Learning of Optimal Dialogue Policies with Kalman Temporal Differences. In International Joint Conference on Artificial Intelligence (IJCAI 2011), Barcelona, Spain. to appear. PIETQUIN, O., GEIST, M., CHANDRAMOHAN, S. et FREZZA-BUET, H. (2011b). Sample-Efficient Batch Reinforcement Learning for Dialogue Management Optimization. ACM Transactions on Speech and Language Processing. accepted for publication - 24 pages. SUTTON, R. S. et BARTO, A. G. (1998). Reinforcement Learning : An Introduction. MIT Press. 248
Contrôle stochastique d allocation de ressources dans le «cloud computing»
Contrôle stochastique d allocation de ressources dans le «cloud computing» Jacques Malenfant 1 Olga Melekhova 1, Xavier Dutreilh 1,3, Sergey Kirghizov 1, Isis Truck 2, Nicolas Rivierre 3 Travaux partiellement
Apprentissage par renforcement (1a/3)
Apprentissage par renforcement (1a/3) Bruno Bouzy 23 septembre 2014 Ce document est le chapitre «Apprentissage par renforcement» du cours d apprentissage automatique donné aux étudiants de Master MI, parcours
Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services
69 Vers une approche Adaptative pour la Découverte et la Composition Dynamique des Services M. Bakhouya, J. Gaber et A. Koukam Laboratoire Systèmes et Transports SeT Université de Technologie de Belfort-Montbéliard
Forthcoming Database
DISS.ETH NO. 15802 Forthcoming Database A Framework Approach for Data Visualization Applications A dissertation submitted to the SWISS FEDERAL INSTITUTE OF TECHNOLOGY ZURICH for the degree of Doctor of
Principe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, [email protected] 2 Université
Filtrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R
Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R Yves Aragon, David Haziza & Anne Ruiz-Gazen GREMAQ, UMR CNRS 5604, Université des Sciences
RÉSUMÉ DE THÈSE. L implantation des systèmes d'information (SI) organisationnels demeure une tâche difficile
RÉSUMÉ DE THÈSE L implantation des systèmes d'information (SI) organisationnels demeure une tâche difficile avec des estimations de deux projets sur trois peinent à donner un résultat satisfaisant (Nelson,
physicien diplômé EPFZ originaire de France présentée acceptée sur proposition Thèse no. 7178
Thèse no. 7178 PROBLEMES D'OPTIMISATION DANS LES SYSTEMES DE CHAUFFAGE A DISTANCE présentée à l'ecole POLYTECHNIQUE FEDERALE DE ZURICH pour l'obtention du titre de Docteur es sciences naturelles par Alain
Classification Automatique de messages : une approche hybride
RECIAL 2002, Nancy, 24-27 juin 2002 Classification Automatique de messages : une approche hybride O. Nouali (1) Laboratoire des Logiciels de base, CE.R.I.S., Rue des 3 frères Aïssiou, Ben Aknoun, Alger,
MCMC et approximations en champ moyen pour les modèles de Markov
MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:
RLBS: Une stratégie de retour arrière adaptative basée sur l apprentissage par renforcement pour l optimisation combinatoire
Actes JFPC 2015 RLBS: Une stratégie de retour arrière adaptative basée sur l apprentissage par renforcement pour l optimisation combinatoire Ilyess Bachiri 1,2 Jonathan Gaudreault 1,2 Brahim Chaib-draa
4.2 Unités d enseignement du M1
88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter
Mises en relief. Information supplémentaire relative au sujet traité. Souligne un point important à ne pas négliger.
Cet ouvrage est fondé sur les notes d un cours dispensé pendant quelques années à l Institut universitaire de technologie de Grenoble 2, au sein du Département statistique et informatique décisionnelle
Apprentissage artificiel pour l ordonnancement des tâches dans les grilles de calcul
Université Paris-Sud Apprentissage artificiel pour l ordonnancement des tâches dans les grilles de calcul Thèse de doctorat en vue de l obtention du grade de docteur de l université Paris XI Spécialité
Métriques de performance pour les algorithmes et programmes parallèles
Métriques de performance pour les algorithmes et programmes parallèles 11 18 nov. 2002 Cette section est basée tout d abord sur la référence suivante (manuel suggéré mais non obligatoire) : R. Miller and
ITIL V3. Transition des services : Principes et politiques
ITIL V3 Transition des services : Principes et politiques Création : janvier 2008 Mise à jour : août 2009 A propos A propos du document Ce document de référence sur le référentiel ITIL V3 a été réalisé
!-.!#- $'( 1&) &) (,' &*- %,!
0 $'( 1&) +&&/ ( &+&& &+&))&( -.#- 2& -.#- &) (,' %&,))& &)+&&) &- $ 3.#( %, (&&/ 0 ' Il existe plusieurs types de simulation de flux Statique ou dynamique Stochastique ou déterministe A événements discrets
iqtool - Outil e-learning innovateur pour enseigner la Gestion de Qualité au niveau BAC+2
iqtool - Outil e-learning innovateur pour enseigner la Gestion de Qualité au niveau BAC+2 134712-LLP-2007-HU-LEONARDO-LMP 1 Information sur le projet iqtool - Outil e-learning innovateur pour enseigner
$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU
$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU Fabien FIGUERES [email protected] 0RWVFOpV : Krigeage, plans d expériences space-filling, points de validations, calibration moteur. 5pVXPp Dans le
Ingénierie et gestion des connaissances
Master Web Intelligence ICM Option Informatique Ingénierie et gestion des connaissances Philippe BEAUNE [email protected] 18 novembre 2008 Passer en revue quelques idées fondatrices de l ingénierie
RI sociale : intégration de propriétés sociales dans un modèle de recherche
RI sociale : intégration de propriétés sociales dans un modèle de recherche Ismail Badache 1 Institut de Recherche en Informatique de Toulouse, UMR 5505 CNRS, SIG 118 Route de Narbonne F-31062 Toulouse
Les méthodes Agiles Introduction. Intervenant : Tremeur Balbous [email protected] http://www.agilegardener.com/ 04/09/2008
Les méthodes Agiles Introduction Intervenant : Tremeur Balbous [email protected] http://www.agilegardener.com/ 04/09/2008 Les méthodes Agiles Le contexte Le Manifeste Agile Une tentative de définition
Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données
Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données Marc Boullé Orange Labs 2 avenue Pierre Marzin 22300 Lannion [email protected],
L apprentissage automatique
L apprentissage automatique L apprentissage automatique L'apprentissage automatique fait référence au développement, à l analyse et à l implémentation de méthodes qui permettent à une machine d évoluer
REMOTE DATA ACQUISITION OF EMBEDDED SYSTEMS USING INTERNET TECHNOLOGIES: A ROLE-BASED GENERIC SYSTEM SPECIFICATION
REMOTE DATA ACQUISITION OF EMBEDDED SYSTEMS USING INTERNET TECHNOLOGIES: A ROLE-BASED GENERIC SYSTEM SPECIFICATION THÈSE N O 2388 (2001) PRÉSENTÉE AU DÉPARTEMENT D'INFORMATIQUE ÉCOLE POLYTECHNIQUE FÉDÉRALE
Modélisation du comportement habituel de la personne en smarthome
Modélisation du comportement habituel de la personne en smarthome Arnaud Paris, Selma Arbaoui, Nathalie Cislo, Adnen El-Amraoui, Nacim Ramdani Université d Orléans, INSA-CVL, Laboratoire PRISME 26 mai
Stages de recherche dans les formations d'ingénieur. Víctor Gómez Frías. École des Ponts ParisTech, Champs-sur-Marne, France
Stages de recherche dans les formations d'ingénieur Víctor Gómez Frías École des Ponts ParisTech, Champs-sur-Marne, France [email protected] Résumé Les méthodes de l ingénierie ont été généralement
Quand le bâtiment va, tout va
Quand le bâtiment va, tout va Citation de Martin Nadeau en 1849 à l Assemblée législative de la France Martin Nadeau Ancien ouvrier maçon Député à l Assemblée législative Les sots font bâtir les maisons
AGROBASE : un système de gestion de données expérimentales
AGROBASE : un système de gestion de données expérimentales Daniel Wallach, Jean-Pierre RELLIER To cite this version: Daniel Wallach, Jean-Pierre RELLIER. AGROBASE : un système de gestion de données expérimentales.
CHAPITRE 5. Stratégies Mixtes
CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,
Big Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci http://liris.cnrs.fr/hamamache.kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de
K. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre 2014 - Palaiseau
Apport des modèles de krigeage à la simulation numérique K Ammar, F Bachoc, JM Martinez CEA-Saclay, DEN, DM2S, F-91191 Gif-sur-Yvette, France Séminaire ARISTOTE - 23 octobre 2014 - Palaiseau Apport des
BIG Data et R: opportunités et perspectives
BIG Data et R: opportunités et perspectives Guati Rizlane 1 & Hicham Hajji 2 1 Ecole Nationale de Commerce et de Gestion de Casablanca, Maroc, [email protected] 2 Ecole des Sciences Géomatiques, IAV Rabat,
OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT)
OPTIMISATION DE LA MAINTENANCE DES EQUIPEMENTS DE MANUTENTION DU TERMINAL A CONTENEURS DE BEJAIA (BMT) LAGGOUNE Radouane 1 et HADDAD Cherifa 2 1,2: Dépt. de G. Mécanique, université de Bejaia, Targa-Ouzemour
Techniques d interaction dans la visualisation de l information Séminaire DIVA
Techniques d interaction dans la visualisation de l information Séminaire DIVA Zingg Luca, [email protected] 13 février 2007 Résumé Le but de cet article est d avoir une vision globale des techniques
Business Process Management
Alain Darmon Responsable Avant-Vente BPM, IBM 1 er mars 2011 Business Process Management Améliorez l agilité de l entreprise avec la gestion des processus métier Les processus sont partout! Ouverture de
L évaluation de la qualité d un dispositif d apprentissage en ligne. Quelles traces mobiliser? Comment les interpréter?
L évaluation de la qualité d un dispositif d apprentissage en ligne. Quelles traces mobiliser? Comment les interpréter? François GEORGES (LabSET ULg) Séminaire Be-ODL 18 novembre 2013 1 Plan La qualité
Une méthode d apprentissage pour la composition de services web
Une méthode d apprentissage pour la composition de services web Soufiene Lajmi * Chirine Ghedira ** Khaled Ghedira * * Laboratoire SOIE (ENSI) University of Manouba, Manouba 2010, Tunisia [email protected],
Exemple PLS avec SAS
Exemple PLS avec SAS This example, from Umetrics (1995), demonstrates different ways to examine a PLS model. The data come from the field of drug discovery. New drugs are developed from chemicals that
Analyse structurée de solutions pour BMC Remedy IT Service Management v 7
LIVRE BLANC SUR LES PRATIQUES ITIL Analyse structurée de solutions pour BMC Remedy IT Service Management v 7 Exploiter le potentiel des pratiques ITIL grâce aux ateliers d analyse de solutions organisés
Annexe 6. Notions d ordonnancement.
Annexe 6. Notions d ordonnancement. APP3 Optimisation Combinatoire: problèmes sur-contraints et ordonnancement. Mines-Nantes, option GIPAD, 2011-2012. [email protected] Résumé Ce document
Integrated Music Education: Challenges for Teaching and Teacher Training Presentation of a Book Project
Integrated Music Education: Challenges for Teaching and Teacher Training Presentation of a Book Project L enseignement intégré de la musique: Un défi pour l enseignement et la formation des enseignants
Ordonnancement en temps réel d un jobshop par métaheuristique hybride : étude comparative
Ordonnancement en temps réel d un jobshop par métaheuristique hybride : étude comparative Y. Houbad, M. Souier, A. Hassam, Z.Sari Laboratoire d automatique Tlemcen Faculté de technologie, Université Abou
Big Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université
Stage Ingénieur en développement logiciel/modélisation 3D
Ingénieur en développement logiciel/modélisation 3D Schlumberger recrute un(e) stagiaire ingénieur en modélisation 3D pour la plate-forme Petrel. Vous serez intégré(e) au sein d une équipe innovante, Petrel
Etude d un cas industriel : Optimisation de la modélisation de paramètre de production
Revue des Sciences et de la Technologie RST- Volume 4 N 1 /janvier 2013 Etude d un cas industriel : Optimisation de la modélisation de paramètre de production A.F. Bernate Lara 1, F. Entzmann 2, F. Yalaoui
NOTE SUR LA MODELISATION DU RISQUE D INFLATION
NOTE SUR LA MODELISATION DU RISQUE D INFLATION 1/ RESUME DE L ANALYSE Cette étude a pour objectif de modéliser l écart entre deux indices d inflation afin d appréhender le risque à très long terme qui
Théorie des Jeux Et ses Applications
Théorie des Jeux Et ses Applications De la Guerre Froide au Poker Clément Sire Laboratoire de Physique Théorique CNRS & Université Paul Sabatier www.lpt.ups-tlse.fr Quelques Définitions de la Théorie des
Androids as an Experimental Apparatus: Why Is There an Uncanny Valley and Can we Exploit It?
Androids as an Experimental Apparatus: Why Is There an Uncanny Valley and Can we Exploit It? Karl F. MacDorman 1 The Uncanny Valley : Le terme d Uncanny Valley a été défini par Masahiro Mori, chercheur
Pi, poker et informatique ; une «épuisante» alliance pour des projets en mathématiques
Pi, poker et informatique ; une «épuisante» alliance pour des projets en mathématiques Jean Fradette et Anik Trahan, Cégep de Sherbrooke Résumé Dans un cours intégrateur en mathématiques, des étudiants
Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes
de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes Zohra Guessoum 1 & Farida Hamrani 2 1 Lab. MSTD, Faculté de mathématique, USTHB, BP n 32, El Alia, Alger, Algérie,[email protected]
Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair
Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair Raja Chiky, Bruno Defude, Georges Hébrail GET-ENST Paris Laboratoire LTCI - UMR 5141 CNRS Département Informatique et Réseaux
Approches innovantes vers le Cloud, la Mobilité et les outils sociaux de formation
Présentation de la solution SAP SAP Education SAP Workforce Performance Builder Objectifs Approches innovantes vers le Cloud, la Mobilité et les outils sociaux de formation Développement des compétences
chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d
Laboratoire de Mécanique et Ingénieriesnieries EA 3867 - FR TIMS / CNRS 2856 ER MPS Modélisation stochastique d un d chargement d amplitude variable à partir de mesures Application à l approche fiabiliste
Contrôle par commande prédictive d un procédé de cuisson sous infrarouge de peintures en poudre.
Contrôle par commande prédictive d un procédé de cuisson sous infrarouge de peintures en poudre. Isabelle Bombard, Bruno da Silva, Pascal Dufour *, Pierre Laurent, Joseph Lieto. Laboratoire d Automatique
Évaluation de la régression bornée
Thierry Foucart UMR 6086, Université de Poitiers, S P 2 M I, bd 3 téléport 2 BP 179, 86960 Futuroscope, Cedex FRANCE Résumé. le modèle linéaire est très fréquemment utilisé en statistique et particulièrement
EDHEC EXECUTIVE EDUCATION La formation sur mesure du Groupe EDHEC
EDHEC EXECUTIVE EDUCATION La formation sur mesure du Groupe EDHEC Jeux sérieux, nouvelle façon d étudier? STÉFAN CRISAN DIRECTEUR DÉLÉGUÉ EDHEC EXECUTIVE EDUCATION CAMPUS DE NICE [email protected]
Laboratoire 4 Développement d un système intelligent
DÉPARTEMENT DE GÉNIE LOGICIEL ET DES TI LOG770 - SYSTÈMES INTELLIGENTS ÉTÉ 2012 Laboratoire 4 Développement d un système intelligent 1 Introduction Ce quatrième et dernier laboratoire porte sur le développement
Apprentissage Automatique
Apprentissage Automatique Introduction-I [email protected] www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
INF 1250 INTRODUCTION AUX BASES DE DONNÉES. Guide d étude
INF 1250 INTRODUCTION AUX BASES DE DONNÉES Guide d étude Sous la direction de Olga Mariño Télé-université Montréal (Québec) 2011 INF 1250 Introduction aux bases de données 2 INTRODUCTION Le Guide d étude
Notre modèle d engagement
Notre modèle d engagement 1. EVALUER L évaluation des compétences que vous souhaitez améliorer implique un vrai échange entre nos deux équipes, et une étude plus approfondie des écarts et des actions préalablement
Décision Markovienne appliquée à un jeu de stop ou encore : Pickomino (Heckmeck Am Bratwurmeck)
Décision Markovienne appliquée à un jeu de stop ou encore : Pickomino (Heckmeck Am Bratwurmeck) Stéphane Cardon Nathalie Chetcuti-Sperandio Fabien Delorme Sylvain agrue CRI - Université d Artois {cardon,chetcuti,delorme,lagrue}@cril.univ-artois.fr
INF6304 Interfaces Intelligentes
INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie
Proposition des cadres d évaluation adaptés à un système de RI personnalisé
Proposition des cadres d évaluation adaptés à un système de RI personnalisé Mariam Daoud, Lynda Tamine-Lechani Laboratoire IRIT, Université Paul Sabatier 118 Route de Narbonne, F-31062 TOULOUSE CEDEX 9
L'intelligence d'affaires: la statistique dans nos vies de consommateurs
L'intelligence d'affaires: la statistique dans nos vies de consommateurs Jean-François Plante, HEC Montréal Marc Fredette, HEC Montréal Congrès de l ACFAS, Université Laval, 6 mai 2013 Intelligence d affaires
Mesure et gestion des risques d assurance
Mesure et gestion des risques d assurance Analyse critique des futurs référentiels prudentiel et d information financière Congrès annuel de l Institut des Actuaires 26 juin 2008 Pierre THEROND [email protected]
ÉTUDE DE L EFFICACITÉ DE GÉOGRILLES POUR PRÉVENIR L EFFONDREMENT LOCAL D UNE CHAUSSÉE
ÉTUDE DE L EFFICACITÉ DE GÉOGRILLES POUR PRÉVENIR L EFFONDREMENT LOCAL D UNE CHAUSSÉE ANALYSIS OF THE EFFICIENCY OF GEOGRIDS TO PREVENT A LOCAL COLLAPSE OF A ROAD Céline BOURDEAU et Daniel BILLAUX Itasca
Développement itératif, évolutif et agile
Document Développement itératif, évolutif et agile Auteur Nicoleta SERGI Version 1.0 Date de sortie 23/11/2007 1. Processus Unifié Développement itératif, évolutif et agile Contrairement au cycle de vie
Programme Bachelor Semestre d automne 2015
Programme Bachelor Semestre d automne 2015 Catalogue de cours Droit International p. 2 International Marketing p. 3 Business Development Strategy p. 4 Analyse & Gestion Financière p. 5 Business Games I
simulation c est [parfois] formidable
La simulation c est [parfois] formidable Thierry PELACCIA Faculté de médecine de Strasbourg SAMU - CESU 67 La simulation c est [parfois] formidable Thierry PELACCIA Faculté de médecine de Strasbourg SAMU
Présentation par François Keller Fondateur et président de l Institut suisse de brainworking et M. Enga Luye, CEO Belair Biotech
Présentation par François Keller Fondateur et président de l Institut suisse de brainworking et M. Enga Luye, CEO Belair Biotech Le dispositif L Institut suisse de brainworking (ISB) est une association
APPRENDRE LA CHIMIE EN ZEP
Résumé du rapport de recherche destiné au Centre Alain Savary, INRP APPRENDRE LA CHIMIE EN ZEP Martine Méheut, Olivier Prézeau INRP, Centre Alain Savary Apprendre la chimie en ZEP Résumé 1 Dans une perspective
UNIVERSITÉ DE LORRAINE Master MIAGE (Méthodes Informatiques Appliquées à la Gestion des Entreprises)
UNIVERSITÉ DE LORRAINE Master MIAGE (Méthodes s Appliquées à la Gestion des Entreprises) 1 Description générale L UFR Mathématiques et propose le Master avec trois spécialisations en deuxième année : ACSI
ED STIC - Proposition de Sujets de Thèse. pour la campagne d'allocation de thèses 2013
ED STIC - Proposition de Sujets de Thèse pour la campagne d'allocation de thèses 2013 Axe Sophi@Stic : Titre du sujet : aucun Composition de systèmes d information dirigée par les modèles : une démarche
MÉTHODOLOGIE DE L ASSESSMENT CENTRE L INSTRUMENT LE PLUS ADÉQUAT POUR : DES SÉLECTIONS DE QUALITÉ DES CONSEILS DE DÉVELOPPEMENT FONDÉS
MÉTHODOLOGIE DE L ASSESSMENT CENTRE L INSTRUMENT LE PLUS ADÉQUAT POUR : DES SÉLECTIONS DE QUALITÉ ET DES CONSEILS DE DÉVELOPPEMENT FONDÉS 1. Introduction Placer la «bonne personne au bon endroit» représente
Préconisations pour une gouvernance efficace de la Manche. Pathways for effective governance of the English Channel
Préconisations pour une gouvernance efficace de la Manche Pathways for effective governance of the English Channel Prochaines étapes vers une gouvernance efficace de la Manche Next steps for effective
Baccalauréat ES/L Amérique du Sud 21 novembre 2013
Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée
Cours de Master Recherche
Cours de Master Recherche Spécialité CODE : Résolution de problèmes combinatoires Christine Solnon LIRIS, UMR 5205 CNRS / Université Lyon 1 2007 Rappel du plan du cours 16 heures de cours 1 - Introduction
Prédiction et Big data
Prédiction et Big data Mitra Fouladirad Institut Charles Delaunay - UMR CNRS 6281 Université de Technologie de Troyes 29 avril 2015 1 1 Sujet Motivation Le pronostic ou la prédiction du comportement futur
Chapitre 3 : INFERENCE
Chapitre 3 : INFERENCE 3.1 L ÉCHANTILLONNAGE 3.1.1 Introduction 3.1.2 L échantillonnage aléatoire 3.1.3 Estimation ponctuelle 3.1.4 Distributions d échantillonnage 3.1.5 Intervalles de probabilité L échantillonnage
Théorèmes de Point Fixe et Applications 1
Théorèmes de Point Fixe et Applications 1 Victor Ginsburgh Université Libre de Bruxelles et CORE, Louvain-la-Neuve Janvier 1999 Published in C. Jessua, C. Labrousse et D. Vitry, eds., Dictionnaire des
I Stabilité, Commandabilité et Observabilité 11. 1 Introduction 13 1.1 Un exemple emprunté à la robotique... 13 1.2 Le plan... 18 1.3 Problème...
TABLE DES MATIÈRES 5 Table des matières I Stabilité, Commandabilité et Observabilité 11 1 Introduction 13 1.1 Un exemple emprunté à la robotique................... 13 1.2 Le plan...................................
Raisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Couplage efficace entre Optimisation et Simulation stochastique Application à la maintenance optimale d une constellation de satellites
Couplage efficace entre Optimisation et Simulation stochastique Application à la maintenance optimale d une constellation de satellites Benoît Beghin Pierre Baqué André Cabarbaye Centre National d Etudes
Modélisation multi-agent d allocation des ressources : application à la maintenance
Modélisation multi-agent d allocation des ressources : application à la maintenance Mohamed Kharbach (*), Mustapha Ouardouz (*), Zoubir El Felsoufi (*) (*) Equipe de Modélisation Mathématique & Contrôle
Introduction à l approche bootstrap
Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?
L ATTRIBUTION EN MARKETING DIGITAL
Online Intelligence Solutions L ATTRIBUTION EN MARKETING DIGITAL Par Jacques Warren WHITE PAPER WHITE PAPER A Propos de Jacques Warren Jacques Warren évolue en marketing digital depuis 1996, se concentrant
Anne-Sophie FERNANDEZ
Anne-Sophie FERNANDEZ Courriel : [email protected] Fonction : Maître de conférences Biographie Anne-Sophie FERNANDEZ est Maître de Conférences au sein de l Université de Montpellier.
Internet & la recherche marketing : état des lieux. Présenté par Raymond Cyr Fondateur VOXCO
Internet & la recherche marketing : état des lieux Présenté par Raymond Cyr Fondateur VOXCO 10 ANS DÉJÀ! INDUSTRY STUDY ON 2004 ESOMAR WORLD RESEARCH REPORT, p 24 Central location interviewing is another
Grégoire de Lassence. Copyright 2006, SAS Institute Inc. All rights reserved.
Grégoire de Lassence 1 Grégoire de Lassence Responsable Pédagogie et Recherche Département Académique Tel : +33 1 60 62 12 19 [email protected] http://www.sas.com/france/academic SAS dans
Ne cherchez plus, soyez informés! Robert van Kommer
Ne cherchez plus, soyez informés! Robert van Kommer Le sommaire La présentation du contexte applicatif Le mariage: Big Data et apprentissage automatique Dialogues - interactions - apprentissages 2 Le contexte
Modèles à Événements Discrets. Réseaux de Petri Stochastiques
Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés
MASTER SIS PRO : logique et sécurité DÉTECTION D INTRUSIONS. Odile PAPINI, LSIS. Université de Toulon et du Var. papini@univ-tln.
MASTER SIS PRO : logique et sécurité DÉTECTION D INTRUSIONS Odile PAPINI, LSIS. Université de Toulon et du Var. [email protected] Plan Introduction Généralités sur les systèmes de détection d intrusion
Modélisation 3D par le modèle de turbulence k-ε standard de la position de la tête sur la force de résistance rencontrée par les nageurs.
Modélisation 3D par le modèle de turbulence k-ε standard de la position de la tête sur la force de résistance rencontrée par les nageurs. H. ZAÏDI a, S. FOHANNO a, R. TAÏAR b, G. POLIDORI a a Laboratoire
1-Introduction 2. 2-Installation de JBPM 3. 2-JBPM en action.7
Sommaire 1-Introduction 2 1-1- BPM (Business Process Management)..2 1-2 J-Boss JBPM 2 2-Installation de JBPM 3 2-1 Architecture de JOBSS JBPM 3 2-2 Installation du moteur JBoss JBPM et le serveur d application
Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence
Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence Gwenole Fortin To cite this version: Gwenole Fortin. Notes de lecture : Dan SPERBER & Deirdre WILSON, La pertinence. 2006.
Speexx Basic Anglais, Français, Allemand, Italien, Espagnol,
Pour une démo, ctrl +clic pour suivre le lien : http://www.speexx.com/portal/media/softwaredemo/fr/demostart.htm http://www.speexx.com/onlinedemo/english/ Speexx Basic Anglais, Français, Allemand, Italien,
Résumé des communications des Intervenants
Enseignements de la 1ere semaine (du 01 au 07 décembre 2014) I. Titre du cours : Introduction au calcul stochastique pour la finance Intervenante : Prof. M hamed EDDAHBI Dans le calcul différentiel dit
