l Apprentissage Artificiel

Dimension: px
Commencer à balayer dès la page:

Download "l Apprentissage Artificiel"

Transcription

1 1 Le cours 2 Quel objectif (1) 3 Introduction à l Apprentissage Artificiel Antoine CNAMIIE et L.R.I., Université de ParisSud, Orsay (France) antoine@lri.fr 6 cours / TD / TP Contrôle :! TM x 2! Petit projet Documents! Le livre L'apprentissage artificiel. Concepts et algorithmes A. & L. Miclet. Eyrolles. 22.! Les transparents sur cours apprentissage Association Imitation Apprentissage de comportement :! Apprendre à marcher (insectoïdes de Brooks)! Apprendre à se comporter sur une planète Apprendre à mieux jouer! S'adapter à l'adversaire! Ne pas répéter ses fautes! Apprendre à jouer en équipe Équipes de robots Quel objectif (2) 4 Quel objectif (2') 5 Quel objectif (3) 6 Apprentissage pour la navigation Systèmes autonomes avec apprentissage Révision de théorie! Apprentissage de trajets (fourmis, abeilles)! Robots Discrimination! Identification de sousmarins vs. bruits naturels! Identification de locuteur / de signature! Reconnaissance de l'écriture manuscrite, de la parole! Code postal Catégorisation Découverte scientifique! Découverte de régularités (en biochimie, ) Apprendre à filtrer l'information Apprendre les préférences d'un utilisateur Apprendre à faire des résumés Apprendre à communiquer (e.g. Steels, )...! SKY SURVEY Quel objectif (3') 7 Quel objectif (4) 8 Quel objectif (5) 9 Agents intelligents sur le net Vers une symbiose hommemachine Et aussi Mieux comprendre l'apprentissage : Les premières connexions entre neurones et circuits intégrés ont été réalisées en 1999 Pourraton obtenir un coapprentissage Pour ne pas avoir à programmer! Programmation par la démonstration! Programmation par l'exemple (e.g. l'ebl)! Programmation par échantillon d'apprentissage : induction Pour mieux enseigner Pour savoir ce que d'autres intelligences pourraient apprendre : théorie générale de l'apprentissage

2 C'est quoi la science de l'apprentissage artificiel 1 Des questions 11 encore des questions 12 On étudie les apprentissages : Induction naturels! artificiels! ! Comment # des théories (s'appliquant à tout système apprenant) # des méthodes et des algorithmes d'apprentissage! Pourquoi seraitil possible de faire de l induction! Estce qu un exemple supplémentaire doit augmenter la confiance dans la règle induite! Combien fautil d exemples Implémentables sur machines toujours des questions 13 sans arrêt des questions 14 Comment définir l apprentissage 15 a b c a a b a b c «Learning is any change in a system that allows it to perform better the second time on repetition of the same task or another task drawn from the same population» a b d i j j k k k «Learning is making useful changes in mind» [erbert Simon, 1983] [Marvin Minsky, 1985] Estce de l apprentissage l! Phénomène de mémoire, sans mémoire! Séquences d analogies! Quelles situations sélectionner! Dans quel ordre! Estce de l apprentissage «Learning is the organization of experience» [Scott, 1983] «Learning is constructing or modifying representations of what is being experienced» [Riszard Michalski, 1986] Cours 1 : principes généraux de l induction 16 Cours 1 : principes généraux de l induction 17 Introduction à l induction 18 1 Introduction à l induction 2 Les réseaux de neurones multicouches 3 Robotique et apprentissage de contrôle 4 Apprentissage par renforcement 5 Analyse de l induction. Aspects méthodologiques. Les SVMs 6 Apprentissage par comité d experts : le boosting 1 Introduction à l induction 2 Les réseaux de neurones multicouches 3 Robotique et apprentissage de contrôle 4 Apprentissage par renforcement 5 Analyse de l induction. Aspects méthodologiques. Les SVMs 6 Apprentissage par comité d experts : le boosting Induction : Proposer des lois généralesg à partir de l observation l de cas particuliers

3 Un exemple 19 L apprentissage inductif : exemple 2 L apprentissage inductif : exemple 21 E1 E2 A B Soient deux exemples dont les descriptions pourraient être :! E1 : Un triangle rayé audessus d un carré uni noir! E2 : Un carré uni blanc audessus d un cercle rayé $ Formuler une description générale de ces deux exemples C D Problème Quel est le nombre a qui prolonge la séquence : a Solution(s). Quelques réponses valides :! a = 6. Argument : c est la suite des entiers sauf 4.! a = 7. Argument : c est la suite des nombres premiers.! a = 8. Argument : c est la suite de Fibonacci! a = 2!. (a peut être n importe quel nombre réel supérieur ou égal à 5) Argument : la séquence présentée est la liste ordonnée des racines du polynôme : P = x 5 (11 a)x 4 (41 11a)x 3 (61 41a)x 2 (3 61a)x 3a qui est le développement de : (x 1). (x 2). (x 3). (x 5). (x a) Généralisation Il est facile de démontrer ainsi que n importe quel nombre est une prolongation correcte de n importe quelle suite de nombre Mais alors comment faire de l induction l et que peutêtre tre une science de l induction l Encore un autre exemple 22 Exemples décrits par :! nombre (1 ou 2); taille (petit ou grand); forme (cercle ou carré); couleur (rouge ou vert) Les objets appartiennent soit à la classe soit à la classe Description Votre réponse Vraie réponse 1 grand carré rouge 1 grand carré vert 2 petits carrés rouges 2 grands cercles rouges 1 grand cercle vert 1 petit cercle rouge 1 petit carré vert 1 petit carré rouge 2 grands carrés verts Premières notions Protocole! Passif ou actif! Incrémental (online) ou «!tout ensemble!» (offline)! Réponses immédiates ou après votre estimation Critère de succès! Nombre de mauvaises réponses! Taux de mauvaises réponses (taux d erreur)! Nombre d essais avant d avoir «!identifié la solution!»! Taux d erreur de votre estimation finale (qui peut être erronée) («!Taux d erreur en généralisation!») 23 Notion de protocole Le protocole règle les interactions entre les acteurs! Environnement : Données fournies incrémentalement ou non (apprentissage enligne / batch) Dans un ordre indifférent / hostile / favorable! Oracle : Données semisupervisées es Apprentissage multiinstances Étiquettes vraies fournies avec les exemples ou seulement après prédiction de l apprenant (risque mesuré par le nombre d erreurs de l apprenant : mistakebound learning) (ou relativement au meilleur expert d un comité : relative lossbound models) Peut fournir un contreexemple quand l apprenant propose une hypothèse candidate h non équivalente à la fonction cible (equivalence queries)! Apprenant : Complètement passif : données i.i.d. Peut poser des questions : fournir un exemple et demander son étiquette (membership queries) Peut poser des questions sur les statistiques des exemples étiquetés (statistical queries) Apprentissage actif : organise son exploration du monde 24 Exemple : apprendre est difficile 25 Questions essentielles 26 Questions : données et connaissances a priori 27 Données et connaissances a priori! Quelles données sont disponibles! Que saiton du problème Oui Oui Non Représentation! Comment représenter les exemples! Comment représenter les hypothèses Méthode et estimation! Quel est l espace des hypothèses! Comment évaluer une hypothèse en fonction des exemples connus Évaluation de la performance après apprentissage Comment reconsidérer l espace des hypothèses Estce une tâche de reconnaissance de forme de caractères Comment coder les exemples Le choix de la représentation peut rendre l apprentissage trivial $ Mais comment faire ce choix

4 Exemples : apprentissage de jeu (1) 28 Exemples : apprentissage de jeu (2) 29 Exemples : apprentissage de jeu (3) 3 Que veuton apprendre! Les coups légaux! Choisir le meilleur coup légal COI(position) / connaissance des stratégies meilleurcoup! Chercher à apprendre à évaluer une position COI(position) / évaluation des positions meilleur coup Apprendre une fonction d évaluation des positions! E.g. V(pos.) = 1 si pos. est une position finale gagnante V(pos.) = 1 si pos. est une position finale perdante V(pos.) = si pos. est une position finale nulle V(pos.) = v où v est le meilleur score possible(par MinMax) en partant de pos. Mais estce apprenable Peuton en apprendre une approximation V! V Comment Exemples : apprentissage de jeu (4) 31 xemples : apprentissage de jeu (5) 32 Exemples : apprentissage de jeu (6) 33 Qu apprendon vraiment Représentations :! Fonction numérique : V (pos.) = w w 1.RN(pos.) w 2.RB(pos.) w 3.DN(pos.). w 6.PBM(pos.) où : RN = Roi Noir; RB = Roi Blanc ; DN = Dame Noire; PBM = Pièces Blanches Menacées! Table de hachage! Règles symboliques : Si Prédicats(pos.) alors coup =! Réseau de neurones!. $ L espace des hypothèses : Si mauvais choix de représentation (donc de l espace des hypothèses) $ Difficile voire impossible d apprendre Le choix des attributs de description est très important Idéalement on aimerait que l apprenant apprenne luimême la bonne représentation # Des pistes! Induction constructive! Sélection de modèles (de )! mais difficile Comment apprendre (Algorithme d apprentissage) E.g. Pour l apprentissage d une fonction numérique :! L apprenant utilise des exemples : pos. i V(pos. i )! Signal d erreur # i = [V(pos. i ) V (pos. i )] 2! Utilisation d un algorithme de descente de gradient stochastique (LMS) : Répéter jusqu à convergence : LMS Pour chaque exemple pos. i V(pos. i ) 1) Calculer le signal d erreur : # i 2) Pour chaque attribut C j, mise à jour du coefficient w j w j = w j $. C j. # i ($ pas d apprentissage) xemples : apprentissage de jeu (7) 34 Exemples : apprentissage de jeu (8) 35 Exemples : apprentissage de jeu (9) 36 Intuitivement : Si V est correcte sur l exemple pos. i : ne rien faire Si V surévalue la position : diminuer les coefficients proportionnellement aux attributs Si V sousévalue la position : augmenter les coefficients proportionnellement aux attributs Sous certaines conditions, cet algorithme converge vers une fonction minimisant l erreur quadratique par rapport à la fonction cible V Beaucoup d autres algorithmes voir suite du cours D! où viennent les exemples! Parties jouées contre soimême (la machine)! Parties jouées contre des joueurs lambda! Parties jouées contre des experts! Parties jouées contre UN expert! Parties tirées de livres! Possibilité d'utiliser une théorie deu (livre)!... $ Quel est le meilleur protocole Évaluation de l'apprentissage! Nombre de parties gagnées! Longueurs des parties jouées (avant échec)! Coût calcul nécessaire (temps de réflexion)! Qualité des coups joués! Théorie apprise communicable à un expert!

5 Exemple : reconnaissance de caractères manuscrits (1) 37 Exemple : reconnaissance de caractères (2) 38 Exemple : reconnaissance de caractères manuscrits (3) 39 Apprendre par coeur IMPOSSIBLE # Généraliser Extraction de caractéristiques (descripteurs, attributs)! Eliminer les descripteurs non pertinents Quel critère de performance (de succès)! Probabilité de misclassification! Risque Comment coder les formes! Introduction de nouveaux descripteurs! Nombre d erreurs b Utilisation de connaissances a priori Invariance par translation Invariance par changement d échelle istogrammes Combinaisons de descripteurs Apprentissage sur un échantillon d'apprentissage Test sur une base de test Erreur! Ajouter des descripteurs (beaucoup)!! Courbe d'apprentissage Taille échantillon Plusieurs niveaux d analyse 4 Types d apprentissages 41 L'induction supervisée Analyse de principe, de faisabilité : que peuton apprendre Sous quelles conditions sans référence à un algorithme particulier!! # Théories mathématiques en particulier de nature statistique 2. Niveau de la réalisation / simulation Comment apprendre! Algorithmes! Programmes! Réalisations et tests empiriques 1. Apprentissage supervisé À partir de l échantillon d apprentissage S = {(x i, u i )} 1,m on cherche une loi de dépendance sousjacente Par exemple une fonction h aussi proche possible de f (fonction cible) tq : u i = f(x i ) Ou bien une distribution de probabilités P(x i, u i ) afin de prédire l avenir Si f est une fonction continue! Régression! Estimation de densité Si f est une fonction discrète! Classification Si f est une fonction binaire (booléenne)! Apprentissage de concept Types d apprentissages 43 ypes d apprentissages 44 Le perceptron : structure Apprentissage non supervisé De l échantillon d apprentissage S = {(x i )} 1,m on cherche des régularités sousjacentes Sous forme d une fonction : régression Sous forme de nuages de points (e.g. mixture de gaussiennes) Sous forme d un modèle complexe (e.g. réseau bayésien) afin de résumer, détecter des régularités, comprendre 3. Apprentissage par renforcement Les données d apprentissage! Une séquence de perceptions, d actions et de récompenses : (s t, a t, r t ) t = 1, % Avec un renforcement r t r t peut sanctionner des actions très antérieures à t Le problème : inférer une application : situation perçue action afin de maximiser un gain sur le long terme Perception Récompense Environnement Apprentissage de réflexes... > apprentissage de planification Action x =1 x 1 x 2 x d w 1 w 2 w d w a =! w i.x i i =, d y = $ 1 si! w i.x > # i $ i=,d % sinon

6 Le perceptron : critère de performance 46 Le perceptron : algorithme 47 Le perceptron : Illustration 48 Critère d optimisation (fonction d erreur) :! Nb total d erreurs de classification : NON! Critère du Perceptron : Car nous voulons pour toutes les formes d apprentissage : # Proportionnel, pour toutes les formes mal classées, à la distance à la surface de décision w T x # $! < # Fonction continue et linéaire par morceaux % x & # $ ' 1 ' 2 Méthode d exploration de! Recherche par gradient Minimisation de la fonction d erreur Principe : procédure d'apprentissage dans l'esprit de la règle de ebb : ajouter à chaque connexion quelque chose de proportionnel à l'entrée et à la sortie. Apprentissage seulement si erreur de classification! Algorithme : si la forme est correctement classée : ne rien faire sinon : boucler sur les formes d apprentissage jusqu à critère d arrêt! Convergence w(t 1) = w(t)! x i u i Justification de l algorithme! Réduction de l erreur!w(t 1) T (x j ) =!w(t 1) T (x j )! (x j ) T (x j ) <! w(t) T (x j ) Le perceptron : que peuton apprendre 49 Le perceptron : convergence et capacité mémoire 5 Cours 1 : principes généraux de l induction 51 L espace d hypothèses : les séparatrices linéaires de yperplan d équation : (w T. x) w = Questions :! Qu estce qui est apprenable Résultat de [Minsky & Papert,68] : séparatrices linéaires! Garantie de convergence Théorème de convergence du Perceptron [Rosenblatt,62]! Fiabilité de l apprentissage et nombre d exemples Combien fautil d exemples d apprentissage pour avoir une certaine garantie sur ce qui est appris 1 Introduction à l induction 2 Approche(s) de l induction 3 Analyse du principe de minimisation du risque empirique 4 Les réseaux de neurones multicouches 5 Les SVMs 6 La validation empirique de l apprentissage 7 Analyse dans un cas moyen : l analyse bayésienne 8 Apprentissage par comité d experts e scénario de base 52 Définition formelle du problème 53 Apprendre prédiction dans 54 Environnement : distribution de prob. F(x) x 1, x 2,..., x m Oracle Apprenant : h (x) S m = (x 1,u 1 ), (x 2,u 2 ),..., (x m,u m ) ypothèse : les données empiriques caractérisent une dépendance probabiliste P entre l espace des descriptions et l espace Y des étiquettes! Z = (, Y) : variable aléatoire sur (&, B, P), où P est inconnue! S = {(x 1,u 1 ), (x 2,u 2 ), (x m,u m )} ( ' Y) m Échantillon d apprentissaged Les observation sont i.i.d. suivant P / Méthodes par plus proches voisins Nécessité d une notion de distance x 1, x 2,..., x m y 1, y 2,..., y m! : famille (éventuellement infinie) de fonctions h définies sur Espace des exemples : Objectif : prédire l étiquette y connaissant l observation x $ ypothèse de continuité dans

7 Apprendre = un jeu entre espaces 55 Le critère inductif 56 L exploration de 57 Cas particulier de l apprentissage de concepts L L Espace des exemples : L Espace des hypothèses : # Comment choisir l espace des hypothèses (i.e. le langage L ) x h # Quel critère re inductif # Qu estce qu une hypothèse optimale étant donné l échantillon d apprentissage x h # Quelle méthode d exploration de x h h x x h Trois ingrédients : trois questions 58 Critère de performance 59 Exemples de fonctions de perte 6 1. Quel critère re inductif Quelle hypothèse devraiton choisir étant donné l échantillon d apprentissage 2. Quel espace d hypothd hypothèses Quel espace d hypothèses est approprié 3. Comment explorer l espace l des hypothèses Résolution d un problème d optimisation Objectif : trouver une hypothèse h ( minimisant le risque réelr (espérance de risque, erreur en généralisation) Fonction de perte R(h) =!Y Étiquette prédite l ( h(x), u) dp(x, y) Étiquette vraie (ou désirée) Loi de probabilité jointe sur ' Y Discrimination si u i = h(x i ) l (h(x i ), u i ) = # $ 1 si u i! h(x i ) Régression Estimation de densité l (h(x i ), u i ) = [ h(x i )! u i ] 2 l (h(x i )) =! ln h(x i ) 61 (i) Le principe inductif ERM 62 (ii) Approche bayésienne Principe de minimisation du risque empirique (ERM) R(h) =!Y l ( h(x), u) dp(x, y) On suppose qu il existe une distribution de probabilités a priori sur l espace : p (h) 2. Principe du maximum de vraisemblance (approche bayésienne) On ne connaît pas le risque réel, en particulier pas la loi de probabilité P(,Y). Le principe ERM (minimisation du risque empirique) prescrit de chercher l hypothèse h ( minimisant le risque empirique Principe du Maximum A Posteriori (MAP): On cherche l hypothèse h la plus probable après observation des données S 3. Principe de compression maximale ( ) R Emp (h) = l h(x i ), u i m! i = 1! Exemple : le 11 septembre 21

8 (iii) Principe de compression maximale 64 Choix de l espace d hypothèses 65 Notion de biais 66 Inspiration : la théorie du codage de l informationl! Rasoir d Occam! On suppose qu il existe : un coût associé à la transmission d un d codage (modèle des données) : L(h) un coût associé à la transmission des données brutes (E.D. h) : L(x h)! On cherche le modèle (ou hypothèse) permettant la transmission la plus économique de l échantillon de données Apprendre (pour prédire) est impossible sans limitation sur l espace des hypothèses / h h x i h x i h x i h x i h h x i h h x i x i x h h x i x i h i x i h x i h x i h x i h x i x xi x h h x i h k j Toute connaissance qui restreint le champ des hypothèses que l'apprenant doit considérer à un instant donné. On ne peut pas apprendre sans biais Plus le biais est fort, plus l apprentissage est facile # Bien choisir le biais Espace des exemples : Espace des hypothèses : Choix de l espace d hypothèses 67 Résumé : définition d un problème d apprentissage 68 Relation d inclusion et relation de généralité 69 $ Il faut contrôler l expressivit expressivité de l espace d hypoth hypothèses Analyse statistique de l induction [Vapnik, ] Des acteurs! L environnement! L oracle! L apprenant Une tâche d apprentissaged un protocole d apprentissage Vers la généralisation couverture(h t1 ) h t1! Discrimination (ou classification multiclasses) / régression / estimation de densité Un principe inductif h t! ERM (et dérivés) / Bayésien / compression d information Un espace d hypothd hypothèses (avec sélection automatique) couverture(h t ) Terme dépendant de la «!richesse!» de $ Choix d une d méthode m d apprentissage d (et d un d algorithme) La relation de généralité induite dans 7 Le choix d une méthode d apprentissage 71 Autres critères de choix 72 Relation de généralité dans induite par la relation d'inclusion dans couverture(h 1) h 1 couverture(h 2) h 2 h 3 couverture(h 3) Dépend fondamentalement de l espace des hypothèses! Structuré par une relation de généralitg ralité (ordre partiel) # Toutes les méthodes guidées par cette relation Espace des versions PLI (Programmation Logique Inductive) EBL, reformulation en général et révision de théorie Inférence grammaticale! Seulement une notion de voisinage dans # Méthodes de «!gradient!» Réseaux de neurones / SVMs Recuit simulé / algorithmes d évolution simulée Réseaux bayésiens / MMs! Pas d espace d d hypothd hypothèses # Méthodes de plus proches voisins (Raisonnement par cas / Instancebased learning) x h gms(h i, h j) h i smg(h i, h j) h j Intelligibilité des résultats (hypothèses produites)! E.g. exit les réseaux de neurones Performances en généralisation! Pas toujours en adéquation totale avec le point précédent Coûts! de préparation (des données)! coût computationnel (coût d une passe et nombre de passes nécessaires, )! coût de l expertise en apprentissage! coût de l expertise sur le domaine

9 Approche actuelle : les limites 73 Perspective historique (1) 74 Perspective historique (2) 75 L é état de l art actuel en apprentissage:! Données i.i.d. (indépendant et identiquement distribué)! Distribution statique! Données étiquetées! Classes approximativement équilibrées Versus e.g. les besoins de la robotique! Données résultant : Discriminant linéaire (Fisher) Turing (naissance de l'informatique) Expériences : tortues cybernétiques Perceptron Reconnaissance des Formes : Théorie de la décision bayésienne Systèmes dédiés à une tâche : inspiration psychologique ARC AM METADENDRAL Apprentissage artificiel : une explosion Induction supervisée Arbres de décision Algorithmes génétiques ExplanationBased Learning Raisonnement par cas 2 ème connexionnisme De séquences D un apprentissage actif! Contexte changeant Données non i.i.d. 2s s 6s s 8s! Pauvrement étiquetées Perspective historique (2') 76 Perspective historique (3) 77 Perspective historique (4) 78 Systèmes à usage industriels Apprentissage artificiel : une théorisation et une mise à l'épreuve Maintenant! Domination sans partage du paradigme dominant Apprentissage comme estimation / approximation de fonction Données supposées tirées aléatoirement Nouveau principe inductif : toujours prendre en compte l'espace d'hypothèses Théorie de Vapnik Nouvelles méthodes : SVMs Boosting Data mining Text mining! Nouvelles techniques d'apprentissage issues de la théorie Séparateurs à Vastes Marges (SVM : Support Vector Machines) Boosting! Prépondérance des applications de fouille dans les grandes bases de données s s Peu structurées Données fournies en vrac # Nouvelles mesures de performance Perspective historique : l'avenir 79 Demain! Retour vers des problèmes à données plus structurées Exploration automatique de la toile (structure à tous les niveaux : grammatical, séquence, texte, discours, culture)! Nouveaux aspects Nouvelles demandes : Systèmes à longue durée de vie Aide à l'éducation Apprentissage collectif Incrémentalité Transferts d'une tâche à une autre, d'un domaine à un autre, d'un agent à un autre # Nouveaux problèmes # Nouvelles techniques

Apprentissage Automatique

Apprentissage Automatique Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs

Plus en détail

Pourquoi l apprentissage?

Pourquoi l apprentissage? Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage

Plus en détail

Coup de Projecteur sur les Réseaux de Neurones

Coup de Projecteur sur les Réseaux de Neurones Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane

Plus en détail

L apprentissage automatique

L apprentissage automatique L apprentissage automatique L apprentissage automatique L'apprentissage automatique fait référence au développement, à l analyse et à l implémentation de méthodes qui permettent à une machine d évoluer

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme

Plus en détail

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com

Intelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com Intelligence Artificielle et Systèmes Multi-Agents Badr Benmammar bbm@badr-benmammar.com Plan La première partie : L intelligence artificielle (IA) Définition de l intelligence artificielle (IA) Domaines

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Algorithmes d'apprentissage

Algorithmes d'apprentissage Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt

Plus en détail

Calculabilité Cours 3 : Problèmes non-calculables. http://www.irisa.fr/lande/pichardie/l3/log/

Calculabilité Cours 3 : Problèmes non-calculables. http://www.irisa.fr/lande/pichardie/l3/log/ Calculabilité Cours 3 : Problèmes non-calculables http://www.irisa.fr/lande/pichardie/l3/log/ Problèmes et classes de décidabilité Problèmes et classes de décidabilité Nous nous intéressons aux problèmes

Plus en détail

Data Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

Data Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto. des des Data Mining Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne 2012-2013 1/65 des des 1 2 des des 3 4 Post-traitement 5 représentation : 6 2/65 des des Définition générale Le

Plus en détail

Programme scientifique Majeure INTELLIGENCE NUMERIQUE. Mentions Image et Réalité Virtuelle Intelligence Artificielle et Robotique

Programme scientifique Majeure INTELLIGENCE NUMERIQUE. Mentions Image et Réalité Virtuelle Intelligence Artificielle et Robotique É C O L E D I N G É N I E U R D E S T E C H N O L O G I E S D E L I N F O R M A T I O N E T D E L A C O M M U N I C A T I O N Programme scientifique Majeure INTELLIGENCE NUMERIQUE Langage Java Mentions

Plus en détail

NON-LINEARITE ET RESEAUX NEURONAUX

NON-LINEARITE ET RESEAUX NEURONAUX NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail

Plus en détail

Transmission d informations sur le réseau électrique

Transmission d informations sur le réseau électrique Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

Cours 1 : Qu est-ce que la programmation?

Cours 1 : Qu est-ce que la programmation? 1/65 Introduction à la programmation Cours 1 : Qu est-ce que la programmation? Yann Régis-Gianas yrg@pps.univ-paris-diderot.fr Université Paris Diderot Paris 7 2/65 1. Sortez un appareil qui peut se rendre

Plus en détail

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie...

Probabilité. Table des matières. 1 Loi de probabilité 2 1.1 Conditions préalables... 2 1.2 Définitions... 2 1.3 Loi équirépartie... 1 Probabilité Table des matières 1 Loi de probabilité 2 1.1 Conditions préalables........................... 2 1.2 Définitions................................. 2 1.3 Loi équirépartie..............................

Plus en détail

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57 Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation

Plus en détail

Le Data Mining au service du Scoring ou notation statistique des emprunteurs!

Le Data Mining au service du Scoring ou notation statistique des emprunteurs! France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Introduction au datamining

Introduction au datamining Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

Apprentissage. Intelligence Artificielle NFP106 Année 2012-2013. Plan. Apprentissage. Apprentissage

Apprentissage. Intelligence Artificielle NFP106 Année 2012-2013. Plan. Apprentissage. Apprentissage Intelligence Artificielle NFP106 Année 2012-2013 Apprentissage! F.-Y. Villemin! Plan! Apprentissage! Induction! Règles d'inférence inductive! Apprentissage de concepts!! Arbres de décision! ID3! Analogie

Plus en détail

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Année académique 2006-2007 Professeurs : Marco Saerens Adresse : Université catholique de Louvain Information Systems

Plus en détail

Objectifs du cours d aujourd hui. Informatique II : Cours d introduction à l informatique et à la programmation objet. Complexité d un problème (2)

Objectifs du cours d aujourd hui. Informatique II : Cours d introduction à l informatique et à la programmation objet. Complexité d un problème (2) Objectifs du cours d aujourd hui Informatique II : Cours d introduction à l informatique et à la programmation objet Complexité des problèmes Introduire la notion de complexité d un problème Présenter

Plus en détail

Cours de Master Recherche

Cours de Master Recherche Cours de Master Recherche Spécialité CODE : Résolution de problèmes combinatoires Christine Solnon LIRIS, UMR 5205 CNRS / Université Lyon 1 2007 Rappel du plan du cours 16 heures de cours 1 - Introduction

Plus en détail

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

Chapitre 6 Apprentissage des réseaux de neurones et régularisation Chapitre 6 : Apprentissage des réseaux de neurones et régularisation 77 Chapitre 6 Apprentissage des réseaux de neurones et régularisation Après une introduction rapide aux réseaux de neurones et à la

Plus en détail

Agenda de la présentation

Agenda de la présentation Le Data Mining Techniques pour exploiter l information Dan Noël 1 Agenda de la présentation Concept de Data Mining ou qu est-ce que le Data Mining Déroulement d un projet de Data Mining Place du Data Mining

Plus en détail

Apprentissage par renforcement (1a/3)

Apprentissage par renforcement (1a/3) Apprentissage par renforcement (1a/3) Bruno Bouzy 23 septembre 2014 Ce document est le chapitre «Apprentissage par renforcement» du cours d apprentissage automatique donné aux étudiants de Master MI, parcours

Plus en détail

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques

Plus en détail

Spécificités, Applications et Outils

Spécificités, Applications et Outils Spécificités, Applications et Outils Ricco Rakotomalala Université Lumière Lyon 2 Laboratoire ERIC Laboratoire ERIC 1 Ricco Rakotomalala ricco.rakotomalala@univ-lyon2.fr http://chirouble.univ-lyon2.fr/~ricco/data-mining

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Améliorer les performances du site par l'utilisation de techniques de Web Mining

Améliorer les performances du site par l'utilisation de techniques de Web Mining Améliorer les performances du site par l'utilisation de techniques de Web Mining CLUB SAS 2001 17/18 octobre 2001 Stéfan Galissie LINCOLN stefan.galissie@lincoln.fr contact@web-datamining.net 2001 Sommaire

Plus en détail

Soutenance de stage Laboratoire des Signaux et Systèmes

Soutenance de stage Laboratoire des Signaux et Systèmes Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Fonction de hachage et signatures électroniques

Fonction de hachage et signatures électroniques Université de Limoges, XLIM-DMI, 123, Av. Albert Thomas 87060 Limoges Cedex France 05.55.45.73.10 pierre-louis.cayrel@xlim.fr Licence professionnelle Administrateur de Réseaux et de Bases de Données IUT

Plus en détail

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Une comparaison de méthodes de discrimination des masses de véhicules automobiles p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans

Plus en détail

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1

Christophe CANDILLIER Cours de DataMining mars 2004 Page 1 Christophe CANDILLIER Cours de DataMining mars 2004 age 1 1. Introduction 2. rocessus du DataMining 3. Analyse des données en DataMining 4. Analyse en Ligne OLA 5. Logiciels 6. Bibliographie Christophe

Plus en détail

Traitement bas-niveau

Traitement bas-niveau Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.

Plus en détail

5. Apprentissage pour le filtrage collaboratif

5. Apprentissage pour le filtrage collaboratif 686 PARTIE 5 : Au-delà de l apprentissage supervisé 5. Apprentissage pour le filtrage collaboratif Il semble que le nombre de choix qui nous sont ouverts augmente constamment. Films, livres, recettes,

Plus en détail

Modélisation multi-agents - Agents réactifs

Modélisation multi-agents - Agents réactifs Modélisation multi-agents - Agents réactifs Syma cursus CSI / SCIA Julien Saunier - julien.saunier@ifsttar.fr Sources www-lih.univlehavre.fr/~olivier/enseignement/masterrecherche/cours/ support/algofourmis.pdf

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Recherche De Coalescences Binaires Étalonnage Du Détecteur

Recherche De Coalescences Binaires Étalonnage Du Détecteur Recherche De Coalescences Binaires Étalonnage Du Détecteur Fabrice Beauville Journées Jeunes Chercheurs 18/12/2003 Les Coalescences Binaires & VIRGO Système binaire d objets compacts (étoiles à neutrons,

Plus en détail

TD : Codage des images

TD : Codage des images TD : Codage des images Les navigateurs Web (Netscape, IE, Mozilla ) prennent en charge les contenus textuels (au format HTML) ainsi que les images fixes (GIF, JPG, PNG) ou animée (GIF animée). Comment

Plus en détail

Sécurité par compression! ReSIST 2010. Gilles RICHARD IRIT www.irit.fr/bite www.bite.ac.uk

Sécurité par compression! ReSIST 2010. Gilles RICHARD IRIT www.irit.fr/bite www.bite.ac.uk Sécurité par compression! ReSIST 2010 Gilles RICHARD IRIT www.irit.fr/bite www.bite.ac.uk Introduction Sécurité.. intrusion réseau, attaques (DoS,DDoS etc.) virus, etc... spams code injection (SQL,XSS,CSRF,...)

Plus en détail

Annexe 6. Notions d ordonnancement.

Annexe 6. Notions d ordonnancement. Annexe 6. Notions d ordonnancement. APP3 Optimisation Combinatoire: problèmes sur-contraints et ordonnancement. Mines-Nantes, option GIPAD, 2011-2012. Sophie.Demassey@mines-nantes.fr Résumé Ce document

Plus en détail

Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining.

Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining. 2 jours : Mardi 15 et mercredi 16 novembre 2005 de 9 heures 30 à 17 heures 30 Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining. Madame, Monsieur, On parle

Plus en détail

Attitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014

Attitude des ménages face au risque. M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014 Attitude des ménages face au risque - M1 - Arnold Chassagnon, Université de Tours, PSE - Automne 2014 Plan du cours 1. Introduction : demande de couverture et comportements induits pa 2. Représentations

Plus en détail

MIS 102 Initiation à l Informatique

MIS 102 Initiation à l Informatique MIS 102 Initiation à l Informatique Responsables et cours : Cyril Gavoille Catherine Pannier Matthias Robine Marc Zeitoun Planning : 6 séances de cours 5 séances de TD (2h40) 4 séances de TP (2h40) + environ

Plus en détail

Intelligence Artificielle et Robotique

Intelligence Artificielle et Robotique Intelligence Artificielle et Robotique Introduction à l intelligence artificielle David Janiszek david.janiszek@parisdescartes.fr http://www.math-info.univ-paris5.fr/~janiszek/ PRES Sorbonne Paris Cité

Plus en détail

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall L utilisation d un réseau de neurones pour optimiser la gestion d un firewall Réza Assadi et Karim Khattar École Polytechnique de Montréal Le 1 mai 2002 Résumé Les réseaux de neurones sont utilisés dans

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Jade. Projet Intelligence Artificielle «Devine à quoi je pense»

Jade. Projet Intelligence Artificielle «Devine à quoi je pense» Jade Projet Intelligence Artificielle «Devine à quoi je pense» Réalisé par Djénéba Djikiné, Alexandre Bernard et Julien Lafont EPSI CSII2-2011 TABLE DES MATIÈRES 1. Analyse du besoin a. Cahier des charges

Plus en détail

Laboratoire 4 Développement d un système intelligent

Laboratoire 4 Développement d un système intelligent DÉPARTEMENT DE GÉNIE LOGICIEL ET DES TI LOG770 - SYSTÈMES INTELLIGENTS ÉTÉ 2012 Laboratoire 4 Développement d un système intelligent 1 Introduction Ce quatrième et dernier laboratoire porte sur le développement

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

COORDINATION NON COOPÉRATIVE: MÉTHODES D ENCHÈRES

COORDINATION NON COOPÉRATIVE: MÉTHODES D ENCHÈRES COORDINATION NON COOPÉRATIVE: MÉTHODES D ENCHÈRES Cours 6c Principe Protocole centralisé, un commissaire-priseur/vendeur (auctioneer) et plusieurs enchérisseurs/acheteurs (bidders) Le commissaire-priseur

Plus en détail

Mesure agnostique de la qualité des images.

Mesure agnostique de la qualité des images. Mesure agnostique de la qualité des images. Application en biométrie Christophe Charrier Université de Caen Basse-Normandie GREYC, UMR CNRS 6072 Caen, France 8 avril, 2013 C. Charrier NR-IQA 1 / 34 Sommaire

Plus en détail

Introduction. Informatique décisionnelle et data mining. Data mining (fouille de données) Cours/TP partagés. Information du cours

Introduction. Informatique décisionnelle et data mining. Data mining (fouille de données) Cours/TP partagés. Information du cours Information du cours Informatique décisionnelle et data mining www.lia.univ-avignon.fr/chercheurs/torres/cours/dm Juan-Manuel Torres juan-manuel.torres@univ-avignon.fr LIA/Université d Avignon Cours/TP

Plus en détail

L'intelligence d'affaires: la statistique dans nos vies de consommateurs

L'intelligence d'affaires: la statistique dans nos vies de consommateurs L'intelligence d'affaires: la statistique dans nos vies de consommateurs Jean-François Plante, HEC Montréal Marc Fredette, HEC Montréal Congrès de l ACFAS, Université Laval, 6 mai 2013 Intelligence d affaires

Plus en détail

Algorithmique des Systèmes Répartis Protocoles de Communications

Algorithmique des Systèmes Répartis Protocoles de Communications Algorithmique des Systèmes Répartis Protocoles de Communications Master Informatique Dominique Méry Université de Lorraine 1 er avril 2014 1 / 70 Plan Communications entre processus Observation et modélisation

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12

Probabilités. Rappel : trois exemples. Exemple 2 : On dispose d un dé truqué. On sait que : p(1) = p(2) =1/6 ; p(3) = 1/3 p(4) = p(5) =1/12 Probabilités. I - Rappel : trois exemples. Exemple 1 : Dans une classe de 25 élèves, il y a 16 filles. Tous les élèves sont blonds ou bruns. Parmi les filles, 6 sont blondes. Parmi les garçons, 3 sont

Plus en détail

Tâche complexe produite par l académie de Clermont-Ferrand. Mai 2012 LE TIR A L ARC. (d après une idée du collège des Portes du Midi de Maurs)

Tâche complexe produite par l académie de Clermont-Ferrand. Mai 2012 LE TIR A L ARC. (d après une idée du collège des Portes du Midi de Maurs) (d après une idée du collège des Portes du Midi de Maurs) Table des matières Fiche professeur... 2 Fiche élève... 5 1 Fiche professeur Niveaux et objectifs pédagogiques 5 e : introduction ou utilisation

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Détection et reconnaissance des sons pour la surveillance médicale Dan Istrate le 16 décembre 2003 Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Thèse mené dans le cadre d une collaboration

Plus en détail

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes. Introduction L'objectif de mon TIPE est la reconnaissance de sons ou de notes de musique à l'aide d'un réseau de neurones. Ce réseau doit être capable d'apprendre à distinguer les exemples présentés puis

Plus en détail

Utilisation d informations visuelles dynamiques en asservissement visuel Armel Crétual IRISA, projet TEMIS puis VISTA L asservissement visuel géométrique Principe : Réalisation d une tâche robotique par

Plus en détail

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories : La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.

Plus en détail

Polynômes à plusieurs variables. Résultant

Polynômes à plusieurs variables. Résultant Polynômes à plusieurs variables. Résultant Christophe Ritzenthaler 1 Relations coefficients-racines. Polynômes symétriques Issu de [MS] et de [Goz]. Soit A un anneau intègre. Définition 1.1. Soit a A \

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI 1 Déroulement d un projet en DATA MINING, préparation et analyse des données Walid AYADI 2 Les étapes d un projet Choix du sujet - Définition des objectifs Inventaire des données existantes Collecte, nettoyage

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Logiciel Libre Cours 3 Fondements: Génie Logiciel

Logiciel Libre Cours 3 Fondements: Génie Logiciel Logiciel Libre Cours 3 Fondements: Génie Logiciel Stefano Zacchiroli zack@pps.univ-paris-diderot.fr Laboratoire PPS, Université Paris Diderot 2013 2014 URL http://upsilon.cc/zack/teaching/1314/freesoftware/

Plus en détail

Traitement et exploration du fichier Log du Serveur Web, pour l extraction des connaissances: Web Usage Mining

Traitement et exploration du fichier Log du Serveur Web, pour l extraction des connaissances: Web Usage Mining Traitement et exploration du fichier Log du Serveur Web, pour l extraction des connaissances: Web Usage Mining Mostafa HANOUNE*, Fouzia BENABBOU* *Université Hassan II- Mohammedia, Faculté des sciences

Plus en détail

DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10.

DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. A1 Trouvez l entier positif n qui satisfait l équation suivante: Solution 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. En additionnant les termes du côté gauche de l équation en les mettant sur le même dénominateur

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Travaux pratiques avec RapidMiner

Travaux pratiques avec RapidMiner Travaux pratiques avec RapidMiner Master Informatique de Paris 6 Spécialité IAD Parcours EDOW Module Algorithmes pour la Fouille de Données Janvier 2012 Prise en main Généralités RapidMiner est un logiciel

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Travailler avec les télécommunications

Travailler avec les télécommunications Travailler avec les télécommunications Minimiser l attrition dans le secteur des télécommunications Table des matières : 1 Analyse de l attrition à l aide du data mining 2 Analyse de l attrition de la

Plus en détail

Théorie des Graphes Cours 3: Forêts et Arbres II / Modélisation

Théorie des Graphes Cours 3: Forêts et Arbres II / Modélisation IFIPS S7 - informatique Université Paris-Sud 11 1er semestre 2009/2010 Théorie des Graphes Cours 3: Forêts et Arbres II / 1 Forêts et arbres II Théorème 1.1. Les assertions suivantes sont équivalentes

Plus en détail

Partenaires: w w w. c o g m a s t e r. n e t

Partenaires: w w w. c o g m a s t e r. n e t Partenaires: w w w. c o g m a s t e r. n e t Une approche interdisciplinaire et intégrative neuropsychologie psychologie neuroanatomie linguistique philosophie SCIENCES COGNITIVES logique/probas neurosciences

Plus en détail

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous

Plus en détail

données en connaissance et en actions?

données en connaissance et en actions? 1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)

Plus en détail

Echantillonnage Non uniforme

Echantillonnage Non uniforme Echantillonnage Non uniforme Marie CHABERT IRIT/INP-ENSEEIHT/ ENSEEIHT/TéSASA Patrice MICHEL et Bernard LACAZE TéSA 1 Plan Introduction Echantillonnage uniforme Echantillonnage irrégulier Comparaison Cas

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses 6. Hachage Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses PLAN Définition Fonctions de Hachage Méthodes de résolution de collisions Estimation

Plus en détail

Évaluation et implémentation des langages

Évaluation et implémentation des langages Évaluation et implémentation des langages Les langages de programmation et le processus de programmation Critères de conception et d évaluation des langages de programmation Les fondations de l implémentation

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Druais Cédric École Polytechnique de Montréal. Résumé

Druais Cédric École Polytechnique de Montréal. Résumé Étude de load balancing par un réseau de neurones de types HME (Hierarchical Mixture of s). Druais Cédric École Polytechnique de Montréal Résumé Cet article tente d introduire le principe de load balancing

Plus en détail

P1 : Corrigés des exercices

P1 : Corrigés des exercices P1 : Corrigés des exercices I Exercices du I I.2.a. Poker : Ω est ( l ensemble ) des parties à 5 éléments de l ensemble E des 52 cartes. Cardinal : 5 I.2.b. Bridge : Ω est ( l ensemble ) des parties à

Plus en détail

Master IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP

Master IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP Master IMA - UMPC Paris 6 RDMM - Année 2009-200 Fiche de TP Préliminaires. Récupérez l archive du logiciel de TP à partir du lien suivant : http://www.ensta.fr/~manzaner/cours/ima/tp2009.tar 2. Développez

Plus en détail

Extrait des Exploitations Pédagogiques

Extrait des Exploitations Pédagogiques Pédagogiques Module : Compétitivité et créativité CI Première : Compétitivité et créativité CI institutionnel : Développement durable et compétitivité des produits Support : Robot - O : Caractériser les

Plus en détail

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01

Plus en détail

IODAA. de l 1nf0rmation à la Décision par l Analyse et l Apprentissage / 21

IODAA. de l 1nf0rmation à la Décision par l Analyse et l Apprentissage / 21 IODAA de l 1nf0rmation à la Décision par l Analyse et l Apprentissage IODAA Informations générales 2 Un monde nouveau Des données numériques partout en croissance prodigieuse Comment en extraire des connaissances

Plus en détail

Big Data et Graphes : Quelques pistes de recherche

Big Data et Graphes : Quelques pistes de recherche Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université

Plus en détail