Master 2 Recherche Apprentissage Statistique et Optimisation



Documents pareils
Coup de Projecteur sur les Réseaux de Neurones

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall

Druais Cédric École Polytechnique de Montréal. Résumé

Modélisation du comportement habituel de la personne en smarthome

Optimisation de la compression fractale D images basée sur les réseaux de neurones

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

données en connaissance et en actions?

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

Grégoire de Lassence. Copyright 2006, SAS Institute Inc. All rights reserved.

Rappels sur les suites - Algorithme

Apprentissage Automatique

Classification Automatique de messages : une approche hybride

Protocoles cryptographiques

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

NON-LINEARITE ET RESEAUX NEURONAUX

SAS ENTERPRISE MINER POUR L'ACTUAIRE

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.

Utilisation des tableaux sémantiques dans les logiques de description

Factorisation d entiers (première partie)

Détection de la défaillance des entreprises tunisiennes par la régression logistique semi paramétrique et les réseaux de neurones

Haka : un langage orienté réseaux et sécurité

Simon Lacoste-Julien Chercheur CR Équipe-Projet SIERRA, INRIA - École Normale Supérieure

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://

Formation Actuaire Data Scientist. Programme au 24 octobre 2014

4.2 Unités d enseignement du M1

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Data Mining. Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

Texte Agrégation limitée par diffusion interne

Introduction au Data-Mining

Outrepasser les limites des techniques classiques de Prise d'empreintes grâce aux Réseaux de Neurones

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

SudoClick Reconnaissance de grilles de sudoku pour téléphones portables

Apport de l information temporelle des contextes pour la représentation vectorielle continue des mots

(51) Int Cl.: H04L 29/06 ( ) G06F 21/55 ( )

Outils pour les réseaux de neurones et contenu du CD-Rom


MASTER SIS PRO : logique et sécurité DÉTECTION D INTRUSIONS. Odile PAPINI, LSIS. Université de Toulon et du Var. papini@univ-tln.

Plus courts chemins, programmation dynamique

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

Remerciements : Avant tout, louange à Dieu le tout puissant de m avoir aidé et permis d achever ce modeste travail.

Masters Spécialisés «Actuariat et Prévoyance» et «Actuariat et Finance»

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Arbres binaires de décision

Chapitre 5 : Flot maximal dans un graphe

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Formula Negator, Outil de négation de formule.

Pour les futurs développeurs Sommaire

Filtrage stochastique non linéaire par la théorie de représentation des martingales

CAPTEURS - CHAINES DE MESURES

Cycle de vie du logiciel. Unified Modeling Language UML. UML: définition. Développement Logiciel. Salima Hassas. Unified Modeling Language

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Introduction au Data-Mining

Présentation du logiciel

Laboratoire d Automatique et Productique Université de Batna, Algérie

de calibration Master 2: Calibration de modèles: présentation et simulation d

modèles génériques applicables à la synthèse de contrôleurs discrets pour l Internet des Objets

Modélisation de l interprétation des pianistes & Applications d auto-encodeurs sur des modèles temporels

La classification automatique de données quantitatives

Annexe commune aux séries ES, L et S : boîtes et quantiles

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Rapport d activité. Mathieu Souchaud Juin 2007

La place de SAS dans l'informatique décisionnelle

LES OUTILS D ALIMENTATION DU REFERENTIEL DE DB-MAIN

Conception de réseaux de télécommunications : optimisation et expérimentations

K. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre Palaiseau

I Stabilité, Commandabilité et Observabilité Introduction Un exemple emprunté à la robotique Le plan Problème...

Cours de Master Recherche

Initiation à LabView : Les exemples d applications :

Annexe 6. Notions d ordonnancement.

Analyse de la vidéo. Chapitre La modélisation pour le suivi d objet. 10 mars Chapitre La modélisation d objet 1 / 57

TEXT MINING von 7

Contrôle stochastique d allocation de ressources dans le «cloud computing»

Techniques du Data Mining pour la prédiction de faillite des entreprises et la gestion du risque de crédit

Théorie et Codage de l Information (IF01) exercices Paul Honeine Université de technologie de Troyes France

Evaluation des performances de programmes parallèles haut niveau à base de squelettes

Introduction aux outils BI de SQL Server Fouille de données avec SQL Server Analysis Services (SSAS)

Machines virtuelles Cours 1 : Introduction

Classe de première L

Algorithmique des Systèmes Répartis Protocoles de Communications

Programmes des classes préparatoires aux Grandes Ecoles

L apprentissage automatique

Correction du baccalauréat ES/L Métropole 20 juin 2014

ANALYSE STATISTIQUE PRÉDICTIVE

Apprentissage des performances, surveillance en temps réel et contrôle d admission d un serveur Web utilisant les techniques neuronales

Filière Informatique de gestion. Facturation par APDRG : prédiction des recettes des cas non codés

Cours d algorithmique pour la classe de 2nde

Exercices - Polynômes : corrigé. Opérations sur les polynômes

FOSMOR Fooo Optical Sheet Music Recognition

Laboratoire 4 Développement d un système intelligent

Bases de données documentaires et distribuées Cours NFE04

La sécurité des réseaux. 9e cours 2014 Louis Salvail

Algorithme. Table des matières

Définition et diffusion de signatures sémantiques dans les systèmes pair-à-pair

Cryptologie et physique quantique : Espoirs et menaces. Objectifs 2. distribué sous licence creative common détails sur

TABLE DES MATIERES. C Exercices complémentaires 42

Les technologies du Big Data

Apprentissage artificiel pour l ordonnancement des tâches dans les grilles de calcul

Transcription:

Master 2 Recherche Apprentissage Statistique et Optimisation François Yvon Michèle Sebag Alexandre Allauzen Marc Schoenauer http://www.limsi.fr/individu/allauzen/wiki/index.php/tsi09 http://tao.lri.fr/tiki-index.php 21 octobre 2010: Réseaux Neuronaux, 2

Réseaux Neuronaux Artificiels Réseaux classiques 1. Histoire Neurones logiques/non supervisés Perceptron, Adaline: algorithmes L hiver des NN: limites théoriques Perceptron Multi-couches: algorithme et limites algorithmiques 2. Structure du réseau et apprentissage

Types de réseaux neuronaux Ingrédients Une fonction d activation Un ensemble de neurones connectés (graphe orienté) feedforward ( DAG) ou récurrent Un poids sur chaque connexion Fonction d activation(z) à seuil linéaire 0 si z < seuil, 1 sinon sigmoide 1/(1 + e z ) Radius e z2 /σ 2 z

Types de réseaux neuronaux, 2 Ingrédients Une fonction d activation Un ensemble de neurones connectés (graphe orienté) feedforward ( DAG) ou récurrent Un poids sur chaque connexion Structure feedforward

Types de réseaux neuronaux, 2 Ingrédients Une fonction d activation Un ensemble de neurones connectés (graphe orienté) feedforward ( DAG) ou récurrent Un poids sur chaque connexion Structure récurrente Propager ; attendre la stabilisation Retro-propagation inapplicable Le système a une mémoire (valeur des neurones cachés) Hum. La mémoire s efface exponentiellement vite Données dynamiques (video)

Structure / Graphe de connexion / Topologie Connaissances a priori Invariance par translation, rotation,.. op Etendre E considérer (op(x i ), y i ) ou partager les poids: Réseau convolutionnel 100,000 poids 2,600 paramètres Couche 1: detection de features, e.g. un trait; Couche 2: moyennage et sous-echantillonnage: une fois qu une feature a été détectée, sa position exacte est moins importante, tant que la position relative par rapport aux autres features est préservée. Plus: http://yann.lecun.com/exdb/lenet/

Propriétés Good news MLP, RBF: approximateurs universels Pour toute fonction f raisonnable (de carré intégrable sur un compact), pour tout ɛ > 0, il existe un MLP/RBF approchant f avec la précision ɛ. Bad news Ce résultat n est pas constructif. (i.e. il existe; so what). On peut avoir tout ce qu on veut; on peut avoir n importe quoi (sur-apprentissage).

Questions centrales Sélection de modèles Choix de nombre de neurones, de la topologie,... Choix de critère PLUS MIEUX overfitting Choix algorithmiques un pb d optim. difficile Initialisation w petit! Décroissance du pas Utilisation d un momentum Critère d arrêt w neo (1 α)w old + αw neo relaxation Commencer par centrer normer les données, naturellement x x moyenne variance

Les NN: La malédiction http://videolectures.net/eml07 lecun wia/

Quelques bonnes adresses Quelques liens un cours: http://neuron.tuke.sk/math.chtf.stuba.sk/pub/ vlado/nn_books_texts/krose_smagt_neuro-intro.pdf une FAQ: http://www.faqs.org/faqs/ai-faq/ neural-nets/part1/preamble.html des applets http://www.lri.fr/~marc/eeaax/neurones/tutorial/ des implémentations: PDP++/Emergent (www.cnbc.cmu.edu/pdp++/); SNNS http: //www-ra.informatik.uni-tuebingen.de/sgnns/... Voir aussi NEAT & HyperNEAT When no examples available: e.g. robotics. Stanley, U. Texas

Réseaux Neuronaux 1. Pourquoi? 2. Réseaux classiques 3. Quelques applications 4. Réseaux modernes: profonds, à échos, impulsionnels, liquides... 5. Pistes de recherche fraiches

Applications 1. Reconnaissance de chiffres manuscrits 2. Reconnaissance de visages, de piétons 3. Contrôle (conduite de véhicule,..) 4. Language

Philosophie Conception, la voie royale Décomposer un système en modules élémentaires de telle sorte que chacun d entre eux puisse être spécifié, réalisé et testé aisément. Pourquoi faire autrement?

Philosophie Conception, la voie royale Décomposer un système en modules élémentaires de telle sorte que chacun d entre eux puisse être spécifié, réalisé et testé aisément. Pourquoi faire autrement? Quand on ne peut pas faire autrement (reconnaitre un visage) ou quand le monde est ouvert ou quand ca prend trop longtemps Preuves de principe speech & hand-writing recognition: avec assez de données, des algorithmes d apprentissage peuvent construire des systèmes complexes de bonne qualité. hand-crafting learning

Reconnaissance de chiffres manuscrits Caractéristiques Taille input d: quelques centaines beaucoup de poids :-( Connaissance a priori: la classe ne change pas par (petites) translation, rotation, homothétie, des données

Réseaux convolutionnels Lecture http://yann.lecun.com/exdb/lenet/ Y. LeCun and Y. Bengio. Convolutional networks for images, speech, and time-series. In M. A. Arbib, editor, The Handbook of Brain Theory and Neural Networks. MIT Press, 1995.

Reconnaissance de visages

Reconnaissance de visages Difficultés : Variabilité Pose Elements: lunettes, barbe,... Eclairage Expression Orientation Et occlusions http://www.ai.mit.edu/courses/6.891/lectnotes/lect12/lect12- slides-6up.pdf

Reconnaissance de visages, 2 Une équation 1 réseau NN rapides

Reconnaissance de visages, 3

Controle de véhicule Lectures, Video http://www.cs.nyu.edu/ yann/research/dave/index.html

Modèles continus de langage Principe Input: 10,000 input booleens les mots de la phrase Neurones cachés: 500 neurones numériques But: En fonction des mots d une fenêtre m 1,...m 2k+1, apprendre Le genre grammatical du mot central mk Le mot suivant m 2k+2 Rq: La première couche: { fragments de phrase } IR 500 Bengio et al. 2001

Modèles continus de langage, Collobert et al. 2008 videolectures

Modèles continus de langage, Collobert et al. 2008

Modèles continus de langage, Collobert et al. 2008

Modèles continus de langage, Collobert et al. 2008

Modèles continus de langage, Collobert et al. 2008

Modèles continus de langage, Collobert et al. 2008

Réseaux Neuronaux 1. Pourquoi? 2. Réseaux classiques 3. Quelques applications 4. Réseaux modernes: profonds, à échos, impulsionnels, liquides... 5. Pistes de recherche fraiches

Réseaux profonds Bengio 2006

Echo State Networks Jaeger 2001 NIPS 2005 Wshop, Reservoir Computing = Echo State Network, [Jaeger 2001] Liquid State Machine, [Maas 2002] Structure N neurones cachés Connexions: aléatoires matrice G p(x i, x j ) connectés = r, r << 1 Poids: aléatoires: 1, -1, 0. Stabilité: max. valeur propre de G (damping factor) < 1 Neurones de sortie: combinaison linéaire.

Echo State Networks, 2 A revolution The end of micro-management for NN (only ρ and λ) Training (e.g. for regression) through quadratic optimization More: On computational power and the Order Chaos: Phase Transition in Reservoir Computing, Benjamin Schrauder, Lars Büsing and Robert Legenstein, NIPS 2008.

Zone de compétence des Echo State Networks Tâche Input: une séquence de bits Output désiré: la parité des τ derniers bits (non séparables, mémoire nécessaire) K: nombre de connexions d un neurone σ: les poids sont gaussiens, tirés comme N (0, σ).

Réseaux Neuronaux 1. Pourquoi? 2. Réseaux classiques 3. Quelques applications 4. Réseaux modernes: profonds, à échos, impulsionnels, liquides... 5. Pistes de recherche

Le point: On veut construire un système Ce qu on a compris Combinaison d entités simples: arbitrairement complexe

Le point: On veut construire un système Ce qu on a compris Combinaison d entités simples: arbitrairement complexe pourvu que les entités ne soient pas linéaires. Le réseau est une fonction de redescription des données.

Le point: On veut construire un système Ce qu on a compris Combinaison d entités simples: arbitrairement complexe pourvu que les entités ne soient pas linéaires. Le réseau est une fonction de redescription des données. On veut construire un système 1. Dans quel espace habite-t-il? Décrit par un ensemble de poids? par des macro-descripteurs (topologie, poids)? 2. Comment l entrainer? Quel critère? Quel algorithme d optimisation? 3. Comment coder la connaissance du domaine? Dans les exemples? Dans la structure de la solution?