avec w ij poids liant le neurone j au neurone i vec w.vec xi = 0 vec xi vec xi

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "avec w ij poids liant le neurone j au neurone i vec w.vec xi = 0 vec xi vec xi"

Transcription

1 Exemple pour un perceptrion à deux classes (1 unité de sortie) -> 1/-1 Si w i x 0 la réponse est 1 Si w i x 0 la réponse est -1 Donc la discrimination se fait pour des entrés (les x ). Cet hyperplan a pour équation w x =0 On a autant d'hyperplan que d'unité de sortie. avec w i poids liant le neurone au neurone i w i x =0 cela correspond à un hyperplan dans l'espace Algorithme d'apprentissage : De manière duale, on peut voir l'hyperplan w x =0 dans l'espace des poids chaque motif représenté correspond alors à un hyperplan dans l'espace des poids x1 x2 x3 Espace des poids solution x4 En considérant pour simplifier =0, x i est perpendiculaire à l'hyperplan w x i =0 L'apprentissage consiste à modifier les w i pour que le réseau réponde correctement selon les x i. Si on considère 1) w x i 0 pour une classe 2) w x i 0 pour l'autre x i indique la portion du plan qui correspond à la solution dans le cas 1) et l'opposé de cette direction dans le cas 2) vec w.vec xi = 0 vec xi vec xi Plus précisément, la règle d'apprentissage est : w i t1=w i t d i t x i t x t Géométriquement, cette règle correspond à un chemin dans l'espace des poids qui conduit dans la zone solution. En effet, on se déplace de la valeur d i x i x Selon le signe de la correction on se déplace dans une des deux directions possibles :

2 Déplacement de chaque pas d apprentissage x1 x3 x2 Zone solution L'un des intérêt de la règle de Widrow Hoff est qu'elle permet un positionnement optimal de la séparation des classes. Espace des entrées Règle du perceptron Règle de Widrow-Hoff Avec Widrow Hoff, on généralise mieux qu'avec la règle du perceptron Widrow Hoff nous donne le meilleur hyperplan = hyperplan médian. Généralisation : La généralisation correspond à la capacité d'un réseau de neurones à bien répondre (bien classer) pour des motifs qui n'ont pas été appris. Cela permet de mettre au point le système sur la base d'un nombre réduit d'exemples. Les limites du perceptron : Elles ont été soulignées en 1969 par Minsky 1 Paport, et sont liés au fait que le perceptron ne peut faire que des séparations linéaires. -> Problème du XOR, qui n'est pas linéairement séparable.

3 Le perceptron Multicouches Capacités On a montré qu'un perceptron à deux couches d'unité cachées (c'est à dire deux ensembles de poids modifiables) peut résoudre tous les problèmes de classification. On surmonte ainsi le problème de la séparabilité linéaire du perceptron simple Structure : Poids modifiables Couche d entrée Couche cachée Couche de la sortie Les unités des couches cachées ont des fonctions d'activation non linéaires (fonction seuil, sigmoïde, etc...) Régions de décision : Chaque hyperplan correspond à une unité cachée L'unité de sortie réalise un ET de ses entrées L'aout d'une couche supplémentaire permet de former des régions de décision complexes et de séparer les régions imbriquées.

4 ET (1) (2) (1) OU (3) (3) ET (2) Problèmes : Un premier problème concernant le perceptron multicouche est lié à l'architecture : Quelles connexions entre les différentes couches? Combien de couches? Combien d'unités de couche? Un deuxième problème concerne l'apprentissage. Quand on a une seule couche, on peut appliquer la règle de Widrow Hoff, ou du perceptron. Mais quelle règle appliquer sur les unités de la couche cachée? Problème de la sortie désirée. On ne connaît à priori pas la valeur de la sortie désirée pour les couches cachées. C'est le problème du "Gredit Assignement" c'est à dire comment récupérer pour chaque connexion le signal d'erreur qui n'a été mesuré que sur la couche de sortie. Pour cela, on variable aléatoire utiliser l'algorithme de la rétro-propagation du gradient pour l'apprentissage La rétro-propagation du gradient : Cet algorithme permet d'effectuer l'apprentissage des réseaux multicouches, et le principe est de rétro-propager l'erreur de sortie sur les couches liés.

5 (3) Apprentissage (2) Calcul de l erreur sur la couche de sortie (1) Information Neurone utilisé : Le neurone utilisé est de même structure que le neurone du perceptron, il diffère seulement par sa fonction d'activation qui n'est plus linéaire à seuil, mais non linéaire et dérivable. Par exemple : f x= 1 1e kx Structure du réseau : Une couche d'entrée Une couche de sortie Une ou plusieurs couches cachées Chaque neurone d'une couche est connecté à tous les neurones de la couche suivante. Les poids sur les connexions sont des nombres réels quelconques. Apprentissage : On dispose d'un ensemble de couples (entrées/sortie désirée) A la fin de l'apprentissage, il faut que les poids aient été modifiées de telle sorte que la présentation des entrées engendre les réponses correctes du réseau. A chaque étape, une entrée est proposée au réseau La sortie réelle est calculée de proche en proche de l'entrée vers la sortie. C'est la phase de propagation en avant aussi appelée relaxation. On calcule l'erreur : c'est la somme quadratique des erreurs de chaque cellule.

6 Cette erreur est ensuite rétro-propagé provoquant la modification successive des poids de la couche de sortie vers la couche d'entrée. On répète ce processus pour chaque exemple. Quand l'erreur est inférieure à un certain seuil, on dit que le réseau a convergé. Erreur Seuil d erreur fini fin Temps (présentation de couple E/S) de l apprentissage L'apprentissage consiste à minimiser l'erreur quadratique commise sur l'ensemble des exemples. L'erreur quadratique est considéré comme une fonction des poids, sa minimisation par étapes variable aléatoire correspondre à une descente de son gradient. Ep indique la direction de la pente maximale au point calculé. On procède itérativement usqu'à atteindre le point le plus bas. Soit un ensemble P de pairs de vecteurs (X i Y i ) qui soit muni d'une application, tel que Y = X avec Y R n et X R n Le problème est d'apprendre au réseau à réaliser cette application. En réalité le réseau ne réalise qu'une approximation : Y = X On applique en entrée X = x 1,..., x n t Pour une unité de la couche cachée c, la fonction d'entrée a pour expression e p= w i x pi i et la sortie de la couche cachée vaut alors s p = f e p Sur la cellule de sortie, on a On cherche à minimiser l'erreur quadratique E p w= 1 2 y pk s pk 2 la présentation d'un motif p. s pk = f e pk = f w k s p k L'erreur quadratique sur l'ensemble des exemples : E w= p E p w = somme des carrés des erreurs des unités k de la couche de sortie pour Dans la pratique, on ne modifie pas les poids en fonction de E, mais plutôt étape par étape en fonction du E p (w) obtenu à chaque étape. Une descente de gradient correspond à la modification des poids suivant la formule : w t1=w t w E p w ) gradient de l'erreur

7 Soit wt1=w t E pw w t ) dérivée de l'erreur par rapport au poids qui nous intéresse est le pas d'austement, aussi appelé "taux/vitesse d'apprentissage" Il faut donc calculer E p w w Pour la couche de sortie, on cherche donc Or E p w w k Donc = E pw e pk e pk w k w E k s p k p = =s w k w p k E p w = E p w s w k e p pk E p w w k E p = 1 2 k Y pk s pk = 1 2 Y pk f k e pk Donc Donc E p e pk = Y pk s pk f k e pk E p w k = Y pk s pk f ' e k s p pour la couche de sortie w k t1=w k t Y pk s pk f ' e pk s p Pour la couche cachée : E p = f w e p x pi d k w k i k w t1=w t f ' e p x pi d k w k k

k Couche de sortie change alors, seul k change. Si w ij

k Couche de sortie change alors, seul k change. Si w ij Support théorique de «backprop» : Cette partie présente la théorie qui sous-tend l algorithme «backprop» dont une exécution a été montrée à la partie précédente. La figure 4 montre un réseau plus général

Plus en détail

Deep-learning. B. Gas - V 0.1 (2014) UE 5AI02/5AK03 - ISIR/UPMC

Deep-learning. B. Gas - V 0.1 (2014) UE 5AI02/5AK03 - ISIR/UPMC Deep-learning VI B. Gas - V 0.1 (014) UE 5AI0/5AK03 - ISIR/UPMC Deep-network Importance du codage pour la classification: certains codages sont plus adaptés que d autres pour une classification donnée.

Plus en détail

Programmation Logique et IA. P. Habermehl et D. Kesner. Réseaux de neurones

Programmation Logique et IA. P. Habermehl et D. Kesner. Réseaux de neurones Réseaux de neurones 1 Introduction Intelligence Articielle Cognitivisme (sciences cognitives) Connexionisme (réseaux de neurones) Le cerveau : réseau très complexe ayant un grand nombre de cellules de

Plus en détail

Méthodologie d'évaluation 1. Analyse et estimation de l'erreur. 10 Novembre 2009

Méthodologie d'évaluation 1. Analyse et estimation de l'erreur. 10 Novembre 2009 Méthodologie d'évaluation 1. Analyse et estimation de l'erreur 10 Novembre 2009 Datamining 1 2009-2010 Plan 1 Décomposition biais/variance de l'erreur 2 Techniques d'estimation de l'erreur Datamining 2

Plus en détail

Séance 12: Algorithmes de Support Vector Machines

Séance 12: Algorithmes de Support Vector Machines Séance 12: Algorithmes de Support Vector Machines Laboratoire de Statistique et Probabilités UMR 5583 CNRS-UPS www.lsp.ups-tlse.fr/gadat Douzième partie XII Algorithmes de Support Vector Machines Principe

Plus en détail

Erik PERNOD Calcul Scientifique 3 ème Année RESEAUX DE NEURONES

Erik PERNOD Calcul Scientifique 3 ème Année RESEAUX DE NEURONES Erik PERNOD Calcul Scientifique 3 ème Année RESEAUX DE NEURONES 1 TABLE DES MATIERES TABLE DES MATIERES... 2 I PERCEPTRON SIMPLE... 3 I.1 Introduction... 3 I.2 Algorithme... 3 I.3 Résultats... 4 1er exemple

Plus en détail

Application du réseaux de neurones à l apprentissage supervisé. Ricco RAKOTOMALALA

Application du réseaux de neurones à l apprentissage supervisé. Ricco RAKOTOMALALA Application du réseaux de neurones à l apprentissage supervisé Ricco RAKOTOMALALA Tutoriels Tanagra - http://tutoriels-data-mining.blogspot.fr/ Métaphore biologique Fonctionnement du cerveau Transmission

Plus en détail

Coup de Projecteur sur les Réseaux de Neurones

Coup de Projecteur sur les Réseaux de Neurones Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche

Plus en détail

Reconnaissance des formes

Reconnaissance des formes Reconnaissance des formes Discrimination A. Belaïd LORIA - Nancy Discrimination linéaire Notion d hyperplan Discrimination linéaire Principe Une forme x R d (vecteur forme) Rôle de la Trouver D : R d x

Plus en détail

Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme

Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme Distance et classification Cours 4: Traitement du signal et reconnaissance de forme Plan Introduction Pré-traitement Segmentation d images Morphologie mathématique Extraction de caractéristiques Classification

Plus en détail

Introduction au Data Mining

Introduction au Data Mining Cours GMM Introduction au Data Mining 1.0 DT_GMM3 Décembre 2009 Légende Table des matières 3 4 Introduction Ce support de cours est un complément au cours magistral et n'est en aucun cas autosuffisant.

Plus en détail

SPLEX Statistiques pour la classification et fouille de données en

SPLEX Statistiques pour la classification et fouille de données en SPLEX Statistiques pour la classification et fouille de données en génomique Classification Linéaire Binaire CLB Pierre-Henri WUILLEMIN DEcision, Système Intelligent et Recherche opérationnelle LIP6 pierre-henri.wuillemin@lip6.fr

Plus en détail

THESE. Présentée à L UNIVERSITE PARIS XII VAL DE MARNE CRETEIL

THESE. Présentée à L UNIVERSITE PARIS XII VAL DE MARNE CRETEIL Année 2003 THESE Présentée à L UNIVERSITE PARIS XII VAL DE MARNE CRETEIL En vue de l obtention du titre de Docteur de l Université Spécialité Génie Informatique, Automatique et Traitement du Signal par

Plus en détail

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

Chapitre 6 Apprentissage des réseaux de neurones et régularisation Chapitre 6 : Apprentissage des réseaux de neurones et régularisation 77 Chapitre 6 Apprentissage des réseaux de neurones et régularisation Après une introduction rapide aux réseaux de neurones et à la

Plus en détail

Analyse discriminante

Analyse discriminante Analyse discriminante Christine Decaestecker & Marco Saerens ULB & UCL LINF2275 1 Analyse Discriminante Particularités: 2 formes/utilisations complémentaires: méthode factorielle: description "géométrique"

Plus en détail

COURS DE DATA MINING 8 : MODELISATIONS RESEAUX DE NEURONES ET DE KOHONEN

COURS DE DATA MINING 8 : MODELISATIONS RESEAUX DE NEURONES ET DE KOHONEN COURS DE DATA MINING 8 : MODELISATIONS RESEAUX DE NEURONES ET DE KOHONEN EPF 4/ 5 ème année - Option Ingénierie d Affaires et de Projets - Finance Bertrand LIAUDET 8 : Modélisations - Réseaux de neurones

Plus en détail

M2 MPRO. Optimisation dans les Graphes 2014-2015

M2 MPRO. Optimisation dans les Graphes 2014-2015 M2 MPRO Optimisation dans les Graphes 2014-2015 Programmation linéaire et problèmes d'optimisation dans les graphes 1 Problèmes d'optimisation dans les graphes : quelles méthodes pour les résoudre? Théorie

Plus en détail

DATA MINING 2 Réseaux de Neurones, Mélanges de classifieurs, SVM avancé

DATA MINING 2 Réseaux de Neurones, Mélanges de classifieurs, SVM avancé I. Réseau Artificiel de Neurones 1. Neurone 2. Type de réseaux Feedforward Couches successives Récurrents Boucles de rétroaction Exemples de choix pour la fonction : suivant une loi de probabilité Carte

Plus en détail

Réseaux de neurones. 1 Introduction. Résumé. 1.1 Historique. 1.2 Réseaux de neurones. 1 Réseaux de neurones

Réseaux de neurones. 1 Introduction. Résumé. 1.1 Historique. 1.2 Réseaux de neurones. 1 Réseaux de neurones 1 Réseaux de neurones Résumé Réseaux de neurones Définition et caractéristiques des réseaux de neurones ou perceptrons multicouches spécifiques pour la régression et la discrimination ou classification

Plus en détail

Les Réseaux de Neurones avec

Les Réseaux de Neurones avec Les Réseaux de Neurones avec Au cours des deux dernières décennies, l intérêt pour les réseaux de neurones s est accentué. Cela a commencé par les succès rencontrés par cette puissante technique dans beaucoup

Plus en détail

Prédiction de la Structure des Protéines. touzet@lifl.fr

Prédiction de la Structure des Protéines. touzet@lifl.fr Prédiction de la Structure des Protéines Hélène TOUZET touzet@lifl.fr Structure Structure Structure Structure primaire secondaire tertiaire quaternaire Exemple : la structure secondaire de la transthyretine

Plus en détail

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.

Introduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes. Introduction L'objectif de mon TIPE est la reconnaissance de sons ou de notes de musique à l'aide d'un réseau de neurones. Ce réseau doit être capable d'apprendre à distinguer les exemples présentés puis

Plus en détail

Calcul d erreur (ou Propagation des incertitudes)

Calcul d erreur (ou Propagation des incertitudes) Travaux Pratiques de Physique vers. septembre 014 Calcul d erreur (ou Propagation des incertitudes) 1) Introduction Le mot "erreur" se réfère à quelque chose de juste ou de vrai. On parle d erreur sur

Plus en détail

SCHEDULING. 1.1 Simultanéité, ressources On appelle simultanéité l'activation de plusieurs processus au même moment.

SCHEDULING. 1.1 Simultanéité, ressources On appelle simultanéité l'activation de plusieurs processus au même moment. Chapitre SCHEDULING. ASPECTS GENERAUX DES PROCESSUS Un processus est un programme qui s'exécute, ainsi que ses données, sa pile, son compteur ordinal, son pointeur de pile et les autres contenus de registres

Plus en détail

Introduction aux Réseaux de Neurones Cours 2

Introduction aux Réseaux de Neurones Cours 2 Introduction aux Réseaux de Neurones Cours 2 Master Cours d'intelligence artificielle Alexandre Pitti Rappel: neurone artificiel le perceptron Définition : linéaire, fonction paramétrée avec sortie normée

Plus en détail

Régression logistique

Régression logistique Régression logistique Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Régression logistique p. 1 Introduction Objectifs Le classifieur de Bayes est basé sur la comparaison des probabilités

Plus en détail

Apprentissage statistique Stratégie du Data-Mining

Apprentissage statistique Stratégie du Data-Mining Apprentissage statistique Stratégie du Data-Mining Hélène Milhem Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 H. Milhem (IMT, INSA Toulouse) Apprentissage statistique

Plus en détail

Réseaux de neurones Multicouches

Réseaux de neurones Multicouches Réseaux de neurones Multicouches Partie 1 Caractérisé par: état interne s S voisinage s 1,., s n fonction de transfert f changement d état s=f(s 1, s 2,.,s n ) s 1 s 2 Neurone élémentaire s=f(s 1, s 2,.,s

Plus en détail

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Introduction aux modèles graphiques 2010/2011 Cours 2 6 octobre Enseignant: Francis Bach Scribe: Nicolas Cheifetz, Issam El Alaoui 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Soit

Plus en détail

CODES CORRECTEURS D'ERREURS

CODES CORRECTEURS D'ERREURS CODES CORRECTEURS D'ERREURS Marc URO TABLE DES MATIÈRES DÉTECTION ET CORRECTION D'ERREURS... 6 CAS D'UN CANAL SANS SYMBOLE D'EFFACEMENT...6 CAS D'UN CANAL AVEC SYMBOLE D'EFFACEMENT...7 GÉNÉRATION ET DÉTECTION

Plus en détail

Une revue des méthodes de discrimination pour la spectrométrie PIR (centrée sur les méthodes linéaires) JM Roger. jean-michel.roger@cemagref.

Une revue des méthodes de discrimination pour la spectrométrie PIR (centrée sur les méthodes linéaires) JM Roger. jean-michel.roger@cemagref. Une revue des méthodes de discrimination pour la spectrométrie PIR (centrée sur les méthodes linéaires) JM Roger jean-michel.roger@cemagref.fr Plan Qu'est ce que la discrimination? Le modèle de l'analyse

Plus en détail

Proportion. Évolution

Proportion. Évolution 1 Proportion. Évolution PROPORTION On considère un ensemble E contenant n éléments et A une partie de E contenant y éléments. La proportion p A des éléments de A par rapport à E est égale à : résumés de

Plus en détail

Comparaison d approches statistiques pour la classification de textes d opinion. Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM)

Comparaison d approches statistiques pour la classification de textes d opinion. Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM) Comparaison d approches statistiques pour la classification de textes d opinion Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM) Caractéristiques des traitements Approche identique pour les

Plus en détail

Utilisation des réseaux de neurones dans l estimation des paramètres de la distribution Ki-2 Non Centrale Gamma

Utilisation des réseaux de neurones dans l estimation des paramètres de la distribution Ki-2 Non Centrale Gamma REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L ENSEIGNEMENT SUPERIEUR ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE DE MENTOURI-CONSTANTINE- FACULTE DES SCIENCES DE L INGENIEUR DEPARTEMENT

Plus en détail

Support Vector Machines

Support Vector Machines Support Vector Machines Séparateurs à vaste marge Arnaud Revel revel.arnaud@gmail.com Plan 1 Introduction 2 Formalisation 3 Utilisation des noyaux 4 Cas multi-classes 5 Applications des SVM 6 Bibliographie

Plus en détail

L'Intelligence Artificielle pour les développeurs Concepts et implémentations en Java

L'Intelligence Artificielle pour les développeurs Concepts et implémentations en Java Avant-propos 1. Objectifs du livre 15 2. Public et prérequis 15 3. Structure du livre 16 4. Code en téléchargement 18 Introduction 1. Présentation du chapitre 19 2. Définir l intelligence 19 3. L intelligence

Plus en détail

Contenu. Sources et références. Classification supervisée. Classification supervisée vs. non-supervisée

Contenu. Sources et références. Classification supervisée. Classification supervisée vs. non-supervisée PJE : Analyse de comportements avec Twitter Classification supervisée Arnaud Liefooghe arnaud.liefooghe@univ-lille1.fr Master 1 Informatique PJE2 2012-2013 B. Derbel L. Jourdan A. Liefooghe Contenu Classification

Plus en détail

SYSTEMES D EQUATIONS

SYSTEMES D EQUATIONS SYSTEMES D EQUATIONS I Définition: Un système de deux équations du premier degré à deux inconnues x et y est de la forme : a x + b y = c a' x + b' y = c' où a, b, c, et a', b', c' sont des nombres donnés.

Plus en détail

Druais Cédric École Polytechnique de Montréal. Résumé

Druais Cédric École Polytechnique de Montréal. Résumé Étude de load balancing par un réseau de neurones de types HME (Hierarchical Mixture of s). Druais Cédric École Polytechnique de Montréal Résumé Cet article tente d introduire le principe de load balancing

Plus en détail

Détection de contours

Détection de contours Traitement Détection de s Plan? Dérivées d une image Bibliographie Cours de traitement Elise Arnaud - Edmond Boyer Université Joseph Fourier Cours de traitement Alain Boucher Cours de traitement T Guyer

Plus en détail

L'Intelligence Artificielle pour les développeurs Concepts et implémentations en C#

L'Intelligence Artificielle pour les développeurs Concepts et implémentations en C# Introduction 1. Structure du chapitre 19 2. Définir l intelligence 19 3. L intelligence du vivant 22 4. L intelligence artificielle 23 5. Domaines d application 25 6. Synthèse 27 Systèmes experts 1. Présentation

Plus en détail

Intelligence Artificielle

Intelligence Artificielle Intelligence Artificielle Master 1 ISIDIS Université du Littoral Côte d'opale Denis Robilliard Laboratoire d'informatique du Littoral 1 Qu'est ce que l'ia? Def : "Faire réaliser par une machine un comportement

Plus en détail

Reconnaissance des Formes Travaux Pratiques, 1 ère séance /4 - Corrigé partiel -

Reconnaissance des Formes Travaux Pratiques, 1 ère séance /4 - Corrigé partiel - Reconnaissance des Formes Travaux Pratiques, 1 ère séance /4 - Corrigé partiel - Modalités de déroulement o séance en salle Linux o compte-rendu à remettre à l'issue de la séance Objectif de la séance

Plus en détail

Mathématique pour l informatique Examen durée : 3 heures. Question 1. Mettre ce problème en forme standard en introduisant des variables d écarts.

Mathématique pour l informatique Examen durée : 3 heures. Question 1. Mettre ce problème en forme standard en introduisant des variables d écarts. Mathématique pour l informatique Examen durée : 3 heures. Université de Provence Licence Informatique Année 2001-2002 Exercice 1 (Simplexe : 10 points) On donne le problème de programmation linéaire (P)

Plus en détail

4N1. Nombres relatifs EST-CE QUE TU TE SOUVIENS?

4N1. Nombres relatifs EST-CE QUE TU TE SOUVIENS? 4N1 Nombres relatifs EST-CE QUE TU TE SOUVIENS? Remarque : pour pouvoir vraiment retenir comment on calcule avec les nombres relatifs, il est déconseillé d'utiliser une calculatrice ici. 1) Classe les

Plus en détail

Analyse en composantes principales

Analyse en composantes principales Analyse en composantes principales Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Analyse en composantes principales p. 1/18 Introduction Objectifs Soit {x i } i=1,,l

Plus en détail

Numéro de publication: 0 588 422 Al. int ci 5 G06F 15/70

Numéro de publication: 0 588 422 Al. int ci 5 G06F 15/70 Europâisches Patentamt European Patent Office Office européen des brevets Numéro de publication: 0 588 422 Al DEMANDE DE BREVET EUROPEEN Numéro de dépôt: 93202625.5 int ci 5 G06F 15/70 @ Date de dépôt:

Plus en détail

1 Contrôle des connaissances 2010/2011

1 Contrôle des connaissances 2010/2011 1 Contrôle des connaissances 2010/2011 Remarque préliminaire On s attachera dans la rédaction à être aussi précis que possible. Ainsi, lors de l écriture de chaque problème d optimisation et de chaque

Plus en détail

Intelligence Naturelle et Intelligence Artificielle. Natural Intelligence and Artificial intelligence

Intelligence Naturelle et Intelligence Artificielle. Natural Intelligence and Artificial intelligence Intelligence Naturelle et Intelligence Artificielle Natural Intelligence and Artificial intelligence Daniel M. Dubois Ingénieur Physicien, Docteur en Sciences Appliquées, Dr Honoris Causa, Professeur d'informatique

Plus en détail

1997 Les Éditions Alpha-Soleil 5220 Saint-lgnatius Montréal Qc H4V2C2 Tous droits réservés

1997 Les Éditions Alpha-Soleil 5220 Saint-lgnatius Montréal Qc H4V2C2 Tous droits réservés Données de catalogage avant publication (Canada) Longpré, Diane, 1944- Alpha-maths Sommaire: 1. Numération - 2. Additions et soustractions - 3. Multiplications et divisions. Pour adultes en voie d'alphabétisation.

Plus en détail

GPA759 RÉSEAUX DE NEURONES ET INTELLIGENCE ARTIFICIELLE Préalable(s) : Aucun PLAN DE COURS SESSION AUTOMNE 2013

GPA759 RÉSEAUX DE NEURONES ET INTELLIGENCE ARTIFICIELLE Préalable(s) : Aucun PLAN DE COURS SESSION AUTOMNE 2013 École de technologie supérieure Département de génie de la production automatisée Responsable(s) du cours : Crédits : Richard Lepage, ing., Ph.D. GPA759 RÉSEAUX DE NEURONES ET INTELLIGENCE ARTIFICIELLE

Plus en détail

TD3 Caractéristiques dynamiques d un capteur

TD3 Caractéristiques dynamiques d un capteur TD3 Caractéristiques dynamiques d un capteur 3.1- Caractérisations temporelles 3.1.1- Introduction : réponse d une sonde de température Pt100 Un four est a une température θ F =100 C supérieure à la température

Plus en détail

Introduction aux Support Vector Machines (SVM)

Introduction aux Support Vector Machines (SVM) Introduction aux Support Vector Machines (SVM) Olivier Bousquet Centre de Mathématiques Appliquées Ecole Polytechnique, Palaiseau Orsay, 15 Novembre 2001 But de l exposé 2 Présenter les SVM Encourager

Plus en détail

Le théorème du point xe. Applications

Le théorème du point xe. Applications 49 Le théorème du point xe. Applications 1 Comme dans le titre de cette leçon, le mot théorème est au singulier, on va s'occuper du théorème du point xe de Picard qui a de nombreuses applications. Le cas

Plus en détail

Analyse et modélisation de visages

Analyse et modélisation de visages Analyse et modélisation de visages Pascal Bourdon Laboratoire XLIM-SIC (UMR CNRS 7252) / Université de Poitiers pascal.bourdon@univ-poitiers.fr Analyse et modélisation de visages Plan Introduction Outils

Plus en détail

Cours/TD n 3 : les boucles

Cours/TD n 3 : les boucles Cours/TD n 3 : les boucles Où on se rendra compte qu il est normal de rien comprendre Pour l instant, on a vu beaucoup de choses. Les variables, les Si Alors Sinon, les tests avec les ET, les OU et les

Plus en détail

ITIL V2. La gestion des problèmes

ITIL V2. La gestion des problèmes ITIL V2 La gestion des problèmes Création : novembre 2004 Mise à jour : août 2009 A propos A propos du document Ce document de référence sur le référentiel ITIL a été réalisé en 2004 et la traduction des

Plus en détail

Fenêtre de vent maximale

Fenêtre de vent maximale Début d analyse du roulage en char à cerf-volant A - Fonctionnement du Cerf-volant de traction. La traction développée par une voile est en étroite relation avec son profil, sa forme générale mais aussi

Plus en détail

Estimateur d'erreur de ZHU-ZIENKIEWICZ

Estimateur d'erreur de ZHU-ZIENKIEWICZ Titre : Estimateur d'erreur de ZHU-ZIENKIEWICZ Date : 24/04/2012 Page : 1/12 Estimateur d'erreur de ZHU-ZIENKIEWICZ Résumé : On expose dans ce document la méthode d'estimation de l'erreur de discrétisation

Plus en détail

Vision par ordinateur

Vision par ordinateur Vision par ordinateur Stéréoscopie par minimisation d'énergie Frédéric Devernay d'après le cours de Richard Szeliski Mise en correspondance stéréo Quels algorithmes possibles? mettre en correspondance

Plus en détail

Heuristique et métaheuristique. 8. Optimisation combinatoire et métaheuristiques. Optimisation combinatoire. Problème du voyageur de commerce

Heuristique et métaheuristique. 8. Optimisation combinatoire et métaheuristiques. Optimisation combinatoire. Problème du voyageur de commerce Heuristique et métaheuristique IFT1575 Modèles de recherche opérationnelle (RO) 8. Optimisation combinatoire et métaheuristiques Un algorithme heuristique permet d identifier au moins une solution réalisable

Plus en détail

TP R sur les réseaux neuronaux

TP R sur les réseaux neuronaux TP R sur les réseaux neuronaux Emmanuel Rachelson and Matthieu Vignes 14 mars 2013, SupAero - ISAE 1 Un tutoriel simple: le calcul de la racine carrée Dans ce tutoriel, un réseau neuronal va être construit

Plus en détail

Initialisation automatique du recalage 2D/3D pour la réalité virtuelle et augmentée

Initialisation automatique du recalage 2D/3D pour la réalité virtuelle et augmentée Initialisation automatique du recalage 2D/3D pour la réalité virtuelle et augmentée IRISA - Equipe TEMICS 6 Fevrier 2008 1/18 Problématique : Recalage vidéo 2D et modèle 3D Problématique Avec : Le modèle

Plus en détail

Reconstruction et Animation de Visage. Charlotte Ghys 15/06/07

Reconstruction et Animation de Visage. Charlotte Ghys 15/06/07 Reconstruction et Animation de Visage Charlotte Ghys 15/06/07 1 3ème année de thèse Contexte Thèse CIFRE financée par Orange/France Telecom R&D et supervisée par Nikos Paragios (Ecole Centrale Paris) et

Plus en détail

SY09 Rapport TP4 : Analyse discriminante, régression logistique

SY09 Rapport TP4 : Analyse discriminante, régression logistique UNIVERSITÉ DE TECHNOLOGIE DE COMPIÈGNE SY09 Rapport TP4 : Analyse discriminante, régression logistique CUNI Frédéric 15 juin 2015 Objectifs du TP : Le but de ce TP est l application de l analyse discriminante

Plus en détail

Affectation d'une valeur à une variable

Affectation d'une valeur à une variable Affectation d'une valeur à une variable Fonctions calculs d'images Faire fonctionner l'algorithme ci contre avec a = 2 et b = 5. Quelle est la réponse affichée par l'algorithme? (question subsidiaire :

Plus en détail

LES TYPOLOGIES DE PARCOURS METHODES ET USAGES. Yvette Grelet, Patrick Rousset CEREQ grelet@mrsh.unicaen.fr rousset@cereq.fr

LES TYPOLOGIES DE PARCOURS METHODES ET USAGES. Yvette Grelet, Patrick Rousset CEREQ grelet@mrsh.unicaen.fr rousset@cereq.fr LES TYPOLOGIES DE PARCOURS METHODES ET USAGES Yvette Grelet, Patrick Rousset CEREQ grelet@mrsh.unicaen.fr rousset@cereq.fr 1 PLAN Première partie : un exemple traité «en vraie grandeur» : les 26500 jeunes

Plus en détail

Classification par des méthodes de data mining. Yawo Eli Amesefe Guillaume Cernier Christophe Labrousse

Classification par des méthodes de data mining. Yawo Eli Amesefe Guillaume Cernier Christophe Labrousse Classification par des méthodes de data mining Yawo Eli Amesefe Guillaume Cernier Christophe Labrousse Plan: Le processus métier Présentation des 3 méthodes étudiées: Arbres de décision Machines à vecteurs

Plus en détail

Algorithmique et Structures de Données

Algorithmique et Structures de Données 1.1 Algorithmique et Structures de Données Jean-Charles Régin Licence Informatique 2ème année 1.2 Itérations Jean-Charles Régin Licence Informatique 2ème année Itération : définition 3 En informatique,

Plus en détail

9th Maghrebian Conference on Software and Artificial Intelligence, 7-9 Décembre 2006.

9th Maghrebian Conference on Software and Artificial Intelligence, 7-9 Décembre 2006. Compression des images animées suivant une approche basée sur la quantification vectorielle N. Benamrane, A. Mebarki, M. Mahmoudi Equipe Images-Vision (Laboratoire SIMPA) USTOMB Résumé : Le codage par

Plus en détail

l Apprentissage Artificiel

l Apprentissage Artificiel 1 Le cours 2 Quel objectif (1) 3 Introduction à l Apprentissage Artificiel Antoine CNAMIIE et L.R.I., Université de ParisSud, Orsay (France) antoine@lri.fr http://www.lri.fr/~antoine/ 6 cours / TD / TP

Plus en détail

Application du deep learning à la traduction automatisée

Application du deep learning à la traduction automatisée Application du deep learning à la traduction automatisée soutenance de stage Montreal Institute for Learning Algorithms sous l encadrement de Yoshua Bengio et Pascal Vincent Avril - Août 2014 1/33 Plan

Plus en détail

OLYMPIADES DE MATHÉMATIQUES Académie d AIX-MARSEILLE Session 2012. Série S

OLYMPIADES DE MATHÉMATIQUES Académie d AIX-MARSEILLE Session 2012. Série S CLASSES DE PREMIERES GÉNÉRALES ET TECHNOLOGIQUES OLYMPIADES DE MATHÉMATIQUES Académie d AIX-MARSEILLE Session 01 Durée : 4 heures Série S Les calculatrices sont autorisées. Ce sujet comporte 4 exercices

Plus en détail

Mesure d'une concentration en dioxygène à l'aide d'une carte Arduino reliée à une sonde de Clark

Mesure d'une concentration en dioxygène à l'aide d'une carte Arduino reliée à une sonde de Clark Mesure d'une concentration en dioxygène à l'aide d'une carte Arduino reliée à une sonde de Clark DOMENJOD Quentin GAMIN Cécile TS1 Projet ISN 2014/2015 Lycée Antoine Roussin SOMMAIRE Présentation......p3

Plus en détail

3. Les Nombres Rationnels

3. Les Nombres Rationnels - - Les Nombres Rationnels. Les Nombres Rationnels. Les fractions Définition : Une fraction est une expression de la forme avec a et b des nombres entiers. a b Une fraction est aussi appelée nombre rationnel.

Plus en détail

EXEMPLES DE MODÉLISATION DE PROCESSUS

EXEMPLES DE MODÉLISATION DE PROCESSUS Première partie : chapitre 4. 1 Chapitre 4 EXEMPLES DE MODÉLISATION DE PROCESSUS INTRODUCTION. Dans les chapitres 2 et 3, nous avons décrit les principes de la modélisation de processus par réseaux de

Plus en détail

Tables de Multiplication

Tables de Multiplication Tables de Multiplication ( jusqu'à 20 fois 20) I)CLASSEMENT DES METHODES II ) METHODES METHODE A METHODE B METHODE C METHODE D METHODE E III) TABLES DE MULTIPLICATIONS IV) SOURCES ET COMMENTAIRE V ) COMPLEMENTS

Plus en détail

D.I.I.C. 3 - INC Module COMV - Contrôle 1

D.I.I.C. 3 - INC Module COMV - Contrôle 1 Université de Rennes 1 année 2009-2010 I.F.S.I.C. 11 Décembre 2009 D.I.I.C. 3 - INC Module COMV - Contrôle 1 cours d Olivier LE MEUR Durée : 2 heures Documents autorisés : documents des cours, TD et TP,

Plus en détail

PROGRAMMATION DYNAMIQUE

PROGRAMMATION DYNAMIQUE PROGRAMMATION DYNAMIQUE 1 Le principe d optimalité de Bellman La programmation dynamique est fondée sur le principe d optimalité de Bellman : Soit f une fonction réelle de x et y = (y 1, y 2,..., y n ).

Plus en détail

Mathématique - Cours

Mathématique - Cours Mathématique - Cours Filière STAV 2014-2015 Centre de Formation aux Métier de la Montagne Marine Estorge Le programme se compose ainsi : partie seconde partie 1/3 partie 2/3 partie 3/3 Sommaire 1 Ensemble

Plus en détail

Utilisation d EXCEL pour résoudre des problèmes de programmation linéaire

Utilisation d EXCEL pour résoudre des problèmes de programmation linéaire Utilisation d EXCEL pour résoudre des problèmes de programmation linéaire Introduction Le solveur d'excel est un outil puissance d'optimisation et d'allocation de ressources. Il peut vous aider à déterminer

Plus en détail

Commande par retour d états ou placement des pôles

Commande par retour d états ou placement des pôles Cas continu Commande par retour d états ou placement des pôles Position de problème Soit le système décrit par l équation d état. = + X AX BU Y = CX est dont le polynôme caractéristique est n P( λ) = λ

Plus en détail

Le Data Mining au service du Scoring ou notation statistique des emprunteurs!

Le Data Mining au service du Scoring ou notation statistique des emprunteurs! France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative

Plus en détail

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I ÉLÉMENTS D OPTIMISATION Complément au cours et au livre de MTH 1101 - CALCUL I CHARLES AUDET DÉPARTEMENT DE MATHÉMATIQUES ET DE GÉNIE INDUSTRIEL ÉCOLE POLYTECHNIQUE DE MONTRÉAL Hiver 2011 1 Introduction

Plus en détail

TRAVAUX DIRIGÉS DE l UE MNBif. Informatique 3A MÉTHODES NUMÉRIQUES DE BASE. 2015-2016, Automne. N. Débit & J. Bastien

TRAVAUX DIRIGÉS DE l UE MNBif. Informatique 3A MÉTHODES NUMÉRIQUES DE BASE. 2015-2016, Automne. N. Débit & J. Bastien TRAVAUX DIRIGÉS DE l UE MNBif Informatique 3A MÉTHODES NUMÉRIQUES DE BASE 2015-2016, Automne N. Débit & J. Bastien Document compilé le 13 novembre 2015 Liste des Travaux Dirigés Avant-propos iii Travaux

Plus en détail

RAPPORT DE LABORATOIRE DE PHYSIQUE Polarisation

RAPPORT DE LABORATOIRE DE PHYSIQUE Polarisation RAPPORT DE LABORATOIRE DE PHYSIQUE Polarisation Benjamin Frere & Pierre-Xavier Marique ème candidature en sciences physiques, Université de Liège Année académique 003-004 1 1 Objectifs Le but de cette

Plus en détail

Addendum au manuel d'utilisateur de la régulation RG2040

Addendum au manuel d'utilisateur de la régulation RG2040 Addendum au manuel d'utilisateur de la régulation RG2040 Valable uniquement avec la version 2.6 et 2.6-C1 du FirmWare de l'unité de régulation RG2040 Date : Avril 2000 Page 1 Table des matières Addendum

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

a) La technique de l analyse discriminante linéaire : une brève présentation. 3 étapes de la méthode doivent être distinguées :

a) La technique de l analyse discriminante linéaire : une brève présentation. 3 étapes de la méthode doivent être distinguées : a) La technique de l analyse discriminante linéaire : une brève présentation. Nous nous limiterons ici à l'analyse discriminante linéaire et à deux groupes : - linéaire, la variante utilisée par ALTMAN

Plus en détail

LA OTIO DU TRAVAIL E SCIE CES PHYSIQUES

LA OTIO DU TRAVAIL E SCIE CES PHYSIQUES L OTIO DU TRVIL E SCIE CES PHYSIQUES Par nne artini 1. Travail et énergie Dans la vie courante, il y a des termes qui sont souvent utilisés et dont la signification fait penser à celle donnée aux concepts

Plus en détail

TESTS D'HYPOTHESES Etude d'un exemple

TESTS D'HYPOTHESES Etude d'un exemple TESTS D'HYPOTHESES Etude d'un exemple Un examinateur doit faire passer une épreuve type QCM à des étudiants. Ce QCM est constitué de 20 questions indépendantes. Pour chaque question, il y a trois réponses

Plus en détail

Conversion analogique

Conversion analogique Conversion analogique Principes de la quantification et de l échantillonnage Convertisseurs analogique à numérique Convertisseurs numérique à analogique Conversion analogique à numérique La conversion

Plus en détail

Certificat Big Data Apprentissage TP2: Séparateurs linéaires et perceptron Correction détaillée

Certificat Big Data Apprentissage TP2: Séparateurs linéaires et perceptron Correction détaillée Certificat Big Data Apprentissage TP2: Séparateurs linéaires et perceptron Correction détaillée Olivier Schwander Ce document s accompagne d une archive contenant les codes sources, décomposé en plusieurs

Plus en détail

Module 3 : Introduction à la Modélisation SOUS MODELER

Module 3 : Introduction à la Modélisation SOUS MODELER Module 3 : Introduction à la Modélisation SOUS MODELER 1 Techniques prédictives Passé pour prédire l avenir 2 Concepts de la modélisation Données test / apprentissage Généralement créées par l utilisateur

Plus en détail

Méthodes de placement multidimensionnelles. Fabrice Rossi Télécom ParisTech

Méthodes de placement multidimensionnelles. Fabrice Rossi Télécom ParisTech Méthodes de placement multidimensionnelles Fabrice Rossi Télécom ParisTech Plan Introduction Analyse en composantes principales Modèle Qualité et interprétation Autres méthodes 2 / 27 F. Rossi Plan Introduction

Plus en détail

Guide d apprentissage de Transmodel : Description du Réseau

Guide d apprentissage de Transmodel : Description du Réseau Description du Réseau Transmodel V.5. Guide d apprentissage de Transmodel : Description du Réseau Le modèle de données dédié à la Description du Réseau fait partie du Modèle des Données de Référence pour

Plus en détail

Classification supervisée de documents

Classification supervisée de documents Classification supervisée de documents 1. Introduction La classification automatique supervisée de document devient nécessaire à cause du volume de documents échangés et stockés sur support électronique.

Plus en détail

Planification et gestion financière de travaux. Chapitre 2 METHODE «POTENTIEL TACHES»

Planification et gestion financière de travaux. Chapitre 2 METHODE «POTENTIEL TACHES» B.T.S.1 Cours d études et économie de la construction Planification et gestion financière de travaux Chapitre 2 METHODE «POTENTIEL TACHES» Sommaire 1 Objectifs de la méthode 2 Visualisation du déroulement

Plus en détail

5 // Champ en profondeur

5 // Champ en profondeur 1 1 // Description On distingue principalement : les objectifs standards f = 50 mm les objectifs grand angle f = 8 mm les téléobjectifs f = 500 mm les objectifs à distance focale image variable ou zooms;

Plus en détail

Série n 5 : Optimisation non linéaire

Série n 5 : Optimisation non linéaire Université Claude Bernard, Lyon I Licence Sciences & Technologies 43, boulevard 11 novembre 1918 Spécialité Mathématiques 69622 Villeurbanne cedex, France Option: M2AO 2007-2008 Série n 5 : Optimisation

Plus en détail