Plan. Composantes d un système. Réduction de dimension. Sélection de caractéristiques. Apprentissage
|
|
- Camille Robichaud
- il y a 7 ans
- Total affichages :
Transcription
1 Analyse et codage des signaux de reconnaissance des formes Méthodes statistiques pour la réduction de dimension Techniques d apprentissage Mohamed CHETOUANI Mohamed.Chetouani@upmc.fr 2 Composantes d un système Système de reconnaissance des formes Définition générale: A partir de mesures d une forme inconnue, il s agit de: Trouver une représentation pertinente de la forme Classer en catégorie Composantes d un système Système de reconnaissance des formes Capteur Pré-traitements Extraction de paramètres Algorithme de classification Mais également des données (étiquetées ou non) 3 4
2 Terminologie Terminologie Composantes d un système Caractéristiques, codes: ensemble de variables déterminé à partir de propriétés de l objet. «Choisir» des caractéristiques discriminantes et indépendantes est un point clé de tout problème de reconnaissance des formes. Vecteur de caractéristique: Association de plusieurs caractéristiques. Vecteur de dimension d représentant l objet. Composantes d un système Espace des caractéristiques: espace de dimension d formé par l ensemble des caractéristiques. Espace 3D Distribution des données dans l espace des caractéristiques 5 6 Terminologie Terminologie Composantes d un système Classe: Catégorie à laquelle appartient l objet. Forme: Ensemble des caractéristiques de l objet traité. Dans certains cas, on associe au vecteur caractéristique la classe de l objet. Composantes d un système Frontière de décision: Hyper-plan, fonction de dimension d permettant la séparation des formes en différentes classes. Exemple: une des instances d un même objet Objet: lettre A Exemple de l objet «A» Variabilité entre scripteurs 7 8
3 Terminologie Problème de dimension des vecteurs caractéristiques Composantes d un système Données/Base d apprentissage: données utilisées pour la conception du système de reconnaissance. Ces données sont a priori étiquetées. Explosion du nombre et de la dimension des données Données/Base de test: données utilisées pour l estimation des performances du système de reconnaissance. Utilisation industrielle: lecteur de chèques, code postaux, biométrie 9 10 Problème de dimension des vecteurs caractéristiques Problème de dimension des vecteurs caractéristiques Aspects pratiques: Relation dimension des vecteurs caractéristiques / performances du classifieur Approches pour la réduction de dimension: extraction de caractéristiques: créer un sousensemble de nouvelles caractéristiques par combinaison des caractéristiques existantes sélection de caractéristiques: choisir un sousensemble de caractéristiques pertinent Rechercher une solution optimale 11 12
4 Problème de dimension des vecteurs caractéristiques Problème de dimension des vecteurs caractéristiques Formalisation du problème de la réduction de dimension: La réduction de dimension consiste à transformer le vecteur le x (dimension N) en un vecteur y (dimension M) avec M<N: y=f(x) par projection du vecteur caractéristique: y=f(x)=wx La fonction f réalise la réduction de dimension. La réduction de dimension ne doit pas diminuer les performances en classification. Projection (combinaison) linéaire ou non-linéaire, séparation des classes (discriminantes) Stratégies de réduction de dimension La projection de données nécessite la minimisation d un critère. Deux types de critères: Représentation du signal: Représenter les données dans un espace de plus petite dimension. Classification: Projection dans un espace (de plus petite dimension) qui maximise la séparabilité des classes. Analyse Discriminante Données Ensemble d apprentissage : S exemples étiquetés formés de N descripteurs (variables) X = {x (1), x (2), x (S) } avec x (j) = (x 1, x 2,, x N ) X : réalisation d un échantillon de taille S d un vecteur aléatoire de dimension N Statistiques associées à X - moyenne : x = 1 S - matrice de covariance : " j x (j) (j) (j)! =!( x " x)( x " S 1 j T x) 15 16
5 Analyse de la variabilité des données à travers la matrice de variance-covariance Excepté si l une des variables peut s exprimer comme une fonction d autres variables, N variables sont nécessaires pour rendre compte de toute la variabilité Objectif de l ACP : décrire à l aide de M < N variables un maximum de cette variabilité compression des données décrites par M nouvelles variables visualisation des données en 2D ou 3D (si M = 2 ou 3) interprétation des données : liaisons inter-variables Composantes : b 1, b 2 b M b k : nouvelle variable = combinaison linéaire des variables b k = u 1k x 1 + u 2k x u Mk x M Coefficients u ik à déterminer pour que les b k soient : - 2 à 2 décorrélés - de variance maximale - d importance décroissante Données image = un vecteur, 1 composante / pixel Données codées = un vecteur, 1 composante / descripteur Trouver le sous-espace de dimension M approchant au mieux les données = = x 2 R 4200 vecteur «texture» N = 4200 pixels 19 20
6 Directions de variation = vecteurs φ 1, φ 2,, φ M Illustration: Illustration: Calcul: φ 1,,φ M : vecteurs propres associées aux plus grandes valeurs propres λ 1,, λ M de la matrice de covariance: X =E[(X-µ).(X-µ) t ] Matrice de covariance du vecteur X Décorrélation des axes Diagonaliser: X =Φ.Λ.Φ t Où: Λ est une matrice diagonale contenant les valeurs propres de la matrice de covariance Et Φ est une matrice contenant les vecteurs propres
7 Vecteurs et valeurs propres Inertie expliquée: λ i = variance de la i ème composante transformée b i = inertie du i ème axe principal % inertie par axe " i = N! " i i= 1 % inertie cumulée M! i i= 1 = N! " " i i= Critère de Joliffe : conserver les λ i tq le % d inertie expliquée est supérieur à un seuil (δ = 90/95 %) Applications: ACP pour la compression de données : Exemple 1 : modélisation des expressions faciales Critère de Kaiser : conserver les λ i supérieures à la moyenne ACP pour la classification : Exemple 2 : reconnaissance de caractères Critère de Catell (scree test): conserver les λ i avant apparition du «coude» ACP pour l analyse de données : 27 28
8 Base de visages de Carnegie-Mellon University (CMU) : une centaine de sujets, sans barbe ni lunettes images de visages en vue frontale images normalisées, incluant les 6 expressions faciales : joie, peur, tristesse, dégoût, colère, surprise + neutre Visages propres φ 1,,φ M : eigenfaces Reconstruction avec 30 modes : Exemple 2 : ACP sur les caractères Base NIST : 250 exemples/classe (apprentissage : 200, test : 50) Images 12x12 normalisées Compression : M composantes principales Classification : ppv sur les exemples compressés Exemple 2 : ACP sur les caractères Compression 31 32
9 Exemple 2 : ACP sur les caractères Reconnaissance Réseau auto-associatif : Y d = X non-linéaire Couche cachée de petite taille compression des données Les composantes principales sont les sorties de la couche cachée : minimisation de l erreur de reconstruction Utilisation : codage des données Formalisation du problème de la réduction de dimension: La réduction de dimension consiste à transformer le vecteur le x (dimension N) en un vecteur y (dimension M) avec M<N: y=f(x) La fonction f réalise la réduction de dimension. La réduction de dimension ne doit pas diminuer les performances en classification. La projection de données nécessite la minimisation d un critère. Deux types de critères: Représentation du signal: Représenter les données dans un espace de plus petite dimension. Classification: Projection dans un espace (de plus petite dimension) qui maximise la séparabilité des classes. Analyse Discriminante 35 36
10 Limites de l ACP : - cherche à expliciter la variance totale des variables mesurées - ne tient pas compte de l information de classe (technique non supervisée) - mesure : variance totale Variable 2 classe 1 Objectifs de l AFD : - cherche à maximiser la covariance entre les variables - utilise l information de classe - mesure : variances inter-classe et intra-classe classe 2 Variable 1 Trouver un nouvel espace (combinaison des variables initiales) permettant de discriminer au mieux les classes Mesure de séparation entre deux projections: Distance entre les «moyennes projetées»: Distributions normales Variables indépendantes Zone d incertitude sur les 2 variables incorrecte 39 40
11 Distance entre les «moyennes projetées»: Critère de Fisher: Pour chacune des classes: estimation de la variance (appelée scatter): Séparabilité plus importante within-class scatter Le critère de Fisher vise à maximiser: Distance plus importante Critère de Fisher: Le critère de Fisher vise à maximiser: Critère de Fisher: Expression du critère dans l espace des données x (vs espace de projection y) Explication: «Rapprochement» des exemples d une même classe «Eloignement» des moyennes S W : Matrice de dispersion intra-classe: Expression de la matrice de dispersion de l espace projeté y dans l espace des données 43 44
12 Critère de Fisher: Expression de la moyenne de l espace projeté y dans l espace des données Critère de Fisher: Maximum du critère J(w) Dérivée du critère de Fisher: S B : matrice de dispersion inter-classe Critère de Fisher exprimé en fonction des matrices de dispersion S W et S B : Solution: Exemple: X1= (x1,x2)= {(4,1),(2,4),(2,3),(3,6),(4,4)} X2= (x1,x2)= {(9,10),(6,8),(9,5),(8,7),(10,8)} Exemple: Estimation des matrices de dispersion: inter et intra classe: 47 48
13 Exemple: Espace de projection au sens du critère de Fisher: Généralisation à un problème à C classes: Matrice de dispersion intra-classe: Avec: Généralisation à un problème à C classes: Matrice de dispersion inter-classe: Généralisation à un problème à C classes: Matrice de dispersion totale : Avec: S T = S W + S B 51 52
14 Généralisation à un problème à C classes: Projection des données Limitations: Distributions non-gaussiennes Critère de Fisher non-linéaire Limitations: Discrimination des données selon la variance? non-linéaire par réseau de neurones: 55 56
15 non-linéaire Transformation de caractéristiques par réseaux de neurones: non-linéaire Transformation de caractéristiques par réseaux de neurones: non-linéaire Transformation de caractéristiques par réseaux de neurones: non-linéaire Retour sur le dilemme extracteur de caractéristique / classifieur p(ci X) = ( ) P X Ci p(c i) P(X) p(ci) : probabilité a priori (probabilité de la classe Ci avant d observer X) P(X Ci) : densité de probabilité conditionnelle de X par rapport à Ci P(X) : densité de probabilité de X : p(x)= p(x Ci)p(Ci) p(ci X) : probabilité a posteriori (l observation change la probabilité de Ci) 59 60
16 non-linéaire Retour sur le dilemme extracteur de caractéristique / classifieur p(ci X) = ( ) P X Ci p(c i) P(X) Règle de décision: Avec 2 hypothèses: décider C1 si p(c1 X) > p(c2 X) Sélection de caractéristiques Approches pour la réduction de dimension: extraction de caractéristiques: créer un sousensemble de nouvelles caractéristiques par combinaison des caractéristiques existantes sélection de caractéristiques: choisir un sousensemble de caractéristiques pertinent Maximum a posteriori (MAP) Extracteur de caractéristiques: estimation des probabilités Classifieur: fonction «max» Sélection de caractéristiques Choisir un sous-ensemble de caractéristiques pertinent Recherche de solution: Recherche exhaustive impossible Exemple: sélection de 10 caractéristiques parmi 100: plus de sous-ensembles Définition d un critère, d une fonction pour la sélection Sélection de caractéristiques Deux voies pour la sélection de paramètres (feature subset selection) : Filter control strategy n utilise pas le classifieur, mais une fonction d évaluation qui permet de mesurer la pertinence du sous-ensemble de paramètres légère en calcul fonction d évaluation difficile à déterminer Wrapper control strategy utilise le résultat de la classification comme mesure de performance. nécessité d évaluer, pour chaque jeu de paramètres, le taux de reconnaissance du classifieur 63 64
17 Sélection de caractéristiques Deux voies pour la sélection de paramètres (feature subset selection) : Sélection de caractéristiques Filter control strategy: Mesures de séparabilité des classes: Distances Euclidiennes, Mahalanobis, Critère de Fisher: det(s W -1 S B ) Corrélation, information théorique Corrélation linéaire des caractéristiques Maximum d information mutuelle Factorisation en matrices nonnégatives Sélection de caractéristiques Comparaison: Filter: Avantages: Exécution rapide Généralisation Inconvénients: Sélection d un sous-ensemble important: nécessité de fixer la dimension «désirée» du sous-ensemble Wrapper: Avantages: Performances en terme de score de reconnaissance Possibilité de combiner des critères d arrêt pour la généralisation Inconvénients: Exécution lente «Spécialisation» à un classifieur 67 Projection Principe: Obtenir une représentation des données en utilisant des contraintes de non-négativité. Contraintes issues des données: combinaison additive, interprétation 68
18 Factorisation en matrices nonnégatives Factorisation en matrices nonnégatives Principe: Principe: Projection Projection V: matrice de dimension nxm Les colonnes représentent les vecteurs caractéristiques de dimension n (m vecteurs) Matrices non-négatives W: matrice factorisée de dimension nxr H: matrice factorisée de dimension rxm Choix: (n+m) r < nm Chaque colonne de W est vecteur de base (basis vector) Les colonnes de H représentent les poids nécessaires pour approximer la colonne correspondante de W Comparaison avec l ACP: W représente le vecteurs propres (eigenvectors) H les valeurs propres (eigenprojections) ACP n a pas de contraintes spécifiques sur la non-négativité des matrices Factorisation en matrices nonnégatives Factorisation en matrices nonnégatives Principe: Résultats: Projection Algorithmes Projection Critère: optimisation de la divergence: Méthode itérative: 71 72
19 Factorisation en matrices nonnégatives Factorisation en matrices nonnégatives Résultats: Résultats: Projection Projection Factorisation en matrices nonnégatives Base de données Analyse de l interaction : Classification Sélection de caractéristiques Méthodes directes K-ppv bonne mauvaise Génération de Projection prototypes Frontière réelle Frontière estimée exemples nombreux densité homogène exemples peu nombreux densité non homogène 75 76
20 Performances d un classifieur Performances d un classifieur Classification Méthodes directes K-ppv Génération de prototypes Mesurées sur l ensemble de test : % formes bien classées % formes mal classées % formes non classées facteur de qualité étude des confusions critères de rejet Classification Méthodes directes K-ppv Génération de prototypes Estimation des performances sur une base de test Matrice de confusion : décision étiquette 1 2 Coût d une décision? Notion de risque Performances d un classifieur Performances d un classifieur Classification Méthodes directes N-folds cross-validation Classification Méthodes directes N-folds cross-validation K-ppv K-ppv Génération de Génération de prototypes prototypes 79 80
21 Performances d un classifieur Performances d un classifieur Classification Méthodes directes K-ppv Visualisation des performances: Courbe ROC (Receiver Operating Characteristic) Classification Méthodes directes K-ppv Visualisation des performances: Courbe ROC (Receiver Operating Characteristic) Génération de Génération de prototypes prototypes Performances d un classifieur Classification Méthodes directes K-ppv Visualisation des performances: AUC: Area Under ROC Curve Génération de prototypes 83
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailAnalyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57
Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation
Plus en détailDéroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI
1 Déroulement d un projet en DATA MINING, préparation et analyse des données Walid AYADI 2 Les étapes d un projet Choix du sujet - Définition des objectifs Inventaire des données existantes Collecte, nettoyage
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailExtraction d informations stratégiques par Analyse en Composantes Principales
Extraction d informations stratégiques par Analyse en Composantes Principales Bernard DOUSSET IRIT/ SIG, Université Paul Sabatier, 118 route de Narbonne, 31062 Toulouse cedex 04 dousset@irit.fr 1 Introduction
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailINF6304 Interfaces Intelligentes
INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie
Plus en détailObjectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique
Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détailCALCUL D UN SCORE ( SCORING) Application de techniques de discrimination LES OBJECTIFS DU SCORING
CALCUL D UN SCORE ( SCORING) Application de techniques de discrimination LES OBJECTIFS DU SCORING SÉLECTION DES RISQUES PRÉVISION DES DÉFAUTS SUIVI ET CONTRÔLE Pierre-Louis GONZALEZ Différents types de
Plus en détailProjet de Traitement du Signal Segmentation d images SAR
Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,
Plus en détailIntroduction au datamining
Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des
Plus en détailAnalyse de la variance Comparaison de plusieurs moyennes
Analyse de la variance Comparaison de plusieurs moyennes Biostatistique Pr. Nicolas MEYER Laboratoire de Biostatistique et Informatique Médicale Fac. de Médecine de Strasbourg Mars 2011 Plan 1 Introduction
Plus en détaildonnées en connaissance et en actions?
1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailFORMULAIRE DE STATISTIQUES
FORMULAIRE DE STATISTIQUES I. STATISTIQUES DESCRIPTIVES Moyenne arithmétique Remarque: population: m xμ; échantillon: Mx 1 Somme des carrés des écarts "# FR MOYENNE(série) MOYENNE(série) NL GEMIDDELDE(série)
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane
Plus en détailESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring
ESSEC Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring Les méthodes d évaluation du risque de crédit pour les PME et les ménages Caractéristiques Comme les montants des crédits et des
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détailL analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :
La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.
Plus en détailUne comparaison de méthodes de discrimination des masses de véhicules automobiles
p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détailR-ICP : une nouvelle approche d appariement 3D orientée régions pour la reconnaissance faciale
R-ICP : une nouvelle approche d appariement 3D orientée régions pour la reconnaissance faciale Boulbaba BEN AMOR, Karima OUJI, Mohsen ARDABILIAN, et Liming CHEN Laboratoire d InfoRmatique en Images et
Plus en détailNON-LINEARITE ET RESEAUX NEURONAUX
NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail
Plus en détailSujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.
Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de
Plus en détailDETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES
Agence fédérale pour la Sécurité de la Chaîne alimentaire Administration des Laboratoires Procédure DETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES Date de mise en application
Plus en détailLe Data Mining au service du Scoring ou notation statistique des emprunteurs!
France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailObject Removal by Exemplar-Based Inpainting
Object Removal by Exemplar-Based Inpainting Kévin Polisano A partir d un article de A. Criminisi, P. Pérez & H. K. Toyama 14/02/2013 Kévin Polisano Object Removal by Exemplar-Based Inpainting 14/02/2013
Plus en détailOrganigramme / Algorigramme Dossier élève 1 SI
Organigramme / Algorigramme Dossier élève 1 SI CI 10, I11 ; CI 11, I10 C24 Algorithmique 8 février 2009 (13:47) 1. Introduction Un organigramme (ou algorigramme, lorsqu il est plus particulièrement appliqué
Plus en détailchoisir H 1 quand H 0 est vraie - fausse alarme
étection et Estimation GEL-64943 Hiver 5 Tests Neyman-Pearson Règles de Bayes: coûts connus min π R ( ) + ( π ) R ( ) { } Règles Minimax: coûts connus min max R ( ), R ( ) Règles Neyman Pearson: coûts
Plus en détailPourquoi l apprentissage?
Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage
Plus en détailCommunications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes
Loris MARCHAL Laboratoire de l Informatique du Parallélisme Équipe Graal Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes Thèse réalisée sous la direction
Plus en détailLaboratoire d Automatique et Productique Université de Batna, Algérie
Anale. Seria Informatică. Vol. IX fasc. 2 Annals. Computer Science Series. 9 th Tome st Fasc. 2 La sélection de paramètres d un système industriel par les colonies de fourmis Ouahab Kadri, L. Hayet Mouss,
Plus en détailReconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12
Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 2 Discrimination Invariance Expressions faciales Age Pose Eclairage 11/12/2012 3 Personne Inconnue Identité
Plus en détailApprentissage Automatique
Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Plus en détailGéométrie discrète Chapitre V
Géométrie discrète Chapitre V Introduction au traitement d'images Géométrie euclidienne : espace continu Géométrie discrète (GD) : espace discrétisé notamment en grille de pixels GD définition des objets
Plus en détailReprésentation des Nombres
Chapitre 5 Représentation des Nombres 5. Representation des entiers 5.. Principe des représentations en base b Base L entier écrit 344 correspond a 3 mille + 4 cent + dix + 4. Plus généralement a n a n...
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailLa visio-conférence holographique : Pourquoi? Comment?
La visio-conférence holographique : Pourquoi? Comment? Francis Felix Labo LSIS / Arts & Métiers Paritech (ENSAM) 2 Cours des Arts et Métiers 13100 Aix-en-Provence Thierry Henocque AIP-Primeca Dauphiné
Plus en détailUEO11 COURS/TD 1. nombres entiers et réels codés en mémoire centrale. Caractères alphabétiques et caractères spéciaux.
UEO11 COURS/TD 1 Contenu du semestre Cours et TDs sont intégrés L objectif de ce cours équivalent a 6h de cours, 10h de TD et 8h de TP est le suivant : - initiation à l algorithmique - notions de bases
Plus en détailArbres binaires de décision
1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression
Plus en détailAlgorithme des fourmis appliqué à la détection et au suivi de contours dans une image
IN52-IN54 A2008 Algorithme des fourmis appliqué à la détection et au suivi de contours dans une image Etudiants : Nicolas MONNERET Alexandre HAFFNER Sébastien DE MELO Responsable : Franck GECHTER Sommaire
Plus en détailStructure du cours : Il existe de nombreuses méthodes intéressantes qui couvrent l Analyse des Données
Structure du cours : Il existe de nombreuses méthodes intéressantes qui couvrent l Analyse des Données et le Data Mining Nous suivons le plan suivant : Fonctionnement de Spad Catalogue des méthodes (statistiques
Plus en détailACP Voitures 1- Méthode
acp=princomp(voit,cor=t) ACP Voitures 1- Méthode Call: princomp(x = voit, cor = T) Standard deviations: Comp.1 Comp.2 Comp.3 Comp.4 Comp.5 Comp.6 2.1577815 0.9566721 0.4903373 0.3204833 0.2542759 0.1447788
Plus en détailVérification audiovisuelle de l identité
Vérification audiovisuelle de l identité Rémi Landais, Hervé Bredin, Leila Zouari, et Gérard Chollet École Nationale Supérieure des Télécommunications, Département Traitement du Signal et des Images, Laboratoire
Plus en détailINTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine
Plus en détailTable des matières: Guidelines Fonds de Pensions
Table des matières: Guidelines Fonds de Pensions TABLE DES MATIERES... 1 INTRODUCTION... 2 1 FINANCEMENT ET FINANCEMENT MINIMUM... 3 1.1 FINANCEMENT... 3 1.2 FINANCEMENT DE PLAN... 3 1.3 FINANCEMENT MÉTHODE
Plus en détailCAPTEURS - CHAINES DE MESURES
CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,
Plus en détailBiostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke
www.fundp.ac.be/biostats Module 140 140 ANOVA A UN CRITERE DE CLASSIFICATION FIXE...2 140.1 UTILITE...2 140.2 COMPARAISON DE VARIANCES...2 140.2.1 Calcul de la variance...2 140.2.2 Distributions de référence...3
Plus en détailTests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA
Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailChapitre 2/ La fonction de consommation et la fonction d épargne
hapitre 2/ La fonction de consommation et la fonction d épargne I : La fonction de consommation keynésienne II : Validations et limites de la fonction de consommation keynésienne III : Le choix de consommation
Plus en détailTechniques du Data Mining pour la prédiction de faillite des entreprises et la gestion du risque de crédit
Techniques du Data Mining pour la prédiction de faillite des entreprises et la gestion du risque de crédit Adil Belhouari HEC - Montréal - Journées de l Optimisation 2005-09 Mai 2005 PLAN DE LA PRÉSENTATION
Plus en détailLaboratoire 4 Développement d un système intelligent
DÉPARTEMENT DE GÉNIE LOGICIEL ET DES TI LOG770 - SYSTÈMES INTELLIGENTS ÉTÉ 2012 Laboratoire 4 Développement d un système intelligent 1 Introduction Ce quatrième et dernier laboratoire porte sur le développement
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailOptimisation de la compression fractale D images basée sur les réseaux de neurones
Optimisation de la compression fractale D images basée sur les réseaux de neurones D r BOUKELIF Aoued Communication Networks,Architectures and Mutimedia laboratory University of S.B.A aoued@hotmail.com
Plus en détailThéorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
Plus en détailCoup de Projecteur sur les Réseaux de Neurones
Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche
Plus en détailMAP 553 Apprentissage statistique
MAP 553 Apprentissage statistique Université Paris Sud et Ecole Polytechnique http://www.cmap.polytechnique.fr/~giraud/map553/map553.html PC1 1/39 Apprentissage? 2/39 Apprentissage? L apprentissage au
Plus en détailRevue des algorithmes PCA, LDA et EBGM utilisés en reconnaissance 2D du visage pour la biométrie
Revue des algorithmes PCA, LDA et EBGM utilisés en reconnaissance 2D du visage pour la biométrie Nicolas MORIZET, Thomas EA, Florence ROSSANT, Frédéric AMIEL, Amara AMARA Institut Supérieur d Électronique
Plus en détailAnalyse discriminante et régression logistique: application au cas de l innovation pour les entreprises du Canton du Tessin
Analyse discriminante et régression logistique: application au cas de l innovation pour les entreprises du Canton du Tessin Sandro Petrillo Université de Neuchâtel - Diplôme Postgrade en Statistique Projet
Plus en détailOptimisation, traitement d image et éclipse de Soleil
Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement
Plus en détailApprentissage incrémental par sélection de données dans un flux pour une application de sécurité routière
Apprentissage incrémental par sélection de données dans un flux pour une application de sécurité routière Nicolas Saunier INRETS Télécom Paris Sophie Midenet INRETS Alain Grumbach Télécom Paris Conférence
Plus en détailChapitre 6 Test de comparaison de pourcentages χ². José LABARERE
UE4 : Biostatistiques Chapitre 6 Test de comparaison de pourcentages χ² José LABARERE Année universitaire 2010/2011 Université Joseph Fourier de Grenoble - Tous droits réservés. Plan I. Nature des variables
Plus en détailDétection de la défaillance des entreprises tunisiennes par la régression logistique semi paramétrique et les réseaux de neurones
Détection de la défaillance des entreprises tunisiennes par la régression logistique semi paramétrique et les réseaux de neurones Abdeljelil Farhat Unité de recherche EAS-Mahdia Faculté des sciences économiques
Plus en détailLogiciel XLSTAT version 7.0. 40 rue Damrémont 75018 PARIS
Logiciel XLSTAT version 7.0 Contact : Addinsoft 40 rue Damrémont 75018 PARIS 2005-2006 Plan Présentation générale du logiciel Statistiques descriptives Histogramme Discrétisation Tableau de contingence
Plus en détailIFT3245. Simulation et modèles
IFT 3245 Simulation et modèles DIRO Université de Montréal Automne 2012 Tests statistiques L étude des propriétés théoriques d un générateur ne suffit; il estindispensable de recourir à des tests statistiques
Plus en détail1 Définition de la non stationnarité
Chapitre 2: La non stationnarité -Testsdedétection Quelques notes de cours (non exhaustives) 1 Définition de la non stationnarité La plupart des séries économiques sont non stationnaires, c est-à-direqueleprocessusquiles
Plus en détailBureau : 238 Tel : 04 76 82 58 90 Email : dominique.muller@upmf-grenoble.fr
Dominique Muller Laboratoire Inter-universitaire de Psychologie Bureau : 238 Tel : 04 76 82 58 90 Email : dominique.muller@upmf-grenoble.fr Supports de cours : webcom.upmf-grenoble.fr/lip/perso/dmuller/m2r/acm/
Plus en détailNouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires
Nouvelles propositions pour la résolution exacte du sac à dos multi-objectif unidimensionnel en variables binaires Julien Jorge julien.jorge@univ-nantes.fr Laboratoire d Informatique de Nantes Atlantique,
Plus en détailAgenda de la présentation
Le Data Mining Techniques pour exploiter l information Dan Noël 1 Agenda de la présentation Concept de Data Mining ou qu est-ce que le Data Mining Déroulement d un projet de Data Mining Place du Data Mining
Plus en détailProgrammation Linéaire - Cours 1
Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.
Plus en détailInteractions des rayonnements avec la matière
UE3-1 : Biophysique Chapitre 2 : Interactions des rayonnements avec la matière Professeur Jean-Philippe VUILLEZ Année universitaire 2011/2012 Université Joseph Fourier de Grenoble - Tous droits réservés.
Plus en détailChapitre 6 Apprentissage des réseaux de neurones et régularisation
Chapitre 6 : Apprentissage des réseaux de neurones et régularisation 77 Chapitre 6 Apprentissage des réseaux de neurones et régularisation Après une introduction rapide aux réseaux de neurones et à la
Plus en détailExo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.
Eo7 Calculs de déterminants Fiche corrigée par Arnaud Bodin Eercice Calculer les déterminants des matrices suivantes : Correction Vidéo ( ) 0 6 7 3 4 5 8 4 5 6 0 3 4 5 5 6 7 0 3 5 4 3 0 3 0 0 3 0 0 0 3
Plus en détailSolution logicielle pour le pilotage et l ERM. Journées d études IARD 26 mars 2010 2 mars 2010
Présentation d ERMS Solution logicielle pour le pilotage et l ERM Journées d études IARD 26 mars 2010 2 mars 2010 Sommaire 1 Présentation d ACTUARIS 2 Les problématiques rencontrées 3 Présentation d ERMS
Plus en détailBaccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailLes outils actuels permettent-ils d automatiser la production de cartes? De quels outils dispose-t-on?
Le "Portrait de la Biodiversité Communale" est un document réalisé au niveau national pour chaque commune, regroupant les connaissances publiques disponibles et mobilisables à l'échelle nationale en matière
Plus en détailEnjeux mathématiques et Statistiques du Big Data
Enjeux mathématiques et Statistiques du Big Data Mathilde Mougeot LPMA/Université Paris Diderot, mathilde.mougeot@univ-paris-diderot.fr Mathématique en Mouvements, Paris, IHP, 6 Juin 2015 M. Mougeot (Paris
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailEtat de l art de la Reconnaissance de Visage.
Chapitre 2 2.1 Introduction De nos jours, il existe des ordinateurs capables d effectuer des tâches faites par l homme, qui demandent de l intelligence. Malgré tout ce progrès, la machine est toujours
Plus en détailMedication management ability assessment: results from a performance based measure in older outpatients with schizophrenia.
Medication Management Ability Assessment (MMAA) Patterson TL, Lacro J, McKibbin CL, Moscona S, Hughs T, Jeste DV. (2002) Medication management ability assessment: results from a performance based measure
Plus en détailApplication des courbes ROC à l analyse des facteurs pronostiques binaires
Application des courbes ROC à l analyse des facteurs pronostiques binaires Combescure C (1), Perneger TV (1), Weber DC (2), Daurès J P (3), Foucher Y (4) (1) Service d épidémiologie clinique et Centre
Plus en détailTraitement bas-niveau
Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.
Plus en détailCalcul de développements de Puiseux et application au calcul du groupe de monodromie d'une courbe algébrique plane
Calcul de développements de Puiseux et application au calcul du groupe de monodromie d'une courbe algébrique plane Poteaux Adrien XLIM-DMI, UMR-CNRS 6172 Université de Limoges Soutenance de thèse 15 octobre
Plus en détailIntroduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.
Introduction L'objectif de mon TIPE est la reconnaissance de sons ou de notes de musique à l'aide d'un réseau de neurones. Ce réseau doit être capable d'apprendre à distinguer les exemples présentés puis
Plus en détailMATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA
MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option
Plus en détailValidation probabiliste d un Système de Prévision d Ensemble
Validation probabiliste d un Système de Prévision d Ensemble Guillem Candille, janvier 2006 Système de Prévision d Ensemble (EPS) (ECMWF Newsletter 90, 2001) Plan 1 Critères de validation probabiliste
Plus en détailAnalyse dialectométrique des parlers berbères de Kabylie
Saïd GUERRAB Analyse dialectométrique des parlers berbères de Kabylie Résumé de la thèse (pour affichage) Il est difficile de parler du berbère sans parler de la variation. Il y a d abord une variation
Plus en détailUne méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données
Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données Marc Boullé Orange Labs 2 avenue Pierre Marzin 22300 Lannion marc.boulle@orange-ftgroup.com,
Plus en détailLes technologies du Big Data
Les technologies du Big Data PRÉSENTÉ AU 40 E CONGRÈS DE L ASSOCIATION DES ÉCONOMISTES QUÉBÉCOIS PAR TOM LANDRY, CONSEILLER SENIOR LE 20 MAI 2015 WWW.CRIM.CA TECHNOLOGIES: DES DONNÉES JUSQU'À L UTILISATEUR
Plus en détailA L ERT. Pour démarrer rapidement avec
A L ERT Pour démarrer rapidement avec I N STAL L ATION Pour lancer l installation de la Solution Micromedia, insérer le CD-ROM d installation dans le lecteur. Si le programme d installation ne démarre
Plus en détailMinistère de l Enseignement Supérieur et de la Recherche Scientifique
Ministère de l Enseignement Supérieur et de la Recherche Scientifique Institut National de Formation en Informatique (I.N.I) Oued Smar Alger Direction de la Post Graduation et de la Recherche Thème : Inférence
Plus en détailIntroduction à l approche bootstrap
Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailChapitre 1 Evaluation des caractéristiques d un test diagnostique. José LABARERE
UE4 : Biostatistiques Chapitre 1 Evaluation des caractéristiques d un test diagnostique José LABARERE Année universitaire 2011/2012 Université Joseph Fourier de Grenoble - Tous droits réservés. lan I.
Plus en détailAnalyse en Composantes Principales
Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées
Plus en détail