Méthodes de placement multidimensionnelles. Fabrice Rossi Télécom ParisTech

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "Méthodes de placement multidimensionnelles. Fabrice Rossi Télécom ParisTech"

Transcription

1 Méthodes de placement multidimensionnelles Fabrice Rossi Télécom ParisTech

2 Plan Introduction Analyse en composantes principales Modèle Qualité et interprétation Autres méthodes 2 / 27 F. Rossi

3 Plan Introduction Analyse en composantes principales Modèle Qualité et interprétation Autres méthodes 3 / 27 F. Rossi Introduction

4 Motivations intérêt des outils de visualisation très efficaces en dimension 2 corrects en dimension 3 utilisables en dimensions 4 ou 5 (après un apprentissage) limites dilemme lisibilité versus nombre de variables (et d objets) liens entre variables difficiles à comprendre liens entre objets difficiles à comprendre 4 / 27 F. Rossi Introduction

5 Motivations intérêt des outils de visualisation très efficaces en dimension 2 corrects en dimension 3 utilisables en dimensions 4 ou 5 (après un apprentissage) limites dilemme lisibilité versus nombre de variables (et d objets) liens entre variables difficiles à comprendre liens entre objets difficiles à comprendre solution réduire automatiquement la dimension des données en enlevant des variables ou en calculant de nouvelles coordonnées 4 / 27 F. Rossi Introduction

6 Placement formulation du problème : données (X i ) 1 i N dans un espace X placement (Y i ) 1 i N dans R Q avec Q petit (2 ou 3) à chaque objet X i est associé un vecteur en basse dimension Y i problème : bien choisir les Y i deux sources de variabilité dans les solutions représentation initiale (nature) des X i critère de choix des Y i questions additionnelles lien entre les X i et les Y i contrôle de la qualité du placement interprétation 5 / 27 F. Rossi Introduction

7 Données vectorielles X est une matrice N P N objets P variables numériques Critère d approximation Y est de dimension Q < P : on considère les Y i comme des éléments d un sous-espace vectoriel de R P critère de qualité quadratique 1 N N X i Y i 2 i=1 attention : les Y i sont décrits dans une base adaptée problème d optimisation : choisir les meilleurs Y i sous une contrainte de rang 6 / 27 F. Rossi Introduction

8 Données dissimilarités les X sont décrits seulement par une dissimilarité entre les objets, d X (X i, X j ) Critères d approximation les Y sont dans R p : d(y i, Y j ) = Y i Y j essayer d avoir d(y i, Y j ) d X (X i, X j ) : principe de préservation des distances critère générique 1 N 2 N i=1 j=1 N (d X (X i, X j ) Y i Y j ) 2 F (d X (X i, X j ), Y i Y j ) le rôle de F est de limiter l influence des grandes distances (par exemple) d autres variantes existent 7 / 27 F. Rossi Introduction

9 Plan Introduction Analyse en composantes principales Modèle Qualité et interprétation Autres méthodes 8 / 27 F. Rossi Analyse en composantes principales

10 Analyse en composantes principales méthode de placement pour données numériques inventée par Pearson (1901) approche par projection linéaire idée sous-jacente (modèle factoriel) processus génératif X = YW W est une matrice Q P orthogonale WW T = I Y est une représentation de dimension Q but de l analyse factorielle : retrouver W et Y 9 / 27 F. Rossi Analyse en composantes principales

11 Projection linéaire soit un système orthonormé (φ j ) 1 j Q de R P, la projection d un X i sur le sous-e. v. associé est P(X i ) = Q (X i φ j )φ T j j=1 erreur de projection 1 N N X i i=1 Q (X i φ j )φ T j j=1 2 meilleure projection : optimisation sur (φ j ) 1 j Q 10 / 27 F. Rossi Analyse en composantes principales

12 Résolution on suppose les données centrées : N i=1 X i = 0 on note Φ la matrice des φ j (en colonnes) l erreur de projection devient 1 N N X i X i ΦΦ T 2 i=1 minimiser l erreur revient à résoudre maximiser 1 N Tr(XΦΦT X T ) avec Φ T Φ = I solution (admise) : les φ j sont les vecteurs propres de 1 N X T X associés aux P plus grandes valeurs propres 11 / 27 F. Rossi Analyse en composantes principales

13 ACP on a donc X YW avec W = Φ T et Y = XΦ les colonnes de Φ sont les axes principaux de l ACP les colonnes de Y sont les composantes principales la variance de Y.i est λ i, la i-ème valeur propre de 1 N X T X placement : on conserve les deux premiers axes on affiche les deux premières composantes 12 / 27 F. Rossi Analyse en composantes principales

14 Conservation de la variance autre vison de l ACP : chercher une direction intéressante dans les données intéressant : avec une forte variabilité analyse similaire à la précédente : axe de projection φ, projection Xφ variance de la projection 1 N XφφT X T (données centrées) maximisation de la variance même problème que précédemment! les axes principaux sont donc des axes de variance maximale 13 / 27 F. Rossi Analyse en composantes principales

15 Exemples données verre : 213 observations sur 10 variables 9 variables numériques : pas de prise en compte de la variable nominale données iris : 150 observations sur 5 variables 4 variables numériques (et une nominale) centrage et réduction : centrage : obligatoire réduction : au choix de l analyste 14 / 27 F. Rossi Analyse en composantes principales

16 Données verre normalisé PC PC1 15 / 27 F. Rossi Analyse en composantes principales

17 Données verre non normalisé PC PC1 15 / 27 F. Rossi Analyse en composantes principales

18 Données Iris normalisé PC PC1 16 / 27 F. Rossi Analyse en composantes principales

19 Données Iris non normalisé PC PC1 16 / 27 F. Rossi Analyse en composantes principales

20 Analyse du placement l ACP est une projection linéaire les distances sont donc réduites : si deux points sont proches dans R P ils seront toujours proches dans R Q par ACP mais deux points proches dans le placement ACP ne sont pas nécessairement proches dans l espace d origine les séparations sont exactes les regroupements peuvent être trompeurs 17 / 27 F. Rossi Analyse en composantes principales

21 Qualité de l approximation Erreur de reconstruction 1 N Tr(X T X) 1 N Tr(XΦΦT X T ) or 1 N Tr(X T X) = P i=1 λ i est la somme des variances des variables 1 N Tr(XΦΦT X T ) = 1 N Tr(ΦT XX T Φ) = Q i=1 λ i Qualité : pourcentage de la variance expliquée Q i=1 λ i P i=1 λ i 18 / 27 F. Rossi Analyse en composantes principales

22 Représentation graphique Données verre Données Iris 19 / 27 F. Rossi Analyse en composantes principales

23 Représentation graphique Données verre Données Iris L approximation est bien meilleure pour les données Iris en deux dimensions. 19 / 27 F. Rossi Analyse en composantes principales

24 Interprétation des axes aide à l interprétation : quel sens accorder aux axes principaux? lien entre les axes et les variables d origine on considère la corrélation entre X.j et Y.k : comme les variables sont centrées, la covariance de X.j et Y.k est 1 N (X T Y ) jk la corrélation entre X.j et Y.k est donc λk φ jk σ j, où σ i est l écart-type de X.j on peut dessiner les variables réduites : cercle des corrélations 20 / 27 F. Rossi Analyse en composantes principales

25 Données Iris normalisé PC PC1 21 / 27 F. Rossi Analyse en composantes principales

26 Données Iris PC V2 V3 V4 V PC1 21 / 27 F. Rossi Analyse en composantes principales

27 Données glass normalisé PC PC1 22 / 27 F. Rossi Analyse en composantes principales

28 Données glass PC V7 V1 V9 V3 V8 V6 V5 V2 V PC1 22 / 27 F. Rossi Analyse en composantes principales

29 Plan Introduction Analyse en composantes principales Modèle Qualité et interprétation Autres méthodes 23 / 27 F. Rossi Autres méthodes

30 Limites de l ACP pas de prise en compte des dépendances non linéaires s appuie sur les corrélations : pas de corrélation, pas de simplification! projection linéaire : écrase les données ne préserve pas les distances 24 / 27 F. Rossi Autres méthodes

31 Limites de l ACP pas de prise en compte des dépendances non linéaires s appuie sur les corrélations : pas de corrélation, pas de simplification! projection linéaire : écrase les données ne préserve pas les distances autres solutions : méthodes de placement non linéaire : pas de lien linéaire entre X et Y optimisation d une mesure de préservation des distances (dissimilarités) 24 / 27 F. Rossi Autres méthodes

32 Multi Dimensional Scaling famille des algorithmes de Multi Dimensional Scaling méthode de Kruskal-Shepard : minimiser ( d(xi, x j ) y i y j ) 2 i j méthode de Sammon : minimiser ( d(xi, x j ) y i y j ) 2 i j d(x i, x j ) ce qui favorise les petites distances nombreuses autres variantes 25 / 27 F. Rossi Autres méthodes

33 Données Iris normalisé PC PC1 26 / 27 F. Rossi Autres méthodes

34 Données Iris Sammon iris.sammon$points[,2] iris.sammon$points[,1] 26 / 27 F. Rossi Autres méthodes

35 Données glass normalisé PC PC1 27 / 27 F. Rossi Autres méthodes

36 Données glass Sammon glass.sammon$points[,2] glass.sammon$points[,1] 27 / 27 F. Rossi Autres méthodes

Analyse en composantes principales

Analyse en composantes principales Analyse en composantes principales Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Analyse en composantes principales p. 1/18 Introduction Objectifs Soit {x i } i=1,,l

Plus en détail

Analyse en composantes principales Christine Decaestecker & Marco Saerens ULB & UCL

Analyse en composantes principales Christine Decaestecker & Marco Saerens ULB & UCL Analyse en composantes principales Christine Decaestecker & Marco Saerens ULB & UCL LINF 2275 Stat. explor. multidim. 1 A.C.P.: Analyse en Composantes Principales Analyse de la structure de la matrice

Plus en détail

Analyse des données et Data Mining

Analyse des données et Data Mining Analyse des données et Data Mining Analyse en composantes principales utc sy09 1 Objectif des méthodes factorielles Visualiser, traiter des données multidimensionnelles Problème difficile Information apportée

Plus en détail

HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES

HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES 105 HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES 1. Introduction En statistiques il arrive fréquemment que les individus soient décrits par un grand nombre de caractères. : voitures décrites par leur

Plus en détail

Cours IFT6266, Apprentissage Non-Supervisé de Variétés

Cours IFT6266, Apprentissage Non-Supervisé de Variétés Cours IFT6266, Apprentissage Non-Supervisé de Variétés L Apprentissage Non-Supervisé L apprentissage non-supervisé vise à caractériser la distribution des données, et les relations entre les variables,

Plus en détail

Ch2 : Analyse en Composantes Principales (ACP)

Ch2 : Analyse en Composantes Principales (ACP) Ch2 : Analyse en Composantes Principales (ACP) A- Objectifs B- construction d un espace factoriel C- Les étapes d une ACP D- Interprétation E- Limites A- Objectifs On dispose d un tableau de données X.

Plus en détail

Laboratoire 2 Extraction des caractéristiques

Laboratoire 2 Extraction des caractéristiques Laboratoire 2 Extraction des caractéristiques L objectif de l extraction et de la sélection de caractéristiques est d identifier les caractéristiques importantes pour la discrimination entre classes. Après

Plus en détail

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Introduction aux modèles graphiques 2010/2011 Cours 2 6 octobre Enseignant: Francis Bach Scribe: Nicolas Cheifetz, Issam El Alaoui 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Soit

Plus en détail

Algorithmes de descente par blocs pour l apprentissage creux

Algorithmes de descente par blocs pour l apprentissage creux Algorithmes de descente par blocs pour l apprentissage creux Mehdi Meghzifene 11//211 1 Table des matières 1 Introduction 3 1.1 Principe......................................... 3 2 Résolution 4 2.1 Minimisation

Plus en détail

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et

Plus en détail

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7. Statistique Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.fr Cours Statistique, 2010 p. 1/52 Plan du cours Chapitre 1 : Estimation

Plus en détail

Reconnaissance des formes

Reconnaissance des formes Reconnaissance des formes Discrimination A. Belaïd LORIA - Nancy Discrimination linéaire Notion d hyperplan Discrimination linéaire Principe Une forme x R d (vecteur forme) Rôle de la Trouver D : R d x

Plus en détail

Installation de la librairie VISP et création du projet

Installation de la librairie VISP et création du projet ESIR3-IN Travaux Pratiques VO 2012-2013 PREAMBULE Copier les données des TPs 1. créez un répertoire VO dans votre homedir cd ~/ mkdir VO cd VO 2. copier le dossier contenant toutes les données pour les

Plus en détail

Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005. Leçons d Algèbre et de Géométrie

Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005. Leçons d Algèbre et de Géométrie http://perso.wanadoo.fr/gilles.costantini/agreg.htm Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005 Légende : En italique : leçons dont le libellé a changé ou évolué par rapport

Plus en détail

Prof.É.D.Taillard. Classification automatique @Prof. E. Taillard 1 EIVD, Informatique logiciel, 4 e semestre

Prof.É.D.Taillard. Classification automatique @Prof. E. Taillard 1 EIVD, Informatique logiciel, 4 e semestre INFORMATIQUE ORIENTATION LOGICIELS CLASSIFICATION AUTOMATIQUE Prof.É.D.Taillard Classification automatique @Prof. E. Taillard EIVD, Informatique logiciel, 4 e semestre CLASSIFICATION AUTOMATIQUE But :

Plus en détail

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I ÉLÉMENTS D OPTIMISATION Complément au cours et au livre de MTH 1101 - CALCUL I CHARLES AUDET DÉPARTEMENT DE MATHÉMATIQUES ET DE GÉNIE INDUSTRIEL ÉCOLE POLYTECHNIQUE DE MONTRÉAL Hiver 2011 1 Introduction

Plus en détail

Choix de modèle en régression linéaire

Choix de modèle en régression linéaire Master pro Fouille de données Philippe Besse 1 Objectif Choix de modèle en régression linéaire La construction d un score d appétence sur les données bancaires correspond au choix et à l estimation d un

Plus en détail

SEMIN. Analyses factorielles avec R. Elisabeth MORAND INED

SEMIN. Analyses factorielles avec R. Elisabeth MORAND INED SEMIN Analyses factorielles avec R Elisabeth MORAND INED SEMIN R du MNHN 10 Décembre 2009 E. Morand 10 Décembre 2009 INED 1 / 42 Part I Analyse en Composantes Principales : ACP 2 / 42 Sommaire 1 Introduction

Plus en détail

Analyse en Composantes Principales

Analyse en Composantes Principales Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées

Plus en détail

Cours 2-3 Analyse des données multivariées

Cours 2-3 Analyse des données multivariées Cours 2-3 des données s Ismaël Castillo École des Ponts, 13 Novembre 2012 Plan 1 2 3 4 1. On s intéresse à un jeu de données multi-dimensionel, avec n individus observés et p variables d intérêt ( variables

Plus en détail

Analyse de spectres d absorbance pour la prédiction des taux de moisissure, de matières grasses et de protéines d échantillons de viande

Analyse de spectres d absorbance pour la prédiction des taux de moisissure, de matières grasses et de protéines d échantillons de viande Université de Nantes M2 Ingénierie Mathématiques Rapport de chimiométrie Analyse de spectres d absorbance pour la prédiction des taux de moisissure, de matières grasses et de protéines d échantillons de

Plus en détail

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq»

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Guy Perrière Pôle Rhône-Alpes de Bioinformatique 14 novembre 2012 Guy Perrière (PRABI) Tests statistiques 14 novembre 2012 1 / 40 Plan

Plus en détail

Analyse en Composantes Principales (ACP)

Analyse en Composantes Principales (ACP) Analyse en Composantes Principales (ACP) Principal Component Analysis (PCA) Nicolas Stoiber Dynamixyz Contexte : traitement du signal Problématique: comment, dans ce contexte, représenter des entités,

Plus en détail

APPRENTISSAGE AUTOMATIQUE. Réduction de dimension

APPRENTISSAGE AUTOMATIQUE. Réduction de dimension APPRENTISSAGE AUTOMATIQUE Réduction de dimension Malédiction de la dimensionalité Beaucoup de méthodes d apprentissage ne passent pas bien à l échelle pour des données de grandes dimensions: c est la malédiction

Plus en détail

Arithmétique Algorithmique. http://www.math.univ-lyon1.fr/~roblot/ens.html

Arithmétique Algorithmique. http://www.math.univ-lyon1.fr/~roblot/ens.html Arithmétique Algorithmique http://www.math.univ-lyon1.fr/~roblot/ens.html Partie III Algorithmes classiques 1 Coût de la multiplication et de la division 2 Exponentiation rapide 3 Algorithme d Euclide

Plus en détail

MATÉRIEL D APPRENTISSAGE SERVANT D APPUI AU NOUVEAU TABLEAU DE CORRESPONDANCE DU CURRICULUM À : MATHÉMATIQUES 11 NO P-0-257

MATÉRIEL D APPRENTISSAGE SERVANT D APPUI AU NOUVEAU TABLEAU DE CORRESPONDANCE DU CURRICULUM À : MATHÉMATIQUES 11 NO P-0-257 MATÉRIEL D APPRENTISSAGE SERVANT D APPUI AU NOUVEAU CURRICULUM DE L ONTARIO : MATHÉMATIQUES, FONCTIONS, 11 e année, COURS PRÉUNIVERSITAIRE/PRÉCOLLÉGIAL (MCF3M) TABLEAU DE CORRESPONDANCE DU CURRICULUM À

Plus en détail

Filtre de Wiener. Analyse en Composantes Principales

Filtre de Wiener. Analyse en Composantes Principales Filtre de Wiener Analyse en Composantes Principales Guillaume Obozinski LIGM/Ecole des Ponts - ParisTech Traitement de l information et vision artificielle Ecole des Ponts Filtre de Wiener Norbert Wiener

Plus en détail

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE Pierre-Louis Gonzalez 1 I INTRODUCTION 1 variable qualitative. Tri à plat. Représentations graphiques. Modélisation : loi binomiale loi multinomiale

Plus en détail

Concevoir et analyser des tâches mathématiques dans un environnement logiciel : Quels objectifs d apprentissage? Quels choix de conception?

Concevoir et analyser des tâches mathématiques dans un environnement logiciel : Quels objectifs d apprentissage? Quels choix de conception? Concevoir et analyser des tâches mathématiques dans un environnement logiciel : Quels objectifs d apprentissage? Quels choix de conception? Semaine 2, auteurs Maha Abboud-Blanchard (ESPE de Versailles,

Plus en détail

(i) Le nombre de travailleurs commencant leur service est positif ou nul : x i 0 i = 1,...,7

(i) Le nombre de travailleurs commencant leur service est positif ou nul : x i 0 i = 1,...,7 Chapitre 1 Modelisation 11 Exemples de Problèmes 111 La Cafétaria Cafétaria ouverte toute la semaine Statistique sur le personnel requis : Jour Lundi Mardi Mercredi Jeudi Vendredi Samedi Dimanche Nombre

Plus en détail

Validation numérique de l homogénéisation pour un modèle simplifié de stockage avec sources aléatoires

Validation numérique de l homogénéisation pour un modèle simplifié de stockage avec sources aléatoires Validation numérique de l homogénéisation pour un modèle simplifié de stockage avec sources aléatoires Introduction Modélisation de la migration de radionucléide Vers un modèle probabiliste Calcul des

Plus en détail

Application des méthodes de décomposition en composantes principales à la climatologie

Application des méthodes de décomposition en composantes principales à la climatologie Application des méthodes de décomposition en composantes principales à la climatologie Etude d un exemple: les modes de variabilité de la température de surface de la mer dans l océan Atlantique tropical

Plus en détail

GOUTTE. Analyse Statistique des Données Cours 4. Master 2 EID. LUISS, Libera Università Internazionale degli Studi Sociali

GOUTTE. Analyse Statistique des Données Cours 4. Master 2 EID. LUISS, Libera Università Internazionale degli Studi Sociali LUISS, Libera Università Internazionale degli Studi Sociali Université Paris 13 Laboratoire Analyse, Géométrie et Applications UMR 7539 GOUTTE Analyse Statistique des Données Cours 4 Master 2 EID goutte@math.univ-paris13.fr

Plus en détail

Deuxième partie II. Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance

Deuxième partie II. Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance Deuxième partie II Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance (version corrigée, 4 avril 27) Construction d estimateurs 4 Construction d estimateurs Estimateur

Plus en détail

Analyse en composantes principales (ACP)

Analyse en composantes principales (ACP) Analyse en composantes principales (ACP) François Husson Laboratoire de mathématiques appliquées - Agrocampus Rennes husson@agrocampus-ouest.fr 1 / 31 Quel type de données? L ACP s intéresse à des tableaux

Plus en détail

Cours de Statistiques

Cours de Statistiques Cours de Statistiques Romain Raveaux 1 1 Laboratoire L3I Université de La Rochelle romain.raveaux01 at univ-lr.fr Octobre 24-11, 2008 1 / 35 Sommaire 1 Quelques Rappels 2 numériques Relations entre deux

Plus en détail

Pour un socle de la licence de MATHEMATIQUES

Pour un socle de la licence de MATHEMATIQUES Pour un socle de la licence de MATHEMATIQUES Société Mathématique de France Société de Mathématiques Appliquées et Industrielles Société Française de Statistique Contexte général Afin d éviter de trop

Plus en détail

Chapitre 8: Inférence, échantillonnage et estimation

Chapitre 8: Inférence, échantillonnage et estimation Chapitre 8: Inférence, échantillonnage et estimation 1. Echantillonnage aléatoire simple 2. Inférence statistique 3. Estimation 4. Evaluation graphique de l adéquation d un modèle de distribution 1 L inférence

Plus en détail

PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011

PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011 Projet 2009 2010 Biométrie 3D PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011 Département : TIC Mots clés : Biométrie, Analyse d images, Vision, Caméra thermique, Caméra temps de vol, Détection

Plus en détail

Codes linéaires. Distance d un code linéaire

Codes linéaires. Distance d un code linéaire Distance d un code linéaire Un code binaire C est linéaire si la somme de deux mots quelconques du code est encore un mot du code : w 1, w 2 C, w 1 + w 2 C Un code linéaire est donc un sous-espace vectoriel

Plus en détail

figure 6.1. page 230. Il existe deux grandes classes de projections : les projections perspectives et les projections parallèles.

figure 6.1. page 230. Il existe deux grandes classes de projections : les projections perspectives et les projections parallèles. Informatique Graphique Cours 12 - Projections Introduction En général, une projection est une fonction qui permet de transformer un point dans système de coordonnées à N dimensions, en un point dans un

Plus en détail

Méthodes de projection

Méthodes de projection Chapitre 11 Méthodes de projection Contenu 11.1 Analyse en composantes principales........ 138 11.1.1 L Analyse en Composantes Principales........ 139 11.1.2 La (grande) famille des ACP............. 151

Plus en détail

Planification des salles opératoires avec durées d interventions aléatoires

Planification des salles opératoires avec durées d interventions aléatoires Planification des salles opératoires avec durées d interventions aléatoires Mehdi LAMIRI, Xiaolan XIE, Alexandre DOLGUI et Frédéric GRIMAUD Centre Ingénierie et santé Centre Génie Industriel et Informatique

Plus en détail

Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6

Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6 Fouille de Données et Media Sociaux Cours 2 Master DAC Data Science UPMC - LIP6 Ludovic Denoyer 21 septembre 2015 Ludovic Denoyer () FDMS 21 septembre 2015 1 / 1 Contexte Observation La plupart des bonnes

Plus en détail

Vision Par Ordinateur. Techniques Statistiques de la Reconnaissance de Forme. Segmentation...2. Variables Aléatoires...7

Vision Par Ordinateur. Techniques Statistiques de la Reconnaissance de Forme. Segmentation...2. Variables Aléatoires...7 Vision Par Ordinateur James L. Crowley DEA IVR Premier Bimestre 1999/00 Séance 4 26 octobre 1999 Plan de la séance : Techniques Statistiques de la Reconnaissance de Forme Segmentation...2 La Distribution

Plus en détail

Une revue des méthodes de discrimination pour la spectrométrie PIR (centrée sur les méthodes linéaires) JM Roger. jean-michel.roger@cemagref.

Une revue des méthodes de discrimination pour la spectrométrie PIR (centrée sur les méthodes linéaires) JM Roger. jean-michel.roger@cemagref. Une revue des méthodes de discrimination pour la spectrométrie PIR (centrée sur les méthodes linéaires) JM Roger jean-michel.roger@cemagref.fr Plan Qu'est ce que la discrimination? Le modèle de l'analyse

Plus en détail

en dimension finie Table des matières

en dimension finie Table des matières Maths PCSI Cours Algèbre linéaire en dimension finie Table des matières 1 Rappels d algèbre linéaire 2 1.1 Applications linéaires......................................... 2 1.2 Familles libres, génératrices

Plus en détail

Les Réseaux de Neurones avec

Les Réseaux de Neurones avec Les Réseaux de Neurones avec Au cours des deux dernières décennies, l intérêt pour les réseaux de neurones s est accentué. Cela a commencé par les succès rencontrés par cette puissante technique dans beaucoup

Plus en détail

AA2 - Projet informatique

AA2 - Projet informatique AA2 - Projet informatique Jean-Baptiste Vioix (jean-baptiste.vioix@iut-dijon.u-bourgogne.fr) IUT de Dijon-Auxerre - LE2I http://jb.vioix.free.fr 1-15 Introduction Fonctionnement du module Le but de ce

Plus en détail

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Philippe Gagnepain Université Paris 1 Ecole d Economie de Paris Centre d économie de la Sorbonne-UG 4-Bureau 405 philippe.gagnepain@univ-paris1.fr

Plus en détail

T.S.A T E S T S E N I O R A T T I T U D E S. Un test de personnalité spécifiquement conçu pour le recrutement et le bilan professionnel des seniors

T.S.A T E S T S E N I O R A T T I T U D E S. Un test de personnalité spécifiquement conçu pour le recrutement et le bilan professionnel des seniors T.S.A T E S T S E N I O R A T T I T U D E S Un test de personnalité spécifiquement conçu pour le recrutement et le bilan professionnel des seniors Une analyse fonctionnelle de l image de soi et des compétences

Plus en détail

MT18 A 2012 Variables aléatoires à valeurs réelles Aleth Chevalley Loi binomiale, loi de Poisson, loi normale

MT18 A 2012 Variables aléatoires à valeurs réelles Aleth Chevalley Loi binomiale, loi de Poisson, loi normale MT8 A 0 Variables aléatoires à valeurs réelles Aleth Chevalley Loi binomiale, loi de Poisson, loi normale. Fonction de répartition.. Variable aléatoire à valeurs réelles Définition : Soit un ensemble fondamental

Plus en détail

Introduction d un biais près d une borne (pour x = ph, 0 p < 1 ) si f(x) 0. Rectification : utilisation des "boundary kernels", par exemple :

Introduction d un biais près d une borne (pour x = ph, 0 p < 1 ) si f(x) 0. Rectification : utilisation des boundary kernels, par exemple : Problème d estimation aux bornes Introduction d un biais près d une borne (pour x = ph, 0 p < 1 ) si f(x) 0. Soit a l (p) = p 1 ul K(u) du, notons que a 0 (p) < 1 E[ f(x)] = a 0 (p)f(x) h a 1 (p)f (x)+

Plus en détail

De la reconnaissance faciale via l analyse en composantes principales

De la reconnaissance faciale via l analyse en composantes principales De la reconnaissance faciale via l analyse en composantes principales Germain Van Bever germainvanbever@ulbacbe Résumé Nous aborderons dans ce chapitre le problème de la reconnaissance faciale Afin de

Plus en détail

Apprentissage statistique Stratégie du Data-Mining

Apprentissage statistique Stratégie du Data-Mining Apprentissage statistique Stratégie du Data-Mining Hélène Milhem Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 H. Milhem (IMT, INSA Toulouse) Apprentissage statistique

Plus en détail

Modélisation des codes de calcul dans. le cadre des processus gaussiens

Modélisation des codes de calcul dans. le cadre des processus gaussiens Modélisation des codes de calcul dans le cadre des processus gaussiens Amandine Marrel Laboratoire de Modélisation des Transferts dans l Environnement CEA Cadarache Introduction (1) Fiabilité et calcul

Plus en détail

Développement polynomiaux et applications en théorie de la ruine

Développement polynomiaux et applications en théorie de la ruine Développement polynomiaux et applications en théorie de la ruine P.O. Goffard 1 - Pierre-Olivier.goffard.me 1 Axa France - Institut de Mathématiques de Marseille I2M Aix-Marseille Université Week-end Team

Plus en détail

les têtes sans faire mal

les têtes sans faire mal L art de couper les têtes sans faire mal Erwan Le Pennec, chargé de recherche Inria à l Université Paris-Sud Le principe du scanner implique de savoir retrouver un objet à partir d une collection de radiographies

Plus en détail

La Grille, moyen fondamental de l analyse

La Grille, moyen fondamental de l analyse Fiche méthodologie #1 La Grille, moyen fondamental de l analyse Cette rubrique présente des notes et documents publiés par Philippe Latour, enseignant au Master Géomarketing et stratégies territoriales

Plus en détail

Outils Statistiques du Data Mining

Outils Statistiques du Data Mining Outils Statistiques du Data Mining Pr Roch Giorgi roch.giorgi@univ-amu.fr SESSTIM, Faculté de Médecine, Aix-Marseille Université, Marseille, France http://sesstim-orspaca.org http://optim-sesstim.univ-amu.fr

Plus en détail

Choix de Portefeuille

Choix de Portefeuille Année 2007-2008 Choix de orteeuille Christophe Boucher Chapitre. héorie de la décision en avenir incertain Critère d espérance d utilité L attitude vis-à-vis du risque Chapitre 2. Rendements et critères

Plus en détail

Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme

Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme Distance et classification Cours 4: Traitement du signal et reconnaissance de forme Plan Introduction Pré-traitement Segmentation d images Morphologie mathématique Extraction de caractéristiques Classification

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

Estimation et calibration des paramètres

Estimation et calibration des paramètres et calibration des paramètres 6-601-09 Simulation Monte Carlo Geneviève Gauthier HEC Montréal 1 1. Nous allons discuter des diverses façons de déterminer les paramètres des modèles que nous employons lors

Plus en détail

SIMDI - Presse à injecter

SIMDI - Presse à injecter SIMDI PRESSE - Simulateur de Presse à injecter - Document de l animateur SIMDI - Presse à injecter «Les élèves apprennent à réaliser un plan d expériences portant sur de nombreux facteurs» Fonctionnalités

Plus en détail

Analyse en Composantes Principales

Analyse en Composantes Principales Plan du cours Analyse en Composantes Principales Introduction Les données Leurs représentations La méthode Modèle Interprétation statistique Espace principal Composantes Principales Représentations Graphiques

Plus en détail

Initialisation automatique du recalage 2D/3D pour la réalité virtuelle et augmentée

Initialisation automatique du recalage 2D/3D pour la réalité virtuelle et augmentée Initialisation automatique du recalage 2D/3D pour la réalité virtuelle et augmentée IRISA - Equipe TEMICS 6 Fevrier 2008 1/18 Problématique : Recalage vidéo 2D et modèle 3D Problématique Avec : Le modèle

Plus en détail

Bases du Modèle Linéaire

Bases du Modèle Linéaire AgroParisTech Bases du Modèle Linéaire J.J. Daudin, E. Lebarbier, C. Vuillet Table des matières 1 Introduction 3 2 Estimation des paramètres 5 2.1 Estimation des paramètres de l espérance......................

Plus en détail

Baccalauréat ES/L Métropole 21 juin 2013 (sujet dévoilé)

Baccalauréat ES/L Métropole 21 juin 2013 (sujet dévoilé) Baccalauréat ES/L Métropole 21 juin 2013 (sujet dévoilé) EXERCICE 1 4 points Cet exercice est un questionnaire à choix multiples (QCM). Pour chacune des questions posées, une seule des quatre réponses

Plus en détail

Introduction à l analyse des données. Analyse des Données (1) Exemple, ville et (in)sécurité. Exemple, ville et (in)sécurité

Introduction à l analyse des données. Analyse des Données (1) Exemple, ville et (in)sécurité. Exemple, ville et (in)sécurité Introduction à l analyse des données Analyse des Données () Le but de l analyse de données est de synthétiser, structurer l information contenue dans des données multidimensionnelles Deux groupes de méthodes

Plus en détail

Intégration de polynômes Points de Gauss

Intégration de polynômes Points de Gauss Intégration de polynômes Points de Gauss Commençons par un exercice classique de premier cycle. Problème 1 Trouver trois réels α, β et γ tels que, pour tout polynôme P de degré au plus 2, on ait : ( )

Plus en détail

PC* Espaces préhilbertiens réels

PC* Espaces préhilbertiens réels I. Espace préhilbertien réel................................... 3 I.1 Produit scalaire dans un espace vectoriel réel................... 3 I.2 Inégalités de Cauchy-Schwarz et de Minkowski..................

Plus en détail

Estimation indirecte en sciences humaines : une méthode bayésienne

Estimation indirecte en sciences humaines : une méthode bayésienne Estimation indirecte en sciences humaines : une méthode bayésienne Henri Caussinus, Institut de Mathématiques de Toulouse, en collaboration avec Daniel Courgeau, INED Isabelle Séguy, INED Luc Buchet, CNRS

Plus en détail

Analyse d un système de freinage récupératif d un véhicule électrique

Analyse d un système de freinage récupératif d un véhicule électrique Analyse d un système de freinage récupératif d un véhicule électrique Par Mohamed Amine Bey, Gabriel Georges, Pascal Jacq, Doha Hadouni, Roxane Duroux, Erwan Scornet, Encadré par Alexis Simonnet 1 Compréhension

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire NICOD JEAN-MARC Master 2 Informatique Université de Franche-Comté UFR des Sciences et Techniques septembre 2008 NICOD JEAN-MARC Rappels sur les graphes 1 / 47 Sommaire 1 Exemple

Plus en détail

Adaptation de la POD aux domaines fluides mobiles : application à la réduction de modèle par POD en IFS

Adaptation de la POD aux domaines fluides mobiles : application à la réduction de modèle par POD en IFS Adaptation de la POD aux domaines fluides mobiles : application à la réduction de modèle par POD en IFS LIBERGE Erwan erwan.liberge@univ-lr.fr Directeur de thèse : A. Hamdouni Adaptation de la POD aux

Plus en détail

1 Topologies, distances, normes

1 Topologies, distances, normes Université Claude Bernard Lyon 1. Licence de mathématiques L3. Topologie Générale 29/1 1 1 Topologies, distances, normes 1.1 Topologie, distances, intérieur et adhérence Exercice 1. Montrer que dans un

Plus en détail

Rapport de Recherche. 1 Estimation fonctionnelle en temps continu. 1.1 Vitesses de convergence pour l estimateur à noyau. (D. Blanke - Mars 2008)

Rapport de Recherche. 1 Estimation fonctionnelle en temps continu. 1.1 Vitesses de convergence pour l estimateur à noyau. (D. Blanke - Mars 2008) Rapport de Recherche (D. Blanke - Mars 2008) L essentiel de mes activités de recherche porte sur l estimation fonctionnelle ou paramétrique pour des processus. L ensemble de ces travaux peut se diviser

Plus en détail

Introduction à l analyse des données. Olivier Godechot

Introduction à l analyse des données. Olivier Godechot Introduction à l analyse des données Olivier Godechot Introduction. Les données statistiques : de très nombreuses variables. Aucune n est parfaite La perception d un phénomène appréhendée comme la combinaison

Plus en détail

Statistique (MATH-F-315, Cours #3)

Statistique (MATH-F-315, Cours #3) Statistique (MATH-F-315, Cours #3) Thomas Verdebout Université Libre de Bruxelles 2015 Plan de la partie Statistique du cours 1. Introduction. 2. Théorie de l estimation. 3. Tests d hypothèses et intervalles

Plus en détail

TD : Microéconomie de l incertain. Emmanuel Duguet

TD : Microéconomie de l incertain. Emmanuel Duguet TD : Microéconomie de l incertain Emmanuel Duguet 2013-2014 Sommaire 1 Les loteries 2 2 Production en univers incertain 4 3 Prime de risque 6 3.1 Prime de risque et utilité CRRA.................. 6 3.2

Plus en détail

Autour de la diagonalisation

Autour de la diagonalisation Autour de la diagonalisation Cédric Gérot, Pierre Granjon, Nicolas Le Bihan Laboratoire des Images et des Signaux Grenoble January 22, 2003 Contents 1 Eléments d algèbre 2 11 Espace vectoriel 2 111 Définition

Plus en détail

Cours Excel. Licence des Sciences de Gestion 2006-2007. I. Présentation d Excel

Cours Excel. Licence des Sciences de Gestion 2006-2007. I. Présentation d Excel Cours Excel Licence des Sciences de Gestion 2006-2007 I. Présentation d Excel Classeur, feuilles, cellules, colonnes, lignes, Fenêtre principale o Barre de menus o Barre d outils o Barre de formules o

Plus en détail

Visualisation de données. Fabrice Rossi Télécom ParisTech

Visualisation de données. Fabrice Rossi Télécom ParisTech Visualisation de données Fabrice Rossi Télécom ParisTech Plan Introduction Analyses univariées Variables numériques Histogramme Densité Boxplot et statistiques Conditionnement Variables nominales Analyses

Plus en détail

Les théorèmes de Gerschgorin et de Hadamard

Les théorèmes de Gerschgorin et de Hadamard Localisation des valeurs propres : Quelques propriétés sur les disques de Gerschgorin. Jean-Baptiste Campesato 22 septembre 29 Gerschgorin est parfois retranscrit en Gershgorin, Geršgorin, Hershhornou

Plus en détail

Classification de Données Multidimensionnelles Techniques de Projection des Données dans des Espaces de Dimension Réduite

Classification de Données Multidimensionnelles Techniques de Projection des Données dans des Espaces de Dimension Réduite Classification de Données Multidimensionnelles Techniques de Projection des Données dans des Espaces de Dimension Réduite Denis HAMAD ULCO LASL Denis.Hamad@laslIuniv-littoral.fr Présenté dans la journée

Plus en détail

Algorithme du simplexe

Algorithme du simplexe Algorithme du simplexe Une solution à la programmation linéaire Hugues Talbot Laboratoire A2SI 18 mars 2008 Plan Algèbre linéaire Algorithme du simplexe Formulation et forme standard Notations Recherche

Plus en détail

Maximisation de la fonction d utilité exponentielleprix d indifférence dans un modèle avec défauts

Maximisation de la fonction d utilité exponentielleprix d indifférence dans un modèle avec défauts Maximisation de la fonction d utilité exponentielleprix d indifférence dans un modèle avec défauts Thomas Lim Université Paris 7-LPMA Travail en collaboration avec Marie-Claire Quenez Séminaire des jeunes

Plus en détail

Indication Prendre une combinaison linéaire nulle et l évaluer par ϕ n 1.

Indication Prendre une combinaison linéaire nulle et l évaluer par ϕ n 1. 1 Définition Exercice 1 Déterminer si les applications f i suivantes (de E i dans F i ) sont linéaires : f 1 : (x, y) R 2 (2x + y, x y) R 2, f 2 : (x, y, z) R 3 (xy, x, y) R 3 f 3 : (x, y, z) R 3 (2x +

Plus en détail

Régression logistique

Régression logistique Régression logistique Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Régression logistique p. 1 Introduction Objectifs Le classifieur de Bayes est basé sur la comparaison des probabilités

Plus en détail

Installation du logiciel Windows Suivant Démarrer Tous les programmes Démarrer Tous les programmes Manager Pub Manager Publicité Linux ici Mac

Installation du logiciel Windows Suivant Démarrer Tous les programmes Démarrer Tous les programmes Manager Pub Manager Publicité Linux ici Mac Avec le Manager Publicité de bluevizia toutes vos activités de publicité seront facilement planifiées et implémentées. Installation du logiciel Windows Double cliquez avec le bouton gauche de la souris

Plus en détail

Statistique de base avec R Partie 2 : Test d hypothèses et régression linéaire

Statistique de base avec R Partie 2 : Test d hypothèses et régression linéaire Statistique de base avec R Partie 2 : Test d hypothèses et régression linéaire Julien JACQUES Polytech Lille - Université Lille 1 Julien JACQUES (Polytech Lille) Statistiques de base 1 / 48 Plan 1 Tests

Plus en détail

Méthode des domaines fictifs

Méthode des domaines fictifs Méthode des domaines fictifs Patrick Joly Patrick.Joly@inria.fr On se propose dans ce projet de résoudre le problème de Laplace par une méthode, dite de domaine fictif qui permet de simplifier la prise

Plus en détail

Chapitre 4 : RÉGRESSION

Chapitre 4 : RÉGRESSION Chapitre 4 : RÉGRESSION 4.3 Régression linéaire multiple 4.3.1 Equation et Estimation 4.3.2 Inférence 4.3.3 Coefficients de détermination 4.3.4 Spécifications Régression linéaire multiple 1 / 50 Chapitre

Plus en détail

Mise en œuvre du Global Process Control pour la surveillance et le diagnostic de process automobiles

Mise en œuvre du Global Process Control pour la surveillance et le diagnostic de process automobiles En coopération avec Mise en œuvre du Global Process Control pour la surveillance et le diagnostic de process automobiles Standards Certification Education & Training Publishing Conferences & Exhibits D.

Plus en détail

La classification 2012-2013. Fabien Chevalier Jérôme Le Bellac

La classification 2012-2013. Fabien Chevalier Jérôme Le Bellac La classification 2012-2013 Fabien Chevalier Jérôme Le Bellac Introduction : Classification : méthode d analyse de données Objectif : Obtenir une représentation schématique simple d'un tableau de données

Plus en détail

Stéphane GOBRON HES SO HE Arc

Stéphane GOBRON HES SO HE Arc Stéphane GOBRON HES SO HE Arc 2015 Algorithmes Numériques 7 chapitres Codage des nombres Résolution d équations Systèmes linéaires Dérivation Intégration Equation différentielles Mots clés du cours : introduction

Plus en détail

Résumé du Cours de Modèles de Régression. Yves Tillé

Résumé du Cours de Modèles de Régression. Yves Tillé Résumé du Cours de Modèles de Régression Yves Tillé 0 janvier 20 Chapitre Régression bivariée Série statistique bivariée On s intéresse à deux variables x et y Ces deux variables sont mesurées sur les

Plus en détail

Qualité Six Sigma. Sommaire. Sylvain ROZÈS. 28 mars 2008. 1 Introduction 1. 2 Étude séparée de quatre échantillons 1

Qualité Six Sigma. Sommaire. Sylvain ROZÈS. 28 mars 2008. 1 Introduction 1. 2 Étude séparée de quatre échantillons 1 Qualité Six Sigma Sylvain ROZÈS 28 mars 2008 Sommaire 1 Introduction 1 2 Étude séparée de quatre échantillons 1 3 Étude sur l ensemble des échantillons 8 4 Étude sur les range 13 1 Introduction Le but

Plus en détail