Reconnaissance des formes
|
|
- Georgette Archambault
- il y a 8 ans
- Total affichages :
Transcription
1 Reconnaissance des formes Discrimination A. Belaïd LORIA - Nancy
2 Discrimination linéaire Notion d hyperplan
3 Discrimination linéaire Principe Une forme x R d (vecteur forme) Rôle de la Trouver D : R d x D : Algorithme de décision { 1,..., K} D( x) avec un algorithme D «performant» : C est la classe ω =D(x) où ω {1..K} x d R, D(x) = "la Soit C le coût de la règle de décision D : C( D) = k = 1 Choisir D qui minimise cette fonction de coût K meilleure décision" C( D k ) P( D k = x) 3
4 Discrimination linéaire Comment ça marche? ω 1 ω 2 4
5 Discrimination linéaire Définition C est une fonction qui est une combinaison linéaire des composants de la forme x g(x) = w t x + w 0 (1) où w est un vecteur poids du système et w 0 le biais Un classifieur bi-classes entre (ω 1,ω 2 ) avec une fonction discriminante de type (1) utilise la règle suivante décide que x ω 1 si g(x) > 0 et x ω 2 si g(x) < 0 décide ω 1 si w t x > -w 0 et ω 2 autrement si g(x) = 0 x est affectée à ces deux classes 5
6 Discrimination linéaire et surface de décision 6 Définition L équation g(x) = 0 définit la surface de décision qui sépare les points affectés à la classe ω 1 des points affectés à la classe ω 2 Quand g(x) est linéaire, la surface de décision est un hyperplan d j= 1 w i x j + b = 0 ( = produit scalaire) Règle de décision linéaire d wi x j + b > 0 ( ronds rouges) j= 1 d wi x j + b 0 ( croix vertes) j= 1
7 Discrimination linéaire et surfaces de décision Le cas multi-classes On définit c fonctions linéaires discriminantes g i t = i i ( x) w x + w 0 i = 1,...,c et affecte x à ω 1i si g i (x) > g j (x) j i; En cas d'égalité, le classement est indéfini Dans ce cas, le classifieur est une machine linéaire Une machine linéaire divise l espace de paramètres en c régions de décision, avec g i (x) étant le discriminant le plus grand si x est dans la région R i 7
8 H 25 H 12 H 15 R 2 R 1 R 3 ω 5 H 35 H 13 R 1 ω 1 ω 2 R 3 ω 3 H 23 R 4 ω 4 R 3 ω 2 ω 1 ω 3 H 23 H 13 H 34 R 2 H 24 H 14 Frontières de décision créées par un système pour 3 classes et 5 classes 8
9 Discrimination linéaire et surfaces de décision Exemple : classif_lineaire.m Il s agit de classer des fleurs par la longueur et la largeur de leurs pétales Le fichier est donné par MatLab : load fisheriris On dispose de données composées d une matrice «meas» de 150 lignes (échantillons), 50 par type de fleur des Iris dans cet ordre : Setosa, versicolor, virginica 9
10 Opération 1 : distribution dans le plan gscatter(x, y, groupe) crée un nuage de points de x et y, regroupés par groupe gscatter(meas(:,1), meas(:,2), species,'rgb','osd'); % species : permet de récupérer les espèces dans le fichier et de faire un groupement spécifique par groupe de fleurs
11 Opération 2 : repérage des mauvaises classifications : 3 étapes % 1) Classification par rapport aux espèces ldaclass = classify(meas(:,1:2),meas(:,1:2),species); % 2) Repérage des mauvaises classifications bad = ~strcmp(ldaclass,species); ldaresuberr = sum(bad) / N; % 3) Création d une matrice de confusion [ldaresubcm,grporder] = confusionmat(species,ldaclass) Setosa Versicolor virginica Seto Vers, virgi On affiche avec des croix les mauvaises classifs
12 Sur les 150 observations de la base, 20% ou 30 observations sont mal classées par la fonction discriminante linéaire
13 Opération 3 afficher les hyperplans séparateurs On prend deux à deux les points appartenant à des classes différentes, puis on dessine à chaque fois le plan bissecteur Ainsi, de couple en couple, on finit par construire les hyperplans o o o o +
14 Opération 3 : en matlab On crée une grille de coordonnées (x, y) et on applique la fonction de classification sur cette grille [x,y] = meshgrid(4:.1:8,2:.1:4.5); x = x(:); y = y(:); j = classify([x y],meas(:,1:2), species); gscatter(x,y,j,'grb','sod')
15 Discrimination probabiliste Classifieur bayésien naïf
16 Décision bayésienne Principe Cette méthode suppose que le problème de représentation des formes admet un modèle probabiliste Elle définit l appartenance d une forme x à une classe avec un minimum d erreur et évalue le risque 16
17 Règle de Bayes à une dimension Propriétés la probabilité a priori P(ω i ) vérifie P(ω i ) 0 i Σ i P(ω i ) = 1 la densité de probabilité de x conditionnée par une classe p(x ω i ), aussi appelée vraisemblance de ω i par rapport à x + ωi ωi - p(x ) 0 i p(x )dx = 1 i 17
18 Vraisemblance d'une caractéristique pour deux classes Exemple : deux classes ω 1 et ω 2 les frontières de décision ne sont plus aussi lisibles qu avant : on parle en termes de probabilité d appartenance Vraisemblances Un elt. de ω 1 peut être affecté à ω 2 et vice versa P(x/w 1 ) P(x/w 2 ) 18
19 Classifieur Bayésien naïf Règle de Bayes Elle permet de calculer la probabilité a posteriori de chaque classe, c'est-à-dire la probabilité conditionnée par l'observation de x, soit P( ω x) = i px ( ωi ) P( ωi ) px ( ) où p(x)= Σ j p(x ω j )P(ω j ) est appelée évidence et est un facteur de normalisation qui assure que px ( ω ) P( ω ) px ( ω ) Pw ( ) i i i i i P( ω i i x) = = = 1 i px ( ) px ( ωj) P( ωj) 19
20 Décision optimale : bayes naïf Principe Étant donnés une caractéristique observée x d'un objet à identifier (par ex. moyenne du profil de la projection horizontale sur les mots ) l'ensemble des classes possibles {ω 1,ω 2,...ω c } La décision revient à formuler une fonction δ(x)=ω i Comment définir δ de manière optimale? en minimisant sa probabilité d erreur 20
21 Probabilité d'erreur Pour une caractéristique observée x, la probabilité d'erreur d'une décision δ(x)=ω i est égale à P( erreur x ) = P( ω x ) = 1 P( ω x ) j i j La probabilité d'erreur globale pour le système est + P ( erreur) = P( erreur x) p( x) dx i 21
22 Décision optimale (pour le naïf) La décision optimale (au sens de la probabilité d'erreur) consiste donc à choisir δ(x)=ω i telle que p(ω i x) soit maximale, c.à.d : P( ω x ) P( ω x ), j i j p( x ω )P( ω ) p( x ω )P( ω ) j i i j j Si les probabilités a priori des classes sont équivalentes, on obtient simplement p( x ω ) p( x ω ) j i j 22
23 Illustration de l'erreur irréductible 23
24 Illustration de l'erreur irréductible Zone d erreur réductible La proba qu un élément de Fonte2 soit affecté à Fonte7 La proba qu un élément de Fonte7 soit affecté à Fonte2 X * X B 24 Fonte 7 Fonte 2
25 Manipulation MatLab Exemple : Distrib_normale 25
26 Estimation paramétrique On a supposé connu la distribution des caractéristiques pour chaque classe (vraisemblance) les probabilités a priori des classes de manière optionnelle, les coûts d'une (fausse) décision Problème : comment estimer ces grandeurs? la vraisemblance est rarement connue les probabilités a priori ne sont pas toujours connues Solution On utilise une loi connue dont on peut cerner le comportement et les paramètres : on utilise la loi normale 26
27 Loi normale à une dimension Définition intuitive C est une loi qui incite les éléments d une distribution quelconque à se rapprocher le plus du centre de la classe (autour de la moyenne) avec un certain taux de dispersion Définition mathématique La loi normale à une dimension, notée N(µ, σ 2 ) est définie par p( x) = 1 exp 2πσ 1 2 x 2 µ σ µ représente la moyenne σ 2 représente la variance 27
28 Loi normale à une dimension Comment utilise-t-on cette loi? On détermine µ et σ par calcul de la moyenne des échantillons et des écarts avec cette moyenne 28
29 Exemple 1 Soit la distribution Param4 des mots de la classe Fonte7 : moyenne= écart type= La distribution normale correspondante 29 µ=1.6562
30 Exemple 1 : création sous Matlab Distributions >> Distr_normale_fonte Statistiques >> Distribution_normale >> Distrib_normal_Fonte7 Fonte7=[ ]; x = Fonte7(1):0.1:Fonte7(end); [mu,s,muci,sci] = normfit(x); pdfnormal = normpdf(x, mu, s); figure; plot(x,pdfnormal); mu = s =
31 Décision bayésienne Estimation non paramétrique
32 Introduction La reconnaissance Bayesienne suppose des connaissances sur La probabilité a priori des classes P(ω i ) La densité de probabilité des caractéristiques P(x ω i ) Généralement, les connaissances sur les densités de probabilité font défaut ou sont imprécises Souvent elles peuvent être estimées à partir d'échantillons d'apprentissage D i Le nombre d'échantillons pose problème, surtout dans les espaces de dimension élevée il n'y a jamais assez d'information pour déterminer P(x ω i ) en toute généralité 32
33 Estimation non paramétrique Problème Il n'est pas toujours possible de trouver une fonction de densité qui s ajuste sur les données et de pouvoir modéliser sous forme paramétrique surtout dans les cas de distributions complexes ou multimodales (avec plusieurs maxima locaux) Solution L'apprentissage non paramétrique consiste à estimer ces densités directement à partir des échantillons d'apprentissage Deux techniques seront étudiées la méthode des fenêtres de Parzen la méthode des k plus proches voisins 33
34 Fenêtres de Parzen Idée Subdiviser l espace en régions R et faire des estimations locales, plus faciles à maîtriser Ensuite, généraliser l estimation à l ensemble de l espace k=3 V n n=37 Observations 34
35 Fenêtres de Parzen Estimation de la densité dans une fenêtre L idée de l estimation de la densité est que la probabilité P qu un échantillon x tombe dans la région R est donnée par P = p( x) dx R Si maintenant, on suppose que R est tellement petit que p(x) varie peu à son intérieur, alors on peut écrire P = R p( x) dx p( x) dx = R p( x) V où V est le volume de R 35
36 Fenêtres de Parzen D un autre côté, supposons maintenant que n échantillons x 1,, x n considérés de manière indépendante interviennent dans le calcul de la fonction de densité de probabilité p(x), et qu il y a k échantillons qui tombent dans la région R P = k / n Ainsi, on arrive à l estimation évidente de p(x) k / n p( x) = V En général, on fixe V et on compte k dans chaque V 36 V = 1 n
37 Fenêtres de Parzen Comment on calcule effectivement Considérez que R soit un carré (ou un hypercube dans l espace) Soit h le côté du carré (x 1 -h/2, x 2 +h/2) (x 1 -h/2, x 2 -h/2) x (x 1 +h/2, x 2 +h/2) (x 1 +h/2, x 2 +h/2) On définit 37 x x x x ik i φ( ) = 1 si h h 0 qui indique si x i est à l intérieur du carré ou pas k 1/ 2, k = 1,2 sinon
38 38 Fenêtres de Parzen Le nombre total k d échantillons tombant dans R, est donné par L estimation de la densité dans la fenêtre de Parzen est donnée par = = n i i h x x k 1 ) φ( = = = n i i h x x h n V n k x p 1 2 ) ( 1 1 / ) ( φ est appelée fonction fenêtre ou noyau ) ( h x i x φ
39 Fenêtres de Parzen Généralisation On peut généraliser l idée et permettre l utilisation d autres fonctions noyau, comme une gaussienne, Dans ce cas, ( x φ i h x) = 1 n n i= 1 1 exp( 2πσ ( x i 2σ x) 2 2 ) 39
40 Fenêtres de Parzen Si on considère le nuage observé séquentiellement On pourrait estimer des suites d éléments par des petites gaussiennes, puis généraliser à l ensemble x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 x 10 x 11 x 12 40
41 Les k plus proches voisins (Kppv/K-nn) Particularités Contrairement aux fenêtres de Parzen, ici, on ne fixe pas V, mais k : Principe : Utiliser les exemples déjà connus Regarder la classe des k exemples les plus proches (k = 1, 3,...) Affecter la classe majoritaire au nouvel exemple Exemple : deux classes, k=1 41
42 K-ppv Exemple : deux classes, k=3 42
43 Kppv Notations Soit L={(x,c x R d, c C} l ensemble d apprentissage Soit x l exemple dont on souhaite déterminer la classe Algorithme début pour chaque (exemple (x, c) L) faire Calculer la distance D(x, x ) fin pour chaque {x kppv(x)} faire compter le nombre d occurrences de chaque classe fin Attribuer à x la classe la plus fréquente fin 43
44 K-ppv Quelle décision prendre en cas d égalité? Augmenter la valeur de k de 1 pour trancher. L ambiguïté peut persister Tirer au hasard la classe parmi les classes ambiguës Pondération des exemples par leur distance au point x 44
45 Fenêtres de Parzen vs K-ppv Illustration des méthodes 1. des fenêtres de Parzen 2. des k plus proches voisins 45
46 Tests en Matlab Illustration des méthodes Étape 1 : Affichage spatial de la distribution des fleurs load fisheriris x = meas(:,3:4); gscatter(x(:,1),x(:,2),species) set(legend,'location','best') 46
47 Étape 2 : placer un point : newpoint = [5 1.45]; line(newpoint(1),newpoint(2),'marker','x','color','k',... 'markersize',10,'linewidth',2) 47
48 Étape 3 : chercher les 10 échantillons proches de ce point [n,d] = knnsearch(x,newpoint,'k',10) line(x(n,1),x(n,2),'color',[.5.5.5],'marker','o',... 'linestyle','none','markersize',10) Knnsearch a trouvé que 8 points 48
49 Étape 3 : pour rendre plus visible l'affichage : xj = x +.05*(rand(150,2)-.5); gscatter(xj(:,1),xj(:,2),species) set(gca,'xlim',[ ],'ylim',[1 2]); axis square 49
50 Étape 4 : trouver les éléments des différentes parmi les 10 voisins tabulate(species(n)) Value Count Percent virginica % versicolor % 50
51 Étape 4 : mettre un cercle autour des voisins % Define the center and diameter of a circle, based on the % location of the new point: ctr = newpoint - d(end); diameter = 2*d(end); % Draw a circle around the 10 nearest neighbors: h = rectangle('position',[ctr,diameter,diameter],... 'curvature',[1 1]); set(h,'linestyle',':') 51
52 Étape 5 : en utilisant la même base, trouver les plus proches voisins de trois points figure newpoint2 = [5 1.45;6 2; ]; gscatter(x(:,1),x(:,2),species) legend('location','best') [n2,d2] = knnsearch(x,newpoint2,'k',10); line(x(n2,1),x(n2,2),'color',[.5.5.5],'marker','o',... 'linestyle','none','markersize',10)line(newpoint2(:,1),newpoint2(:,2), marker','x','color','k',... 'markersize',10,'linewidth',2,'linestyle','none') 52
53 53 Étape 6 : Trouvez les classes des 10 plus proches voisins pour chaque nouveau point:
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailUne comparaison de méthodes de discrimination des masses de véhicules automobiles
p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans
Plus en détailUniversité Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications
Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailAnalyse en Composantes Principales
Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailClassification non supervisée
AgroParisTech Classification non supervisée E. Lebarbier, T. Mary-Huard Table des matières 1 Introduction 4 2 Méthodes de partitionnement 5 2.1 Mesures de similarité et de dissimilarité, distances.................
Plus en détailProjet SINF2275 «Data mining and decision making» Projet classification et credit scoring
Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Année académique 2006-2007 Professeurs : Marco Saerens Adresse : Université catholique de Louvain Information Systems
Plus en détailDu Premier au Second Degré
Du Premier au Second Degré Première Bac Pro 3 ans November 26, 2011 Première Bac Pro 3 ans Du Premier au Second Degré Sommaire 1 Fonction Polynôme du second degré 2 Fonction Polynôme du Second Degré: Synthèse
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailPrécision d un résultat et calculs d incertitudes
Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................
Plus en détailSoutenance de stage Laboratoire des Signaux et Systèmes
Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud
Plus en détailBaccalauréat ES Amérique du Nord 4 juin 2008
Baccalauréat ES Amérique du Nord 4 juin 2008 EXERCICE 1 Commun à tous les candidats f est une fonction définie sur ] 2 ; + [ par : 4 points f (x)=3+ 1 x+ 2. On note f sa fonction dérivée et (C ) la représentation
Plus en détailChapitre 6 Apprentissage des réseaux de neurones et régularisation
Chapitre 6 : Apprentissage des réseaux de neurones et régularisation 77 Chapitre 6 Apprentissage des réseaux de neurones et régularisation Après une introduction rapide aux réseaux de neurones et à la
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détailProjet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies
Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies Régis Boulet Charlie Demené Alexis Guyot Balthazar Neveu Guillaume Tartavel Sommaire Sommaire... 1 Structure
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailTravaux pratiques avec RapidMiner
Travaux pratiques avec RapidMiner Master Informatique de Paris 6 Spécialité IAD Parcours EDOW Module Algorithmes pour la Fouille de Données Janvier 2012 Prise en main Généralités RapidMiner est un logiciel
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détailAlgorithmes d'apprentissage
Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt
Plus en détailStructures algébriques
Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détailApprentissage Automatique
Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Plus en détailAnalyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
Plus en détailhttp://cermics.enpc.fr/scilab
scilab à l École des Ponts ParisTech http://cermics.enpc.fr/scilab Introduction à Scilab Graphiques, fonctions Scilab, programmation, saisie de données Jean-Philippe Chancelier & Michel De Lara cermics,
Plus en détailCorrection du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détailIntroduction à MATLAB R
Introduction à MATLAB R Romain Tavenard 10 septembre 2009 MATLAB R est un environnement de calcul numérique propriétaire orienté vers le calcul matriciel. Il se compose d un langage de programmation, d
Plus en détailCours d introduction à la théorie de la détection
Olivier J.J. MICHEL Département EEA, UNSA v1.mars 06 olivier.michel@unice.fr Laboratoire LUAN UMR6525-CNRS Cours d introduction à la théorie de la détection L ensemble du document s appuie très largement
Plus en détailExtraction d informations stratégiques par Analyse en Composantes Principales
Extraction d informations stratégiques par Analyse en Composantes Principales Bernard DOUSSET IRIT/ SIG, Université Paul Sabatier, 118 route de Narbonne, 31062 Toulouse cedex 04 dousset@irit.fr 1 Introduction
Plus en détailTESTS D'HYPOTHESES Etude d'un exemple
TESTS D'HYPOTHESES Etude d'un exemple Un examinateur doit faire passer une épreuve type QCM à des étudiants. Ce QCM est constitué de 20 questions indépendantes. Pour chaque question, il y a trois réponses
Plus en détailFonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Plus en détailBaccalauréat ES/L Amérique du Sud 21 novembre 2013
Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée
Plus en détailCorrection de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Plus en détailMCMC et approximations en champ moyen pour les modèles de Markov
MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:
Plus en détailExercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Plus en détailUne approche non paramétrique Bayesienne pour l estimation de densité conditionnelle sur les rangs
Une approche non paramétrique Bayesienne pour l estimation de densité conditionnelle sur les rangs Carine Hue, Marc Boullé France Télécom R & D; 2, avenue Pierre Marzin; 22307 Lannion cedex Carine.Hue@orange-ftgroup.com;
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailI. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Plus en détailMaster d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien
Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien Denis Cousineau Sous la direction de Roberto di Cosmo Juin 2005 1 Table des matières 1 Présentation
Plus en détailL analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :
La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.
Plus en détailArbres binaires de décision
1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression
Plus en détailDéroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI
1 Déroulement d un projet en DATA MINING, préparation et analyse des données Walid AYADI 2 Les étapes d un projet Choix du sujet - Définition des objectifs Inventaire des données existantes Collecte, nettoyage
Plus en détailL apprentissage automatique
L apprentissage automatique L apprentissage automatique L'apprentissage automatique fait référence au développement, à l analyse et à l implémentation de méthodes qui permettent à une machine d évoluer
Plus en détailRaisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Plus en détailAnalyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57
Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détail(51) Int Cl.: H04L 29/06 (2006.01) G06F 21/55 (2013.01)
(19) TEPZZ 8 8 4_A_T (11) EP 2 838 241 A1 (12) DEMANDE DE BREVET EUROPEEN (43) Date de publication: 18.02.1 Bulletin 1/08 (1) Int Cl.: H04L 29/06 (06.01) G06F 21/ (13.01) (21) Numéro de dépôt: 141781.4
Plus en détailOpérations de base sur ImageJ
Opérations de base sur ImageJ TPs d hydrodynamique de l ESPCI, J. Bico, M. Reyssat, M. Fermigier ImageJ est un logiciel libre, qui fonctionne aussi bien sous plate-forme Windows, Mac ou Linux. Initialement
Plus en détailExercice : la frontière des portefeuilles optimaux sans actif certain
Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué
Plus en détailVision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007
Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailCarrotAge, un logiciel pour la fouille de données agricoles
CarrotAge, un logiciel pour la fouille de données agricoles F. Le Ber (engees & loria) J.-F. Mari (loria) M. Benoît, C. Mignolet et C. Schott (inra sad) Conférence STIC et Environnement, Rouen, 19-20 juin
Plus en détailFonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Plus en détailChapitre 5 : Flot maximal dans un graphe
Graphes et RO TELECOM Nancy A Chapitre 5 : Flot maximal dans un graphe J.-F. Scheid 1 Plan du chapitre I. Définitions 1 Graphe Graphe valué 3 Représentation d un graphe (matrice d incidence, matrice d
Plus en détailThéorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
Plus en détailChapitre 2. Eléments pour comprendre un énoncé
Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane
Plus en détailRapidMiner. Data Mining. 1 Introduction. 2 Prise en main. Master Maths Finances 2010/2011. 1.1 Présentation. 1.2 Ressources
Master Maths Finances 2010/2011 Data Mining janvier 2011 RapidMiner 1 Introduction 1.1 Présentation RapidMiner est un logiciel open source et gratuit dédié au data mining. Il contient de nombreux outils
Plus en détailRégression linéaire. Nicolas Turenne INRA nicolas.turenne@jouy.inra.fr
Régression linéaire Nicolas Turenne INRA nicolas.turenne@jouy.inra.fr 2005 Plan Régression linéaire simple Régression multiple Compréhension de la sortie de la régression Coefficient de détermination R
Plus en détailINF6304 Interfaces Intelligentes
INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie
Plus en détailWhy Software Projects Escalate: The Importance of Project Management Constructs
Why Software Projects Escalate: The Importance of Project Management Constructs Why Software Projects Escalate: The Importance of Project Management Constructs 1. Introduction 2. Concepts de la gestion
Plus en détailLEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,
Plus en détailOptimisation de la compression fractale D images basée sur les réseaux de neurones
Optimisation de la compression fractale D images basée sur les réseaux de neurones D r BOUKELIF Aoued Communication Networks,Architectures and Mutimedia laboratory University of S.B.A aoued@hotmail.com
Plus en détailPlus courts chemins, programmation dynamique
1 Plus courts chemins, programmation dynamique 1. Plus courts chemins à partir d un sommet 2. Plus courts chemins entre tous les sommets 3. Semi-anneau 4. Programmation dynamique 5. Applications à la bio-informatique
Plus en détailchoisir H 1 quand H 0 est vraie - fausse alarme
étection et Estimation GEL-64943 Hiver 5 Tests Neyman-Pearson Règles de Bayes: coûts connus min π R ( ) + ( π ) R ( ) { } Règles Minimax: coûts connus min max R ( ), R ( ) Règles Neyman Pearson: coûts
Plus en détailIntroduction à la Statistique Inférentielle
UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique
Plus en détailINTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine
Plus en détailDe la mesure à l analyse des risques
De la mesure à l analyse des risques Séminaire FFA Jean-Paul LAURENT Professeur à l'isfa jean-paul.laurent@univ-lyon1.fr http://laurent.jeanpaul.free.fr/ 0 De la la mesure à l analyse des risques! Intégrer
Plus en détailCorrection du baccalauréat ES/L Métropole 20 juin 2014
Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)
Plus en détailRenforcement des trois compétences : compréhension orale, expression orale et expression écrite à partir de documents et vidéos.
Master Mathématiques et Applications Spécialité : Ingénierie mathématique et modélisation Parcours : Mathématique et Informatique : Statistique, Signal, Santé (MI3S) 2015-2016 RÉSUMÉ DES COURS : (dernière
Plus en détailChapitre 3. Mesures stationnaires. et théorèmes de convergence
Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailI - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et
Plus en détailCours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques
Université de Provence Topologie 2 Cours3. Applications continues et homéomorphismes 1 Rappel sur les images réciproques Soit une application f d un ensemble X vers un ensemble Y et soit une partie P de
Plus en détailOptimisation Discrète
Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et
Plus en détailNotes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières
Plus en détailCAPTEURS - CHAINES DE MESURES
CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,
Plus en détailRapport de Stage. Titre : Clustering à l aide d une représentation supervisée
Nicolas Creff Du 1er février au 31 juillet 2011 Promotion 2011 Majeure SCIA Rapport de Stage Titre : Clustering à l aide d une représentation supervisée Sujet : Personnalisation de scores à l aide de la
Plus en détailAPPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE
SûretéGlobale.Org La Guitonnière 49770 La Meignanne Téléphone : +33 241 777 886 Télécopie : +33 241 200 987 Portable : +33 6 83 01 01 80 Adresse de messagerie : c.courtois@sureteglobale.org APPORT DES
Plus en détailSujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.
Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de
Plus en détailUne application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies
Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies Ariane Lançon (Observatoire de Strasbourg) en collaboration avec: Jean-Luc Vergely,
Plus en détailL'analyse des données à l usage des non mathématiciens
Montpellier L'analyse des données à l usage des non mathématiciens 2 ème Partie: L'analyse en composantes principales AGRO.M - INRA - Formation Permanente Janvier 2006 André Bouchier Analyses multivariés.
Plus en détailLe Data Mining au service du Scoring ou notation statistique des emprunteurs!
France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailGMEC1311 Dessin d ingénierie. Chapitre 1: Introduction
GMEC1311 Dessin d ingénierie Chapitre 1: Introduction Contenu du chapitre Introduction au dessin technique Normes Vues Traits Échelle Encadrement 2 Introduction Les dessins ou graphiques sont utilisés
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailMAP 553 Apprentissage statistique
MAP 553 Apprentissage statistique Université Paris Sud et Ecole Polytechnique http://www.cmap.polytechnique.fr/~giraud/map553/map553.html PC1 1/39 Apprentissage? 2/39 Apprentissage? L apprentissage au
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailFonctions de deux variables. Mai 2011
Fonctions de deux variables Dédou Mai 2011 D une à deux variables Les fonctions modèlisent de l information dépendant d un paramètre. On a aussi besoin de modéliser de l information dépendant de plusieurs
Plus en détailPourquoi l apprentissage?
Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage
Plus en détailAntoine Masse. To cite this version: HAL Id: tel-00921853 https://tel.archives-ouvertes.fr/tel-00921853v2
Développement et automatisation de méthodes de classification à partir de séries temporelles d images de télédétection - Application aux changements d occupation des sols et à l estimation du bilan carbone
Plus en détailAICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678
Sélection prédictive d un modèle génératif par le critère AICp Vincent Vandewalle To cite this version: Vincent Vandewalle. Sélection prédictive d un modèle génératif par le critère AICp. 41èmes Journées
Plus en détail