Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme

Dimension: px
Commencer à balayer dès la page:

Download "Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme"

Transcription

1 Distance et classification Cours 4: Traitement du signal et reconnaissance de forme

2 Plan Introduction Pré-traitement Segmentation d images Morphologie mathématique Extraction de caractéristiques Classification Conclusion

3 Objectifs et moyens En fonction des caractéristiques extraites, classer la forme dans une catégorie Évaluer les similitudes entre deux formes (un modèle et la forme étudiée) Prendre une décision en fonction des résultats obtenus Valider (ou non) les résultats (matrice de confusion)

4 Problème! Les méthodes contextuelles donnent une chaîne de caractères et les méthodes globales un vecteur de caractéristiques Quelle(s) méthode(s)? Comparer deux chaînes de caractères (aspect qualitatif) Comparer des vecteurs de caractéristiques (aspect quantitatif)

5 Ce qu on peut faire Distance d édition Classification Supervisée Non supervisée

6 Distance d édition Une chaîne de caractères (Freeman, primitives, polygones, mot reconnu par un système OCR ) S=s 1,s 2, s n Classer une chaîne de caractères en fonction de sa distance d édition avec un alphabet de modèles (obtenu par apprentissage) Distance d édition = nombre minimal d opérations pour passer d une chaîne à une autre

7 Opérateurs d édition coût de la transformation de la chaîne A en B Substitution d un caractère Insertion d un caractère Suppression d un caractère Coût global = somme des coûts élémentaires

8 Exemple Chaîne A: ababa Coût de la transformation Chaîne B: abba - remplacer a par b puis éliminer le b suivant: 2 opérations - éliminer le a central: 1 opération COUT MINIMUM Problème! processus combinatoire = temps de calcul énorme

9 Algorithme de Wagner-Fisher Soient deux chaînes X={aabacd} et Y={abd} de longueurs respectives M=6 et N=3. Matrice D de taille (M+1, N+1) D(0,0) = 0 Substitution de a par b γ(a,b) Insertion de a γ(λ,a) Suppression de b γ(b, λ) Tous les coûts sont fixés à 1

10 Matrice dynamique de Wagner-Fisher d b a d c a b a a X Y - Pour les couples (i,0) et (0,j) D(i,0)= D (i-1, 0)+ γ(λ,x i ) D(0,j)= D (0, j-1)+ γ(y j, λ) - Pour les couples (i,j) (i et j 0) D(i,j)=min { D(i-1,j-1)+ γ(x i,y j ), D(i-1,j)+ γ(λ,x i ), D (i, j-1)+ γ(y j, λ) } Distance d édition δ(x,y) = D(M,N)=3

11 Avantages/inconvénients Avantages très simple d utilisation Très bons résultats en reconnaissance de mots Inconvénients Coût informatique peut être long Problème d échelle

12 Classification Objet X défini par d descripteurs [x 1 x 2 x d ] T Ce vecteur peut être positionné dans l espace des caractéristiques de dimension R d. Exemple. Vecteur de caractéristiques dans R² X X1

13 Classificateur (ou classifieur) Rôle: déterminer, en fonction du vecteur de caractéristiques, à quelle classe (parmi un ensemble fini de classes) appartient un objet donné. Moyens: trouver un outil discriminant (méthodes statistiques, géométriques, connexionistes) qui sépare au mieux les classes Nécessité: dans le cas d un système de reconnaissance de formes (au-delà du simple tri), une phase d apprentissage est indispensable.

14 Apprentissage Fournir au système un ensemble de formes déjà connues (c est-à-dire que l on connaît la classe d appartenance). L apprentissage permet de régler le système de reconnaissance. Ainsi l apprentissage met en concordance vecteur de caractéristiques et classe

15 Apprentissage (2) Deux types d apprentissage Apprentissage supervisé - Nombre de classes connus - Classe de chaque forme de l ensemble d échantillon connue Exemple: Bayes, Géométrie, neurones, Markov Apprentissage non supervisé - Nombre de classes connus ou inconnus - On ne connaît pas la classe des échantillons (on sait cependant que l ensemble d apprentissage contient ce que l on doit connaître) Exemple: nuées dynamiques (ou k- moyennes, ou clustering), neurones

16 Apprentissage non supervisé: Nuées dynamiques (1) Principe: regrouper les données en amas (ou classes) en fonction de leur ressemblance. 6 étapes. Étape 1: Définir le nombre de classes (exemple: 2 classes k1 et k2) Étape 2: fixer arbitrairement les centres de gravité des noyaux dans l espace des caractéristiques (k1 et k2 fixés arbitrairement) X k2 k X1

17 Nuées dynamiques (2) Étape 3: Affecter chaque donnée de l ensemble d apprentissage à la classe dont le centre de gravité est le plus proche (du point de vue de la distance euclidienne) k1 k Étape 4: mettre à jour les centres de gravité en prenant en compte l ensemble d apprentissage de chaque classe k1 k1 k2 k

18 Nuées dynamiques (3) Etape 5: éventuellement réaffectation des pixels (en recalculant les distances par rapport au nouveau centre de gravité). Etape 6: retour à l étape 3 (si centre de gravité non stabilisé) sinon arrêt de l apprentissage

19 Nuées dynamiques (4) Apprentissage fini. Classification de chaque donnée en calculant la distance par rapport au centre de gravité (distance euclidienne ou autres distances) Variantes: algorithme Isodata avec prise en compte de la dispersion du nuage (distance de Mahalanobis)

20 Avantages/inconvénients Avantages Très simple Affectation automatique Inconvénients Nombre de classe fixé à l avance Dépend du point de départ Chaque élément doit être affecté à une classe

21 Apprentissage supervisé Apprentissage supervisé: Pour les objets utilisés lors de l apprentissage Vecteur de caractéristiques et Classe d affectation connus. Apprentissage supervisé Méthodes paramétriques Hypothèse sur la «forme» de la classe, modélisation Exemple: loi normale Méthodes non paramétriques Aucune hypothèse sur la «forme» de la classe

22 Théorie de Bayes Décision sur appartenance à une classe en fonction de la probabilité d appartenance à cette classe. Le classificateur de Bayes affecte un objet à la classe qui maximise la probabilité d appartenance.

23 Rappel de probabilités (1) Un paquet de pièces de 2 types: A et B 80% de A et 20% de B On appelle P(A) la probabilité a priori de l hypothèse A et P(B) la probabilité a priori de l hypothèse B. P(A) = 0,8 et P(B) = 0,2 et P(A)+ P(B) =1

24 Rappel de probabilités (2) On suppose que les pièces A sont faussées et permettent d obtenir à 2/3 de chance «Pile». Les pièces B ont une équiprobabilité d obtenir pile ou face On appelle P(Pile A) la probabilité d obtenir pile sachant A (limité aux pièces A) et P(Pile B) la probabilité d obtenir pile sachant B. P(Pile A) = 2/3 et P(Pile B) = 0,5

25 Règle de Bayes On lance une pièce au hasard Pile! Quelle est la probabilité d avoir lancé une pièce A? Une pièce B? Règle de Bayes: P( PileA). P( A) P( APile) = P( PileA). P( A) + P( PileB). P( B) P(A Pile) = 0,84 et P(B Pile) = 0,16

26 Règle de Bayes: de façon générale (1) P(w i ) la probabilité a priori d avoir la classe w i. Soit C le nombre total de classes P(X w i ) la probabilité d observer X sachant la classe w i. P(w i X) la probabilité a posteriori que la classe correcte soit w i sachant l observation X. Règle de Bayes: P ( wi X ) P ( X w). P ( w) i i = C P ( X wi). P ( wi) i= 1

27 Règle de Bayes: de façon générale (2) Dénominateur est identique pour toutes les classes chercher la probabilité P(w i X) maximale revient à chercher le maximum de P(X w i ).P(w i ). Problème calculer les probabilités P(w i ) et surtout les probabilités (P(X w i )

28 Exemple Exemple: reconnaissance de caractères manuscrits dans un texte. On veut distinguer deux lettres i et m Probabilité a priori: 60% i 40% m P(w 1 )=0,6 et P(w 2 )=0,4

29 Critère observé: Nombre de pixels Observation: nombre de pixels caractérisant la lettre effectif effectif nombre de pixels nombre de pixels La distribution de ces pixels va permettre de déterminer P(X wi) P(X wi) définit la fonction de distribution (ou fonction de densité de probabilité) dans la classe

30 Loi de densité de probabilité La loi de densité de probabilité P(x wi) peut être aussi complexe que voulu la complexité augmente le temps de calcul Hypothèse sur la loi pour simplifier les choses hypothèse basique: la distribution est gaussienne (loi normale)

31 Notions de loi normale (distribution gaussienne) Distribution gaussienne: Hypothèse valable lorsque les valeurs se distribuent de façon harmonieuse (avec une décroissance régulière) autour d une valeur moyenne µ Cas à une dimension (cas discret): - Position moyenne de la courbe µ : µ = K k = 1 x k p k - Dispersion autour de µ (variance ²): K σ ² = ( x k µ )² p k k = 1 L écart-type est la racine carrée de la variance.

32 Calcul de la densité de probabilité Ces deux paramètres (µ et ) suffisent à caractériser une distribution gaussienne et à calculer la fonction de densité de probabilité P(x wi). fonction de densité de probabilité: P ( x µ )² 1 2σ ² ( ) x w i = e σ 2π

33 Estimation Les données peuvent être modélisées de la façon suivante µ=14,94 ; σ=2,5) ; 2 µ=21,2 ; σ=2) 1 µ=14,94 ; σ=4) ; 2 µ=21,2 ; σ=2)

34 Résultats (1) La probabilité d appartenance à la classe 1 (i) P(w 1 x) ou à la classe 2 (m) P(w 2 x) suivant le nombre de pixels. 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0, µ=14,94 ; σ=2,5) ; 2 µ=21,2 ; σ=2)

35 Résultats (2) Même chose avec classes plus lointaines 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0, µ=14,94 ; σ=4) ; 2 µ=21,2 ; σ=2)

36 Règle de Bayes Le nombre de classes peut être supérieur à 2. En général, on utilise un vecteur de plusieurs caractéristiques. écart-type remplacée par matrice de covariance Σ.

37 Cas particulier Remarque: si les écarts-type sont les mêmes pour toutes les classes et si les classes sont équiprobables le calcul du maximum de probabilité revient à calculer (x-µ)². distance euclidienne (distance minimale)

38 Avantages/inconvénients Avantages Très robuste Inconvénients Grand échantillon Modèle pas toujours simple (car la loi n est pas toujours normale) Connaissance a priori sur les classes

39 Cas non paramétrique Aucune hypothèse sur la forme des classes. On reste dans le cas supervisé Comparaison par rapport aux voisins

40 Méthode du plus proche voisin (1) Calcul de toutes les distances existantes entre l objet à classer et les points disponibles ,5 1 1,5 2 2,5 3 3,5 4

41 Méthode du plus proche voisin (2) L objet est assigné au voisin le plus proche ,5 1 1,5 2 2,5 3 3,5 4

42 Inconvénient Très sensible à un unique point de la classe l objet le plus proche peut être d une classe incorrecte alors que les points autour sont de l autre classe. Extension de la méthode aux k plus proches voisins.

43 K plus proche voisins (1) «Parmi les k plus proches voisins, quelle est la classe la plus représentée»? exemple: k =11 Parmi les 11 plus proches voisins, 8 appartiennent à A et 3 à B, alors la forme à classer appartient à A

44 K plus proche voisins (1) En pratique, Plus k est élevé, plus la probabilité d erreur est faible. Mais, plus k est élevé, plus le coût du calcul est prohibitif compromis La distance euclidienne n est pas toujours la plus adaptée, il existe d autres distances mathématiques (Mahalanobis ) Autre méthode non paramétrique: Fenêtre de Parzen

45 Avantages/inconvénients méthodes non paramétriques Avantages Pas de «modélisation» de la classe Méthode très simple et très utilisée Inconvénients Complexité informatique (répétition du calcul des distances est coûteuse)

46 Séparation géométrique (1) Espace des caractéristiques considéré comme un espace géométrique. Apprentissage supervisé Trouver des séparateurs géométriques entre les régions (droites, plans,courbes..) Difficultétrouver l équation de ces droites ou des ces plans

47 Séparation géométrique (2) Exemple: droite séparatrice X 2 X 1

48 Inconvénient En pratique: assez compliqué (équation de plans à déterminer). Hypothèse: il existe des plans ou des droites séparant les classes (ce qui est loin d être toujours le cas, on peut avoir des courbes)

49 Arbre de décision Question/réponses Classification Nombre de pixels >15 Oui Présence d une boucle Non Angles aigus? Oui Non 0 1 >2

50 Avantages/inconvénients Avantages Méthode très simple Traitement rapide de grands volumes de données (simples) Inconvénients Complexe pour forme complexe Dépendance vis à vis de la question de départ

51 Autres classificateurs (1) Méthodes neuronales Perceptron, Hopfiel, Kohonen Méthodes de Markov Processus statistique élaboré Outil très puissant mais souvent lourd à mettre en place

52 Prendre une décision On réalise une mesure de probabilité ou de distance à partir de quelle probabilité ou quelle distance on accepte ou non Fixer un seuil Mesurer la «confiance» de la décision

53 Données de validation (tests) Après l apprentissage Permet de tester l ensemble de l outil utilisé Connaissance des classes d appartenance Calcul de la matrice de confusion

54 Matrice de confusion Évaluation de notre classification Réalité Lettre i Lettre m détection Lettre i Lettre m

55 Taux d erreur 3.33 % d erreur pour la lettre i et 7.5% d erreur pour la lettre m. A voir si cela est satisfaisant ou pas

56 Rejet On peut également calculer un taux de rejet le «risque» est trop gros d assigner une forme à une classe Exemple si Probabilité d appartenance est inférieure à 80% Rejet (forme non classée) On peut calculer un taux de rejet

57 Ajustement des outils de décision Exemple 1: tri postal ou banque fort couteux de prendre un mauvaise décision sur l adresse ou sur compte bancairerisque minimum/ augmentation du taux de rejet Exemple 2: détection d un maladie en médecine augmentation du taux de détection quitte à avoir de faux-malades

58 Conclusion (1) Processus de classification est long: Prétraitement, Segmentation, Extraction de caractéristiques, classification, décision. Lot d apprentissage, lot de validation Accepter et connaître le taux d erreur

59 Conclusion (2) Chaîne de traitement très proche pour reconnaissance de forme et parole Prochain cours: traitement de signal, spécificités reconnaissance de parole, TPs (Dragon Naturally Speaking, Omnipage, traitement d images). Questions?

60

Apprentissage Automatique Numérique

Apprentissage Automatique Numérique Apprentissage Automatique Numérique Loïc BARRAULT Laboratoire d Informatique de l Université du Maine (LIUM) loic.barrault@lium.univ-lemans.fr 16 septembre 2015 1/42 Problème classique Automatique Autre

Plus en détail

Reconnaissance des formes

Reconnaissance des formes Reconnaissance des formes Discrimination A. Belaïd LORIA - Nancy Discrimination linéaire Notion d hyperplan Discrimination linéaire Principe Une forme x R d (vecteur forme) Rôle de la Trouver D : R d x

Plus en détail

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq»

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Guy Perrière Pôle Rhône-Alpes de Bioinformatique 14 novembre 2012 Guy Perrière (PRABI) Tests statistiques 14 novembre 2012 1 / 40 Plan

Plus en détail

Analyse de spectres d absorbance pour la prédiction des taux de moisissure, de matières grasses et de protéines d échantillons de viande

Analyse de spectres d absorbance pour la prédiction des taux de moisissure, de matières grasses et de protéines d échantillons de viande Université de Nantes M2 Ingénierie Mathématiques Rapport de chimiométrie Analyse de spectres d absorbance pour la prédiction des taux de moisissure, de matières grasses et de protéines d échantillons de

Plus en détail

PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011

PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011 Projet 2009 2010 Biométrie 3D PCA appliqué à la 2D et 3D Dernière mise à jour : avril 2011 Département : TIC Mots clés : Biométrie, Analyse d images, Vision, Caméra thermique, Caméra temps de vol, Détection

Plus en détail

Contenu. Sources et références. Classification supervisée. Classification supervisée vs. non-supervisée

Contenu. Sources et références. Classification supervisée. Classification supervisée vs. non-supervisée PJE : Analyse de comportements avec Twitter Classification supervisée Arnaud Liefooghe arnaud.liefooghe@univ-lille1.fr Master 1 Informatique PJE2 2012-2013 B. Derbel L. Jourdan A. Liefooghe Contenu Classification

Plus en détail

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7. Statistique Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.fr Cours Statistique, 2010 p. 1/52 Plan du cours Chapitre 1 : Estimation

Plus en détail

Laboratoire 2 Extraction des caractéristiques

Laboratoire 2 Extraction des caractéristiques Laboratoire 2 Extraction des caractéristiques L objectif de l extraction et de la sélection de caractéristiques est d identifier les caractéristiques importantes pour la discrimination entre classes. Après

Plus en détail

Estimateur et Estimation Prof Franck Bonnetain Unité de méthodologie & de qualité de vie en cancérologie (EA3181) CHRU Besançon

Estimateur et Estimation Prof Franck Bonnetain Unité de méthodologie & de qualité de vie en cancérologie (EA3181) CHRU Besançon PACES - APEMK UE 4 Evaluation des méthodes d analyses appliquées aux sciences de la vie et de la santé Estimateur et Estimation Prof Franck Bonnetain Unité de méthodologie & de qualité de vie en cancérologie

Plus en détail

Erik PERNOD Calcul Scientifique 3 ème Année RESEAUX DE NEURONES

Erik PERNOD Calcul Scientifique 3 ème Année RESEAUX DE NEURONES Erik PERNOD Calcul Scientifique 3 ème Année RESEAUX DE NEURONES 1 TABLE DES MATIERES TABLE DES MATIERES... 2 I PERCEPTRON SIMPLE... 3 I.1 Introduction... 3 I.2 Algorithme... 3 I.3 Résultats... 4 1er exemple

Plus en détail

Analyse en composantes principales Christine Decaestecker & Marco Saerens ULB & UCL

Analyse en composantes principales Christine Decaestecker & Marco Saerens ULB & UCL Analyse en composantes principales Christine Decaestecker & Marco Saerens ULB & UCL LINF 2275 Stat. explor. multidim. 1 A.C.P.: Analyse en Composantes Principales Analyse de la structure de la matrice

Plus en détail

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Introduction aux modèles graphiques 2010/2011 Cours 2 6 octobre Enseignant: Francis Bach Scribe: Nicolas Cheifetz, Issam El Alaoui 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Soit

Plus en détail

Statistiques descriptives Variance et écart type

Statistiques descriptives Variance et écart type Statistiques descriptives Variance et écart type I) Rappel : la moyenne (caractéristique de position ) Définition Soit la série statistique définie dans le tableau suivant : Valeur... Effectif... Fréquences

Plus en détail

ECGE 1224 - Statistiques en économie et gestion : TP 1

ECGE 1224 - Statistiques en économie et gestion : TP 1 ECGE 14 - Statistiques en économie et gestion : TP 1 Exercice 1 Un dé parfaitement équilibré est lancé. Soit X la variable aléatoire (v.a.) correspondant au résultat obtenu avec le dé. a) Justifer pourquoi

Plus en détail

Chapitre 1 GRAPHIQUES

Chapitre 1 GRAPHIQUES Statistique appliquée à la gestion et au marketing http://foucart.thierry.free.fr/statpc Chapitre 1 GRAPHIQUES On entend souvent qu un schéma vaut mieux qu un long discours. Effectivement, lorsque l on

Plus en détail

Reconnaissance des Formes Travaux Pratiques, 1 ère séance /4 - Corrigé partiel -

Reconnaissance des Formes Travaux Pratiques, 1 ère séance /4 - Corrigé partiel - Reconnaissance des Formes Travaux Pratiques, 1 ère séance /4 - Corrigé partiel - Modalités de déroulement o séance en salle Linux o compte-rendu à remettre à l'issue de la séance Objectif de la séance

Plus en détail

Reconnaissance de caractères: Descripteurs de formes et classification. Philippe Foucher

Reconnaissance de caractères: Descripteurs de formes et classification. Philippe Foucher Reconnaissance de caractères: Descripteurs de formes et classification Philippe Foucher 1 Plan Introduction Pré-traitement Segmentation d images Morphologie mathématique Extraction de caractéristiques

Plus en détail

Méthodes de projection

Méthodes de projection Chapitre 11 Méthodes de projection Contenu 11.1 Analyse en composantes principales........ 138 11.1.1 L Analyse en Composantes Principales........ 139 11.1.2 La (grande) famille des ACP............. 151

Plus en détail

Installation de la librairie VISP et création du projet

Installation de la librairie VISP et création du projet ESIR3-IN Travaux Pratiques VO 2012-2013 PREAMBULE Copier les données des TPs 1. créez un répertoire VO dans votre homedir cd ~/ mkdir VO cd VO 2. copier le dossier contenant toutes les données pour les

Plus en détail

Vision Par Ordinateur. Techniques Statistiques de la Reconnaissance de Forme. Segmentation...2. Variables Aléatoires...7

Vision Par Ordinateur. Techniques Statistiques de la Reconnaissance de Forme. Segmentation...2. Variables Aléatoires...7 Vision Par Ordinateur James L. Crowley DEA IVR Premier Bimestre 1999/00 Séance 4 26 octobre 1999 Plan de la séance : Techniques Statistiques de la Reconnaissance de Forme Segmentation...2 La Distribution

Plus en détail

Ressources pour le lycée technologique

Ressources pour le lycée technologique éduscol Enseignement de mathématiques Classe de première STMG Ressources pour le lycée technologique Échantillonnage : couleur des yeux au Canada Contexte pédagogique Objectifs Obtenir un intervalle de

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Arts & Métiers Filière PSI

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Arts & Métiers Filière PSI Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Arts & Métiers Filière PSI Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes

Plus en détail

Le Data Mining au service du Scoring ou notation statistique des emprunteurs!

Le Data Mining au service du Scoring ou notation statistique des emprunteurs! France Le Data Mining au service du Scoring ou notation statistique des emprunteurs! Comme le rappelle la CNIL dans sa délibération n 88-083 du 5 Juillet 1988 portant adoption d une recommandation relative

Plus en détail

Baccalauréat Série S Métropole, juin 2014

Baccalauréat Série S Métropole, juin 2014 Baccalauréat Série S Métropole, juin 4 Sujet et Corrigé Stéphane PASQUET Disponible sur http://www.mathweb.fr juin 4 Exercice (5 points) - Commun à tous les candidats Partie A Dans le plan muni d un repère

Plus en détail

Corrigé du Baccalauréat S Nouvelle-Calédonie Mars 2016

Corrigé du Baccalauréat S Nouvelle-Calédonie Mars 2016 Corrigé du Baccalauréat S Nouvelle-Calédonie Mars 0 A. P. M. E. P. EXERCICE Commun à tous les candidats points Partie A Une boite contient 00 médailles souvenir dont 50 sont argentées, les autres dorées.

Plus en détail

La classification 2012-2013. Fabien Chevalier Jérôme Le Bellac

La classification 2012-2013. Fabien Chevalier Jérôme Le Bellac La classification 2012-2013 Fabien Chevalier Jérôme Le Bellac Introduction : Classification : méthode d analyse de données Objectif : Obtenir une représentation schématique simple d'un tableau de données

Plus en détail

Probabilité mathématique et distributions théoriques

Probabilité mathématique et distributions théoriques Probabilité mathématique et distributions théoriques 3 3.1 Notion de probabilité 3.1.1 classique de la probabilité s Une expérience ou une épreuve est dite aléatoire lorsqu on ne peut en prévoir exactement

Plus en détail

APPRENTISSAGE AUTOMATIQUE. Réduction de dimension

APPRENTISSAGE AUTOMATIQUE. Réduction de dimension APPRENTISSAGE AUTOMATIQUE Réduction de dimension Malédiction de la dimensionalité Beaucoup de méthodes d apprentissage ne passent pas bien à l échelle pour des données de grandes dimensions: c est la malédiction

Plus en détail

D.I.I.C. 3 - INC Module COMV - Contrôle 1

D.I.I.C. 3 - INC Module COMV - Contrôle 1 Université de Rennes 1 année 2009-2010 I.F.S.I.C. 11 Décembre 2009 D.I.I.C. 3 - INC Module COMV - Contrôle 1 cours d Olivier LE MEUR Durée : 2 heures Documents autorisés : documents des cours, TD et TP,

Plus en détail

Apprentissage statistique Stratégie du Data-Mining

Apprentissage statistique Stratégie du Data-Mining Apprentissage statistique Stratégie du Data-Mining Hélène Milhem Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 H. Milhem (IMT, INSA Toulouse) Apprentissage statistique

Plus en détail

Une revue des méthodes de discrimination pour la spectrométrie PIR (centrée sur les méthodes linéaires) JM Roger. jean-michel.roger@cemagref.

Une revue des méthodes de discrimination pour la spectrométrie PIR (centrée sur les méthodes linéaires) JM Roger. jean-michel.roger@cemagref. Une revue des méthodes de discrimination pour la spectrométrie PIR (centrée sur les méthodes linéaires) JM Roger jean-michel.roger@cemagref.fr Plan Qu'est ce que la discrimination? Le modèle de l'analyse

Plus en détail

Épreuve de Mathématiques 8

Épreuve de Mathématiques 8 Lycée La Prat s Vendredi 10 avril 2015 Classe de PT Épreuve de Mathématiques 8 Durée 4 h L usage des calculatrices est interdit. La présentation, la lisibilité, l orthographe, la qualité de la rédaction

Plus en détail

1/4 2/4 3/4 4/4. 10. Estimation MTH2302D. S. Le Digabel, École Polytechnique de Montréal H2016. (v1) MTH2302D: estimation 1/50

1/4 2/4 3/4 4/4. 10. Estimation MTH2302D. S. Le Digabel, École Polytechnique de Montréal H2016. (v1) MTH2302D: estimation 1/50 10. Estimation MTH2302D S. Le Digabel, École Polytechnique de Montréal H2016 (v1) MTH2302D: estimation 1/50 Plan 1. Introduction 2. Estimation ponctuelle 3. Estimation par intervalles de confiance 4. Autres

Plus en détail

Estimation indirecte en sciences humaines : une méthode bayésienne

Estimation indirecte en sciences humaines : une méthode bayésienne Estimation indirecte en sciences humaines : une méthode bayésienne Henri Caussinus, Institut de Mathématiques de Toulouse, en collaboration avec Daniel Courgeau, INED Isabelle Séguy, INED Luc Buchet, CNRS

Plus en détail

Analyse en composantes principales

Analyse en composantes principales Analyse en composantes principales Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Analyse en composantes principales p. 1/18 Introduction Objectifs Soit {x i } i=1,,l

Plus en détail

HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES

HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES 105 HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES 1. Introduction En statistiques il arrive fréquemment que les individus soient décrits par un grand nombre de caractères. : voitures décrites par leur

Plus en détail

Mesures et analyses statistiques de données - Probabilités. Novembre 2012 - Contrôle Continu, Semestre 1 CORRECTION

Mesures et analyses statistiques de données - Probabilités. Novembre 2012 - Contrôle Continu, Semestre 1 CORRECTION MASTER 1 GSI- Mentions ACCIE et RIM La Citadelle - ULCO Mesures et analyses statistiques de données - Probabilités Novembre 2012 - Contrôle Continu, Semestre 1 CORRECTION Exercice 1 Partie I 12pts 1 Étude

Plus en détail

Modélisation des codes de calcul dans. le cadre des processus gaussiens

Modélisation des codes de calcul dans. le cadre des processus gaussiens Modélisation des codes de calcul dans le cadre des processus gaussiens Amandine Marrel Laboratoire de Modélisation des Transferts dans l Environnement CEA Cadarache Introduction (1) Fiabilité et calcul

Plus en détail

MAP-SIM2 : Planification de trajectoire

MAP-SIM2 : Planification de trajectoire MP-SIM : Planification de trajectoire sujet proposé par Nicolas Kielbasiewicz : nicolas.kielbasiewicz@ensta-paristech.fr 0 janvier 06 La planification de trajectoire consiste à déterminer une trajectoire,

Plus en détail

Les Réseaux de Neurones avec

Les Réseaux de Neurones avec Les Réseaux de Neurones avec Au cours des deux dernières décennies, l intérêt pour les réseaux de neurones s est accentué. Cela a commencé par les succès rencontrés par cette puissante technique dans beaucoup

Plus en détail

Probabilités et statistique

Probabilités et statistique Probabilités et statistique Université Paris 1 Panthéon-Sorbonne Cours de deuxième année de licence de sciences économiques Fabrice Rossi Cette œuvre est mise à disposition selon les termes de la licence

Plus en détail

Qualité d une classification

Qualité d une classification Méthodes en classification automatique Qualité d une classification Yves Lechevallier INRIA-Rocquencourt E_mail : Yves.Lechevallier@inria.fr Master ISI Qualité d une partition Validation interne À partir

Plus en détail

Baccalauréat ES Polynésie 10 juin 2016

Baccalauréat ES Polynésie 10 juin 2016 Baccalauréat ES Polynésie 0 juin 06 EXERCICE Les parties A et B sont indépendantes On s intéresse à l ensemble des demandes de prêts immobiliers auprès de trois grandes banques. Une étude montre que %

Plus en détail

geffray@math.unistra.fr Outils pour la statistique avancée Année 2015/2016 TD 1 : Bootstrap

geffray@math.unistra.fr Outils pour la statistique avancée Année 2015/2016 TD 1 : Bootstrap Université de Strasbourg Ségolen Geffray M2 - Statistique geffray@math.unistra.fr Outils pour la statistique avancée Année 2015/2016 TD 1 : Bootstrap Ces exercices seront effectués au moyen du logiciel

Plus en détail

Intégration de polynômes Points de Gauss

Intégration de polynômes Points de Gauss Intégration de polynômes Points de Gauss Commençons par un exercice classique de premier cycle. Problème 1 Trouver trois réels α, β et γ tels que, pour tout polynôme P de degré au plus 2, on ait : ( )

Plus en détail

Comparaison d approches statistiques pour la classification de textes d opinion. Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM)

Comparaison d approches statistiques pour la classification de textes d opinion. Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM) Comparaison d approches statistiques pour la classification de textes d opinion Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM) Caractéristiques des traitements Approche identique pour les

Plus en détail

Arithmétique Algorithmique. http://www.math.univ-lyon1.fr/~roblot/ens.html

Arithmétique Algorithmique. http://www.math.univ-lyon1.fr/~roblot/ens.html Arithmétique Algorithmique http://www.math.univ-lyon1.fr/~roblot/ens.html Partie III Algorithmes classiques 1 Coût de la multiplication et de la division 2 Exponentiation rapide 3 Algorithme d Euclide

Plus en détail

I. LA VARIABILITE AU SEIN DES POPULATIONS

I. LA VARIABILITE AU SEIN DES POPULATIONS I. LA VARIABILITE AU SEIN DES POPULATIONS La notion de population recouvre un concept difficilement réductible à une définition unique. Au sens de la génétique, une population représente une entité de

Plus en détail

10.1 Différentes capacités de localisation

10.1 Différentes capacités de localisation Chapitre 10 Localisation Ce chapitre présente les principales methodes de localisation. On pourra trouver une description succinte d un grand nombre d autres méthodes dans [35]. 10.1 Différentes capacités

Plus en détail

Rapport du stage effectué au laboratoire HEUDIASYC UMR CNRS 6599. Moustapha DOUMIATI. pour obtenir le diplôme Master de recherche en informatique

Rapport du stage effectué au laboratoire HEUDIASYC UMR CNRS 6599. Moustapha DOUMIATI. pour obtenir le diplôme Master de recherche en informatique Rapport du stage effectué au laboratoire HEUDIASYC UMR CNRS 6599 présenté par Moustapha DOUMIATI pour obtenir le diplôme Master de recherche en informatique Fouille de données pour l analyse des performances

Plus en détail

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I ÉLÉMENTS D OPTIMISATION Complément au cours et au livre de MTH 1101 - CALCUL I CHARLES AUDET DÉPARTEMENT DE MATHÉMATIQUES ET DE GÉNIE INDUSTRIEL ÉCOLE POLYTECHNIQUE DE MONTRÉAL Hiver 2011 1 Introduction

Plus en détail

COURS DE DATA MINING 8 : MODELISATIONS RESEAUX DE NEURONES ET DE KOHONEN

COURS DE DATA MINING 8 : MODELISATIONS RESEAUX DE NEURONES ET DE KOHONEN COURS DE DATA MINING 8 : MODELISATIONS RESEAUX DE NEURONES ET DE KOHONEN EPF 4/ 5 ème année - Option Ingénierie d Affaires et de Projets - Finance Bertrand LIAUDET 8 : Modélisations - Réseaux de neurones

Plus en détail

Extraits de l article à paraître : GALILÉE OU DESCARTES? ÉTUDE D UN SCÉNARIO D INTRODUCTION HISTORIQUE AU CALCUL DES PROBABILITÉS

Extraits de l article à paraître : GALILÉE OU DESCARTES? ÉTUDE D UN SCÉNARIO D INTRODUCTION HISTORIQUE AU CALCUL DES PROBABILITÉS Extraits de l article à paraître : GALILÉE OU DESCARTES? ÉTUDE D UN SCÉNARIO D INTRODUCTION HISTORIQUE AU CALCUL DES PROBABILITÉS Éric BUTZ IREM de la Réunion et lycée Lislet Geoffroy, Saint-Denis. Résumé

Plus en détail

[ Baccalauréat S Nouvelle-Calédonie \ 19 novembre 2015

[ Baccalauréat S Nouvelle-Calédonie \ 19 novembre 2015 Durée : 4 heures [ Baccalauréat S Nouvelle-Calédonie \ 19 novembre 015 A. P. M. E. P. EXERCICE 1 7 points Une usine produit de l eau minérale en bouteilles. Lorsque le taux de calcium dans une bouteille

Plus en détail

Chapitre 6 TESTS STATISTIQUES

Chapitre 6 TESTS STATISTIQUES Statistique appliquée à la gestion et au marketing http://foucart.thierry.free.fr/statpc Chapitre 6 TESTS STATISTIQUES Les tests statistiques sont des méthodes de la statistique inférentielle qui, comme

Plus en détail

Au menu. Cours 7: Classes Probabilistes. Application : Calcul de la médiane. Sous menu. Retours sur quelques algorithmes.

Au menu. Cours 7: Classes Probabilistes. Application : Calcul de la médiane. Sous menu. Retours sur quelques algorithmes. Au menu Cours 7: Classes Probabilistes Olivier Bournez bournez@lix.polytechnique.fr LIX, Ecole Polytechnique Retours sur quelques algorithmes Quelques résultats INF561 Algorithmes et Complexité 1 2 Sous

Plus en détail

Affectation d'une valeur à une variable

Affectation d'une valeur à une variable Affectation d'une valeur à une variable Fonctions calculs d'images Faire fonctionner l'algorithme ci contre avec a = 2 et b = 5. Quelle est la réponse affichée par l'algorithme? (question subsidiaire :

Plus en détail

Plan. Définition et Objectifs Analyse discriminante Régression logistique Arbres de décision Réseaux bayésiens Exemple

Plan. Définition et Objectifs Analyse discriminante Régression logistique Arbres de décision Réseaux bayésiens Exemple La classification Plan Définition et Objectifs Analyse discriminante Régression logistique Arbres de décision Réseaux bayésiens Exemple Définition et Objectifs Prévoir l appartenance à une «classe» non

Plus en détail

Comment calculer la précision des estimateurs composites d Esane

Comment calculer la précision des estimateurs composites d Esane Comment calculer la précision des estimateurs composites d Esane Thomas Deroyon Insee - 18 Bd Adolphe Pinard Paris, thomas.deroyon@insee.fr Résumé. Les statistiques structurelles d entreprise permettent

Plus en détail

Cours Fouille de données avancée

Cours Fouille de données avancée Ministère de l Enseignement Supérieur et de la Recherche Scientifique Université Mohamed Khider - Biskra Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie Département d Informatique

Plus en détail

Feuille 1. L3 Maths Appliquées lagache@biologie.ens.fr 27 Janvier 2009. A le chambre des députés d un pays composé de 100 départements, chaque

Feuille 1. L3 Maths Appliquées lagache@biologie.ens.fr 27 Janvier 2009. A le chambre des députés d un pays composé de 100 départements, chaque Feuille 1 L3 Maths Appliquées lagache@biologie.ens.fr 27 Janvier 2009 1 Combinatoire 1.1 Exercice 1 A le chambre des députés d un pays composé de 100 départements, chaque département est représenté par

Plus en détail

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE Pierre-Louis Gonzalez 1 I INTRODUCTION 1 variable qualitative. Tri à plat. Représentations graphiques. Modélisation : loi binomiale loi multinomiale

Plus en détail

Arbres binaires. Hélène Milhem. Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012

Arbres binaires. Hélène Milhem. Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 Arbres binaires Hélène Milhem Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 H. Milhem (IMT, INSA Toulouse) Arbres binaires IUP SID 2011-2012 1 / 35 PLAN Introduction Construction

Plus en détail

Analyse des données 1: erreurs expérimentales et courbe normale

Analyse des données 1: erreurs expérimentales et courbe normale Analyse des données 1: erreurs expérimentales et courbe normale 1 Incertitude vs. erreur Une mesure expérimentale comporte toujours deux parties: la valeur vraie de la grandeur mesurée et l'erreur sur

Plus en détail

Introduction sur l analyse en composantes principales (ACP)

Introduction sur l analyse en composantes principales (ACP) Introduction sur l analyse en composantes principales (CP) ) Introduction sur un exemple à 2 dimensions On veut représenter graphiquement les profils d élèves qui ont été notés sur 2 matières (Français

Plus en détail

Module 3 : Introduction à la Modélisation SOUS MODELER

Module 3 : Introduction à la Modélisation SOUS MODELER Module 3 : Introduction à la Modélisation SOUS MODELER 1 Techniques prédictives Passé pour prédire l avenir 2 Concepts de la modélisation Données test / apprentissage Généralement créées par l utilisateur

Plus en détail

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Philippe Gagnepain Université Paris 1 Ecole d Economie de Paris Centre d économie de la Sorbonne-UG 4-Bureau 405 philippe.gagnepain@univ-paris1.fr

Plus en détail

Statistiques. IUT Biotechnologie 2ème année. Jean-Christophe Breton Université de La Rochelle Octobre-Novembre 2008

Statistiques. IUT Biotechnologie 2ème année. Jean-Christophe Breton Université de La Rochelle Octobre-Novembre 2008 Statistiques IUT Biotechnologie 2ème année Jean-Christophe Breton Université de La Rochelle Octobre-Novembre 2008 version du 04 octobre 2008 Table des matières 1 Lois de probabilité usuelles 1 1.1 Dénombrement................................

Plus en détail

SÉRIES STATISTIQUES A UNE VARIABLE PARAMÈTRES DE POSITION ET DE DISPERSION

SÉRIES STATISTIQUES A UNE VARIABLE PARAMÈTRES DE POSITION ET DE DISPERSION SÉRIES STATISTIQUES A UNE VARIABLE PARAMÈTRES DE POSITION ET DE DISPERSION Eemple Le responsable d une maison de retraite a réalisé une enquête concernant les résidents de son établissement : - L activité

Plus en détail

Pierre-Louis GONZALEZ

Pierre-Louis GONZALEZ SEGMENTATION Pierre-Louis GONZALEZ 1 I. Les méthodes de segmentation. Introduction Les méthodes de segmentation cherchent à résoudre les problèmes de discrimination et de régression en divisant de façon

Plus en détail

Probabilités et statistiques M2MT01 - TD2

Probabilités et statistiques M2MT01 - TD2 Probabilités et statistiques M2MT01 - TD2 Exercice 1 : Une fourmi se déplace sur un dé à six faces. A chaque sommet, elle choisit le prochain parmi les trois sommets voisins avec la même probabilité. La

Plus en détail

TUTORAT UE4 2010-2011 Biostatistiques Concours Blanc

TUTORAT UE4 2010-2011 Biostatistiques Concours Blanc TUTORAT UE4 2010-2011 Biostatistiques Concours Blanc Lorsque cela n est pas précisé (explicitement ou implicitement), les tests sont réalisés à 5% en bilatéral QCM n 1 : Généralités sur les probabilités

Plus en détail

UFR Mathématique et Informatique S5 Printemps 2010. TD Révisions R&P

UFR Mathématique et Informatique S5 Printemps 2010. TD Révisions R&P Université de Strasbourg L3 Informatique UFR Mathématique et Informatique S5 Printemps 2010 TD Révisions R&P Partie I On considère une connexion TCP entre 2 machines MA et MB. Le RTT, supposé constant,

Plus en détail

MÉRÉ Aurélien FIIFO1. Pathfinder

MÉRÉ Aurélien FIIFO1. Pathfinder MÉRÉ Aurélien FIIFO1 AMC Pathfinder 1 Sommaire Préambule... 3 Modélisation de l espace... 4 Modélisation des cases δ, α... 4 Interface en mode texte... 5 Modélisation du robot... 8 1 ) Le type Robot...

Plus en détail

Économétrie. Francesco Quatraro M1 EFM 2010/2011

Économétrie. Francesco Quatraro M1 EFM 2010/2011 Francesco Quatraro M1 EFM 2010/2011 1 La violation des hypothèses Le modèle des MCO considère que les hypothèses suivantes sont toutes respectées: H1: le modèle est linéaire en x i,t H2: les valeurs x

Plus en détail

La discrimination sur le marché du travail :

La discrimination sur le marché du travail : La discrimination sur le marché du travail : Théories et mesures Emmanuel Duguet Université Paris Est-Créteil Novembre 2010 Introduction Définition : situation dans laquelle deux travailleurs identiquement

Plus en détail

Chapitre 8: Inférence, échantillonnage et estimation

Chapitre 8: Inférence, échantillonnage et estimation Chapitre 8: Inférence, échantillonnage et estimation 1. Echantillonnage aléatoire simple 2. Inférence statistique 3. Estimation 4. Evaluation graphique de l adéquation d un modèle de distribution 1 L inférence

Plus en détail

Apprentissage de structure à partir de données incomplètes et application à la classication

Apprentissage de structure à partir de données incomplètes et application à la classication Apprentissage de structure à partir de données incomplètes et application à la classication Olivier François, Philippe Leray Francois.Olivier.C.H@gmail.com, Philippe.Leray@insa-rouen.fr Laboratoire d'informatique,

Plus en détail

2) Ecrire en utilisant la notation : 3+5+7+9+ 15+17

2) Ecrire en utilisant la notation : 3+5+7+9+ 15+17 STATISTIQUES A UNE VARIABLE EXERCICES CORRIGES Exercice n. Les 5 élèves d'une classe ont composé et le tableau ci-dessous donne la répartition des diverses notes. Recopier et compléter ce tableau en calculant

Plus en détail

Rappels (1) Objectif et plan. Rappels (2) On considère le problème modèle, supposé bien posé, Chercher uh V h tel que (1) a(u, v) = b(v)

Rappels (1) Objectif et plan. Rappels (2) On considère le problème modèle, supposé bien posé, Chercher uh V h tel que (1) a(u, v) = b(v) Rappels (1) On considère le problème modèle, supposé bien posé, { Chercher u V tel que a(u, v) = b(v) v V (1) Éléments finis en 2D Alexandre Ern ern@cermics.enpc.fr http://cermics.enpc.fr/cours/cs (V Hilbert,

Plus en détail

Prof.É.D.Taillard. Classification automatique @Prof. E. Taillard 1 EIVD, Informatique logiciel, 4 e semestre

Prof.É.D.Taillard. Classification automatique @Prof. E. Taillard 1 EIVD, Informatique logiciel, 4 e semestre INFORMATIQUE ORIENTATION LOGICIELS CLASSIFICATION AUTOMATIQUE Prof.É.D.Taillard Classification automatique @Prof. E. Taillard EIVD, Informatique logiciel, 4 e semestre CLASSIFICATION AUTOMATIQUE But :

Plus en détail

M2 Informatique/Réseaux Université Pierre et Marie Curie UE APMM

M2 Informatique/Réseaux Université Pierre et Marie Curie UE APMM TD TECHNIQUES DE CODAGE ET DE COMPRESSION. LANGAGE / CODAGE / VALENCE.. Rappels Toute fraction intelligible d un message est constituée de symboles. Le langage est l ensemble de ces symboles. Un codage

Plus en détail

Estimation. Anita Burgun

Estimation. Anita Burgun Estimation Anita Burgun Estimation Anita Burgun Contenu du cours Sondages Mesures statistiques sur un échantillon Estimateurs Problème posé Le problème posé en statistique: On s intéresse à une population

Plus en détail

LES TYPOLOGIES DE PARCOURS METHODES ET USAGES. Yvette Grelet, Patrick Rousset CEREQ grelet@mrsh.unicaen.fr rousset@cereq.fr

LES TYPOLOGIES DE PARCOURS METHODES ET USAGES. Yvette Grelet, Patrick Rousset CEREQ grelet@mrsh.unicaen.fr rousset@cereq.fr LES TYPOLOGIES DE PARCOURS METHODES ET USAGES Yvette Grelet, Patrick Rousset CEREQ grelet@mrsh.unicaen.fr rousset@cereq.fr 1 PLAN Première partie : un exemple traité «en vraie grandeur» : les 26500 jeunes

Plus en détail

1 - Probabilités et probabilités conditionnelles. PAES Faculté de Médecine P. et M. Curie V. Morice

1 - Probabilités et probabilités conditionnelles. PAES Faculté de Médecine P. et M. Curie V. Morice Probabilités et Biostatistique 1 - Probabilités et probabilités conditionnelles Evaluation ation d'un test diagnostique PAES Faculté de Médecine P. et M. Curie V. Morice Pourquoi la biostatistique : la

Plus en détail

Rapport de stage Mise à plat d'un polygone

Rapport de stage Mise à plat d'un polygone Rapport de stage Mise à plat d'un polygone Stagiaire : Sejjil Olfa Tuteurs de stage: Luc BIARD et Bernard LACOLLE Laboratoire: Jean Kuntzmann (LJK) Equipe: Modélisation Géométrique & Multirésolution pour

Plus en détail

Cours IFT6266, Apprentissage Non-Supervisé de Variétés

Cours IFT6266, Apprentissage Non-Supervisé de Variétés Cours IFT6266, Apprentissage Non-Supervisé de Variétés L Apprentissage Non-Supervisé L apprentissage non-supervisé vise à caractériser la distribution des données, et les relations entre les variables,

Plus en détail

Conception d un micro éditeur d encre électronique et Embarquement d un système de reconnaissance d écriture manuscrite sur Téléphone mobile

Conception d un micro éditeur d encre électronique et Embarquement d un système de reconnaissance d écriture manuscrite sur Téléphone mobile Conception d un micro éditeur d encre électronique et Embarquement d un système de reconnaissance d écriture manuscrite sur Téléphone mobile Eric Anquetil, François Bouteruche IRISA INSA de Rennes Campus

Plus en détail

Amérique du Sud, novembre 2006

Amérique du Sud, novembre 2006 Exercice 1 ( 5 points) Commun à tous les candidats Un hôpital est composé de trois services : service de soins A, service de soins B, service de soins C. On s intéresse aux prises de sang effectuées dans

Plus en détail

Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005. Leçons d Algèbre et de Géométrie

Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005. Leçons d Algèbre et de Géométrie http://perso.wanadoo.fr/gilles.costantini/agreg.htm Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005 Légende : En italique : leçons dont le libellé a changé ou évolué par rapport

Plus en détail

Modèles statistiques pour l analyse des séquences biologiques

Modèles statistiques pour l analyse des séquences biologiques Modèles statistiques pour l analyse des séquences biologiques Franck Picard UMR CNRS-5558, Laboratoire de Biométrie et Biologie Evolutive franck.picard@univ-lyon1.fr F. Picard (LBBE) 1 / 60 Outline Introduction

Plus en détail

Probabilités et Statistiques. Raphaël KRIKORIAN Université Paris 6

Probabilités et Statistiques. Raphaël KRIKORIAN Université Paris 6 Probabilités et Statistiques Raphaël KRIKORIAN Université Paris 6 Année 2005-2006 2 Table des matières 1 Rappels de théorie des ensembles 5 1.1 Opérations sur les ensembles................... 5 1.2 Applications

Plus en détail

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Corrigé

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Corrigé Baccalauréat ES/L Amérique du Sud 2 novembre 2 Corrigé A. P. M. E. P. EXERCICE Commun à tous les candidats 5 points. Diminuer le budget de 6 % sur un an revient à multiplier par 6 =,94. Diminuer le budget

Plus en détail

Algorithmes de descente par blocs pour l apprentissage creux

Algorithmes de descente par blocs pour l apprentissage creux Algorithmes de descente par blocs pour l apprentissage creux Mehdi Meghzifene 11//211 1 Table des matières 1 Introduction 3 1.1 Principe......................................... 3 2 Résolution 4 2.1 Minimisation

Plus en détail

avec w ij poids liant le neurone j au neurone i vec w.vec xi = 0 vec xi vec xi

avec w ij poids liant le neurone j au neurone i vec w.vec xi = 0 vec xi vec xi Exemple pour un perceptrion à deux classes (1 unité de sortie) -> 1/-1 Si w i x 0 la réponse est 1 Si w i x 0 la réponse est -1 Donc la discrimination se fait pour des entrés (les x ). Cet hyperplan a

Plus en détail

BACCALAURÉAT GÉNÉRAL SESSION 2014 MATHÉMATIQUES. Série S ÉPREUVE DU JEUDI 19 JUIN 2014. Durée de l épreuve : 4 heures Coefficient : 7

BACCALAURÉAT GÉNÉRAL SESSION 2014 MATHÉMATIQUES. Série S ÉPREUVE DU JEUDI 19 JUIN 2014. Durée de l épreuve : 4 heures Coefficient : 7 BACCALAURÉAT GÉNÉRAL SESSION 2014 MATHÉMATIQUES Série S ÉPREUVE DU JEUDI 19 JUIN 2014 Durée de l épreuve : 4 heures Coefficient : 7 ENSEIGNEMENT OBLIGATOIRE Les calculatrices électroniques de poche sont

Plus en détail

MATHÉMATIQUES ET SCIENCES HUMAINES

MATHÉMATIQUES ET SCIENCES HUMAINES MATHÉMATIQUES ET SCIENCES HUMAINES M. C. WEISS Variations pédagogiques sur le thème des échantillons systématiques Mathématiques et sciences humaines, tome 102 (1988), p. 39-45.

Plus en détail

Listes creuses - plus d espace que de temps

Listes creuses - plus d espace que de temps Listes creuses - plus d espace que de temps Omar AitMous 1 Frédérique Bassino 1 Cyril Nicaud 2 1 LIPN UMR 7030 Université Paris 13 2 LIGM, UMR CNRS 8049 Université Paris Est 11 Janvier 2011 Listes creuses

Plus en détail

Clustering Méthodes et algorithmes avancés Mars - 2006

Clustering Méthodes et algorithmes avancés Mars - 2006 Clustering Méthodes et algorithmes avancés Mars - 2006 Clustering (catégorisation) Objectifs du clustering Mesures de distances habituelles, similarités entre objets Les différents algorithmes Clustering

Plus en détail