Utilisation des méthodes Support Vector Machine (SVM) dans l analyse des bases de
|
|
- Josiane Bastien
- il y a 8 ans
- Total affichages :
Transcription
1 Utilisation des méthodes Support Vector Machine (SVM) dans l analyse des bases de données Abdelhamid DJEFFAL Encadré par: M.C. BABAHENINI Co-Encadré par: A. TALEB-AHMED Département d informatique, Laboratoire LESIA Université de Biskra Mai 2012
2 Plan 1 Problématique 2 Data mining 3 SVM 4 SVM & analyse des BDD 5 Contributions Accélération des SVMs par réduction d exemples SVM multiclasse accélérée à base de OC-SVM Applications 6 Conclusion
3 Outline 1 Problématique 2 Data mining 3 SVM 4 SVM & analyse des BDD 5 Contributions Accélération des SVMs par réduction d exemples SVM multiclasse accélérée à base de OC-SVM Applications 6 Conclusion
4 Motivations de la thèse Motivations Le développement du data mining et utilisation dans les grand SGBD Le développement des SVMs et leurs applications dans plusieurs domaines Le développement continu des volumes des BDDs Insuffisances et lacunes des techniques de data mining Proposition Utilisation des SVMs pour l analyse des BDD
5 Motivations de la thèse Motivations Le développement du data mining et utilisation dans les grand SGBD Le développement des SVMs et leurs applications dans plusieurs domaines Le développement continu des volumes des BDDs Insuffisances et lacunes des techniques de data mining Proposition Utilisation des SVMs pour l analyse des BDD
6 Motivations de la thèse Motivations Le développement du data mining et utilisation dans les grand SGBD Le développement des SVMs et leurs applications dans plusieurs domaines Le développement continu des volumes des BDDs Insuffisances et lacunes des techniques de data mining Proposition Utilisation des SVMs pour l analyse des BDD
7 Motivations de la thèse Motivations Le développement du data mining et utilisation dans les grand SGBD Le développement des SVMs et leurs applications dans plusieurs domaines Le développement continu des volumes des BDDs Insuffisances et lacunes des techniques de data mining Proposition Utilisation des SVMs pour l analyse des BDD
8 Motivations de la thèse Motivations Le développement du data mining et utilisation dans les grand SGBD Le développement des SVMs et leurs applications dans plusieurs domaines Le développement continu des volumes des BDDs Insuffisances et lacunes des techniques de data mining Proposition Utilisation des SVMs pour l analyse des BDD
9 Motivations de la thèse Motivations Le développement du data mining et utilisation dans les grand SGBD Le développement des SVMs et leurs applications dans plusieurs domaines Le développement continu des volumes des BDDs Insuffisances et lacunes des techniques de data mining Proposition Utilisation des SVMs pour l analyse des BDD
10 Motivations de la thèse Contraintes Dans quel niveau d analyse? Pour quelles tâches? Que faire face aux spécificités des BDD? Quelles adaptations pour les SVMs? Comment assurer la scalabilité?
11 Motivations de la thèse Contraintes Dans quel niveau d analyse? Pour quelles tâches? Que faire face aux spécificités des BDD? Quelles adaptations pour les SVMs? Comment assurer la scalabilité?
12 Motivations de la thèse Contraintes Dans quel niveau d analyse? Pour quelles tâches? Que faire face aux spécificités des BDD? Quelles adaptations pour les SVMs? Comment assurer la scalabilité?
13 Motivations de la thèse Contraintes Dans quel niveau d analyse? Pour quelles tâches? Que faire face aux spécificités des BDD? Quelles adaptations pour les SVMs? Comment assurer la scalabilité?
14 Motivations de la thèse Contraintes Dans quel niveau d analyse? Pour quelles tâches? Que faire face aux spécificités des BDD? Quelles adaptations pour les SVMs? Comment assurer la scalabilité?
15 Outline 1 Problématique 2 Data mining 3 SVM 4 SVM & analyse des BDD 5 Contributions Accélération des SVMs par réduction d exemples SVM multiclasse accélérée à base de OC-SVM Applications 6 Conclusion
16 Définition Data mining Définition Data mining, Fouilles de données, ECD Utilisation des techniques de: statistiques, IA, Optimisation,... Pour découvrir les modèles, les relations, les règles, les motifs, les patterns,... qui se cachent dans les grandes quantités de données, Pour comprendre, aider à la décision, optimiser, améliorer,... Dans les banques, les laboratoires, les supermarchés, les hôpitaux,...
17 Définition Data mining Définition Data mining, Fouilles de données, ECD Utilisation des techniques de: statistiques, IA, Optimisation,... Pour découvrir les modèles, les relations, les règles, les motifs, les patterns,... qui se cachent dans les grandes quantités de données, Pour comprendre, aider à la décision, optimiser, améliorer,... Dans les banques, les laboratoires, les supermarchés, les hôpitaux,...
18 Définition Data mining Définition Data mining, Fouilles de données, ECD Utilisation des techniques de: statistiques, IA, Optimisation,... Pour découvrir les modèles, les relations, les règles, les motifs, les patterns,... qui se cachent dans les grandes quantités de données, Pour comprendre, aider à la décision, optimiser, améliorer,... Dans les banques, les laboratoires, les supermarchés, les hôpitaux,...
19 Définition Data mining Définition Data mining, Fouilles de données, ECD Utilisation des techniques de: statistiques, IA, Optimisation,... Pour découvrir les modèles, les relations, les règles, les motifs, les patterns,... qui se cachent dans les grandes quantités de données, Pour comprendre, aider à la décision, optimiser, améliorer,... Dans les banques, les laboratoires, les supermarchés, les hôpitaux,...
20 Définition Data mining Définition Data mining, Fouilles de données, ECD Utilisation des techniques de: statistiques, IA, Optimisation,... Pour découvrir les modèles, les relations, les règles, les motifs, les patterns,... qui se cachent dans les grandes quantités de données, Pour comprendre, aider à la décision, optimiser, améliorer,... Dans les banques, les laboratoires, les supermarchés, les hôpitaux,...
21 Définition Data mining Définition Data mining, Fouilles de données, ECD Utilisation des techniques de: statistiques, IA, Optimisation,... Pour découvrir les modèles, les relations, les règles, les motifs, les patterns,... qui se cachent dans les grandes quantités de données, Pour comprendre, aider à la décision, optimiser, améliorer,... Dans les banques, les laboratoires, les supermarchés, les hôpitaux,...
22 Processus Processus de data mining Analyse du problème BDD originales Collecte des données BDD initiales Préparation des données Evaluation Modèles/patterns Motifs Fouille de données BDD préparées Connaissances Déploiement
23 Tâches Data mining Tâches de data mining Classification, Régression, Clustering, Renforcement, Recherche des motifs fréquents et des règles d association, Visualisation,...
24 Tâches Data mining Tâches de data mining Classification, Régression, Clustering, Renforcement, Recherche des motifs fréquents et des règles d association, Visualisation,...
25 Tâches Data mining Tâches de data mining Classification, Régression, Clustering, Renforcement, Recherche des motifs fréquents et des règles d association, Visualisation,...
26 Tâches Data mining Tâches de data mining Classification, Régression, Clustering, Renforcement, Recherche des motifs fréquents et des règles d association, Visualisation,...
27 Tâches Data mining Tâches de data mining Classification, Régression, Clustering, Renforcement, Recherche des motifs fréquents et des règles d association, Visualisation,...
28 Tâches Data mining Tâches de data mining Classification, Régression, Clustering, Renforcement, Recherche des motifs fréquents et des règles d association, Visualisation,...
29 Tâches Data mining Tâches de data mining Classification, Régression, Clustering, Renforcement, Recherche des motifs fréquents et des règles d association, Visualisation,...
30 Tâches Data mining Tâches de data mining Classification, Régression, Clustering, Renforcement, Recherche des motifs fréquents et des règles d association, Visualisation,...
31 Outline 1 Problématique 2 Data mining 3 SVM 4 SVM & analyse des BDD 5 Contributions Accélération des SVMs par réduction d exemples SVM multiclasse accélérée à base de OC-SVM Applications 6 Conclusion
32 Principe Introduction Support vector machines Une méthode d apprentissage statistique due à Vladimir Vapnik Principe Classification binaire: y i = ±1 Rechercher un hyperplan de séparation: w x + b = 0 Qui maximise la marge: 2 w 2
33 Principe Introduction Support vector machines Une méthode d apprentissage statistique due à Vladimir Vapnik Principe Classification binaire: y i = ±1 Rechercher un hyperplan de séparation: w x + b = 0 Qui maximise la marge: 2 w 2
34 Principe Introduction Support vector machines Une méthode d apprentissage statistique due à Vladimir Vapnik Principe Classification binaire: y i = ±1 Rechercher un hyperplan de séparation: w x + b = 0 Qui maximise la marge: 2 w 2
35 Principe Introduction Support vector machines Une méthode d apprentissage statistique due à Vladimir Vapnik Principe Classification binaire: y i = ±1 Rechercher un hyperplan de séparation: w x + b = 0 Qui maximise la marge: 2 w 2
36 Principe Introduction Support vector machines Une méthode d apprentissage statistique due à Vladimir Vapnik Principe Résoudre l équation: Minimiser 1 2 w 2 + C n Avec ξ i i=1 y i (w T x i + b) 1 ξ i ; i = 1..n ξ i 0
37 Principe Introduction Support vector machines Une méthode d apprentissage statistique due à Vladimir Vapnik Solution Introduire les multiplicateurs de Lagrange α i 1 n n n Minimiser 2 α i α j y i y j xi, x j i=1 j=1 i=1 n Avec α i y i = 0 i=1 0 α i C α i La fonction de décision est: H(x) = n α i y i x i, x + b i=1
38 Principe Introduction Support vector machines Une méthode d apprentissage statistique due à Vladimir Vapnik Solution Introduire les multiplicateurs de Lagrange α i 1 n n n Minimiser 2 α i α j y i y j xi, x j i=1 j=1 i=1 n Avec α i y i = 0 i=1 0 α i C α i La fonction de décision est: H(x) = n α i y i x i, x + b i=1
39 Principe Utilisation des noyaux y φ Espace original x Espace de caractéristiques φ -1 Espace original
40 Principe Utilisation des noyaux Noyau (Kernel) La transformation et son inverse sont calculées par une fonction réelle appelée Noyau K (x i, x j ) Linéaire: K (x i, x j ) = xi T x j Polynomial: K (x i, x j ) = (xi T x j ) d ( x i x j 2 ) Gaussien: K (x i, x j ) = e... 2σ 2
41 Principe Utilisation des noyaux Noyau (Kernel) La transformation et son inverse sont calculées par une fonction réelle appelée Noyau K (x i, x j ) Linéaire: K (x i, x j ) = xi T x j Polynomial: K (x i, x j ) = (xi T x j ) d ( x i x j 2 ) Gaussien: K (x i, x j ) = e... 2σ 2
42 Principe Utilisation des noyaux Noyau (Kernel) La transformation et son inverse sont calculées par une fonction réelle appelée Noyau K (x i, x j ) Linéaire: K (x i, x j ) = xi T x j Polynomial: K (x i, x j ) = (xi T x j ) d ( x i x j 2 ) Gaussien: K (x i, x j ) = e... 2σ 2
43 Principe Utilisation des noyaux Noyau (Kernel) La transformation et son inverse sont calculées par une fonction réelle appelée Noyau K (x i, x j ) Linéaire: K (x i, x j ) = xi T x j Polynomial: K (x i, x j ) = (xi T x j ) d ( x i x j 2 ) Gaussien: K (x i, x j ) = e... 2σ 2
44 Principe Utilisation des noyaux Noyau (Kernel) La transformation et son inverse sont calculées par une fonction réelle appelée Noyau K (x i, x j ) Linéaire: K (x i, x j ) = xi T x j Polynomial: K (x i, x j ) = (xi T x j ) d ( x i x j 2 ) Gaussien: K (x i, x j ) = e... 2σ 2
45 Principe Utilisation des noyaux Le problème dual à résoudre devient: 1 n n Minimiser 2 α i α j y i y j K (x i, x j ) n i=1 j=1 i=1 n Avec α i y i = 0 i=1 0 α i C La fonction de décision est: H(x) = n α i y i K (x i, x) + b i=1 α i
46 Implémentation Implémentation Optimisation Heuristiques SMO (Platt et al. 97) Optimiser à chaque itération deux α i Plusieurs packages: SVMlight, SVMTORCH, LibSVM... Complexité O(MN 2 ) Problème avec les grands ensembles de données
47 Implémentation Implémentation Optimisation Heuristiques SMO (Platt et al. 97) Optimiser à chaque itération deux α i Plusieurs packages: SVMlight, SVMTORCH, LibSVM... Complexité O(MN 2 ) Problème avec les grands ensembles de données
48 Implémentation Implémentation Optimisation Heuristiques SMO (Platt et al. 97) Optimiser à chaque itération deux α i Plusieurs packages: SVMlight, SVMTORCH, LibSVM... Complexité O(MN 2 ) Problème avec les grands ensembles de données
49 Implémentation Implémentation Optimisation Heuristiques SMO (Platt et al. 97) Optimiser à chaque itération deux α i Plusieurs packages: SVMlight, SVMTORCH, LibSVM... Complexité O(MN 2 ) Problème avec les grands ensembles de données
50 Implémentation Implémentation Optimisation Heuristiques SMO (Platt et al. 97) Optimiser à chaque itération deux α i Plusieurs packages: SVMlight, SVMTORCH, LibSVM... Complexité O(MN 2 ) Problème avec les grands ensembles de données
51 Implémentation Implémentation Optimisation Heuristiques SMO (Platt et al. 97) Optimiser à chaque itération deux α i Plusieurs packages: SVMlight, SVMTORCH, LibSVM... Complexité O(MN 2 ) Problème avec les grands ensembles de données
52 Architecture Architecture Décision 1 si f >0 autre sinon b ff = α i y i K(x i, x) + bb Fonction de décision α1 α2 αs-1 αs Multiplicateurs K(x1,x 1,x) K(x 2,x) K(x K(xi,xj) s-1,x) K(x s,x) Fonction noyau K Vecteurs supports x 1..x s Vecteur x à tester
53 Variantes Variantes SVM Multiclasse H2(x) X2 X2 Classe 1 Classe 1 H12(x) H3(x) H1(x) Classe 2 H 13(x) Classe 2 Classe 3 Classe 3? H23(x) X1 1 Vs Reste 1 Vs 1 X1 {1,2,3,4} H12 Ecarter 1 Ecarter 2 DAG {2,3,4} H23 H14 {1, 3,4} Ecarter 3 Ecarter Ecarter 2 Ecarter 1 4 H24 {2,4} {3,4} H34 {1, 3} H13 Ecarter 4 Ecarter 2 Ecarter 3 Ecarter 4 Ecarter 1 Ecarter
54 Variantes Variantes SVM Monoclasse (Novelty detection) Classe cible Origine
55 Variantes Variantes SVM pour la régression (SVR) y y = w x + b y φ φ -1 2ε x Espace original Espace de caractéristiques Espace original x
56 Variantes Variantes SVM pour le clustering (SVC) X 2 x 4 x 1 x 3 x 2 X 1
57 Variantes Variantes SVM pour le renforcement (Transductive) X Hyperplan sans renforcement Hyperplan avec renforcement X 1
58 Evaluation Evaluation des SVMs Technique d évaluation Hold Out (partie training + partie test) N Cross Validation (Leave One Out), Bootstrap (choix aléatoire des exemples d entrainement).
59 Evaluation Evaluation des SVMs Technique d évaluation Hold Out (partie training + partie test) N Cross Validation (Leave One Out), Bootstrap (choix aléatoire des exemples d entrainement).
60 Evaluation Evaluation des SVMs Technique d évaluation Hold Out (partie training + partie test) N Cross Validation (Leave One Out), Bootstrap (choix aléatoire des exemples d entrainement).
61 Evaluation Evaluation des SVMs Technique d évaluation Hold Out (partie training + partie test) N Cross Validation (Leave One Out), Bootstrap (choix aléatoire des exemples d entrainement).
62 Outline 1 Problématique 2 Data mining 3 SVM 4 SVM & analyse des BDD 5 Contributions Accélération des SVMs par réduction d exemples SVM multiclasse accélérée à base de OC-SVM Applications 6 Conclusion
63 Où sont utilisées les BDDs Visualisation et intégration Connaissances (bases de données) Analyse Extraction des connaissances Entrepôt de données (bases de données) Acquisition Analyse Extraction des caractéristiques Bases de données Images Son Web Textes
64 Acquisition Utilisation des SVMs pour l acquisition Préparation des BDDs Lissage (SVR): élimination du bruit au niveau des attributs, Nettoyage (SVM, OCSVM, SVC): détection des exemples erronés, élimination des doublons, élimination des outliers, Réduction verticale (SVM): éliminations successives des attributs, Réduction Horizontale (OC-SVM, Multiclasse): éliminations des exemples redondants et de faible importance.
65 Acquisition Utilisation des SVMs pour l acquisition Préparation des BDDs Lissage (SVR): élimination du bruit au niveau des attributs, Nettoyage (SVM, OCSVM, SVC): détection des exemples erronés, élimination des doublons, élimination des outliers, Réduction verticale (SVM): éliminations successives des attributs, Réduction Horizontale (OC-SVM, Multiclasse): éliminations des exemples redondants et de faible importance.
66 Acquisition Utilisation des SVMs pour l acquisition Préparation des BDDs Lissage (SVR): élimination du bruit au niveau des attributs, Nettoyage (SVM, OCSVM, SVC): détection des exemples erronés, élimination des doublons, élimination des outliers, Réduction verticale (SVM): éliminations successives des attributs, Réduction Horizontale (OC-SVM, Multiclasse): éliminations des exemples redondants et de faible importance.
67 Acquisition Utilisation des SVMs pour l acquisition Préparation des BDDs Lissage (SVR): élimination du bruit au niveau des attributs, Nettoyage (SVM, OCSVM, SVC): détection des exemples erronés, élimination des doublons, élimination des outliers, Réduction verticale (SVM): éliminations successives des attributs, Réduction Horizontale (OC-SVM, Multiclasse): éliminations des exemples redondants et de faible importance.
68 Acquisition Utilisation des SVMs pour l acquisition Préparation des BDDs Lissage (SVR): élimination du bruit au niveau des attributs, Nettoyage (SVM, OCSVM, SVC): détection des exemples erronés, élimination des doublons, élimination des outliers, Réduction verticale (SVM): éliminations successives des attributs, Réduction Horizontale (OC-SVM, Multiclasse): éliminations des exemples redondants et de faible importance.
69 Extraction des connaissances Utilisation des SVMs pour l Extraction des connaissances Extraction des connaissances Classification (mono, bi et multiclasse), Régression (SVR), Clustering (SVC) Renforcement (Transductive SVM)
70 Extraction des connaissances Utilisation des SVMs pour l Extraction des connaissances Extraction des connaissances Classification (mono, bi et multiclasse), Régression (SVR), Clustering (SVC) Renforcement (Transductive SVM)
71 Extraction des connaissances Utilisation des SVMs pour l Extraction des connaissances Extraction des connaissances Classification (mono, bi et multiclasse), Régression (SVR), Clustering (SVC) Renforcement (Transductive SVM)
72 Extraction des connaissances Utilisation des SVMs pour l Extraction des connaissances Extraction des connaissances Classification (mono, bi et multiclasse), Régression (SVR), Clustering (SVC) Renforcement (Transductive SVM)
73 Extraction des connaissances Utilisation des SVMs pour l Extraction des connaissances Extraction des connaissances Classification (mono, bi et multiclasse), Régression (SVR), Clustering (SVC) Renforcement (Transductive SVM)
74 Problèmes d utilisation des SVMs Problèmes Attributs symboliques Utilisation des noyaux symboliques (text mining) Sac de mots p-spectrum, All Sub Sequences,... Nombre élevé d enregistrement Utilisation des techniques d accélération SVM online, Parallélisation, Réduction d exemples (contribution 1), Techniques d accélération (contribution 2).
75 Problèmes d utilisation des SVMs Problèmes Attributs symboliques Utilisation des noyaux symboliques (text mining) Sac de mots p-spectrum, All Sub Sequences,... Nombre élevé d enregistrement Utilisation des techniques d accélération SVM online, Parallélisation, Réduction d exemples (contribution 1), Techniques d accélération (contribution 2).
76 Problèmes d utilisation des SVMs Problèmes Attributs symboliques Utilisation des noyaux symboliques (text mining) Sac de mots p-spectrum, All Sub Sequences,... Nombre élevé d enregistrement Utilisation des techniques d accélération SVM online, Parallélisation, Réduction d exemples (contribution 1), Techniques d accélération (contribution 2).
77 Problèmes d utilisation des SVMs Problèmes Attributs symboliques Utilisation des noyaux symboliques (text mining) Sac de mots p-spectrum, All Sub Sequences,... Nombre élevé d enregistrement Utilisation des techniques d accélération SVM online, Parallélisation, Réduction d exemples (contribution 1), Techniques d accélération (contribution 2).
78 Problèmes d utilisation des SVMs Problèmes Attributs symboliques Utilisation des noyaux symboliques (text mining) Sac de mots p-spectrum, All Sub Sequences,... Nombre élevé d enregistrement Utilisation des techniques d accélération SVM online, Parallélisation, Réduction d exemples (contribution 1), Techniques d accélération (contribution 2).
79 Problèmes d utilisation des SVMs Problèmes Attributs symboliques Utilisation des noyaux symboliques (text mining) Sac de mots p-spectrum, All Sub Sequences,... Nombre élevé d enregistrement Utilisation des techniques d accélération SVM online, Parallélisation, Réduction d exemples (contribution 1), Techniques d accélération (contribution 2).
80 Problèmes d utilisation des SVMs Problèmes Attributs symboliques Utilisation des noyaux symboliques (text mining) Sac de mots p-spectrum, All Sub Sequences,... Nombre élevé d enregistrement Utilisation des techniques d accélération SVM online, Parallélisation, Réduction d exemples (contribution 1), Techniques d accélération (contribution 2).
81 Problèmes d utilisation des SVMs Problèmes Attributs symboliques Utilisation des noyaux symboliques (text mining) Sac de mots p-spectrum, All Sub Sequences,... Nombre élevé d enregistrement Utilisation des techniques d accélération SVM online, Parallélisation, Réduction d exemples (contribution 1), Techniques d accélération (contribution 2).
82 Problèmes d utilisation des SVMs Problèmes Attributs symboliques Utilisation des noyaux symboliques (text mining) Sac de mots p-spectrum, All Sub Sequences,... Nombre élevé d enregistrement Utilisation des techniques d accélération SVM online, Parallélisation, Réduction d exemples (contribution 1), Techniques d accélération (contribution 2).
83 Problèmes d utilisation des SVMs Intégration des SVMs dans les SGBD Utiliser les outils SGBDs dans l entrainement des SVMs, Utiliser le jargon SGBD (SQL, PL) pour l utilisation des SVMs, Exemple d Oracle.
84 Problèmes d utilisation des SVMs Intégration des SVMs dans les SGBD Utiliser les outils SGBDs dans l entrainement des SVMs, Utiliser le jargon SGBD (SQL, PL) pour l utilisation des SVMs, Exemple d Oracle.
85 Problèmes d utilisation des SVMs Intégration des SVMs dans les SGBD Utiliser les outils SGBDs dans l entrainement des SVMs, Utiliser le jargon SGBD (SQL, PL) pour l utilisation des SVMs, Exemple d Oracle.
86 Problèmes d utilisation des SVMs Intégration des SVMs dans les SGBD Utiliser les outils SGBDs dans l entrainement des SVMs, Utiliser le jargon SGBD (SQL, PL) pour l utilisation des SVMs, Exemple d Oracle.
87 Outline 1 Problématique 2 Data mining 3 SVM 4 SVM & analyse des BDD 5 Contributions Accélération des SVMs par réduction d exemples SVM multiclasse accélérée à base de OC-SVM Applications 6 Conclusion
88 Accélération des SVMs par réduction d exemples Contribution 1: CB-SR Observations 1 Les vecteurs non support n ont aucune influence sur l hyperplan, 2 Selon V.Vapnik, les vecteurs supports représentent 10% des exemples. Idée Découvrir ces vecteurs et les utiliser seuls pour l apprentissage
89 Accélération des SVMs par réduction d exemples Contribution 1: CB-SR Observations 1 Les vecteurs non support n ont aucune influence sur l hyperplan, 2 Selon V.Vapnik, les vecteurs supports représentent 10% des exemples. Idée Découvrir ces vecteurs et les utiliser seuls pour l apprentissage
90 Accélération des SVMs par réduction d exemples Contribution 1: CB-SR Observations 1 Les vecteurs non support n ont aucune influence sur l hyperplan, 2 Selon V.Vapnik, les vecteurs supports représentent 10% des exemples. Idée Découvrir ces vecteurs et les utiliser seuls pour l apprentissage
91 Accélération des SVMs par réduction d exemples Contribution 1: CB-SR Observations 1 Les vecteurs non support n ont aucune influence sur l hyperplan, 2 Selon V.Vapnik, les vecteurs supports représentent 10% des exemples. Idée Découvrir ces vecteurs et les utiliser seuls pour l apprentissage
92 Accélération des SVMs par réduction d exemples Contribution 1: CB-SR Travaux antérieurs sur la réduction d exemples Liu & Feng, 2008 Kernel Bisecting k-means clustering A. Arslan, 2008 Clustering k-nn Lin &. Yeh, 2009 Réduction basée sur les algorithmes génétiques
93 Accélération des SVMs par réduction d exemples Contribution 1: CB-SR Travaux antérieurs sur la réduction d exemples Liu & Feng, 2008 Kernel Bisecting k-means clustering A. Arslan, 2008 Clustering k-nn Lin &. Yeh, 2009 Réduction basée sur les algorithmes génétiques
94 Accélération des SVMs par réduction d exemples Contribution 1: CB-SR Travaux antérieurs sur la réduction d exemples Liu & Feng, 2008 Kernel Bisecting k-means clustering A. Arslan, 2008 Clustering k-nn Lin &. Yeh, 2009 Réduction basée sur les algorithmes génétiques
95 Accélération des SVMs par réduction d exemples Contribution 1: CB-SR Travaux antérieurs sur la réduction d exemples Liu & Feng, 2008 Kernel Bisecting k-means clustering A. Arslan, 2008 Clustering k-nn Lin &. Yeh, 2009 Réduction basée sur les algorithmes génétiques
96 Accélération des SVMs par réduction d exemples Covering Based Samples Reduction Filtrage Détecter les vecteurs supports potentiels par des hyperplans locaux Révision Rajouter les exemples éventuellement écartés par erreur.
97 Accélération des SVMs par réduction d exemples Covering Based Samples Reduction Filtrage Détecter les vecteurs supports potentiels par des hyperplans locaux Révision Rajouter les exemples éventuellement écartés par erreur.
98 Accélération des SVMs par réduction d exemples Covering Based Samples Reduction Filtrage Détecter les vecteurs supports potentiels par des hyperplans locaux Révision Rajouter les exemples éventuellement écartés par erreur.
99 Accélération des SVMs par réduction d exemples Filtrage Zone de couverture La zone de couverture de x i par rapport à x k = Zone délimitée par H + ik et H ik : x j / 1 H ik (x j ) 1 X2 Zone de couverture de x i par rapport à x k Classe - Classe + H ik=-1 Couverture x i y i (±1) est couvert par x j y i par rapport à x k y k = y i si x j se situe dans la zone de couverture de x i par rapport à x k. mais... X4 x k X2 x j x i H ik=+1 X1
100 Accélération des SVMs par réduction d exemples Filtrage Zone de couverture La zone de couverture de x i par rapport à x k = Zone délimitée par H + ik et H ik : x j / 1 H ik (x j ) 1 X2 Zone de couverture de x i par rapport à x k Classe - Classe + H ik=-1 Couverture x i y i (±1) est couvert par x j y i par rapport à x k y k = y i si x j se situe dans la zone de couverture de x i par rapport à x k. mais... X4 x k X2 x j x i H ik=+1 X1
101 Accélération des SVMs par réduction d exemples Filtrage Couverture mutuelle On dit que x i et x j y i (±1) sont mutuellement couvert par rapport à x k y k = y i si chacun se situe dans la zone de couverture de l autre. X2 H ik=-1 Couverture de x i par rapport à x k x k X3 x i Classe + Classe - Couverture x i y i (±1) est couvert par x j y i par rapport à x k y k = y i si x j se situe dans la zone de couverture de x i par rapport à x k et x i ne se situe pas dans la H jk=-1 Couverture de x j X4 par rapport à x k H jk=+1 X2 x j H ik=+1 X1 zone de couverture de x j par rapport à x k
102 Accélération des SVMs par réduction d exemples Filtrage Couverture mutuelle On dit que x i et x j y i (±1) sont mutuellement couvert par rapport à x k y k = y i si chacun se situe dans la zone de couverture de l autre. X2 H ik=-1 Couverture de x i par rapport à x k x k X3 x i Classe + Classe - Couverture x i y i (±1) est couvert par x j y i par rapport à x k y k = y i si x j se situe dans la zone de couverture de x i par rapport à x k et x i ne se situe pas dans la H jk=-1 Couverture de x j X4 par rapport à x k H jk=+1 X2 x j H ik=+1 X1 zone de couverture de x j par rapport à x k
103 Accélération des SVMs par réduction d exemples Filtrage Couverture totale On dit qu un exemple x i d une classe y i (±1) est totalement couvert par rapport à la classe y i, si pour tout exemple x k de la classe y i, il existe un exemple x j de la classe y i qui couvre x i par rapport à x k : x j non écarté N + /( 1 H ik (x j ) 1) et ( 1 > H jk (x i ) ou H jk (x i ) > 1) Filtrage Ecarter tous les exemples totalement couverts.
104 Accélération des SVMs par réduction d exemples Filtrage Couverture totale On dit qu un exemple x i d une classe y i (±1) est totalement couvert par rapport à la classe y i, si pour tout exemple x k de la classe y i, il existe un exemple x j de la classe y i qui couvre x i par rapport à x k : x j non écarté N + /( 1 H ik (x j ) 1) et ( 1 > H jk (x i ) ou H jk (x i ) > 1) Filtrage Ecarter tous les exemples totalement couverts.
105 Accélération des SVMs par réduction d exemples Filtrage Exemple récapitulatif
106 Accélération des SVMs par réduction d exemples Filtrage Exemple récapitulatif
107 Accélération des SVMs par réduction d exemples Filtrage Exemple récapitulatif
108 Accélération des SVMs par réduction d exemples Filtrage Exemple récapitulatif
109 Accélération des SVMs par réduction d exemples Filtrage Exemple récapitulatif
110 Accélération des SVMs par réduction d exemples Filtrage Exemple récapitulatif
111 Accélération des SVMs par réduction d exemples Filtrage Exemple récapitulatif
112 Accélération des SVMs par réduction d exemples Filtrage Exemple récapitulatif
113 Accélération des SVMs par réduction d exemples Filtrage Exemple récapitulatif
114 Accélération des SVMs par réduction d exemples Tuning Utilisation du paramètre ρ X2 Zone de couverture de xi par rapport à xk Classe - Classe + H ik =-1 ρ ρ x i x j x k H ik =+1 X 4 X 2 X1
115 Accélération des SVMs par réduction d exemples Tuning Effet: contrôle du taux de filtrage
116 Accélération des SVMs par réduction d exemples Révision Rajouter les exemples écartés par erreurs Pas toujours Uniquement si le taux de reconnaissance de l hyperplan obtenu n est pas satisfaisant Sources d erreurs 1 Le filtrage (ρ, noyau et ses paramètres) 2 L apprentissage (noyau et ses paramètres, C, Optimisation: heuristiques et critère d arrêt) Résultat Ecarter des vecteurs supports potentiels
117 Accélération des SVMs par réduction d exemples Révision Rajouter les exemples écartés par erreurs Pas toujours Uniquement si le taux de reconnaissance de l hyperplan obtenu n est pas satisfaisant Sources d erreurs 1 Le filtrage (ρ, noyau et ses paramètres) 2 L apprentissage (noyau et ses paramètres, C, Optimisation: heuristiques et critère d arrêt) Résultat Ecarter des vecteurs supports potentiels
118 Accélération des SVMs par réduction d exemples Révision Rajouter les exemples écartés par erreurs Pas toujours Uniquement si le taux de reconnaissance de l hyperplan obtenu n est pas satisfaisant Sources d erreurs 1 Le filtrage (ρ, noyau et ses paramètres) 2 L apprentissage (noyau et ses paramètres, C, Optimisation: heuristiques et critère d arrêt) Résultat Ecarter des vecteurs supports potentiels
119 Accélération des SVMs par réduction d exemples Révision Rajouter les exemples écartés par erreurs Pas toujours Uniquement si le taux de reconnaissance de l hyperplan obtenu n est pas satisfaisant Sources d erreurs 1 Le filtrage (ρ, noyau et ses paramètres) 2 L apprentissage (noyau et ses paramètres, C, Optimisation: heuristiques et critère d arrêt) Résultat Ecarter des vecteurs supports potentiels
120 Accélération des SVMs par réduction d exemples Révision Rajouter les exemples écartés par erreurs Pas toujours Uniquement si le taux de reconnaissance de l hyperplan obtenu n est pas satisfaisant Sources d erreurs 1 Le filtrage (ρ, noyau et ses paramètres) 2 L apprentissage (noyau et ses paramètres, C, Optimisation: heuristiques et critère d arrêt) Résultat Ecarter des vecteurs supports potentiels
121 Accélération des SVMs par réduction d exemples Révision Utiliser les conditions KKT: (Karush-Kuhn-Tucker) α i = 0 y i f (x i ) > 1 : exemples bien classés α i = C y i f (x i ) 1 : exemples mal classés 0 < α i < C y i f (x i ) = 1 : vecteurs supports
122 Accélération des SVMs par réduction d exemples Révision Utiliser les conditions KKT: (Karush-Kuhn-Tucker) α i = 0 y i f (x i ) > 1 : exemples bien classés α i = C y i f (x i ) 1 : exemples mal classés 0 < α i < C y i f (x i ) = 1 : vecteurs supports
123 Accélération des SVMs par réduction d exemples Révision Utiliser les conditions KKT: (Karush-Kuhn-Tucker) α i = 0 y i f (x i ) > 1 : exemples bien classés α i = C y i f (x i ) 1 : exemples mal classés 0 < α i < C y i f (x i ) = 1 : vecteurs supports
124 Accélération des SVMs par réduction d exemples Révision Utiliser les conditions KKT: (Karush-Kuhn-Tucker) α i = 0 y i f (x i ) > 1 : exemples bien classés α i = C y i f (x i ) 1 : exemples mal classés 0 < α i < C y i f (x i ) = 1 : vecteurs supports
125 Accélération des SVMs par réduction d exemples Révision Etapes de la révision 1 Utiliser l hyperplan obtenu dans la phase de filtrage, 2 Mettre les α i des exemples écartés à 0, 3 Vérifier les conditions KKT pour ces exemples, 4 Ajouter les exemples qui ne vérifient pas les conditions KKT à l ensembles des exemples filtrés, 5 Recommencer un nouvel apprentissage en démarrant de l hyperplan précédent (valeurs précédentes des α i ) Résultat Obtenir un hyperplan final
126 Accélération des SVMs par réduction d exemples Révision Etapes de la révision 1 Utiliser l hyperplan obtenu dans la phase de filtrage, 2 Mettre les α i des exemples écartés à 0, 3 Vérifier les conditions KKT pour ces exemples, 4 Ajouter les exemples qui ne vérifient pas les conditions KKT à l ensembles des exemples filtrés, 5 Recommencer un nouvel apprentissage en démarrant de l hyperplan précédent (valeurs précédentes des α i ) Résultat Obtenir un hyperplan final
127 Accélération des SVMs par réduction d exemples Révision Etapes de la révision 1 Utiliser l hyperplan obtenu dans la phase de filtrage, 2 Mettre les α i des exemples écartés à 0, 3 Vérifier les conditions KKT pour ces exemples, 4 Ajouter les exemples qui ne vérifient pas les conditions KKT à l ensembles des exemples filtrés, 5 Recommencer un nouvel apprentissage en démarrant de l hyperplan précédent (valeurs précédentes des α i ) Résultat Obtenir un hyperplan final
128 Accélération des SVMs par réduction d exemples Révision Etapes de la révision 1 Utiliser l hyperplan obtenu dans la phase de filtrage, 2 Mettre les α i des exemples écartés à 0, 3 Vérifier les conditions KKT pour ces exemples, 4 Ajouter les exemples qui ne vérifient pas les conditions KKT à l ensembles des exemples filtrés, 5 Recommencer un nouvel apprentissage en démarrant de l hyperplan précédent (valeurs précédentes des α i ) Résultat Obtenir un hyperplan final
129 Accélération des SVMs par réduction d exemples Révision Etapes de la révision 1 Utiliser l hyperplan obtenu dans la phase de filtrage, 2 Mettre les α i des exemples écartés à 0, 3 Vérifier les conditions KKT pour ces exemples, 4 Ajouter les exemples qui ne vérifient pas les conditions KKT à l ensembles des exemples filtrés, 5 Recommencer un nouvel apprentissage en démarrant de l hyperplan précédent (valeurs précédentes des α i ) Résultat Obtenir un hyperplan final
130 Accélération des SVMs par réduction d exemples Révision Etapes de la révision 1 Utiliser l hyperplan obtenu dans la phase de filtrage, 2 Mettre les α i des exemples écartés à 0, 3 Vérifier les conditions KKT pour ces exemples, 4 Ajouter les exemples qui ne vérifient pas les conditions KKT à l ensembles des exemples filtrés, 5 Recommencer un nouvel apprentissage en démarrant de l hyperplan précédent (valeurs précédentes des α i ) Résultat Obtenir un hyperplan final
131 Accélération des SVMs par réduction d exemples Révision Etapes de la révision 1 Utiliser l hyperplan obtenu dans la phase de filtrage, 2 Mettre les α i des exemples écartés à 0, 3 Vérifier les conditions KKT pour ces exemples, 4 Ajouter les exemples qui ne vérifient pas les conditions KKT à l ensembles des exemples filtrés, 5 Recommencer un nouvel apprentissage en démarrant de l hyperplan précédent (valeurs précédentes des α i ) Résultat Obtenir un hyperplan final
132 Accélération des SVMs par réduction d exemples Données utilisées pour les tests Tests sur: 1 Des données artificielles: type Toy 2 Des données réelles du cite UCI Tables Table N Att N N Entr N Test Germen Diabetes Tow Spiras Tow Ellipses Cancer Analysis Segmentation
133 Accélération des SVMs par réduction d exemples Données utilisées pour les tests Tests sur: 1 Des données artificielles: type Toy 2 Des données réelles du cite UCI Tables Table N Att N N Entr N Test Germen Diabetes Tow Spiras Tow Ellipses Cancer Analysis Segmentation
134 Accélération des SVMs par réduction d exemples Données utilisées pour les tests Tests sur: 1 Des données artificielles: type Toy 2 Des données réelles du cite UCI Tables Table N Att N N Entr N Test Germen Diabetes Tow Spiras Tow Ellipses Cancer Analysis Segmentation
135 Accélération des SVMs par réduction d exemples Données utilisées pour les tests Tests sur: 1 Des données artificielles: type Toy 2 Des données réelles du cite UCI Tables Table N Att N N Entr N Test Germen Diabetes Tow Spiras Tow Ellipses Cancer Analysis Segmentation
136 Accélération des SVMs par réduction d exemples Evaluation Paramètres d évaluation 1 Nombre d exemples maintenus après filtrage 2 Temps d apprentissage à bases des exemples maintenus 3 Taux de reconnaissances Comparer avec 1 KBK-SR (Kernel Bisecting k-means Clustering) [Liu & Feng, 2008] 2 Méthode de Lin [Lin &. Yeh, 2009]
137 Accélération des SVMs par réduction d exemples Evaluation Paramètres d évaluation 1 Nombre d exemples maintenus après filtrage 2 Temps d apprentissage à bases des exemples maintenus 3 Taux de reconnaissances Comparer avec 1 KBK-SR (Kernel Bisecting k-means Clustering) [Liu & Feng, 2008] 2 Méthode de Lin [Lin &. Yeh, 2009]
138 Accélération des SVMs par réduction d exemples Evaluation Paramètres d évaluation 1 Nombre d exemples maintenus après filtrage 2 Temps d apprentissage à bases des exemples maintenus 3 Taux de reconnaissances Comparer avec 1 KBK-SR (Kernel Bisecting k-means Clustering) [Liu & Feng, 2008] 2 Méthode de Lin [Lin &. Yeh, 2009]
139 Accélération des SVMs par réduction d exemples Evaluation Paramètres d évaluation 1 Nombre d exemples maintenus après filtrage 2 Temps d apprentissage à bases des exemples maintenus 3 Taux de reconnaissances Comparer avec 1 KBK-SR (Kernel Bisecting k-means Clustering) [Liu & Feng, 2008] 2 Méthode de Lin [Lin &. Yeh, 2009]
140 Accélération des SVMs par réduction d exemples Evaluation Paramètres d évaluation 1 Nombre d exemples maintenus après filtrage 2 Temps d apprentissage à bases des exemples maintenus 3 Taux de reconnaissances Comparer avec 1 KBK-SR (Kernel Bisecting k-means Clustering) [Liu & Feng, 2008] 2 Méthode de Lin [Lin &. Yeh, 2009]
141 Accélération des SVMs par réduction d exemples Evaluation Paramètres d évaluation 1 Nombre d exemples maintenus après filtrage 2 Temps d apprentissage à bases des exemples maintenus 3 Taux de reconnaissances Comparer avec 1 KBK-SR (Kernel Bisecting k-means Clustering) [Liu & Feng, 2008] 2 Méthode de Lin [Lin &. Yeh, 2009]
142 Accélération des SVMs par réduction d exemples Evaluation Paramètres d évaluation 1 Nombre d exemples maintenus après filtrage 2 Temps d apprentissage à bases des exemples maintenus 3 Taux de reconnaissances Comparer avec 1 KBK-SR (Kernel Bisecting k-means Clustering) [Liu & Feng, 2008] 2 Méthode de Lin [Lin &. Yeh, 2009]
143 Accélération des SVMs par réduction d exemples Résultats Résultats sur des toys SVM seule après Filtrage N T(s) R(%) N T(s) R(%) ,65
144 Accélération des SVMs par réduction d exemples Résultats Résultats sur des toys SVM seule après Filtrage et Révision N T(s) R(%) N T(s) R(%)
145 Accélération des SVMs par réduction d exemples Résultats Résultats sur des BDDs du cite UCI Base de test Méthode N ρ T(s) R(%) German SVM 500 / KBK-SR 156 / CB-SR Tow Spirals SVM 300 / Lin 92 / / CB-SR Tow Ellipses SVM 300 / Lin 39 / / 100 CB-SR Segmentation SVM 2309 / CB-SR 32 /
146 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Large utilisation de la variante multiclasse La plupart des applications réelles utilisent la SVM multiclasse OCR, Reconnaissance des caractères manuscrits, Reconnaissance visages humains,... Lenteur des SVM multiclasse utilisées 1vsR 1vs1, DAG Arbres de décisions,...
147 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Large utilisation de la variante multiclasse La plupart des applications réelles utilisent la SVM multiclasse OCR, Reconnaissance des caractères manuscrits, Reconnaissance visages humains,... Lenteur des SVM multiclasse utilisées 1vsR 1vs1, DAG Arbres de décisions,...
148 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Large utilisation de la variante multiclasse La plupart des applications réelles utilisent la SVM multiclasse OCR, Reconnaissance des caractères manuscrits, Reconnaissance visages humains,... Lenteur des SVM multiclasse utilisées 1vsR 1vs1, DAG Arbres de décisions,...
149 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Large utilisation de la variante multiclasse La plupart des applications réelles utilisent la SVM multiclasse OCR, Reconnaissance des caractères manuscrits, Reconnaissance visages humains,... Lenteur des SVM multiclasse utilisées 1vsR 1vs1, DAG Arbres de décisions,...
150 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Large utilisation de la variante multiclasse La plupart des applications réelles utilisent la SVM multiclasse OCR, Reconnaissance des caractères manuscrits, Reconnaissance visages humains,... Lenteur des SVM multiclasse utilisées 1vsR 1vs1, DAG Arbres de décisions,...
151 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Large utilisation de la variante multiclasse La plupart des applications réelles utilisent la SVM multiclasse OCR, Reconnaissance des caractères manuscrits, Reconnaissance visages humains,... Lenteur des SVM multiclasse utilisées 1vsR 1vs1, DAG Arbres de décisions,...
152 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Large utilisation de la variante multiclasse La plupart des applications réelles utilisent la SVM multiclasse OCR, Reconnaissance des caractères manuscrits, Reconnaissance visages humains,... Lenteur des SVM multiclasse utilisées 1vsR 1vs1, DAG Arbres de décisions,...
153 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Large utilisation de la variante multiclasse La plupart des applications réelles utilisent la SVM multiclasse OCR, Reconnaissance des caractères manuscrits, Reconnaissance visages humains,... Lenteur des SVM multiclasse utilisées 1vsR 1vs1, DAG Arbres de décisions,...
154 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Large utilisation de la variante multiclasse La plupart des applications réelles utilisent la SVM multiclasse OCR, Reconnaissance des caractères manuscrits, Reconnaissance visages humains,... Lenteur des SVM multiclasse utilisées 1vsR 1vs1, DAG Arbres de décisions,...
155 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Travaux antérieurs (HvsH: Han-sheng & al, 2005) ABC vs DEF B B BBB B B BB B C C CCC C C CC C A vs BC DE vs F B vs C D vs E F A A AAA A A AA A D D DDD D D DD D B C D E F F F F F F F F F F E E EEE E E EE E
156 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Travaux antérieurs (OC-SVM:Yang & al, 2007) R 1 C 1 C 2 C 3 R 3 R 2
157 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Travaux antérieurs (R-1vsR: Arun & al, 2010) Reduced-1vsR Pour chaque hyperplan: utiliser les exemples restants et les vecteurs supports précédents
158 SVM multiclasse accélérée à base de OC-SVM Contribution 2: OCBM Travaux antérieurs (ODT-SVM: Agrawal & al, 2011) 1vs(2,3,4) Classe 4 classe1 2vs(3,4) Classe 1 Classe 3 Classe2 3vs4 Classe3 Classe4 Classe 2
159 SVM multiclasse accélérée à base de OC-SVM Principe Utiliser le OC-SVM avec renforcement de la précision Prendre un hyperplan mono classe pour chaque classe Calculer des décalages pour renforcer la précision Utiliser le principe de maximum de profondeur
160 SVM multiclasse accélérée à base de OC-SVM Principe Utiliser le OC-SVM avec renforcement de la précision Prendre un hyperplan mono classe pour chaque classe Calculer des décalages pour renforcer la précision Utiliser le principe de maximum de profondeur
161 SVM multiclasse accélérée à base de OC-SVM Principe Utiliser le OC-SVM avec renforcement de la précision Prendre un hyperplan mono classe pour chaque classe Calculer des décalages pour renforcer la précision Utiliser le principe de maximum de profondeur
162 SVM multiclasse accélérée à base de OC-SVM Principe Utiliser le OC-SVM avec renforcement de la précision Prendre un hyperplan mono classe pour chaque classe Calculer des décalages pour renforcer la précision Utiliser le principe de maximum de profondeur
163 SVM multiclasse accélérée à base de OC-SVM Principe Hyperplan OC-SVM Hyperplan HH kk décalé HH dddd Classe K (cible) xx kk xx kk HH(xx kk ) HH(xx kk ) Les autres classes K
164 SVM multiclasse accélérée à base de OC-SVM Principe X2 Classe 1 Classe 2 Classe 1 Classe 2 Classe 3 Classe 3 Classe 4 Classe 4 OC-SVM X1 Décalages X2 Classe 1 Classe 2 Classe 3 Classe 4 X1 Maximum de profondeur X1
165 SVM multiclasse accélérée à base de OC-SVM Evaluation Paramètres d évaluation 1 Temps d apprentissage, 2 Temps de classification, 3 Taille du modèle obtenu, 4 Taux de reconnaissance Comparer avec 1 1vsR, 1vs1, DAG 2 HvsH (Han-sheng & all, 2005) 3 OC-SVM (Yang & all, 2007) 4 R-1vsR (Arun & all, 2010) 5 ODT-SVM (Agrawal & all, 2011)
166 SVM multiclasse accélérée à base de OC-SVM Evaluation Paramètres d évaluation 1 Temps d apprentissage, 2 Temps de classification, 3 Taille du modèle obtenu, 4 Taux de reconnaissance Comparer avec 1 1vsR, 1vs1, DAG 2 HvsH (Han-sheng & all, 2005) 3 OC-SVM (Yang & all, 2007) 4 R-1vsR (Arun & all, 2010) 5 ODT-SVM (Agrawal & all, 2011)
167 SVM multiclasse accélérée à base de OC-SVM Evaluation Paramètres d évaluation 1 Temps d apprentissage, 2 Temps de classification, 3 Taille du modèle obtenu, 4 Taux de reconnaissance Comparer avec 1 1vsR, 1vs1, DAG 2 HvsH (Han-sheng & all, 2005) 3 OC-SVM (Yang & all, 2007) 4 R-1vsR (Arun & all, 2010) 5 ODT-SVM (Agrawal & all, 2011)
168 SVM multiclasse accélérée à base de OC-SVM Evaluation Paramètres d évaluation 1 Temps d apprentissage, 2 Temps de classification, 3 Taille du modèle obtenu, 4 Taux de reconnaissance Comparer avec 1 1vsR, 1vs1, DAG 2 HvsH (Han-sheng & all, 2005) 3 OC-SVM (Yang & all, 2007) 4 R-1vsR (Arun & all, 2010) 5 ODT-SVM (Agrawal & all, 2011)
169 SVM multiclasse accélérée à base de OC-SVM Evaluation Paramètres d évaluation 1 Temps d apprentissage, 2 Temps de classification, 3 Taille du modèle obtenu, 4 Taux de reconnaissance Comparer avec 1 1vsR, 1vs1, DAG 2 HvsH (Han-sheng & all, 2005) 3 OC-SVM (Yang & all, 2007) 4 R-1vsR (Arun & all, 2010) 5 ODT-SVM (Agrawal & all, 2011)
170 SVM multiclasse accélérée à base de OC-SVM Evaluation Paramètres d évaluation 1 Temps d apprentissage, 2 Temps de classification, 3 Taille du modèle obtenu, 4 Taux de reconnaissance Comparer avec 1 1vsR, 1vs1, DAG 2 HvsH (Han-sheng & all, 2005) 3 OC-SVM (Yang & all, 2007) 4 R-1vsR (Arun & all, 2010) 5 ODT-SVM (Agrawal & all, 2011)
171 SVM multiclasse accélérée à base de OC-SVM Evaluation Paramètres d évaluation 1 Temps d apprentissage, 2 Temps de classification, 3 Taille du modèle obtenu, 4 Taux de reconnaissance Comparer avec 1 1vsR, 1vs1, DAG 2 HvsH (Han-sheng & all, 2005) 3 OC-SVM (Yang & all, 2007) 4 R-1vsR (Arun & all, 2010) 5 ODT-SVM (Agrawal & all, 2011)
172 SVM multiclasse accélérée à base de OC-SVM Evaluation Paramètres d évaluation 1 Temps d apprentissage, 2 Temps de classification, 3 Taille du modèle obtenu, 4 Taux de reconnaissance Comparer avec 1 1vsR, 1vs1, DAG 2 HvsH (Han-sheng & all, 2005) 3 OC-SVM (Yang & all, 2007) 4 R-1vsR (Arun & all, 2010) 5 ODT-SVM (Agrawal & all, 2011)
173 SVM multiclasse accélérée à base de OC-SVM Evaluation Paramètres d évaluation 1 Temps d apprentissage, 2 Temps de classification, 3 Taille du modèle obtenu, 4 Taux de reconnaissance Comparer avec 1 1vsR, 1vs1, DAG 2 HvsH (Han-sheng & all, 2005) 3 OC-SVM (Yang & all, 2007) 4 R-1vsR (Arun & all, 2010) 5 ODT-SVM (Agrawal & all, 2011)
174 SVM multiclasse accélérée à base de OC-SVM Evaluation Paramètres d évaluation 1 Temps d apprentissage, 2 Temps de classification, 3 Taille du modèle obtenu, 4 Taux de reconnaissance Comparer avec 1 1vsR, 1vs1, DAG 2 HvsH (Han-sheng & all, 2005) 3 OC-SVM (Yang & all, 2007) 4 R-1vsR (Arun & all, 2010) 5 ODT-SVM (Agrawal & all, 2011)
175 SVM multiclasse accélérée à base de OC-SVM Analyse de complexité Soit K : nombre de classes N c : Nombre d exemple par classe β: constante relative aux conditions d exécution δ:nombre d octets nécessaires au stockage d une valeur d un attribut Exemple d application K = 10, N c = 20, β = 1, δ = 1
176 SVM multiclasse accélérée à base de OC-SVM Analyse de complexité Temps d entrainement Méthode # hyperplans Temps estimé Exemple 1vsR K K 3 βnc vs1 K (K 1)/2 2βK 2 Nc K ODT K βn2 c HvsH 2 log2k 1 2βK 2 Nc K R-SVM K 3 3 βn2 c OC K K βnc OCBM K K βnc
177 SVM multiclasse accélérée à base de OC-SVM Analyse de complexité Temps de classification Méthode # hyperplans Temps estimé Exemple 1vsR K K 2 βn c vs1 K (K 1)/2 K (K 1)βN c 1800 DAG (K 1) 2(K 1)βN c 360 K (K +1) ODT K 1 ( 2 1)βN c 1080 HvsH log 2 K 2K βn c 400 R-1vsR K ODT 1080 OC-SVM K K βn c 200 OCBM K K βn c 200
178 SVM multiclasse accélérée à base de OC-SVM Analyse de complexité Taille du modèle Méthode # hyperplans Taille estimé Exemple 1vsR K 2K 2 δn c + K δ vs1 K (K 1)/2 K (K 1)(2N c + δ 2 ) 3600 K (K +1) ODT K 1 2( 2 1)δN c 1769 HAH 2 log2k 1 2Klog 2 (K )δn c 1409 R-1vsR K ODT-SVM 1769 OC K K δ(n c + 2) 220 OCBM K K δ(n c + 2) 220
179 SVM multiclasse accélérée à base de OC-SVM Résultats sur des toys 1vs1 DAG Te(s) Tt (s) R(%) T(KB) Te(s) Tt (s) R(%) T(KB)
Utilisation des méthodes Support Vector Machine (SVM) dans l analyse des bases de données
Ministère de l Enseignement Supérieur et de la Recherche Scientifique Université Mohamed Khider - Biskra Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie Département d Informatique
Plus en détailObjectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique
Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55
Plus en détailIdentification de nouveaux membres dans des familles d'interleukines
Identification de nouveaux membres dans des familles d'interleukines Nicolas Beaume Jérôme Mickolajczak Gérard Ramstein Yannick Jacques 1ère partie : Définition de la problématique Les familles de gènes
Plus en détailLOGO. Module «Big Data» Extraction de Connaissances à partir de Données. Claudia MARINICA MCF, ETIS UCP/ENSEA/CNRS Claudia.Marinica@u-cergy.
Module «Big Data» Extraction de Connaissances à partir de Données Claudia MARINICA MCF, ETIS UCP/ENSEA/CNRS Claudia.Marinica@u-cergy.fr 14 Janvier 2015 Pourquoi l extraction de connaissances à partir de
Plus en détailIntelligence Artificielle et Systèmes Multi-Agents. Badr Benmammar bbm@badr-benmammar.com
Intelligence Artificielle et Systèmes Multi-Agents Badr Benmammar bbm@badr-benmammar.com Plan La première partie : L intelligence artificielle (IA) Définition de l intelligence artificielle (IA) Domaines
Plus en détailBig Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci http://liris.cnrs.fr/hamamache.kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de
Plus en détailGuide méthodologique Utilisation de l état de contrôle de la participation aux bénéfices C22
Guide méthodologique Utilisation de l état de contrôle de la participation aux bénéfices C22 Les montants sont exprimés en milliers d euros et arrondis au millier d euros le plus proche. I. Utilisation
Plus en détailSOLUTIONS TECHNOLOGIQUES Fiche activité élève
SOLUTIONS TECHNOLOGIQUES Fiche activité élève Nom : Prénom : 2 MDM BEP Date : deuxième trimestre Objectif: Etre capable de reconnaître les différents types de travaux rencontrés sur la veste Julie. Prérequis
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailStructure fonctionnelle d un SGBD
Fichiers et Disques Structure fonctionnelle d un SGBD Requetes Optimiseur de requetes Operateurs relationnels Methodes d acces Gestion de tampon Gestion de disque BD 1 Fichiers et Disques Lecture : Transfert
Plus en détailUne comparaison de méthodes de discrimination des masses de véhicules automobiles
p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans
Plus en détailBig Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université
Plus en détailTraitement bas-niveau
Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détailAC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x =
LE NOMBRE D OR Présentation et calcul du nombre d or Euclide avait trouvé un moyen de partager en deu un segment selon en «etrême et moyenne raison» Soit un segment [AB]. Le partage d Euclide consiste
Plus en détailL analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :
La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.
Plus en détailSécurité par compression! ReSIST 2010. Gilles RICHARD IRIT www.irit.fr/bite www.bite.ac.uk
Sécurité par compression! ReSIST 2010 Gilles RICHARD IRIT www.irit.fr/bite www.bite.ac.uk Introduction Sécurité.. intrusion réseau, attaques (DoS,DDoS etc.) virus, etc... spams code injection (SQL,XSS,CSRF,...)
Plus en détailOptimisation Discrète
Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et
Plus en détailAdministration de Bases de Données : Optimisation
Administration de Bases de Données : Optimisation FIP 2 année Exercices CNAM Paris Nicolas.Travers(at) cnam.fr Table des matières 1 Stockagedans unsgbd 3 1.1 Stockage.............................................
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailMaintenabilité d un parc applicatif
1 Maintenabilité d un parc applicatif Une méthode pour évaluer les charges de maintenance 13/06/01 Jean-François Bailliot 2 Maintenabilité d un parc applicatif Maintenance / Développement importance relative
Plus en détailIntroduction aux bases de données: application en biologie
Introduction aux bases de données: application en biologie D. Puthier 1 1 ERM206/Technologies Avancées pour le Génome et la Clinique, http://tagc.univ-mrs.fr/staff/puthier, puthier@tagc.univ-mrs.fr ESIL,
Plus en détailApprentissage Automatique
Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Plus en détailGrégoire de Lassence. Copyright 2006, SAS Institute Inc. All rights reserved.
Grégoire de Lassence 1 Grégoire de Lassence Responsable Pédagogie et Recherche Département Académique Tel : +33 1 60 62 12 19 gregoire.delassence@fra.sas.com http://www.sas.com/france/academic SAS dans
Plus en détailApplication de K-means à la définition du nombre de VM optimal dans un cloud
Application de K-means à la définition du nombre de VM optimal dans un cloud EGC 2012 : Atelier Fouille de données complexes : complexité liée aux données multiples et massives (31 janvier - 3 février
Plus en détailSérie D65/D75/D72 Afficheurs digitaux modulaires
Série D65/D75/D72 Afficheurs digitaux modulaires Afficheurs digitaux modulaires Afficheurs digitaux individuels La série D65/D75/D72 représente une vaste gamme de modules d affichage numériques, hexadécimaux
Plus en détailBases de programmation. Cours 5. Structurer les données
Bases de programmation. Cours 5. Structurer les données Pierre Boudes 1 er décembre 2014 This work is licensed under the Creative Commons Attribution-NonCommercial-ShareAlike 3.0 License. Types char et
Plus en détaildonnées en connaissance et en actions?
1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)
Plus en détailPostgreSQL, le cœur d un système critique
PostgreSQL, le cœur d un système critique Jean-Christophe Arnu PostgreSQLFr Rencontres Mondiales du Logiciel Libre 2005 2005-07-06 Licence Creative Commons Paternité - Pas d utilisation commerciale - Partage
Plus en détailMABioVis. Bio-informatique et la
MABioVis Modèles et Algorithmes pour la Bio-informatique et la Visualisation Visite ENS Cachan 5 janvier 2011 MABioVis G GUY MELANÇON (PR UFR Maths Info / EPI GRAVITE) (là, maintenant) - MABioVis DAVID
Plus en détailL'intelligence d'affaires: la statistique dans nos vies de consommateurs
L'intelligence d'affaires: la statistique dans nos vies de consommateurs Jean-François Plante, HEC Montréal Marc Fredette, HEC Montréal Congrès de l ACFAS, Université Laval, 6 mai 2013 Intelligence d affaires
Plus en détailSOUS SOL PANOPLIE EF. MAITRISE D'OUVRAGE la justice du Burundi Bujumbura Tel. +257 22 27 51 05. Architectes mandataires Atelier D MAITRISE D'OEUVRE
486 487 SOUS SOL 9 8 7 6 5 4 3 2 1 PANOPLIE EF 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 Circulation détenus 7.28 m² 8 7 6 5 4 3 2 1 LEGENDE 488 MAITRISE D'OUVRAGE la justice du Burundi Bujumbura Tel. +257 22
Plus en détailCirculaire 2013/xy Distribution de placements collectifs. Distribution au sens de la législation sur les placements collectifs de capitaux
Banques Groupes et congl. financiers Autres intermédiaires Assureurs Groupes. et congl. d assur. Intermédiaires d assur. Bourses et participants Négociants en valeurs mob. Directions de fonds SICAV Sociétés
Plus en détailINTRODUCTION AU DATA MINING
INTRODUCTION AU DATA MINING 6 séances de 3 heures mai-juin 2006 EPF - 4 ème année - Option Ingénierie d Affaires et de Projets Bertrand LIAUDET TP DE DATA MINING Le TP et le projet consisteront à mettre
Plus en détailCommunications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes
Loris MARCHAL Laboratoire de l Informatique du Parallélisme Équipe Graal Communications collectives et ordonnancement en régime permanent pour plates-formes hétérogènes Thèse réalisée sous la direction
Plus en détailÉtude des formes de pratiques de la gymnastique sportive enseignées en EPS à l école primaire
Étude des formes de pratiques de la gymnastique sportive enseignées en EPS à l école primaire Stéphanie Demonchaux To cite this version: Stéphanie Demonchaux. Étude des formes de pratiques de la gymnastique
Plus en détailContinuité et dérivabilité d une fonction
DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité
Plus en détailTour d horizon de l apprentissage statistique. from Machine Learning to Big Data Analytics
Tour d horizon de l apprentissage statistique. from Machine Learning to Big Data Analytics Stéphane Canu asi.insa-rouen.fr/enseignants/~scanu Codeur en Seine 2014, Université de Rouen 27 novembre 2014
Plus en détailData Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.
des des Data Mining Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne 2012-2013 1/65 des des 1 2 des des 3 4 Post-traitement 5 représentation : 6 2/65 des des Définition générale Le
Plus en détailLES MÉTHODES DE POINT INTÉRIEUR 1
Chapitre XIII LES MÉTHODES DE POINT INTÉRIEUR 1 XIII.1 Introduction Nous débutons par un rappel de la formulation standard d un problème d optimisation 2 linéaire et donnons un bref aperçu des différences
Plus en détailOrdonnancement temps réel
Ordonnancement temps réel Laurent.Pautet@enst.fr Version 1.5 Problématique de l ordonnancement temps réel En fonctionnement normal, respecter les contraintes temporelles spécifiées par toutes les tâches
Plus en détailMaster Informatique et Systèmes. Architecture des Systèmes d Information. 03 Architecture Logicielle et Technique
Master Informatique et Systèmes Architecture des Systèmes d Information 03 Architecture Logicielle et Technique Damien Ploix 2014-2015 Démarche d architecture SI : structuration en vues Quels métiers?
Plus en détailI.1. Chiffrement I.1.1 Chiffrement symétrique I.1.2 Chiffrement asymétrique I.2 La signature numérique I.2.1 Les fonctions de hachage I.2.
DTIC@Alg 2012 16 et 17 mai 2012, CERIST, Alger, Algérie Aspects techniques et juridiques de la signature électronique et de la certification électronique Mohammed Ouamrane, Idir Rassoul Laboratoire de
Plus en détailJournées Télécom-UPS «Le numérique pour tous» David A. Madore. david.madore@enst.fr. 29 mai 2015
et et Journées Télécom-UPS «Le numérique pour tous» David A. Madore Télécom ParisTech david.madore@enst.fr 29 mai 2015 1/31 et 2/31 : définition Un réseau de R m est un sous-groupe (additif) discret L
Plus en détail4.2 Unités d enseignement du M1
88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter
Plus en détailIntroduction aux outils BI de SQL Server 2014. Fouille de données avec SQL Server Analysis Services (SSAS)
MIT820: Entrepôts de données et intelligence artificielle Introduction aux outils BI de SQL Server 2014 Fouille de données avec SQL Server Analysis Services (SSAS) Description générale Ce tutoriel a pour
Plus en détailAnalyse de grandes bases de données en santé
.. Analyse de grandes bases de données en santé Alain Duhamel Michaël Genin Mohamed Lemdani EA 2694 / CERIM Master 2 Recherche Biologie et Santé Journée Thématique Fouille de Données Plan. 1 Problématique.
Plus en détailSécurité des entrepôts de données dans le Cloud Un SaaS pour le cryptage des données issues d un ETL
Sécurité des entrepôts de données dans le Cloud Un SaaS pour le cryptage des données issues d un ETL Présenté par Hana Gara Kort Sous la direction de Dr Jalel Akaichi Maître de conférences 1 1.Introduction
Plus en détailII. REVOD Plongée à l ordinateur. Septembre 2010. Plan de l exposé
1 Décompression II. REVOD Plongée à l ordinateur Septembre 2010 Plan de l exposé Introduction Typologie de la décompression: No déco Déco légère Déco Lourde La planification Les profils de plongée Le palier
Plus en détailConversion d un entier. Méthode par soustraction
Conversion entre bases Pour passer d un nombre en base b à un nombre en base 10, on utilise l écriture polynomiale décrite précédemment. Pour passer d un nombre en base 10 à un nombre en base b, on peut
Plus en détailNouvelles propositions pour la résolution exacte du problème de sac à dos bi-objectif unidimensionnel en variables binaires
Nouvelles propositions pour la résolution exacte du problème de sac à dos bi-objectif unidimensionnel en variables binaires Julien Jorge, Xavier Gandibleux Laboratoire d Informatique de Nantes Atlantique
Plus en détailPlan 1/9/2013. Génération et exploitation de données. CEP et applications. Flux de données et notifications. Traitement des flux Implémentation
Complex Event Processing Traitement de flux de données en temps réel Romain Colle R&D Project Manager Quartet FS Plan Génération et exploitation de données CEP et applications Flux de données et notifications
Plus en détailPerfectionnement Excel 2007
Perfectionnement Excel 2007 -2- Avertissement Ce document accompagne le cours qui a été conçu spécialement pour les stagiaires des cours de Denis Belot. Le cours a été réalisé en réponse aux diverses questions
Plus en détailJeux de caracte res et encodage (par Michel Michaud 2014)
Jeux de caracte res et encodage (par Michel Michaud 2014) Les ordinateurs ne traitent que des données numériques. En fait, les codages électriques qu'ils conservent en mémoire centrale ne représentent
Plus en détailSpécifications, Développement et Promotion. Ricco RAKOTOMALALA Université Lumière Lyon 2 Laboratoire ERIC
Spécifications, Développement et Promotion Ricco RAKOTOMALALA Université Lumière Lyon 2 Laboratoire ERIC Ricco? Enseignant chercheur (CNU.27) En poste à l Université Lyon 2 Faculté de Sciences Eco. Recherche
Plus en détailAnalyse Sémantique de Nuages de Points 3D et d Images dans les Milieux Urbains
Analyse Sémantique de Nuages de Points 3D et d Images dans les Milieux Urbains Andrés Felipe SERNA MORALES Directrice de thèse: Beatriz MARCOTEGUI ITURMENDI serna@cmm.ensmp.fr MINES ParisTech, Mathématiques
Plus en détail1 Comment faire un document Open Office /writer de façon intelligente?
1 Comment faire un document Open Office /writer de façon intelligente? 1.1 Comment fonctionne un traitement de texte?: les balises. Un fichier de traitement de texte (WRITER ou WORD) comporte en plus du
Plus en détailDéfi SSQ Groupe financier
Défi SSQ Groupe financier 16 janvier 2015 Gestion actif-passif : optimisation d une position d appariement Table des matières Présentation SSQ Groupe financier Vice-présidence Placements Problématique
Plus en détailInstallation et prise en main d UBUNTU
Installation et prise en main d UBUNTU Introduction Ubuntu est une distribution Linux adoptée par près de 25 millions d utilisateurs de par le monde. Contrairement aux systèmes d exploitation propriétaires
Plus en détailObjectifs du cours d aujourd hui. Informatique II : Cours d introduction à l informatique et à la programmation objet. Complexité d un problème (2)
Objectifs du cours d aujourd hui Informatique II : Cours d introduction à l informatique et à la programmation objet Complexité des problèmes Introduire la notion de complexité d un problème Présenter
Plus en détailStructures algébriques
Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe
Plus en détailTP2_1 DE BUSINESS INTELLIGENCE ISIMA ZZ3 F3
TP2_1 DE BUSINESS INTELLIGENCE ISIMA ZZ3 F3 03/11/2014 Plan du TP 2 Présentation de la suite Microsoft BI Ateliers sur SSIS (2H) Ateliers sur RS (2H) 3 Présentation de la suite Microsoft BI Présentation
Plus en détailLe Raid c est quoi? Comment ca marche? Les différents modes RAID :
Le Raid c est quoi? Redundant Array of Inexpensive Disks: ensemble redondant de disques peu chers. Le RAID est une technologie qui a été dévellopée en 1988 pour améliorer les performances des unités de
Plus en détailApprentissage non paramétrique en régression
1 Apprentissage non paramétrique en régression Apprentissage non paramétrique en régression Résumé Différentes méthodes d estimation non paramétriques en régression sont présentées. Tout d abord les plus
Plus en détailApprentissage symbolique et statistique à l ère du mariage pour tous
Apprentissage symbolique et statistique à l ère du mariage pour tous Stéphane Canu asi.insa-rouen.fr/enseignants/~scanu RFIA 2014, INSA Rouen 2 juillet 2014 Apprentissage : humain vs. machine Les apprentissages
Plus en détailDocumentation SecurBdF
Documentation SecurBdF SECURBDF V2 Protocole de sécurité de la Banque de France SecurBdF V2 DIRECTION DE L'INFORMATIQUE ET DES TÉLÉCOMMUNICATIONS Sommaire I 1 Contexte... 1 2 Références... 1 3 Cadre...
Plus en détailCOURS DE DATA MINING 4 : MODELISATION NON-SUPERVISEE CLASSIFICATIONS AUTOMATIQUES
COURS DE DATA MINING 4 : MODELISATION NON-SUPERVISEE CLASSIFICATIONS AUTOMATIQUES EPF 4/ 5 ème année - Option Ingénierie d Affaires et de Projets - Finance Bertrand LIAUDET 4 : Modélisation non-supervisée
Plus en détailCATALOGUE FORMATIONS 2015. DOMAINE Bases de données
DOMAINE Bases de données Version 1.0 - Octobre 2014 1, 2, 3 juin 2015 1, 2, 3 octobre 2015 CATALOGUE Analyse et conception d une base de données Elaboration de fiches de collecte de données Techniques
Plus en détailSélection de Caractéristiques pour le Filtrage de Spams
Sélection de Caractéristiques pour le Filtrage de Spams Kamilia MENGHOUR, Labiba SOUICI-MESLATI Laboratoire LRI, Université Badji Mokhtar, BP 12, 23000, Annaba, Algérie. k_menghour@yahoo.fr, souici_labiba@yahoo.fr
Plus en détailIntégrer le CRM : quelle utilité, quels profits pour ma PME?
Conférence Applica - 22 avril 2002 Intégrer le CRM : quelle utilité, quels profits pour ma PME? Stéphanie WAILLIEZ Analyste CRM, CXP swailliez@cxp-international.com CXP en quelques mots et quelques chiffres
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailTechniques d optimisation des requêtes dans les data warehouses
Techniques d optimisation des requêtes dans les data warehouses Ladjel Bellatreche LISI/ENSMA Téléport2-1, Avenue Clément Ader 86960 Futuroscope - FRANCE bellatreche@ensma.fr Résumé Un entrepôt de données
Plus en détailExpérience 3 Formats de signalisation binaire
Expérience 3 Formats de signalisation binaire Introduction Procédures Effectuez les commandes suivantes: >> xhost nat >> rlogin nat >> setenv DISPLAY machine:0 >> setenv MATLABPATH /gel/usr/telecom/comm_tbx
Plus en détailI - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane
Plus en détailAlarme Maison GSM Auto-appel
Alarme Maison GSM Auto-appel Manuel d Utilisation Merci de lire attentivement ce mode d emploi avant de mettre en service votre nouveau système d alarme. 1 Index 1. Caractéristiques... 4 2. Votre Centrale
Plus en détailLa Presse Le conflit étudiant
La Presse Le conflit étudiant Vague 2-22 au 25 mai 2012 - Méthodologie La collecte de données en ligne s est déroulée du 22 au 25 mai 2012 par le biais d un panel web. Un total de 1 500 questionnaires
Plus en détailMathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans
Mathématique et Automatique : de la boucle ouverte à la boucle fermée Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans Maitine.Bergounioux@labomath.univ-orleans.fr Plan 1. Un peu de
Plus en détailEchantillonnage Non uniforme
Echantillonnage Non uniforme Marie CHABERT IRIT/INP-ENSEEIHT/ ENSEEIHT/TéSASA Patrice MICHEL et Bernard LACAZE TéSA 1 Plan Introduction Echantillonnage uniforme Echantillonnage irrégulier Comparaison Cas
Plus en détail//////////////////////////////////////////////////////////////////// Administration bases de données
////////////////////// Administration bases de données / INTRODUCTION Système d informations Un système d'information (SI) est un ensemble organisé de ressources (matériels, logiciels, personnel, données
Plus en détailINF6304 Interfaces Intelligentes
INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie
Plus en détailK. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre 2014 - Palaiseau
Apport des modèles de krigeage à la simulation numérique K Ammar, F Bachoc, JM Martinez CEA-Saclay, DEN, DM2S, F-91191 Gif-sur-Yvette, France Séminaire ARISTOTE - 23 octobre 2014 - Palaiseau Apport des
Plus en détailProgrammation Linéaire - Cours 1
Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.
Plus en détailCours 1 : Introduction Ordinateurs - Langages de haut niveau - Application
Université de Provence Licence Math-Info Première Année V. Phan Luong Algorithmique et Programmation en Python Cours 1 : Introduction Ordinateurs - Langages de haut niveau - Application 1 Ordinateur Un
Plus en détailSystème Alarme GSM APPEL MOBILE
Système Alarme GSM APPEL MOBILE Manuel d Utilisation Merci de lire attentivement ce mode d emploi avant de mettre en service votre nouveau système d alarme. - 1 - Index Page 3 Page 4 Page 6 Page 7 Page
Plus en détailIntroduction aux Bases de Données Relationnelles Conclusion - 1
Pratique d un : MySQL Objectifs des bases de données Où en sommes nous? Finalement, qu est-ce qu un? Modèle relationnel Algèbre relationnelle Conclusion SQL Conception et rétro-conception Protection de
Plus en détail2.4 Représentation graphique, tableau de Karnaugh
2 Fonctions binaires 45 2.4 Représentation graphique, tableau de Karnaugh On peut définir complètement une fonction binaire en dressant son tableau de Karnaugh, table de vérité à 2 n cases pour n variables
Plus en détail! " # $ #% &!" # $ %"& ' ' $ (
!" #$%"& ! "#$#% &!" #$%"& ' '$( SOMMAIRE INTRODUCTION... 4 METHODE... 4 TAUX DE REPONSES ET VALIDITE DES POURCENTAGES... 4 RESULTATS... 6 I. Qui sont les étudiants ayant répondu?... 6 1.1. Répartition
Plus en détailCampagne Emailing sur l Algérie Offre GLOBALE MISE A JOUR DU 1 Septembre 2012
Visibilité sur Internet : L emarketing Sarbacane Campagne Emailing sur l Algérie Offre GLOBALE MISE A JOUR DU 1 Septembre 2012 www.sarbacane.dz www.emailing-dz.com www.smsing-dz.com 2012 Web Measurement
Plus en détailLangage SQL (1) 4 septembre 2007. IUT Orléans. Introduction Le langage SQL : données Le langage SQL : requêtes
Langage SQL (1) Sébastien Limet Denys Duchier IUT Orléans 4 septembre 2007 Notions de base qu est-ce qu une base de données? SGBD différents type de bases de données quelques systèmes existants Définition
Plus en détail3 Charges électriques
3 Charges électriques 3.1 Electrisation par frottement Expérience : Frottons un bâton d ébonite avec un morceau de peau de chat. Approchonsle de petits bouts de papier. On observe que les bouts de papier
Plus en détailPREDURA TMS PREvention DURAble des TMS Programme de suivi des entreprises exposées au risque de TMS. Journées Marcel Marchand 23 novembre 2013
PREDURA TMS PREvention DURAble des TMS Programme de suivi des entreprises exposées au risque de TMS Journées Marcel Marchand 23 novembre 2013 Constat Les TMS continuent d augmenter. Nos actions touchent
Plus en détailVision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007
Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................
Plus en détailStructure du format BMP, sa lecture, sa construction et son écriture
Structure du format BMP, sa lecture, sa construction et son écriture Claude Parisel Mars 2003 Table des matières : 1. Le choix du format 2. Commentaires sur les autres formats 3. Format BMP pour noir&blanc,
Plus en détailAméliorer les performances du site par l'utilisation de techniques de Web Mining
Améliorer les performances du site par l'utilisation de techniques de Web Mining CLUB SAS 2001 17/18 octobre 2001 Stéfan Galissie LINCOLN stefan.galissie@lincoln.fr contact@web-datamining.net 2001 Sommaire
Plus en détailSpécificités, Applications et Outils
Spécificités, Applications et Outils Ricco Rakotomalala Université Lumière Lyon 2 Laboratoire ERIC Laboratoire ERIC 1 Ricco Rakotomalala ricco.rakotomalala@univ-lyon2.fr http://chirouble.univ-lyon2.fr/~ricco/data-mining
Plus en détailUne méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données
Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données Marc Boullé Orange Labs 2 avenue Pierre Marzin 22300 Lannion marc.boulle@orange-ftgroup.com,
Plus en détailCours d analyse numérique SMI-S4
ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,
Plus en détail