INTRODUCTION AUX SVM (SUPPORT VECTOR MACHINES). APPLICATIONS AUX DONNEES MEDICALES
|
|
- Jérémie François
- il y a 8 ans
- Total affichages :
Transcription
1 Université Claude Bernard Lyon 1 Institut Camille Jordan Master Ingénierie Mathématiques INTRODUCTION AUX SVM (SUPPORT VECTOR MACHINES). APPLICATIONS AUX DONNEES MEDICALES Fait par: MAHAMAT ATTEIB Adoum Mahamat Soutenu le 10/06/2014 à 10h Responsable du master : Clopeau Thierry Encadré par: Ciuperca Gabriela Année Académique :
2 Remerciements Il est toujours délicat de remercier l ensemble des personnes qui ont contribué à l aboutissement de ce travail. J exprime tout d abord mes vifs remerciements à mon encadrante Madame CIUPERCA GA- BRIELA d être toujours à mon écoute, son entière disponibilité, son inspiration et aussi aux échanges fructueux que nous avons eu tout au long de notre travail ensemble. Je profite de l occasion pour exprimer mes gratitudes et mes sincères remerciements à l ensemble des professeurs qui m ont enseigné en master 1 d Ingénierie Mathématiques durant cette annéé. Que soient remerciés mes parents, mes frères, mes soeurs ainsi que mes ami(es) plus particulièrement- Maidé Hamit Lony et Mahamat Choua. Que tout ce qui m ont aidé de près ou de loin dans l élaboration de ce TER trouvent ici l expression de ma sincère gratitude. Merci enfin au lecteur qui par essence justifie la rédaction de ce travail. 1
3 Dédicace A mes parents A mes frères Imrane, Roudouane et Loukhmane A toutes mes soeurs A tout ceux qui m ont chers. 2
4 Table des matières 1 Introduction 4 2 SVM linéaire Cas Séparable Formalisation du problème Approche générale Hyperplan Définition de base Formulation Primale Formulation duale Cas non séparable Formulation Primale Formulation Duale SVM non linéaire Fonction Noyau Exemple de fonctions Noyaux Opérations sur les Noyaux SVM Multi-classes One Versus All One Versus One Comparaison Avantages et Inconvénients des SVM Avantages Inconvénients Domaine d application des SVM 15 7 Application aux données Médicales Classification Supervisée Exemple illustratif : IRIS Conclusion Données ECOLI Données HEART Description brève de toutes les variables Conclusion Générale 22 9 Bibliographie Annexe 24 3
5 1 Introduction Les Support Vector Machines 1 (SVM) sont une classe d algorithmes d apprentissage initialement définis pour la discrimination c est-à-dire la prévision d une variable qualitative binaire. Ils ont été ensuite généralisés à la prévision d une variable quantitative. Dans le cas de la discrimination d une variable dichotomique, ils sont basés sur la recherche de l hyperplan de marge optimale qui, lorsque c est possible, classe ou sépare correctement les données tout en étant le plus éloigné possible de toutes les observations. Le principe est donc de trouver un classifieur, ou une fonction de discrimination, dont la capacité de généralisation (qualité de prévision) est la plus grande possible. Cette approche découle directement des travaux de Vapnik en théorie de l apprentissage à partir de Elle s est focalisée sur les propriétés de généralisation (ou prévision) d un modèle en contrôlant sa complexité. Le principe fondateur des SVM est justement d intégrer à l estimation le contrôle de la complexité c est-à-dire le nombre de paramètres qui est associé dans ce cas au nombre de vecteurs supports. Ces fameuses machines ont été inventées en 1992 par Boser et al. mais leur dénomination par SVM n est apparue qu en 1995 avec Cortes et al. Dépuis lors, des nombreux développements ont été réalisés pour proposer des variantes traitant le cas non-linéaire, pour adapter cette méthode d apprentissage à la régression ou pour introduire d autres formulations des SVM ayant des liens avec les méthodes de régularisation. Aujourd hui, nous pouvons dire sans exagérer que ces machines ont supplanté les réseaux de neurones 2 et les autres techniques d apprentissage. En effet, elles sont largement répandues en apprentissage statistique et ont eu beaucoup de succès dans quasiment tous les domaines où elles ont été appliquées tels que le traitement d image, la catégorisation de texte, le diagnostique médical... Dans notre étude, on s interesse qu aux applications des SVM dans le domaine médical. 2 SVM linéaire 2.1 Cas Séparable Formalisation du problème Le problème de classification rentre dans le cadre de l apprentissage statistique supervisée. Le but est de prévoir la classe y d un vecteur p dimensionnel x en se basant sur les mesures des variables qui l expliquent avec pour seule information celle contenue dans l échantillon d apprentissage S. Dans le cas de la discrimination biclasse, nous supposons que les données sont des couples (x i, y i ) X Y, ou X désigne l espace des variables explicatives souvent pris dans R p, y = { 1, 1} et n est la taille de l échantillon. L appartenance d une observation x i à une classe ou à une autre est matérialisée ici par la valeur -1 ou 1 de son étiquette y i. L échantillon d apprentissage S est ainsi une collection de réalisations indépendantes, identiquement distribuées du couple aléatoire (x, y) dont la distribution P est fixe mais inconnue. Cet ensemble est souvent dénoté par : S = {(x 1, y 1 ), (x 2, y 2 ),..., (x l, y l )} (X Y ) n Approche générale La classification binaire est accomplie au moyen d une fonction à valeurs réelles, f : X R p R. Toute observation x i est affectée à la classe qui correspond au signe de f(x i ) : si f(x i ) > 0, x i est affecté à la classe positive (+1) et sinon elle sera dans la classe négative (-1). En classification linéaire, la fonction f est linéaire en x i et elle prend la forme générale suivante : f(x i ) =< w, x i > +b 1. traduit en français par les expressions "Séparateur à Vaste Marge" ou encore tout simplement par "les machines à vecteurs supports" 2. Ils sont tous deux des méthodes d apprentissage statistique. La différence est que les reseaux des neurones cherchent un optimum local alors que les SVM cherchent un optimum global 4
6 ou (w, b) R p R sont les paramètres à estimer de la fonction de décision f et <.,.> désigne le produit scalaire usuel dans R p. La règle de décision est donc donnée par sign(f(x i )). Par convention, sign(f(0)) = 1. La fonction sign(f(.)) est appelée "classifieur". La méthodologie d apprentissage implique que ces paramètres doivent être estimés à partir des données d apprentissage. L hyperplan est défini par l équation < w, x > +b = 0 ou w est un vecteur orthogonal au plan qu on appelle "vecteur de poids", tandisque la variation du paramètre b appelé biais engendre une simple translation de l hyperplan séparateur. Les termes "vecteurs de poids" pour le vecteur w et "biais" pour le paramètre b sont empruntés de la littérature des reseaux des neurones. Figure 1 Cas séparable ou d désigne la marge qu on cherche à maximiser Hyperplan Définition de base Soit E un espace vectoriel de dimension quelconque (eventuellement infinie). On appelle hyperplan tout sous espace vectoriel de E quelconque d une droite vectorielle. Caractérisation d un Hyperplan : H hyperplan de E si et seulement si, il existe ϕ L(E, K)\{0}, H = Kerϕ. Autrement dit : H est un hyperplan si et seulement si il est le noyau d une fonction linéaire non nulle. Parmi les infinités des hyperplans qui séparent les données, un seul est optimal. Vulgairement, on peut dire que c est celui qui se trouve entre les deux données et en même temps éloigné de ces dernières. L hyperplan optimal est défini par : arg max arg max arg max min w,b i min w,b i min w,b i {distance du point x i à l hyperplan(w, x)} = arg max min w,b i < w, x i > +b w {distance du point x i à l hyperplan(w, b)} (2) { x x i : x R d, < w, x i > +b = 0, i = 1,..., n} (3) (1) 5
7 Figure 2 Cas séparable ou <w,x>+b=0 désigne l hyperplan La marge normalisée appelée aussi marge géometrique vaut : 2 w. La distance d un point x quelconque à l hyperplan est : d(x) = wx+b La distance de l hyperplan à l origine est : b w. w Formulation Primale Dans ce cas, les exemples sont linéairement séparables puisqu il existe une infinité des hyperplans (cf. figure 2) qui permettent de les discriminer correctement. C est le plus simple des modèles des séparateurs à vaste marge. Dans le cas contraire, on parle d exemples linéaire non séparables (l objet de la partie suivante). Il faut rappeler que notre objectif est de trouver un seul hyperplan séparateur (optimal) parmi les tant d autres qui sépare au mieux les deux classes d exemples, c est-à-dire qui maximise la distance euclidienne entre ces derniers. Cette distance s appelle "marge". Ce pourquoi, on parle de "séparateurs à vaste marges" puisqu on cherche à maximiser cette marge. Le fait d avoir une marge plus large procure plus de sécurité lorsqu on veut classer un nouvel exemple. Figure 3 Cas séparable Remarque : Minimiser cette marge, son carré, ou la moitié de son carré fournit la même solution. 6
8 Étant donné que le couple (w, b) est défini à un coefficient multiplicatif près, on impose y(wx i + b) 1. On doit donc résoudre le problème d optimisation sous contraintes s écrivant sous forme primal comme suit : 1 min w,b 2 w 2 y i (wx i + b) 1, i C est un problème d optimisation quadratique convexe sous contraintes linéaire (on a une seule contrainte) où la fonction objectif est le carré de l inverse de la double marge. Il existe plusieurs méthodes pour résoudre un problème d optimisation non linéaire telles que la méthode de Lagrange, la méthode de point intérieur, la méthode de gradient...en effet, un probleme convexe a un et un seul optimum et la fonction est derivable ; donc on peut suivre le gradient puisqu il existe et est continu, et celui-ci nous mene forcement à l optimum. Le point delicat est que dans certaines zones, le gradient peut etre tres faible : on peut alors perdre la direction de la plus forte pente, mais surtout perdre beaucoup de temps à effectuer de très petits pas (même si c est dans la bonne direction). Nous allons se contenter d utiliser la Méthode de Lagrange tout au long de notre travail Formulation duale D après la théorie de l optimisation, un problème d optimisation possède une forme duale dans le cas où la fonction objectif et les contraintes sont strictement convexes. Dans ce cas, la résolution de l expression duale du problème est équivalente à la solution du problème original. Pour résoudre ces types de problèmes, on utilise une fonction que l on appelle "lagrangien" qui incorpore des informations sur la fonction objectif et sur les contraintes et dont le caractère stationnaire peut être utilisé pour détecter des solutions. Plus précisément, le lagrangien est défini comme étant la somme de la fonction objectif et d une combinaison linéaire des contraintes dont les coefficients α i > 0 sont appelés multiplicateurs de Lagrange ou encore variables duales. Le lagrangien est défini par : L(w, b, α) = 1 2 w 2 [α i (y i (wx i + b) 1] Un théorème de Kuhn-Tucker, couronnant des travaux commencés par Fermat ( ), puis poursuivis par Lagrange ( ), démontre que le problème primal et sa formulation duale ont la même solution. Celle-ci correspond à un point-selle du lagrangien (il faut le minimiser par rapport aux variables primaires w et b et le maximiser par rapport aux variables duales. Au point-selle, la dérivée du lagrangien par rapport aux variables primaires doit s annuler : L(w, b, α) w L(w, b, α) b L(w, b, α) w L(w, b, α) b = 0 (4) = 0 (5) = = α i y i x i = 0 (6) α i y i = 0 (7) 7
9 En substituant les dans le lagrangien, on élimine les variable w et b et l on obtient le lagrangien dual : α i 1 2 α i α j y i y j < x i, y j > j=1 < x i, y j > désigne le produit scalaire entre x i et x j. La formulation duale recherchée est donc : max α i 1 α i α j y i y j < x i, y j > α 2 i, α i 0 n α iy i = 0 i,j=1 Il s agit d un problème de programmation quadratique convexe de dimension n (nombre d exemple). Ce problème peut être résolu en utilisant des méthodes standards de programmation quadratique. Une fois la solution optimale du problème obtenu α = (α 1, α 2,..., α n), le vecteur de poids de l hyperplan à marge maximale recherchée s écrit : w = αi y i x i Comme le paramètre b ne figure dans le problème dual, sa valeur optimale b peut être dérivée à partir des contraintes primales, soit : max (< b y i =1 w, x i >) + min (< y w, x i >) = 2 Une fois les paramètres α et b calculés, la règle de classification d une nouvelle observation x basée sur l hyperplan à marge maximale est donnée par : (. 2.2 Cas non séparable Formulation Primale sign y i α i < x i, x > +b ) Dans le cas ou les exemples ne sont pas linéairement séparables (c est-à-dire les exemples d une classe sont mélangés dans d autre classe), on utilise la technique dite des "variables ressorts( slack variables)". L idée est d ajouter des variables d ajustement ( appelés aussi variables de relâchement des contraintes dans la formulation primale du problème). On les note ξ i et sont toutes positives. Elles assouplissent les contraintes et prennent en compte les erreurs de classification ou le bruit. En d autres termes, ces variables quantifient de combien un exemple est mal classé. Plus ξ i est petit, plus x i est mal classé et éloigné de la marge. Le problème primal s écrit alors sous cette forme : min w,b,ξ [ 1 2 w 2 + c ] ξ i y i (wx i + b) 1 ξ i, i c est appelé "paramètre de pénalisation du relâchement". C est une constante positive à fixer à priori judicieusement. Elle correspond au compromis entre mauvaise classification et complexité de la fonction, soit encore entre erreur empirique et erreur de généralisation. En d autres termes, elle permet de contrôler l importance de l erreur que l on s autorise par rapport à la taille de la marge. 8
10 Plus sa valeur est grande, moins d erreurs sont autorisées. Remarque : Figure 4 Cas non séparable Si ξ i = 0, les exemples sont bien classés, c est-à-dire y i (wx i + b) 1. Si ξ i = 0, on obtient les vecteurs supports, c est-à-dire y i (wx i + b) = 1. Si ξ i > 0, les exemples sont dans la marge,c est-à-dire y i (wx i + b) < Formulation Duale On construit le lagrangien de ce problème, par la méthode que précédemment, afin d obtenir la formulation duale. Il s écrit : L(w, b, ξ, α, β) = 1 2 w 2 + c ξ i α i [y i (wx i + b) + ξ i 1] β i ξ i Pour tout i, les multiplicateurs de Lagrange α i et β i sont positifs sou nuls. Étant donné que le problème primal et sa formulation duale ont la même solution qui correspond à un "point selle" du lagrangien, donc, on doit minimiser ce dernier par rapport aux variables w, b et ξ et le maximiser par rapport à α et β. Au point selle, la dérivée du lagrangien par rapport aux variables w, b et ξ sont nuls. Conditions d optimalités : L(w, b, ξ, α, β) w L(w, b, ξ, α, β) b = w = α i y i x i = 0 w = i α i y i = 0 α i y i x i (8) α i y i = 0 (9) L(w, b, ξ, α, β) ξ i = c α i β i (10) Les multiplicateurs de Lagrange étant positifs ou nuls, c est-à-dire α i 0 et β i 0 donc, ce qui 9
11 implique que c α i = β i 0. On obtient donc la contrainte suivante : 0 α i c. Après substitution des valeurs optimales dans le lagrangien, on obtient la formulation duale recherchée : [ ] max α i 1 α i α j y i y j < x i, x j > α 2 n α iy i = 0 i, 0 α i c Remarque : Elle a la même forme que dans le cas séparable linéairement. La seule différence réside sur la borne supérieure sur les α. 3 SVM non linéaire Nous avons vu le principe des SVM dans le cas ou les donnés sont au non séparables linéairement. Cependant, dans la plus part des problèmes réels de la vie, de classification sous entendu, ce n est pas toujours le cas. Autrement dit, il est difficile de séparer efficacement n importe quel jeu de donné par un simple hyperplan. Si par exemple les données des deux classes se chevauchent sévèrement. Le vif de ce paragraphe est donc d apporter des éléments de réponse à ce pertinent problème. L idée de Boxer et al. fut alors de pulvériser, de projet les données x i dans un espace de Hilbert de plus grande dimension, voire infinie ou on peut linéairement séparables. Il s agit donc, là, d un changement d espace. Cette opération n ait lieu qu à l aide d une fonction non linéaire : Figure 5 Changement d espace φ : R p T x φ(x) à choisir à priori avec card(t )>p. Il s agit donc d une transformation d un problème de séparation non linéaire dans l espace de représentation en un problème de séparation linéaire dans un espace de grande dimension. Il existe, sous certaines hypothèses, une fonction K dite "fonction noyau" définie par : K(x i, x j ) =< φ(x i ), φ(x j ) >. On peut dès lors effectuer tous les calculs dans le cadre des SVM en utilisant la fonction K(x i, x j ), sans devoir connaitre explicitement les donnés la fonction φ. D où l appellation de cette technique par "astuce de Noyau" 3. Le nouvel espace T porte plusieurs nominations dont on ne peut résister la tentation de les citer : espace des caractéristiques, espace de transformé ou espace de ré-description Kernel Strick 4. En Anglais, on parle plutôt de feature espace 10
12 Théorème de Cover 1 Dans une tâche de classification supervisée, plus la dimension des données est grande, plus ils ont d attributs linéairement indépendants, plus la probabilité que les classes soient linéairement séparables est grande. L hyperplan séparateur obtenu dans le nouvel espace T (espace des caractéristiques) est appelé : hyperplan optimal généralisé. Sa forme dépend sans doute des données que nous avons à classifier, à étudier. insérer une courbe ici pour montrer les différentes allures de l hyperplan généralisé!! La formulation duale de ce nouveau problème d optimisation se déduit de la précédente en remplaçant < x i, x j > par < φ(x i ), φ(x j ) > : max α α i 1 2 i, α i 0 n α iy i = 0 α i α j y i y j < φ(x i ), φ(x j ) > i,j=1 avec < φ(x i ), φ(x j ) >= K(x i, x j ). On peut ainsi donc reformuler le problème : max α i 1 α i α j y i y j K(x i, x j ) α 2 i, α i 0 n α iy i = 0 i,j=1 La solution de ce problème d optimisation nous donne l hyperplan optimal généralisé d équation : αi y i K(x i, x) + b Les coefficients α i et b sont obtenus comme précédemment par résolution du problème d optimisation quadratique. Exemple d Illustration : On considére un problème de discrimination les plus simples imaginables. On suppose que l espace des entrées est réduit à R, c est-à-dire à une dimension. On suppose que l on a cinq points d apprentissage associés à deux classes +1 et -1. S = {(x 1, y 1 ) = (1, 1); (x 2, y 2 ) = (2, 1); (x 3, y 3 ) = (4, 1); (x 4, y 4 ) = (5, 1); (x 5, y 5 ) = (6, 1)} Figure 6 C est un problème de discrimination à une dimension Il n est pas possible de trouver un séparateur linéaire permettant de distinguer les exemples 1 des exmples 1. 11
13 Choix des paramètres : Supposons que l on choisisse le noyau polynômial de degré 2. K(x i, x j ) = (< x i, x j > +1) 2. En prennant c = 100, le problème d optimisation s énonce comme suit : [ 5 ] max α i 1 5 α i α j y i y j < x i, x j > α 2 n α iy i = 0 i, 0 α i 100 On cherche les α i en resolvant le problème optimisation. Un programme de résolution de problème quadratique de ce type retourne la solution : α 1 = 0; α 2 = 2.5; α 3 = 0; α 4 = 7.333; α 5 = Les points critiques 5 sont les points ou les α i sont non nuls et correspondent à : La fonction de décision correspondante est : {x 2 = 2; x 4 = 5; x 5 = 6} La fonction de décision est : f(x) = α i y i K(x, x i ) + b f(x) = (2.5)(1)(2x + 1) (1)(5x + 1) (1)(6x + 1) 2 + b f(x) = x x + b b est obtenu par f(2) = 1 ou par f(5) = 1 ou par f(6) = 1 puisque x 2, x 4 et x 5 se situent sur la droite : Ce qui donne b = 9. La fonction de décision est alors : y i (wx i + b) = 1 f(x) = x x + 9 Figure 7 La parabole bleue associée à la fonction f(x) sépare les trois classes 5. C est les points associés aux vecteurs supports 12
14 3.1 Fonction Noyau Sur le plan théorique, la fonction noyau définit un espace hilbertien, dit auto-reproduisant et isométrique par la transformation non linéaire de l espace initial et dans lequel est résolu le problème linéaire. Théoreme de Moore-Aronszajn(1950) 1 Toute fonction semi-définie positive K(x, x ) est un noyau et réciproquement. Elle peut s exprimer comme un produit scalaire dans un espace de grande dimension. 3.2 Exemple de fonctions Noyaux Soit x = (x 1, x 2 ) et φ(x) = (x 2 1, 2x 1 x 2, x 2 2 ). Dans l espace des caractéristiques T, le produit scalaire donne : < φ(x), φ(x ) >= x 2 1x x 1 x 2 x 1x 2 + x 2 2x 2 2 = (x 1 x 1 + x 2 x 2) 2 = (< x, x >) 2 On remarque qu on peut calculer < φ(x), φ(x ) > sans pourtant calculer φ. La question qu on doit se poser est comment reconnaitre une fonction noyau? Alors, toute fonction K "fonction noyau" si elle vérifie les conditions de Mercer, c est-à-dire qu elle est continue, symétrique et semi-définie positive. D où l appellation de cette fonction par "Noyau de Mercer". Les noyaux linéaires sont de la forme : K(x, x ) =< x, x >. Les réseaux de neurones à fonctions d activation ont pour fonction noyau les fonctions sigmoîdes : K(x, x ) = tanh[a(< x, x > b)] Les fonctions à base radiales ont pour fonction noyau le noyau gaussien et s écrit : K(x, x ) = exp x x 2 2σ 2 Le noyau polynomial d ordre p s écrit : K(x, x ) = (< x, x > +1) p 3.3 Opérations sur les Noyaux A partir des fonctions noyaux usuelles (gaussien, polynomial, sigmoïde,...), nous pouvons bien sur construire d autres fonctions noyaux adaptées et conformes à notre problème de classification. Soient K 1 (x, x ) et K 2 (x, x ) deux fonctions noyaux. Alors, nous avons : K(x, x ) = K 1 (x, x ) + K 2 (x, x ) (11) K(x, x ) = K 1 (x, x ) K 2 (x, x ) (12) K(x, x ) = f(x) f(x ) (13) K(x, x ) = ak 1 (x, x ) (14) K(x, x ) = xbx t (15) 13
15 a est une constante positive. B est une matrice symétrique, semi-définie positive. et f() une fonction de l espace caractéristique dans R. Le bon choix de la fonction noyau exige de l utilisateur de SVM des tâches considérables. Il doit ou devra essayer des fonctions noyaux associés à des produits scalaires dans l espace des caractéristiques T et voir si elles permettent l obtention de bonnes séparatrices. Autrement dit, l utilisateur de SVM essaie des fonctions noyaux afin de déterminer celle qui convient le mieux pour son application. 4 SVM Multi-classes Les séparateurs à vaste marge ont été conçus à l origine pour les problèmes à deux classes c.-à-d. le cas ou la variable à prédire prend deux modalités (par exemple : positifs et négatifs) quid du problème multi-classe? D ailleurs, en réalité, les problèmes rencontrés sont de type multi-classes, d où l importance d étendre le principe du SVM aux problèmes de plus de deux classes. L extension des SVM au cas multiclasse est actuellement un domaine de recherche très ouvert et fait l objet de plusieurs travaux en cours. Nous allons donc expliquer brièvement quelques méthodes parmi les plus utilisés. 4.1 One Versus All Cette méthode s appelle en français la méthode de "Un contre Tous". Elle consiste à construire autant de classifieur SVM que de classe. En fait, l idée consiste simplement à transformer le problème à k classes en k classifieurs binaires. Chaque classifieur renvoie 1 si sa forme à reconnaitre appartient à la classe, 1 sinon. Il faut donc pour reconnaitre une forme, le soumettre à tous les classifieurs, le meilleur remportant la décision. Il est évident qu avec un nombre de classe élevé, la combinatoire peut être énorme. 4.2 One Versus One Cette méthode s appelle en français la méthode de "Un contre un". Elle a été adopté par S.Knerr et al. et utilisé pour la prémiere fois dans le contexte des machines à vecteurs supports par Krebel. Comme son nom l indique, cette méthode consiste à discriminer chaque classe d une autre, c est-à-dire construire un classifieur pour chaque paire de classe. En d autres terme, chaque classe i est comparée à chaque classe j. Pour un problème à N classes, on a N(N 1) 2 classifieurs. Le classement est donné par le vote majoritaire. L inconvenient de cette méthode est que, plus N est grand, plus sa complexité augmente puisqu elle nécessite N(N 1) comparaisons. Le classement est donné par "le vote majoritaire". 4.3 Comparaison La méthode One Versus One nécessite moins de temps que la méthode One Versus All. 14
16 5 Avantages et Inconvénients des SVM 5.1 Avantages Les séparateurs à vaste marge présentent des avantages multiples dont on se contente d énumérer quelques un. Ils permettent de traiter des données de très grande dimension et sont d ailleurs très efficaces (donnent des résultats meilleurs aux méthodes supervisées classiques). Les SVM sont faciles d emploi et présentent de bon comportement en prédiction. Cette méthode d apprentissage qu est les SVM est sympathique dans la prise en compte des données complexes et légèrement bruitées. Comme presque tout problème de classification, le problème de classification par les SVM est converti, transcrit en un problème d optimisation quadratique convexe dont la solution est unique et est obtenue par des méthodes mathématiques classiques d optimisation. Du coup, L absence d optimum local facilite donc naturellement la résolution d un problème de classification par la méthode des SVM. En outre, la mise en œuvre d un algorithme de classification de manière incrementable peu coûteuse en temps fait de SVM une méthode d apprentissage statistique efficace et prisée. 5.2 Inconvénients Comme toute méthode de classification, les SVM présentent des désavantages, des limites. Elle ne présente pas des résultats escomptés dans une tâche de classification de très petite dimension par exemple. En sus, Les meilleurs choix (paramètres du noyau) du paramètre de pénalisation de relâchement c et du type de noyau posent énormément des problèmes et nécessitent des lourdes tâches à l utilisateur des SVM, ceci tire fatalement vers le bas les performances des SVM. En plus, la généralisation 6 Domaine d application des SVM 7 Application aux données Médicales Nous utilisons le logiciel R tout au long de notre étude. Plusieurs librairies rélatives aux séparateurs à vaste marge existent à savoir kernlab(ksvm), klar(svmlight), svmpath(svmpatch), e1071(svm),... Nous nous se contentons d utiliser la librairie e1071 de la bibiotheque de R, réalisée par Chang, Chih- Chung et Lin Chih-Jen Classification Supervisée 7.1 Exemple illustratif : IRIS Avant d utiliser les séparateurs à vaste marge pour traiter les données médicales que nous disposons, nous allons tout d abord traiter cet exemple illustratif qui consiste à prèdire un pic d ozone en fonction des conditions atmosphériques/ météorologiques. Les données sont celles, triviales, des "iris 6 " d Edgar Anderson 7, dits de Fisher afin d illustrer la méthode en explicitant graphiquement l emplacement des vecteurs supports. Notre donnée se constitue de 5 variables et de 150 observations. Trois variétés :"setosa","versicolor" et "virginica" (liaison avec la partie théorique : nous avons trois classes) d iris doivent être discriminées en fonction des 4 mésures (longueur et largeur des sépales et des pétales) réalisées sur les fleurs. Autrement dit, l objectif içi étant de prédire la cinquième variable, c est-à-dire prèdire l espèce (nommée "Species" 8 ) en connaissance des largeurs et longueurs des sépales et pétales des palntes. Rappellons les noms ou les termes utilisés avec leurs significations en français des quatres variables 6. Ces sont des plantes. 7. Edgar Anderson ( 9 novembre juin 1969 ) était un botaniste americain. Il est l auteur du livre "Introgressive Hybridization". Il a contribué énormement à la génétique botanique. 8. Species veut dire éspece en français. 15
17 explicatives que nous utilisons pour prédire la cinquième "Species" : Sepal.Length : Longueur des sépales Sepal.Width : Largeur des sépales Petal.Length : Longueur des pétales Petal.Width : Largeur des pétales Il y a 50 fleurs par variétés. Il est judicieux de faire tout d abord une étude déscriptive de notre donnée. Sepal.Length Sepal.Width Petal.Length Petal.Width Min st Qu Median Mean rd Qu Max Les commandes utilisées pour la classification supervisée 9 (cf. code iris, sous partie intitulée : classification supervisée des iris) nous indiquent que nous avons trois classes et 51 vecteurs supports. On a vu combien ces vecteurs supports jouent un rôle important. Les vecteurs supports synthétisent en quelque sorte les aspects importants de notre jeu d exemple "iris". Si on les connaissait a priori, on pourrait effectuer l apprentissage sans tenir compte des autres exemples. Alors, on peut donc compresser l ensemble des "iris" en ne retenant que les 51 vecteurs supports. Ces derniers jouent un rôle important dans la construction de la séparatrice. Nous expliquons plus tard le choix des paramètres fonction noyau, gamma et cost grâce au taux de l erreur de prèdiction. cost désigne la constante de coût pour le lagrangien. La méthode de validation croisée permet de faire le bon choix de ces paramètres. Le tableau ci-dessous par la commande table.iris dans le code compare les valeurs prédites et les valeurs réelles. Il nous permet aussi d avoir une idée sur le taux d erreur commis. predict.iris setosa versicolor virginica setosa versicolor virginica On remarque que les 50 "setosa" sont bien prèdites. Les prèdictions de "versicolor" et "virginica" sont bonnes ou du moins acceptables malgrè que deux exemples de chacun d eux se trouvent respectivement à "virginica" et "versicolor". Le taux d erreur global que nous notons par "taux.iris" dans le code nous permet de savoir si les paramètres choisis sont efficaces et par consequent si nos prèdictions sont bonnes. taux.iris = 0.97, cela veut dire que les prèdictions faites sont bonnes dans 97% des cas. Non seulement ça, cela veut dire aussi que nous avons bien choisis les paramètres : fonction noyau, gamma et cost. Le choix des paramètres peut être optimisé grâce à la fonction tune.svm. Le resumé descriptif de 9. 16
18 Figure 8 Schema permettant de visualiser les classes par des couleurs différentes et les vecteurs supports répresentés par le "+". cette fonction nous renvoit les meilleurs paramètres à mettre en jeu conduisant bien entendu à un faible taux d erreur de classification. Si nous reprenons le travail fait avec les paramètres que la fonction tune.svm nous suggére, nos prèdictions augmentent de performance, taux.svm sera égal à 98% au lieu de 97%. Une amelioration! Conclusion Nous concluons que nos prèdictions pour la variable "Species" sont parfaites globalement. 17
19 7.2 Données ECOLI Figure 9 Schema illustrant les différentes classes. Nous allons maintenant traiter les données ecoli.data que nous pouvons l obtenir par le lien http : //archive.ics.uci.edu/ml/machine learning databases/ecoli/ecoli.data de l Institut de Biologie Moléculaire et Cellulaire de l Université d Osaka. Les données contiennent 9 variables (nous les avons notées par V1, V2,...,V9) et 336 observations au total. Significations des abréviations suivantes : "cp","im","ims","iml","imu","om","oml","pp" cp : désigne le cytoplasme contenant 143 observations. im : c est la membrane intérieure sans ordre de signal contenant 77 observations. ims : désigne la membrane intérieure scindable contenant 2 observations. iml : membrane intérieure de lipoproteine composée de deux observations. imu : C est la membrane intérieure non scindable de l ordre de séquence contenant 35 observations. om : désigne la membrane externe qui contient 20 observations. oml : désigne la membrane externe de lipoproteine composée de 5 observations. pp : c est le periplasme qui contient 52 observations. Nous constatons que la somme de toutes les observations est bien
20 L objectif est de prèdire la dernière variable (la neuvième), c est-à-dire de prèdire les "cp","im", "ims", "iml", "imu", "om", "oml", "pp" de la 9iéme variable en fonction des autres variables. Comme dans tout traitement quelconque des données, nous allons d abord faire le résumé statistique de toutes les variables que nous étudions. V2 V3 V4 V5 V6 V7 V8 Min st Qu Median Mean rd Qu Max Les variables explicatives sont V 2 V 8 et nous avons au total 8 classes à discriminer. Le nombre des vecteurs support varient selon les paramètres que nous choisissons. Avec le choix que nous avons fait des paramètres, nous obtenons 185 vecteurs supports 10 repartis dans les 8 classes comme suit : Le choix des paramètres que nous avons fait est correct comme on le constate dans le tableau ci-dessous qui permet de comparer les valeurs prèdites et les valeurs réelles. prediction.ecoli cp im iml ims imu om oml pp Le fait que la première colonne du tableau précédent nommée prediction.ecoli est numérotée de 1 à 8 et non nommée nous interpelle et nous autorise à se poser la question : Comment les nouvelles classes sont étiquetées, nommées? Chacune des 8 classes contient évidemment des valeurs issues de la prèdiction. Chaque classe porte le nom des variables dominant qui le composent. Par exemple, la première classe sera la classe de "cytoplasme", la deuxième de "membrane intérieure sans ordre de signal" et avec le même principe, nous reconnaitrons que la dernière est celle de "periplasme". Le taux d erreur global de la prèdiction noté taux.ecoli est égal à 0.91, cela veut dire que 91% de nos prèdictions sont bonnes. Ce qui garantit aussi à la fois le bon choix de nos paramètres f onction noyau, gamma = 0.5 et cost = 1. Intéressons nous maintenant aux différents taux d erreur commis dans les 8 cas. Cas 1 : On remarque que de 143 cytoplasmes dont on disposons au départ, 141 sont bien prèdits contre 2. Les 2 autres etant considérés comme des "intrus" parmi la classe des periplasmes. l erreur commise dans chaque classe s obtient par la formule suivante : taux d erreur par type de classe = 10. les vecteurs supports sont aussi appelés des exemples critiques. nombre des intrus nombre total des observations de ce cas 19
21 2 Dans ce premièr cas, l erreur de prèdiction commise vaut 143. Cas 2 : La deuxième classe contient les observations de "la membrane intérieure sans ordre de séquence". le taux d erreur d erreur commise est de Cas 3 : Nos prèdictions de "membrane intérieure de lipoproteine" sont bonnes dans 50% des cas. L erreur commise est égal à 1 2 soit 50% des cas. Cas 4 : Les "ims" ne sont pas bien prèdictes. Cas 5 : Les deux observations rélatives aux imu ne sont pas bien prèdites. Le taux d erreur commis est de 100%. Cas 6 : Seulement deux "om" ne sont pas bien prèdites,ils se sont retrouvés parmi les "pp". Les 18 autres sont bien prèdites. Le taux d erreur commise est de Cas 7 : Les "oml" sont bien prèdites. Cas 8 : Nos prèdictions pour les "pp" sont acceptables malgré qu un taux d erreur de l ordre de 5 52 est commise. On conclut que les prèdictions faites sont bonnes dans 91% des cas. Traiter une autre donnée semble être nécessaire pour mieux comprendre, maitrîser la classification supervisée par la méthode des supports vectors machines. 7.3 Données HEART Les données Heart 11 que nous traitons dans cette partie de notre travail sont accessibles à l adresse : http : //archive.ics.uci.edu/ml/machine learning databases/statlog/heart/heart.dat et ne contiennent pas des données manquantes. Elles sont recoltées auprès des patients souffrant des maladie cardiaque. Elles comportent 270 observations et 14 variables dont 13 sont explicatives. L objectif étant de prèdire la 9ième variable. Nous avons en tout 14 variables Description brève de toutes les variables Variables réels : 1, 4, 5, 8, 10 et 12. Variables binaires : 2, 6 et 9. Variables de type : "nominal" : 7, 3, 13. V1 : l âge. V2 : le sexe. C est une variable binaire, c est-à-dire ne contenant que deux issues 1 ou 0. V3 : types des douleurs thoraciques. Il y a 4 types numerotés de 1 à 4. On constate alors que les données de cette colonne ne comprend des valeurs allant de 1 à 4. V4 : la pression arterielle au repos. V5 : serum de cholesterol en mg/dl. 12 V6 : le taux de glycémie à jeun supérieur à 120 mg/dl. V7 : les resultats d éléctrocardiologiques au repos. V8 : la fréquence cardiaque maximale. V9 : l exercie induisant à l angine. 11. le terme "Heart" veut dire "coeur" en français. 12. mg/dl : milligramme par decilitre 20
22 V10 : Oldpeak=ST depression induced by exercice relative to rest. V11 : la pente du segment ST pic d exercice. V12 : nombre de gros vaisseaux répresenté par 4 types 0, 1, 2 ou 3. V13 : Dans cette variable, 3 veut dire normal, 6 : normal et 7 : defaut reversible. Remarque : L absence d une maladie cardiaque est notée par 1 et sa présence par 2. Le fait que la variable 9 qu on veut prèdire est binaire nous donne d avance une idée sur le nombre des classes. La reponse est simple, on en aura deux. V1 V2 v3 V4 V5 V6 V7 V8 V9 V10 V11 V12 V13 V14 Min st Qu Median Mean rd Qu Max Ces données sont sympathiques comparées aux autres que nous avons étudiés dans ce TER puis qu elles sont bien prèdites tout simplement. Le choix judicieux que nous avons effectué pour les paramètres (kernel : "radial", gamma= 0.5, cost= 3) nous ont fournis 260 vecteurs supports repartis en 2 classes. La première classe contient 173 observations tandis que la deuxième en comprend 2. Nous récapitulons dans un tableau comme ce fut le cas précédemment les valeurs prèdites et les valeurs réelles. prediction.heart Toute prèdiction n est pas épargnée d erreur on le sait bien mais celle-ci est parfaite en lisant le tableau ci-dessus. Autrement dit, le séparateur a classé les vecteurs supports comme il le faut. On conclut que les résultats fournis par les médécins sont bien fiables. Rappelons que l absence d angine est matéarilisé par "0" et sa présence par "1". De ce fait, on ajoute aussi qu aucun patient sain n est déclaré malade et inversement. 21
23 8 Conclusion Générale Dans ce TER, nous avons tenté d introduire sinon de présenter les notions fondamentales d une des importantes méthodes de la classification supervisée : Les Séparateurs à Vaste Marge (SVM) qui fut introduit par Vladimir Vapnik dans les années 95. Nous avons introduit les concepts mathématiques forts utiles permettant de connaître au mieux cette méthode. Dans la partie théorique de notre travail, nous avons traité premièrement le cas linéairement séparable qui a pour but de chercher un hyperplan qui permet de séparer au mieux les données, un cas naturel! Nous avons ensuite étudier le cas linéairement non séparable avant d entamer le cas non linéaire. Dans ce cas, grâce au kerneltrick, nous changeons notre espace afin qu on puisse classer les données. Rappelons nous que presque tout le problème de classification rencontrée dans la vie courante sont de type non linéaire et de multiclasse. Les SVM étaient tout d abord utilisées pour discriminer deux classes, elles ont été généralisées désormais au cas multiclasse. Les SVM ont montré leurs éfficacités dans presque tous les domaines ou ils sont utilisés. On s est servi des SVM pour classer les données médicales "Heart" et "Ecoli". Nous concluons la performance de cette méthode. Nous obtenons des bonnes prèdictions. Toute oeuvre a sa nature et ses méfaits, les séparateurs à vaste marge présentent des inconvénients sinon ont montrés leurs limites. Par exemple, le bon choix des paramètres n est pas une mince à faire. Je ne saurais terminer mes propos pour réitérer ma gratitude à mon encadrante Madame CIUPERCA GABRIELA pour tout son soutien afin que ce travail ait le jour. 22
24 9 Bibliographie 1 Gilles Gasso, Introduction à l apprentissage Statistique. INSA de ROUEN ; 2 Thèse de Anis Ben ISHAK intitulé Selection de Variables par les machines à Vecteurs Supports pour la discrimination binaire et multiclasse en grande dimension ; 3 Arnaud Revel, Séparateur à Vaste Marge ; 4 Olivier Bousquet, Introduction aux "Support Vector Machine". Centre de Mathématiques Appliquées. Ecole Polytechnique, Palaiseau. Orsay, 15 Novembre 2001 ; 5 Marie Szafranski, Utilisation des SVM dans les applications en biologie ; 6 WikiStat, Machines à Vecteurs Supports ; 7 Alain Rakotomamonjy, Séparateurs à Vaste Marge Linéaire. INSA de Rouen. 8 A. Cornuéjols et L.Michet. Eyrolles Apprentissage Artificielle : Méthodes et Algorithme ; 9 Philippe Preux, Machines à noyau : Une très courte introduction intuitive ou les SVM décryptées ou les SVMs pour les nuls ; 10 Hélène Milhem, Support Vecteurs Machine, Institut de Mathématiques de Toulouse ; 11 Alexis Lechervy : Fouille de données et apprentissage, Cours 5 : Les supports Vecteurs Machine (SVM) linéaire ; 12 WikiStat : TP ozone : SVM ou Machine à Vecteurs Supports. 23
25 10 Annexe #################################################### #########INTRODUCTION AUX SUPPORTS VECTORS MACHINE: ######### #########APPLICATION AUX DONNEES MEDICALES ################## ############################################################# ####################### #####IRIS############## ####################### #DONNEES IRIRS library(e1071) data(iris) class(iris) # c est un "data.frame" length(iris) # de longueur 5 # On a 150 observations. #resumé statistique summary(iris) #le modéle est calculé avec les valeurs par défaut des paramètres #noyau (gaussien, pénalisation à 1, gamma=0.25) #Classification supervisée des "iris" modele.iris= svm(species~.,data=iris, method="c-classification", kernel="radial", cost=1, gamma=0.25) #le. indique toutes les variables autre que #Species doivent être utilisées. print(modele.iris) class(modele.iris) summary(modele.iris) #On a 51 veectors supports. #"svm.formula" "svm" #regroupe toutes les informations. #Le nombre des vecteurs supports changent si on #change les parametres: gamma et cost. #plus on diminue les valeurs de "cost" et de "gamma", #plus le nombre des vecteurs supports évoluent, pourquoi?. modele.iris$sv #Matrice des vecteurs supports modele.iris$nsv #Nombre des vecteurs supports # #prevision de l échantillon d apprentissage d iris: #la prédiction sur le dataframe ou la matrice donnée. #ça renvoit un vecteur de prédictions #Prédiction de Species. predict.iris = predict(modele.iris, iris[,1:4]) print(predict.iris) class(predict.iris) #factor #comparer les valeurs predites et les valeurs réelles: Par deux manières table.iris = table(predict.iris,iris$species) print(table.iris) #Commentaire de ce tableau dans le rapport. 24
26 taux.iris = sum(diag(table.iris))/sum(table.iris) #taux=0.97, soit, 97% de nos predictions sont bonnes. print(taux.iris) #Visualisation des classes (couleurs) et des vecteurs supports ("+") plot(cmdscale(dist(iris[,-5])), col = as.integer(iris[,5]), pch = c("o","+")[1:150 %in% model$index +1], main="schema Illustratif avec les 3 classes des couleurs différentes") #Optimisation: connaitre la combinaison des paramètres #optimum pour construire le modèle #la fonction de "tuning" ou de calibration du modèle #La fonction tune.svm nous retourne les meilleurs paramètres pour #construire le modèle dans #le sens où ils minimisent l erreur induite par le modèle #(ou autrement dit, maximisent la performance du modèle). #Dans notre cas, il s agit de l erreur de discrimination #car la variable à expliquer est qualitative. obj = tune.svm(species~., data = iris, gamma = 2^(-7:0),cost = 2^c(-2:0)) summary(obj) ##################### #######ECOLI######### ##################### #DONNEES ECOLI donnees.ecoli = read.table("ecoli.txt", col.names=c("v1","v2","v3","v4","v5","v6","v7","v8","v9")) print(donnees.ecoli) class(donnees.ecoli) # c est un "dataframe" names(donnees.ecoli) # les noms de toutes les colonnes length(donnees.ecoli) # de longueur 9. #RESUME STATISTIQUE ECOLI summary(donnees.ecoli) #L Objectif étant de prevoir la dernière variable, la 9ième en fonction #des autres variables. #EXTRACTION DES DONNEES: ECOLI. a=c(donnees.ecoli$v1) b=c(donnees.ecoli$v2) c=c(donnees.ecoli$v3) d=c(donnees.ecoli$v4) e=c(donnees.ecoli$v5) f=c(donnees.ecoli$v6) g=c(donnees.ecoli$v7) h=c(donnees.ecoli$v8) i=c(donnees.ecoli$v9) #renvoie la premiere colonne. #c(): vecteur 25
27 #CLASSIFICATION SUPERVISEE D ECOLI: modele.ecoli = svm(i~.,donnees.ecoli, type="c-classification", kernel="radial",gamma = 0.5, cost=1) #toutes les variables autre que "i" print(modele.ecoli) summary(modele.ecoli) #on a 8 classes et 164 vecteurs supports. class(modele.ecoli) #PREDICTION DE LA 9ieme VARIABLE. prediction.ecoli = predict(modele.ecoli, donnees.ecoli[,-9]) print(prediction.ecoli) modele.ecoli$sv modele.ecoli$nsv #matrice des vecteurs de support. #nombre de vecteurs de support. #MATRICE DE CONFUSION POUR L ECHANTILLON D APPRENTISSAGE table.ecoli = table(prediction.ecoli,donnees.ecoli$v9) print(table.ecoli) #TAUX D ERREUR COMMIS taux.ecoli = sum(diag(table.ecoli))/sum(table.ecoli) #taux=0.90, soit, 90% de nos predictions sont bonnes. print(taux.ecoli) #fin! ##################### ########HEART######## ##################### #DONNEES STATISTIQUE HEART donnees.heart = read.table("heart.txt") attach(donnees.heart) print(donnees.heart) class(donnees.heart) #C est un "data.frame" length(donnees.heart) #14 #RESUME STATISTIQUE HEART summary(donnees.heart) #EXTRACTION DES DONNEES HEART aa=c(donnees.heart$v1) bb=c(donnees.heart$v2) cc=c(donnees.heart$v3) dd=c(donnees.heart$v4) ee=c(donnees.heart$v5) ff=c(donnees.heart$v6) gg=c(donnees.heart$v7) hh=c(donnees.heart$v8) ii=c(donnees.heart$v9) jj=c(donnees.heart$v10) 26
28 kk=c(donnees.heart$v11) ll=c(donnees.heart$v12) mm=c(donnees.heart$v13) nn=c(donnees.heart$v14) #L objectif etant le même, prevoir la 9ieme variable en fonction des autres. #CLASSIFICATION SUPERVISEE de HEART #On prend un noyau radial. modele.heart = svm(ii~.,data=donnees.heart, type="c-classification",kernel="radial", gamma=0.05,cost=3) #toutes les variables autre que "i" print(modele.heart) summary(modele.heart) #On a 2 classes et 260 vectors supports. class(modele.heart) #"svm.formula" "svm" #PREDICTION HEART prediction.heart = predict(modele.heart, donnees.heart[,-9]) print(prediction.heart) #matrice des vecteurs de support. modele.heart$sv #nombre de vecteurs de support partagé en 2 classes: 154 et 85 modele.heart$nsv #MATRICE DE CONFUSION POUR L ECHANTILLON D APPRENTISSAGE table.heart = table(prediction.heart,ii) print(table.heart) #TAUX D ERREUR GLOBAL taux.heart = sum(diag(table.heart))/sum(table.heart) print(taux.heart) #les prèdictions sont bonnes à 100%. #fin! 27
Introduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailFonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailCoup de Projecteur sur les Réseaux de Neurones
Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailProgrammation linéaire
Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire
Plus en détailUne comparaison de méthodes de discrimination des masses de véhicules automobiles
p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans
Plus en détailExercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?
Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version
Plus en détailExercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?
Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détailExercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA
75. Un plombier connaît la disposition de trois tuyaux sous des dalles ( voir figure ci dessous ) et il lui suffit de découvrir une partie de chacun d eux pour pouvoir y poser les robinets. Il cherche
Plus en détailCHOIX OPTIMAL DU CONSOMMATEUR. A - Propriétés et détermination du choix optimal
III CHOIX OPTIMAL DU CONSOMMATEUR A - Propriétés et détermination du choix optimal La demande du consommateur sur la droite de budget Résolution graphique Règle (d or) pour déterminer la demande quand
Plus en détailCours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Plus en détailLes indices à surplus constant
Les indices à surplus constant Une tentative de généralisation des indices à utilité constante On cherche ici en s inspirant des indices à utilité constante à définir un indice de prix de référence adapté
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailEteindre. les. lumières MATH EN JEAN 2013-2014. Mme BACHOC. Elèves de seconde, première et terminale scientifiques :
MTH EN JEN 2013-2014 Elèves de seconde, première et terminale scientifiques : Lycée Michel Montaigne : HERITEL ôme T S POLLOZE Hélène 1 S SOK Sophie 1 S Eteindre Lycée Sud Médoc : ROSIO Gauthier 2 nd PELGE
Plus en détailFonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Plus en détailSujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.
Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de
Plus en détailExercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Plus en détailINF6304 Interfaces Intelligentes
INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie
Plus en détailTransmission d informations sur le réseau électrique
Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en
Plus en détailPrécision d un résultat et calculs d incertitudes
Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................
Plus en détailTravaux pratiques avec RapidMiner
Travaux pratiques avec RapidMiner Master Informatique de Paris 6 Spécialité IAD Parcours EDOW Module Algorithmes pour la Fouille de Données Janvier 2012 Prise en main Généralités RapidMiner est un logiciel
Plus en détailLa demande Du consommateur. Contrainte budgétaire Préférences Choix optimal
La demande Du consommateur Contrainte budgétaire Préférences Choix optimal Plan du cours Préambule : Rationalité du consommateur I II III IV V La contrainte budgétaire Les préférences Le choix optimal
Plus en détailOptimisation, traitement d image et éclipse de Soleil
Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement
Plus en détailProjet SINF2275 «Data mining and decision making» Projet classification et credit scoring
Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Année académique 2006-2007 Professeurs : Marco Saerens Adresse : Université catholique de Louvain Information Systems
Plus en détailCorrection de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détailExercices Corrigés Premières notions sur les espaces vectoriels
Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3
Plus en détailObjectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique
Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détailProgrammation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
Plus en détailCalcul différentiel. Chapitre 1. 1.1 Différentiabilité
Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace
Plus en détailApprentissage par renforcement (1a/3)
Apprentissage par renforcement (1a/3) Bruno Bouzy 23 septembre 2014 Ce document est le chapitre «Apprentissage par renforcement» du cours d apprentissage automatique donné aux étudiants de Master MI, parcours
Plus en détailDOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10.
A1 Trouvez l entier positif n qui satisfait l équation suivante: Solution 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. En additionnant les termes du côté gauche de l équation en les mettant sur le même dénominateur
Plus en détailEXERCICES - ANALYSE GÉNÉRALE
EXERCICES - ANALYSE GÉNÉRALE OLIVIER COLLIER Exercice 1 (2012) Une entreprise veut faire un prêt de S euros auprès d une banque au taux annuel composé r. Le remboursement sera effectué en n années par
Plus en détailVision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007
Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................
Plus en détailArithmétique binaire. Chapitre. 5.1 Notions. 5.1.1 Bit. 5.1.2 Mot
Chapitre 5 Arithmétique binaire L es codes sont manipulés au quotidien sans qu on s en rende compte, et leur compréhension est quasi instinctive. Le seul fait de lire fait appel au codage alphabétique,
Plus en détailIntroduction au datamining
Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des
Plus en détailLa fonction exponentielle
DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction
Plus en détailLe produit semi-direct
Le produit semi-direct Préparation à l agrégation de mathématiques Université de Nice - Sophia Antipolis Antoine Ducros Octobre 2007 Ce texte est consacré, comme son titre l indique, au produit semi-direct.
Plus en détailArbres binaires de décision
1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression
Plus en détailChapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Plus en détailCalcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Plus en détailDéroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI
1 Déroulement d un projet en DATA MINING, préparation et analyse des données Walid AYADI 2 Les étapes d un projet Choix du sujet - Définition des objectifs Inventaire des données existantes Collecte, nettoyage
Plus en détailExercice : la frontière des portefeuilles optimaux sans actif certain
Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Plus en détailOrganisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining.
2 jours : Mardi 15 et mercredi 16 novembre 2005 de 9 heures 30 à 17 heures 30 Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining. Madame, Monsieur, On parle
Plus en détailCalculer avec Sage. Revision : 417 du 1 er juillet 2010
Calculer avec Sage Alexandre Casamayou Guillaume Connan Thierry Dumont Laurent Fousse François Maltey Matthias Meulien Marc Mezzarobba Clément Pernet Nicolas Thiéry Paul Zimmermann Revision : 417 du 1
Plus en détailComplément d information concernant la fiche de concordance
Sommaire SAMEDI 0 DÉCEMBRE 20 Vous trouverez dans ce dossier les documents correspondants à ce que nous allons travailler aujourd hui : La fiche de concordance pour le DAEU ; Page 2 Un rappel de cours
Plus en détailContinuité d une fonction de plusieurs variables
Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs
Plus en détail$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU
$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU Fabien FIGUERES fabien.figueres@mpsa.com 0RWVFOpV : Krigeage, plans d expériences space-filling, points de validations, calibration moteur. 5pVXPp Dans le
Plus en détailNombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN
Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN Table des matières. Introduction....3 Mesures et incertitudes en sciences physiques
Plus en détailChapitre 2/ La fonction de consommation et la fonction d épargne
hapitre 2/ La fonction de consommation et la fonction d épargne I : La fonction de consommation keynésienne II : Validations et limites de la fonction de consommation keynésienne III : Le choix de consommation
Plus en détailLe scoring est-il la nouvelle révolution du microcrédit?
Retour au sommaire Le scoring est-il la nouvelle révolution du microcrédit? BIM n 32-01 octobre 2002 Frédéric DE SOUSA-SANTOS Le BIM de cette semaine se propose de vous présenter un ouvrage de Mark Schreiner
Plus en détailOptimisation des fonctions de plusieurs variables
Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailExamen optimisation Centrale Marseille (2008) et SupGalilee (2008)
Examen optimisation Centrale Marseille (28) et SupGalilee (28) Olivier Latte, Jean-Michel Innocent, Isabelle Terrasse, Emmanuel Audusse, Francois Cuvelier duree 4 h Tout resultat enonce dans le texte peut
Plus en détailCorefris RAPPORT ANNUEL 2011. Annexe 3 : La hausse des prix de l immobilier est-elle associée à une «bulle» de crédit en France?
Annexe 3 : La hausse des prix de l immobilier est-elle associée à une «bulle» de crédit en France? (DGTrésor) 1. Indépendamment de facteurs d offre et de demande, qui jouent indéniablement sur les prix,
Plus en détailPrincipe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université
Plus en détailL utilisation d un réseau de neurones pour optimiser la gestion d un firewall
L utilisation d un réseau de neurones pour optimiser la gestion d un firewall Réza Assadi et Karim Khattar École Polytechnique de Montréal Le 1 mai 2002 Résumé Les réseaux de neurones sont utilisés dans
Plus en détailLES MÉTHODES DE POINT INTÉRIEUR 1
Chapitre XIII LES MÉTHODES DE POINT INTÉRIEUR 1 XIII.1 Introduction Nous débutons par un rappel de la formulation standard d un problème d optimisation 2 linéaire et donnons un bref aperçu des différences
Plus en détailChapitre 7. Récurrences
Chapitre 7 Récurrences 333 Plan 1. Introduction 2. Applications 3. Classification des récurrences 4. Résolution de récurrences 5. Résumé et comparaisons Lectures conseillées : I MCS, chapitre 20. I Rosen,
Plus en détailChapitre 0 Introduction à la cinématique
Chapitre 0 Introduction à la cinématique Plan Vitesse, accélération Coordonnées polaires Exercices corrigés Vitesse, Accélération La cinématique est l étude du mouvement Elle suppose donc l existence à
Plus en détailIntroduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
Plus en détailRaisonnement par récurrence Suites numériques
Chapitre 1 Raisonnement par récurrence Suites numériques Terminale S Ce que dit le programme : CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES Raisonnement par récurrence. Limite finie ou infinie d une suite.
Plus en détailDualité dans les espaces de Lebesgue et mesures de Radon finies
Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailLe modèle de Black et Scholes
Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un
Plus en détailReprésentation des Nombres
Chapitre 5 Représentation des Nombres 5. Representation des entiers 5.. Principe des représentations en base b Base L entier écrit 344 correspond a 3 mille + 4 cent + dix + 4. Plus généralement a n a n...
Plus en détailContexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,
Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très
Plus en détailCAPTEURS - CHAINES DE MESURES
CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,
Plus en détail4.2 Unités d enseignement du M1
88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détailThéorie et codage de l information
Théorie et codage de l information Les codes linéaires - Chapitre 6 - Principe Définition d un code linéaire Soient p un nombre premier et s est un entier positif. Il existe un unique corps de taille q
Plus en détailRappels sur les suites - Algorithme
DERNIÈRE IMPRESSION LE 14 septembre 2015 à 12:36 Rappels sur les suites - Algorithme Table des matières 1 Suite : généralités 2 1.1 Déition................................. 2 1.2 Exemples de suites............................
Plus en détailItem 169 : Évaluation thérapeutique et niveau de preuve
Item 169 : Évaluation thérapeutique et niveau de preuve COFER, Collège Français des Enseignants en Rhumatologie Date de création du document 2010-2011 Table des matières ENC :...3 SPECIFIQUE :...3 I Différentes
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailEtude d un cas industriel : Optimisation de la modélisation de paramètre de production
Revue des Sciences et de la Technologie RST- Volume 4 N 1 /janvier 2013 Etude d un cas industriel : Optimisation de la modélisation de paramètre de production A.F. Bernate Lara 1, F. Entzmann 2, F. Yalaoui
Plus en détailEtude des propriétés empiriques du lasso par simulations
Etude des propriétés empiriques du lasso par simulations L objectif de ce TP est d étudier les propriétés empiriques du LASSO et de ses variantes à partir de données simulées. Un deuxième objectif est
Plus en détailCours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques
Université de Provence Topologie 2 Cours3. Applications continues et homéomorphismes 1 Rappel sur les images réciproques Soit une application f d un ensemble X vers un ensemble Y et soit une partie P de
Plus en détailÉquations non linéaires
Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et
Plus en détailChapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme
Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet
Plus en détailAnalyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
Plus en détailOptimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h
Télécom Physique Strasbourg Master IRIV Optimisation et programmation mathématique Professeur Michel de Mathelin Cours intégré : 20 h Programme du cours d optimisation Introduction Chapitre I: Rappels
Plus en détailUtilisation des méthodes Support Vector Machine (SVM) dans l analyse des bases de données
Ministère de l Enseignement Supérieur et de la Recherche Scientifique Université Mohamed Khider - Biskra Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie Département d Informatique
Plus en détailBiostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke
www.fundp.ac.be/biostats Module 140 140 ANOVA A UN CRITERE DE CLASSIFICATION FIXE...2 140.1 UTILITE...2 140.2 COMPARAISON DE VARIANCES...2 140.2.1 Calcul de la variance...2 140.2.2 Distributions de référence...3
Plus en détailEnjeux mathématiques et Statistiques du Big Data
Enjeux mathématiques et Statistiques du Big Data Mathilde Mougeot LPMA/Université Paris Diderot, mathilde.mougeot@univ-paris-diderot.fr Mathématique en Mouvements, Paris, IHP, 6 Juin 2015 M. Mougeot (Paris
Plus en détailRésolution de systèmes linéaires par des méthodes directes
Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.
Plus en détail