INTRODUCTION AUX SVM (SUPPORT VECTOR MACHINES). APPLICATIONS AUX DONNEES MEDICALES

Dimension: px
Commencer à balayer dès la page:

Download "INTRODUCTION AUX SVM (SUPPORT VECTOR MACHINES). APPLICATIONS AUX DONNEES MEDICALES"

Transcription

1 Université Claude Bernard Lyon 1 Institut Camille Jordan Master Ingénierie Mathématiques INTRODUCTION AUX SVM (SUPPORT VECTOR MACHINES). APPLICATIONS AUX DONNEES MEDICALES Fait par: MAHAMAT ATTEIB Adoum Mahamat Soutenu le 10/06/2014 à 10h Responsable du master : Clopeau Thierry Encadré par: Ciuperca Gabriela Année Académique :

2 Remerciements Il est toujours délicat de remercier l ensemble des personnes qui ont contribué à l aboutissement de ce travail. J exprime tout d abord mes vifs remerciements à mon encadrante Madame CIUPERCA GA- BRIELA d être toujours à mon écoute, son entière disponibilité, son inspiration et aussi aux échanges fructueux que nous avons eu tout au long de notre travail ensemble. Je profite de l occasion pour exprimer mes gratitudes et mes sincères remerciements à l ensemble des professeurs qui m ont enseigné en master 1 d Ingénierie Mathématiques durant cette annéé. Que soient remerciés mes parents, mes frères, mes soeurs ainsi que mes ami(es) plus particulièrement- Maidé Hamit Lony et Mahamat Choua. Que tout ce qui m ont aidé de près ou de loin dans l élaboration de ce TER trouvent ici l expression de ma sincère gratitude. Merci enfin au lecteur qui par essence justifie la rédaction de ce travail. 1

3 Dédicace A mes parents A mes frères Imrane, Roudouane et Loukhmane A toutes mes soeurs A tout ceux qui m ont chers. 2

4 Table des matières 1 Introduction 4 2 SVM linéaire Cas Séparable Formalisation du problème Approche générale Hyperplan Définition de base Formulation Primale Formulation duale Cas non séparable Formulation Primale Formulation Duale SVM non linéaire Fonction Noyau Exemple de fonctions Noyaux Opérations sur les Noyaux SVM Multi-classes One Versus All One Versus One Comparaison Avantages et Inconvénients des SVM Avantages Inconvénients Domaine d application des SVM 15 7 Application aux données Médicales Classification Supervisée Exemple illustratif : IRIS Conclusion Données ECOLI Données HEART Description brève de toutes les variables Conclusion Générale 22 9 Bibliographie Annexe 24 3

5 1 Introduction Les Support Vector Machines 1 (SVM) sont une classe d algorithmes d apprentissage initialement définis pour la discrimination c est-à-dire la prévision d une variable qualitative binaire. Ils ont été ensuite généralisés à la prévision d une variable quantitative. Dans le cas de la discrimination d une variable dichotomique, ils sont basés sur la recherche de l hyperplan de marge optimale qui, lorsque c est possible, classe ou sépare correctement les données tout en étant le plus éloigné possible de toutes les observations. Le principe est donc de trouver un classifieur, ou une fonction de discrimination, dont la capacité de généralisation (qualité de prévision) est la plus grande possible. Cette approche découle directement des travaux de Vapnik en théorie de l apprentissage à partir de Elle s est focalisée sur les propriétés de généralisation (ou prévision) d un modèle en contrôlant sa complexité. Le principe fondateur des SVM est justement d intégrer à l estimation le contrôle de la complexité c est-à-dire le nombre de paramètres qui est associé dans ce cas au nombre de vecteurs supports. Ces fameuses machines ont été inventées en 1992 par Boser et al. mais leur dénomination par SVM n est apparue qu en 1995 avec Cortes et al. Dépuis lors, des nombreux développements ont été réalisés pour proposer des variantes traitant le cas non-linéaire, pour adapter cette méthode d apprentissage à la régression ou pour introduire d autres formulations des SVM ayant des liens avec les méthodes de régularisation. Aujourd hui, nous pouvons dire sans exagérer que ces machines ont supplanté les réseaux de neurones 2 et les autres techniques d apprentissage. En effet, elles sont largement répandues en apprentissage statistique et ont eu beaucoup de succès dans quasiment tous les domaines où elles ont été appliquées tels que le traitement d image, la catégorisation de texte, le diagnostique médical... Dans notre étude, on s interesse qu aux applications des SVM dans le domaine médical. 2 SVM linéaire 2.1 Cas Séparable Formalisation du problème Le problème de classification rentre dans le cadre de l apprentissage statistique supervisée. Le but est de prévoir la classe y d un vecteur p dimensionnel x en se basant sur les mesures des variables qui l expliquent avec pour seule information celle contenue dans l échantillon d apprentissage S. Dans le cas de la discrimination biclasse, nous supposons que les données sont des couples (x i, y i ) X Y, ou X désigne l espace des variables explicatives souvent pris dans R p, y = { 1, 1} et n est la taille de l échantillon. L appartenance d une observation x i à une classe ou à une autre est matérialisée ici par la valeur -1 ou 1 de son étiquette y i. L échantillon d apprentissage S est ainsi une collection de réalisations indépendantes, identiquement distribuées du couple aléatoire (x, y) dont la distribution P est fixe mais inconnue. Cet ensemble est souvent dénoté par : S = {(x 1, y 1 ), (x 2, y 2 ),..., (x l, y l )} (X Y ) n Approche générale La classification binaire est accomplie au moyen d une fonction à valeurs réelles, f : X R p R. Toute observation x i est affectée à la classe qui correspond au signe de f(x i ) : si f(x i ) > 0, x i est affecté à la classe positive (+1) et sinon elle sera dans la classe négative (-1). En classification linéaire, la fonction f est linéaire en x i et elle prend la forme générale suivante : f(x i ) =< w, x i > +b 1. traduit en français par les expressions "Séparateur à Vaste Marge" ou encore tout simplement par "les machines à vecteurs supports" 2. Ils sont tous deux des méthodes d apprentissage statistique. La différence est que les reseaux des neurones cherchent un optimum local alors que les SVM cherchent un optimum global 4

6 ou (w, b) R p R sont les paramètres à estimer de la fonction de décision f et <.,.> désigne le produit scalaire usuel dans R p. La règle de décision est donc donnée par sign(f(x i )). Par convention, sign(f(0)) = 1. La fonction sign(f(.)) est appelée "classifieur". La méthodologie d apprentissage implique que ces paramètres doivent être estimés à partir des données d apprentissage. L hyperplan est défini par l équation < w, x > +b = 0 ou w est un vecteur orthogonal au plan qu on appelle "vecteur de poids", tandisque la variation du paramètre b appelé biais engendre une simple translation de l hyperplan séparateur. Les termes "vecteurs de poids" pour le vecteur w et "biais" pour le paramètre b sont empruntés de la littérature des reseaux des neurones. Figure 1 Cas séparable ou d désigne la marge qu on cherche à maximiser Hyperplan Définition de base Soit E un espace vectoriel de dimension quelconque (eventuellement infinie). On appelle hyperplan tout sous espace vectoriel de E quelconque d une droite vectorielle. Caractérisation d un Hyperplan : H hyperplan de E si et seulement si, il existe ϕ L(E, K)\{0}, H = Kerϕ. Autrement dit : H est un hyperplan si et seulement si il est le noyau d une fonction linéaire non nulle. Parmi les infinités des hyperplans qui séparent les données, un seul est optimal. Vulgairement, on peut dire que c est celui qui se trouve entre les deux données et en même temps éloigné de ces dernières. L hyperplan optimal est défini par : arg max arg max arg max min w,b i min w,b i min w,b i {distance du point x i à l hyperplan(w, x)} = arg max min w,b i < w, x i > +b w {distance du point x i à l hyperplan(w, b)} (2) { x x i : x R d, < w, x i > +b = 0, i = 1,..., n} (3) (1) 5

7 Figure 2 Cas séparable ou <w,x>+b=0 désigne l hyperplan La marge normalisée appelée aussi marge géometrique vaut : 2 w. La distance d un point x quelconque à l hyperplan est : d(x) = wx+b La distance de l hyperplan à l origine est : b w. w Formulation Primale Dans ce cas, les exemples sont linéairement séparables puisqu il existe une infinité des hyperplans (cf. figure 2) qui permettent de les discriminer correctement. C est le plus simple des modèles des séparateurs à vaste marge. Dans le cas contraire, on parle d exemples linéaire non séparables (l objet de la partie suivante). Il faut rappeler que notre objectif est de trouver un seul hyperplan séparateur (optimal) parmi les tant d autres qui sépare au mieux les deux classes d exemples, c est-à-dire qui maximise la distance euclidienne entre ces derniers. Cette distance s appelle "marge". Ce pourquoi, on parle de "séparateurs à vaste marges" puisqu on cherche à maximiser cette marge. Le fait d avoir une marge plus large procure plus de sécurité lorsqu on veut classer un nouvel exemple. Figure 3 Cas séparable Remarque : Minimiser cette marge, son carré, ou la moitié de son carré fournit la même solution. 6

8 Étant donné que le couple (w, b) est défini à un coefficient multiplicatif près, on impose y(wx i + b) 1. On doit donc résoudre le problème d optimisation sous contraintes s écrivant sous forme primal comme suit : 1 min w,b 2 w 2 y i (wx i + b) 1, i C est un problème d optimisation quadratique convexe sous contraintes linéaire (on a une seule contrainte) où la fonction objectif est le carré de l inverse de la double marge. Il existe plusieurs méthodes pour résoudre un problème d optimisation non linéaire telles que la méthode de Lagrange, la méthode de point intérieur, la méthode de gradient...en effet, un probleme convexe a un et un seul optimum et la fonction est derivable ; donc on peut suivre le gradient puisqu il existe et est continu, et celui-ci nous mene forcement à l optimum. Le point delicat est que dans certaines zones, le gradient peut etre tres faible : on peut alors perdre la direction de la plus forte pente, mais surtout perdre beaucoup de temps à effectuer de très petits pas (même si c est dans la bonne direction). Nous allons se contenter d utiliser la Méthode de Lagrange tout au long de notre travail Formulation duale D après la théorie de l optimisation, un problème d optimisation possède une forme duale dans le cas où la fonction objectif et les contraintes sont strictement convexes. Dans ce cas, la résolution de l expression duale du problème est équivalente à la solution du problème original. Pour résoudre ces types de problèmes, on utilise une fonction que l on appelle "lagrangien" qui incorpore des informations sur la fonction objectif et sur les contraintes et dont le caractère stationnaire peut être utilisé pour détecter des solutions. Plus précisément, le lagrangien est défini comme étant la somme de la fonction objectif et d une combinaison linéaire des contraintes dont les coefficients α i > 0 sont appelés multiplicateurs de Lagrange ou encore variables duales. Le lagrangien est défini par : L(w, b, α) = 1 2 w 2 [α i (y i (wx i + b) 1] Un théorème de Kuhn-Tucker, couronnant des travaux commencés par Fermat ( ), puis poursuivis par Lagrange ( ), démontre que le problème primal et sa formulation duale ont la même solution. Celle-ci correspond à un point-selle du lagrangien (il faut le minimiser par rapport aux variables primaires w et b et le maximiser par rapport aux variables duales. Au point-selle, la dérivée du lagrangien par rapport aux variables primaires doit s annuler : L(w, b, α) w L(w, b, α) b L(w, b, α) w L(w, b, α) b = 0 (4) = 0 (5) = = α i y i x i = 0 (6) α i y i = 0 (7) 7

9 En substituant les dans le lagrangien, on élimine les variable w et b et l on obtient le lagrangien dual : α i 1 2 α i α j y i y j < x i, y j > j=1 < x i, y j > désigne le produit scalaire entre x i et x j. La formulation duale recherchée est donc : max α i 1 α i α j y i y j < x i, y j > α 2 i, α i 0 n α iy i = 0 i,j=1 Il s agit d un problème de programmation quadratique convexe de dimension n (nombre d exemple). Ce problème peut être résolu en utilisant des méthodes standards de programmation quadratique. Une fois la solution optimale du problème obtenu α = (α 1, α 2,..., α n), le vecteur de poids de l hyperplan à marge maximale recherchée s écrit : w = αi y i x i Comme le paramètre b ne figure dans le problème dual, sa valeur optimale b peut être dérivée à partir des contraintes primales, soit : max (< b y i =1 w, x i >) + min (< y w, x i >) = 2 Une fois les paramètres α et b calculés, la règle de classification d une nouvelle observation x basée sur l hyperplan à marge maximale est donnée par : (. 2.2 Cas non séparable Formulation Primale sign y i α i < x i, x > +b ) Dans le cas ou les exemples ne sont pas linéairement séparables (c est-à-dire les exemples d une classe sont mélangés dans d autre classe), on utilise la technique dite des "variables ressorts( slack variables)". L idée est d ajouter des variables d ajustement ( appelés aussi variables de relâchement des contraintes dans la formulation primale du problème). On les note ξ i et sont toutes positives. Elles assouplissent les contraintes et prennent en compte les erreurs de classification ou le bruit. En d autres termes, ces variables quantifient de combien un exemple est mal classé. Plus ξ i est petit, plus x i est mal classé et éloigné de la marge. Le problème primal s écrit alors sous cette forme : min w,b,ξ [ 1 2 w 2 + c ] ξ i y i (wx i + b) 1 ξ i, i c est appelé "paramètre de pénalisation du relâchement". C est une constante positive à fixer à priori judicieusement. Elle correspond au compromis entre mauvaise classification et complexité de la fonction, soit encore entre erreur empirique et erreur de généralisation. En d autres termes, elle permet de contrôler l importance de l erreur que l on s autorise par rapport à la taille de la marge. 8

10 Plus sa valeur est grande, moins d erreurs sont autorisées. Remarque : Figure 4 Cas non séparable Si ξ i = 0, les exemples sont bien classés, c est-à-dire y i (wx i + b) 1. Si ξ i = 0, on obtient les vecteurs supports, c est-à-dire y i (wx i + b) = 1. Si ξ i > 0, les exemples sont dans la marge,c est-à-dire y i (wx i + b) < Formulation Duale On construit le lagrangien de ce problème, par la méthode que précédemment, afin d obtenir la formulation duale. Il s écrit : L(w, b, ξ, α, β) = 1 2 w 2 + c ξ i α i [y i (wx i + b) + ξ i 1] β i ξ i Pour tout i, les multiplicateurs de Lagrange α i et β i sont positifs sou nuls. Étant donné que le problème primal et sa formulation duale ont la même solution qui correspond à un "point selle" du lagrangien, donc, on doit minimiser ce dernier par rapport aux variables w, b et ξ et le maximiser par rapport à α et β. Au point selle, la dérivée du lagrangien par rapport aux variables w, b et ξ sont nuls. Conditions d optimalités : L(w, b, ξ, α, β) w L(w, b, ξ, α, β) b = w = α i y i x i = 0 w = i α i y i = 0 α i y i x i (8) α i y i = 0 (9) L(w, b, ξ, α, β) ξ i = c α i β i (10) Les multiplicateurs de Lagrange étant positifs ou nuls, c est-à-dire α i 0 et β i 0 donc, ce qui 9

11 implique que c α i = β i 0. On obtient donc la contrainte suivante : 0 α i c. Après substitution des valeurs optimales dans le lagrangien, on obtient la formulation duale recherchée : [ ] max α i 1 α i α j y i y j < x i, x j > α 2 n α iy i = 0 i, 0 α i c Remarque : Elle a la même forme que dans le cas séparable linéairement. La seule différence réside sur la borne supérieure sur les α. 3 SVM non linéaire Nous avons vu le principe des SVM dans le cas ou les donnés sont au non séparables linéairement. Cependant, dans la plus part des problèmes réels de la vie, de classification sous entendu, ce n est pas toujours le cas. Autrement dit, il est difficile de séparer efficacement n importe quel jeu de donné par un simple hyperplan. Si par exemple les données des deux classes se chevauchent sévèrement. Le vif de ce paragraphe est donc d apporter des éléments de réponse à ce pertinent problème. L idée de Boxer et al. fut alors de pulvériser, de projet les données x i dans un espace de Hilbert de plus grande dimension, voire infinie ou on peut linéairement séparables. Il s agit donc, là, d un changement d espace. Cette opération n ait lieu qu à l aide d une fonction non linéaire : Figure 5 Changement d espace φ : R p T x φ(x) à choisir à priori avec card(t )>p. Il s agit donc d une transformation d un problème de séparation non linéaire dans l espace de représentation en un problème de séparation linéaire dans un espace de grande dimension. Il existe, sous certaines hypothèses, une fonction K dite "fonction noyau" définie par : K(x i, x j ) =< φ(x i ), φ(x j ) >. On peut dès lors effectuer tous les calculs dans le cadre des SVM en utilisant la fonction K(x i, x j ), sans devoir connaitre explicitement les donnés la fonction φ. D où l appellation de cette technique par "astuce de Noyau" 3. Le nouvel espace T porte plusieurs nominations dont on ne peut résister la tentation de les citer : espace des caractéristiques, espace de transformé ou espace de ré-description Kernel Strick 4. En Anglais, on parle plutôt de feature espace 10

12 Théorème de Cover 1 Dans une tâche de classification supervisée, plus la dimension des données est grande, plus ils ont d attributs linéairement indépendants, plus la probabilité que les classes soient linéairement séparables est grande. L hyperplan séparateur obtenu dans le nouvel espace T (espace des caractéristiques) est appelé : hyperplan optimal généralisé. Sa forme dépend sans doute des données que nous avons à classifier, à étudier. insérer une courbe ici pour montrer les différentes allures de l hyperplan généralisé!! La formulation duale de ce nouveau problème d optimisation se déduit de la précédente en remplaçant < x i, x j > par < φ(x i ), φ(x j ) > : max α α i 1 2 i, α i 0 n α iy i = 0 α i α j y i y j < φ(x i ), φ(x j ) > i,j=1 avec < φ(x i ), φ(x j ) >= K(x i, x j ). On peut ainsi donc reformuler le problème : max α i 1 α i α j y i y j K(x i, x j ) α 2 i, α i 0 n α iy i = 0 i,j=1 La solution de ce problème d optimisation nous donne l hyperplan optimal généralisé d équation : αi y i K(x i, x) + b Les coefficients α i et b sont obtenus comme précédemment par résolution du problème d optimisation quadratique. Exemple d Illustration : On considére un problème de discrimination les plus simples imaginables. On suppose que l espace des entrées est réduit à R, c est-à-dire à une dimension. On suppose que l on a cinq points d apprentissage associés à deux classes +1 et -1. S = {(x 1, y 1 ) = (1, 1); (x 2, y 2 ) = (2, 1); (x 3, y 3 ) = (4, 1); (x 4, y 4 ) = (5, 1); (x 5, y 5 ) = (6, 1)} Figure 6 C est un problème de discrimination à une dimension Il n est pas possible de trouver un séparateur linéaire permettant de distinguer les exemples 1 des exmples 1. 11

13 Choix des paramètres : Supposons que l on choisisse le noyau polynômial de degré 2. K(x i, x j ) = (< x i, x j > +1) 2. En prennant c = 100, le problème d optimisation s énonce comme suit : [ 5 ] max α i 1 5 α i α j y i y j < x i, x j > α 2 n α iy i = 0 i, 0 α i 100 On cherche les α i en resolvant le problème optimisation. Un programme de résolution de problème quadratique de ce type retourne la solution : α 1 = 0; α 2 = 2.5; α 3 = 0; α 4 = 7.333; α 5 = Les points critiques 5 sont les points ou les α i sont non nuls et correspondent à : La fonction de décision correspondante est : {x 2 = 2; x 4 = 5; x 5 = 6} La fonction de décision est : f(x) = α i y i K(x, x i ) + b f(x) = (2.5)(1)(2x + 1) (1)(5x + 1) (1)(6x + 1) 2 + b f(x) = x x + b b est obtenu par f(2) = 1 ou par f(5) = 1 ou par f(6) = 1 puisque x 2, x 4 et x 5 se situent sur la droite : Ce qui donne b = 9. La fonction de décision est alors : y i (wx i + b) = 1 f(x) = x x + 9 Figure 7 La parabole bleue associée à la fonction f(x) sépare les trois classes 5. C est les points associés aux vecteurs supports 12

14 3.1 Fonction Noyau Sur le plan théorique, la fonction noyau définit un espace hilbertien, dit auto-reproduisant et isométrique par la transformation non linéaire de l espace initial et dans lequel est résolu le problème linéaire. Théoreme de Moore-Aronszajn(1950) 1 Toute fonction semi-définie positive K(x, x ) est un noyau et réciproquement. Elle peut s exprimer comme un produit scalaire dans un espace de grande dimension. 3.2 Exemple de fonctions Noyaux Soit x = (x 1, x 2 ) et φ(x) = (x 2 1, 2x 1 x 2, x 2 2 ). Dans l espace des caractéristiques T, le produit scalaire donne : < φ(x), φ(x ) >= x 2 1x x 1 x 2 x 1x 2 + x 2 2x 2 2 = (x 1 x 1 + x 2 x 2) 2 = (< x, x >) 2 On remarque qu on peut calculer < φ(x), φ(x ) > sans pourtant calculer φ. La question qu on doit se poser est comment reconnaitre une fonction noyau? Alors, toute fonction K "fonction noyau" si elle vérifie les conditions de Mercer, c est-à-dire qu elle est continue, symétrique et semi-définie positive. D où l appellation de cette fonction par "Noyau de Mercer". Les noyaux linéaires sont de la forme : K(x, x ) =< x, x >. Les réseaux de neurones à fonctions d activation ont pour fonction noyau les fonctions sigmoîdes : K(x, x ) = tanh[a(< x, x > b)] Les fonctions à base radiales ont pour fonction noyau le noyau gaussien et s écrit : K(x, x ) = exp x x 2 2σ 2 Le noyau polynomial d ordre p s écrit : K(x, x ) = (< x, x > +1) p 3.3 Opérations sur les Noyaux A partir des fonctions noyaux usuelles (gaussien, polynomial, sigmoïde,...), nous pouvons bien sur construire d autres fonctions noyaux adaptées et conformes à notre problème de classification. Soient K 1 (x, x ) et K 2 (x, x ) deux fonctions noyaux. Alors, nous avons : K(x, x ) = K 1 (x, x ) + K 2 (x, x ) (11) K(x, x ) = K 1 (x, x ) K 2 (x, x ) (12) K(x, x ) = f(x) f(x ) (13) K(x, x ) = ak 1 (x, x ) (14) K(x, x ) = xbx t (15) 13

15 a est une constante positive. B est une matrice symétrique, semi-définie positive. et f() une fonction de l espace caractéristique dans R. Le bon choix de la fonction noyau exige de l utilisateur de SVM des tâches considérables. Il doit ou devra essayer des fonctions noyaux associés à des produits scalaires dans l espace des caractéristiques T et voir si elles permettent l obtention de bonnes séparatrices. Autrement dit, l utilisateur de SVM essaie des fonctions noyaux afin de déterminer celle qui convient le mieux pour son application. 4 SVM Multi-classes Les séparateurs à vaste marge ont été conçus à l origine pour les problèmes à deux classes c.-à-d. le cas ou la variable à prédire prend deux modalités (par exemple : positifs et négatifs) quid du problème multi-classe? D ailleurs, en réalité, les problèmes rencontrés sont de type multi-classes, d où l importance d étendre le principe du SVM aux problèmes de plus de deux classes. L extension des SVM au cas multiclasse est actuellement un domaine de recherche très ouvert et fait l objet de plusieurs travaux en cours. Nous allons donc expliquer brièvement quelques méthodes parmi les plus utilisés. 4.1 One Versus All Cette méthode s appelle en français la méthode de "Un contre Tous". Elle consiste à construire autant de classifieur SVM que de classe. En fait, l idée consiste simplement à transformer le problème à k classes en k classifieurs binaires. Chaque classifieur renvoie 1 si sa forme à reconnaitre appartient à la classe, 1 sinon. Il faut donc pour reconnaitre une forme, le soumettre à tous les classifieurs, le meilleur remportant la décision. Il est évident qu avec un nombre de classe élevé, la combinatoire peut être énorme. 4.2 One Versus One Cette méthode s appelle en français la méthode de "Un contre un". Elle a été adopté par S.Knerr et al. et utilisé pour la prémiere fois dans le contexte des machines à vecteurs supports par Krebel. Comme son nom l indique, cette méthode consiste à discriminer chaque classe d une autre, c est-à-dire construire un classifieur pour chaque paire de classe. En d autres terme, chaque classe i est comparée à chaque classe j. Pour un problème à N classes, on a N(N 1) 2 classifieurs. Le classement est donné par le vote majoritaire. L inconvenient de cette méthode est que, plus N est grand, plus sa complexité augmente puisqu elle nécessite N(N 1) comparaisons. Le classement est donné par "le vote majoritaire". 4.3 Comparaison La méthode One Versus One nécessite moins de temps que la méthode One Versus All. 14

16 5 Avantages et Inconvénients des SVM 5.1 Avantages Les séparateurs à vaste marge présentent des avantages multiples dont on se contente d énumérer quelques un. Ils permettent de traiter des données de très grande dimension et sont d ailleurs très efficaces (donnent des résultats meilleurs aux méthodes supervisées classiques). Les SVM sont faciles d emploi et présentent de bon comportement en prédiction. Cette méthode d apprentissage qu est les SVM est sympathique dans la prise en compte des données complexes et légèrement bruitées. Comme presque tout problème de classification, le problème de classification par les SVM est converti, transcrit en un problème d optimisation quadratique convexe dont la solution est unique et est obtenue par des méthodes mathématiques classiques d optimisation. Du coup, L absence d optimum local facilite donc naturellement la résolution d un problème de classification par la méthode des SVM. En outre, la mise en œuvre d un algorithme de classification de manière incrementable peu coûteuse en temps fait de SVM une méthode d apprentissage statistique efficace et prisée. 5.2 Inconvénients Comme toute méthode de classification, les SVM présentent des désavantages, des limites. Elle ne présente pas des résultats escomptés dans une tâche de classification de très petite dimension par exemple. En sus, Les meilleurs choix (paramètres du noyau) du paramètre de pénalisation de relâchement c et du type de noyau posent énormément des problèmes et nécessitent des lourdes tâches à l utilisateur des SVM, ceci tire fatalement vers le bas les performances des SVM. En plus, la généralisation 6 Domaine d application des SVM 7 Application aux données Médicales Nous utilisons le logiciel R tout au long de notre étude. Plusieurs librairies rélatives aux séparateurs à vaste marge existent à savoir kernlab(ksvm), klar(svmlight), svmpath(svmpatch), e1071(svm),... Nous nous se contentons d utiliser la librairie e1071 de la bibiotheque de R, réalisée par Chang, Chih- Chung et Lin Chih-Jen Classification Supervisée 7.1 Exemple illustratif : IRIS Avant d utiliser les séparateurs à vaste marge pour traiter les données médicales que nous disposons, nous allons tout d abord traiter cet exemple illustratif qui consiste à prèdire un pic d ozone en fonction des conditions atmosphériques/ météorologiques. Les données sont celles, triviales, des "iris 6 " d Edgar Anderson 7, dits de Fisher afin d illustrer la méthode en explicitant graphiquement l emplacement des vecteurs supports. Notre donnée se constitue de 5 variables et de 150 observations. Trois variétés :"setosa","versicolor" et "virginica" (liaison avec la partie théorique : nous avons trois classes) d iris doivent être discriminées en fonction des 4 mésures (longueur et largeur des sépales et des pétales) réalisées sur les fleurs. Autrement dit, l objectif içi étant de prédire la cinquième variable, c est-à-dire prèdire l espèce (nommée "Species" 8 ) en connaissance des largeurs et longueurs des sépales et pétales des palntes. Rappellons les noms ou les termes utilisés avec leurs significations en français des quatres variables 6. Ces sont des plantes. 7. Edgar Anderson ( 9 novembre juin 1969 ) était un botaniste americain. Il est l auteur du livre "Introgressive Hybridization". Il a contribué énormement à la génétique botanique. 8. Species veut dire éspece en français. 15

17 explicatives que nous utilisons pour prédire la cinquième "Species" : Sepal.Length : Longueur des sépales Sepal.Width : Largeur des sépales Petal.Length : Longueur des pétales Petal.Width : Largeur des pétales Il y a 50 fleurs par variétés. Il est judicieux de faire tout d abord une étude déscriptive de notre donnée. Sepal.Length Sepal.Width Petal.Length Petal.Width Min st Qu Median Mean rd Qu Max Les commandes utilisées pour la classification supervisée 9 (cf. code iris, sous partie intitulée : classification supervisée des iris) nous indiquent que nous avons trois classes et 51 vecteurs supports. On a vu combien ces vecteurs supports jouent un rôle important. Les vecteurs supports synthétisent en quelque sorte les aspects importants de notre jeu d exemple "iris". Si on les connaissait a priori, on pourrait effectuer l apprentissage sans tenir compte des autres exemples. Alors, on peut donc compresser l ensemble des "iris" en ne retenant que les 51 vecteurs supports. Ces derniers jouent un rôle important dans la construction de la séparatrice. Nous expliquons plus tard le choix des paramètres fonction noyau, gamma et cost grâce au taux de l erreur de prèdiction. cost désigne la constante de coût pour le lagrangien. La méthode de validation croisée permet de faire le bon choix de ces paramètres. Le tableau ci-dessous par la commande table.iris dans le code compare les valeurs prédites et les valeurs réelles. Il nous permet aussi d avoir une idée sur le taux d erreur commis. predict.iris setosa versicolor virginica setosa versicolor virginica On remarque que les 50 "setosa" sont bien prèdites. Les prèdictions de "versicolor" et "virginica" sont bonnes ou du moins acceptables malgrè que deux exemples de chacun d eux se trouvent respectivement à "virginica" et "versicolor". Le taux d erreur global que nous notons par "taux.iris" dans le code nous permet de savoir si les paramètres choisis sont efficaces et par consequent si nos prèdictions sont bonnes. taux.iris = 0.97, cela veut dire que les prèdictions faites sont bonnes dans 97% des cas. Non seulement ça, cela veut dire aussi que nous avons bien choisis les paramètres : fonction noyau, gamma et cost. Le choix des paramètres peut être optimisé grâce à la fonction tune.svm. Le resumé descriptif de 9. 16

18 Figure 8 Schema permettant de visualiser les classes par des couleurs différentes et les vecteurs supports répresentés par le "+". cette fonction nous renvoit les meilleurs paramètres à mettre en jeu conduisant bien entendu à un faible taux d erreur de classification. Si nous reprenons le travail fait avec les paramètres que la fonction tune.svm nous suggére, nos prèdictions augmentent de performance, taux.svm sera égal à 98% au lieu de 97%. Une amelioration! Conclusion Nous concluons que nos prèdictions pour la variable "Species" sont parfaites globalement. 17

19 7.2 Données ECOLI Figure 9 Schema illustrant les différentes classes. Nous allons maintenant traiter les données ecoli.data que nous pouvons l obtenir par le lien http : //archive.ics.uci.edu/ml/machine learning databases/ecoli/ecoli.data de l Institut de Biologie Moléculaire et Cellulaire de l Université d Osaka. Les données contiennent 9 variables (nous les avons notées par V1, V2,...,V9) et 336 observations au total. Significations des abréviations suivantes : "cp","im","ims","iml","imu","om","oml","pp" cp : désigne le cytoplasme contenant 143 observations. im : c est la membrane intérieure sans ordre de signal contenant 77 observations. ims : désigne la membrane intérieure scindable contenant 2 observations. iml : membrane intérieure de lipoproteine composée de deux observations. imu : C est la membrane intérieure non scindable de l ordre de séquence contenant 35 observations. om : désigne la membrane externe qui contient 20 observations. oml : désigne la membrane externe de lipoproteine composée de 5 observations. pp : c est le periplasme qui contient 52 observations. Nous constatons que la somme de toutes les observations est bien

20 L objectif est de prèdire la dernière variable (la neuvième), c est-à-dire de prèdire les "cp","im", "ims", "iml", "imu", "om", "oml", "pp" de la 9iéme variable en fonction des autres variables. Comme dans tout traitement quelconque des données, nous allons d abord faire le résumé statistique de toutes les variables que nous étudions. V2 V3 V4 V5 V6 V7 V8 Min st Qu Median Mean rd Qu Max Les variables explicatives sont V 2 V 8 et nous avons au total 8 classes à discriminer. Le nombre des vecteurs support varient selon les paramètres que nous choisissons. Avec le choix que nous avons fait des paramètres, nous obtenons 185 vecteurs supports 10 repartis dans les 8 classes comme suit : Le choix des paramètres que nous avons fait est correct comme on le constate dans le tableau ci-dessous qui permet de comparer les valeurs prèdites et les valeurs réelles. prediction.ecoli cp im iml ims imu om oml pp Le fait que la première colonne du tableau précédent nommée prediction.ecoli est numérotée de 1 à 8 et non nommée nous interpelle et nous autorise à se poser la question : Comment les nouvelles classes sont étiquetées, nommées? Chacune des 8 classes contient évidemment des valeurs issues de la prèdiction. Chaque classe porte le nom des variables dominant qui le composent. Par exemple, la première classe sera la classe de "cytoplasme", la deuxième de "membrane intérieure sans ordre de signal" et avec le même principe, nous reconnaitrons que la dernière est celle de "periplasme". Le taux d erreur global de la prèdiction noté taux.ecoli est égal à 0.91, cela veut dire que 91% de nos prèdictions sont bonnes. Ce qui garantit aussi à la fois le bon choix de nos paramètres f onction noyau, gamma = 0.5 et cost = 1. Intéressons nous maintenant aux différents taux d erreur commis dans les 8 cas. Cas 1 : On remarque que de 143 cytoplasmes dont on disposons au départ, 141 sont bien prèdits contre 2. Les 2 autres etant considérés comme des "intrus" parmi la classe des periplasmes. l erreur commise dans chaque classe s obtient par la formule suivante : taux d erreur par type de classe = 10. les vecteurs supports sont aussi appelés des exemples critiques. nombre des intrus nombre total des observations de ce cas 19

21 2 Dans ce premièr cas, l erreur de prèdiction commise vaut 143. Cas 2 : La deuxième classe contient les observations de "la membrane intérieure sans ordre de séquence". le taux d erreur d erreur commise est de Cas 3 : Nos prèdictions de "membrane intérieure de lipoproteine" sont bonnes dans 50% des cas. L erreur commise est égal à 1 2 soit 50% des cas. Cas 4 : Les "ims" ne sont pas bien prèdictes. Cas 5 : Les deux observations rélatives aux imu ne sont pas bien prèdites. Le taux d erreur commis est de 100%. Cas 6 : Seulement deux "om" ne sont pas bien prèdites,ils se sont retrouvés parmi les "pp". Les 18 autres sont bien prèdites. Le taux d erreur commise est de Cas 7 : Les "oml" sont bien prèdites. Cas 8 : Nos prèdictions pour les "pp" sont acceptables malgré qu un taux d erreur de l ordre de 5 52 est commise. On conclut que les prèdictions faites sont bonnes dans 91% des cas. Traiter une autre donnée semble être nécessaire pour mieux comprendre, maitrîser la classification supervisée par la méthode des supports vectors machines. 7.3 Données HEART Les données Heart 11 que nous traitons dans cette partie de notre travail sont accessibles à l adresse : http : //archive.ics.uci.edu/ml/machine learning databases/statlog/heart/heart.dat et ne contiennent pas des données manquantes. Elles sont recoltées auprès des patients souffrant des maladie cardiaque. Elles comportent 270 observations et 14 variables dont 13 sont explicatives. L objectif étant de prèdire la 9ième variable. Nous avons en tout 14 variables Description brève de toutes les variables Variables réels : 1, 4, 5, 8, 10 et 12. Variables binaires : 2, 6 et 9. Variables de type : "nominal" : 7, 3, 13. V1 : l âge. V2 : le sexe. C est une variable binaire, c est-à-dire ne contenant que deux issues 1 ou 0. V3 : types des douleurs thoraciques. Il y a 4 types numerotés de 1 à 4. On constate alors que les données de cette colonne ne comprend des valeurs allant de 1 à 4. V4 : la pression arterielle au repos. V5 : serum de cholesterol en mg/dl. 12 V6 : le taux de glycémie à jeun supérieur à 120 mg/dl. V7 : les resultats d éléctrocardiologiques au repos. V8 : la fréquence cardiaque maximale. V9 : l exercie induisant à l angine. 11. le terme "Heart" veut dire "coeur" en français. 12. mg/dl : milligramme par decilitre 20

22 V10 : Oldpeak=ST depression induced by exercice relative to rest. V11 : la pente du segment ST pic d exercice. V12 : nombre de gros vaisseaux répresenté par 4 types 0, 1, 2 ou 3. V13 : Dans cette variable, 3 veut dire normal, 6 : normal et 7 : defaut reversible. Remarque : L absence d une maladie cardiaque est notée par 1 et sa présence par 2. Le fait que la variable 9 qu on veut prèdire est binaire nous donne d avance une idée sur le nombre des classes. La reponse est simple, on en aura deux. V1 V2 v3 V4 V5 V6 V7 V8 V9 V10 V11 V12 V13 V14 Min st Qu Median Mean rd Qu Max Ces données sont sympathiques comparées aux autres que nous avons étudiés dans ce TER puis qu elles sont bien prèdites tout simplement. Le choix judicieux que nous avons effectué pour les paramètres (kernel : "radial", gamma= 0.5, cost= 3) nous ont fournis 260 vecteurs supports repartis en 2 classes. La première classe contient 173 observations tandis que la deuxième en comprend 2. Nous récapitulons dans un tableau comme ce fut le cas précédemment les valeurs prèdites et les valeurs réelles. prediction.heart Toute prèdiction n est pas épargnée d erreur on le sait bien mais celle-ci est parfaite en lisant le tableau ci-dessus. Autrement dit, le séparateur a classé les vecteurs supports comme il le faut. On conclut que les résultats fournis par les médécins sont bien fiables. Rappelons que l absence d angine est matéarilisé par "0" et sa présence par "1". De ce fait, on ajoute aussi qu aucun patient sain n est déclaré malade et inversement. 21

23 8 Conclusion Générale Dans ce TER, nous avons tenté d introduire sinon de présenter les notions fondamentales d une des importantes méthodes de la classification supervisée : Les Séparateurs à Vaste Marge (SVM) qui fut introduit par Vladimir Vapnik dans les années 95. Nous avons introduit les concepts mathématiques forts utiles permettant de connaître au mieux cette méthode. Dans la partie théorique de notre travail, nous avons traité premièrement le cas linéairement séparable qui a pour but de chercher un hyperplan qui permet de séparer au mieux les données, un cas naturel! Nous avons ensuite étudier le cas linéairement non séparable avant d entamer le cas non linéaire. Dans ce cas, grâce au kerneltrick, nous changeons notre espace afin qu on puisse classer les données. Rappelons nous que presque tout le problème de classification rencontrée dans la vie courante sont de type non linéaire et de multiclasse. Les SVM étaient tout d abord utilisées pour discriminer deux classes, elles ont été généralisées désormais au cas multiclasse. Les SVM ont montré leurs éfficacités dans presque tous les domaines ou ils sont utilisés. On s est servi des SVM pour classer les données médicales "Heart" et "Ecoli". Nous concluons la performance de cette méthode. Nous obtenons des bonnes prèdictions. Toute oeuvre a sa nature et ses méfaits, les séparateurs à vaste marge présentent des inconvénients sinon ont montrés leurs limites. Par exemple, le bon choix des paramètres n est pas une mince à faire. Je ne saurais terminer mes propos pour réitérer ma gratitude à mon encadrante Madame CIUPERCA GABRIELA pour tout son soutien afin que ce travail ait le jour. 22

24 9 Bibliographie 1 Gilles Gasso, Introduction à l apprentissage Statistique. INSA de ROUEN ; 2 Thèse de Anis Ben ISHAK intitulé Selection de Variables par les machines à Vecteurs Supports pour la discrimination binaire et multiclasse en grande dimension ; 3 Arnaud Revel, Séparateur à Vaste Marge ; 4 Olivier Bousquet, Introduction aux "Support Vector Machine". Centre de Mathématiques Appliquées. Ecole Polytechnique, Palaiseau. Orsay, 15 Novembre 2001 ; 5 Marie Szafranski, Utilisation des SVM dans les applications en biologie ; 6 WikiStat, Machines à Vecteurs Supports ; 7 Alain Rakotomamonjy, Séparateurs à Vaste Marge Linéaire. INSA de Rouen. 8 A. Cornuéjols et L.Michet. Eyrolles Apprentissage Artificielle : Méthodes et Algorithme ; 9 Philippe Preux, Machines à noyau : Une très courte introduction intuitive ou les SVM décryptées ou les SVMs pour les nuls ; 10 Hélène Milhem, Support Vecteurs Machine, Institut de Mathématiques de Toulouse ; 11 Alexis Lechervy : Fouille de données et apprentissage, Cours 5 : Les supports Vecteurs Machine (SVM) linéaire ; 12 WikiStat : TP ozone : SVM ou Machine à Vecteurs Supports. 23

25 10 Annexe #################################################### #########INTRODUCTION AUX SUPPORTS VECTORS MACHINE: ######### #########APPLICATION AUX DONNEES MEDICALES ################## ############################################################# ####################### #####IRIS############## ####################### #DONNEES IRIRS library(e1071) data(iris) class(iris) # c est un "data.frame" length(iris) # de longueur 5 # On a 150 observations. #resumé statistique summary(iris) #le modéle est calculé avec les valeurs par défaut des paramètres #noyau (gaussien, pénalisation à 1, gamma=0.25) #Classification supervisée des "iris" modele.iris= svm(species~.,data=iris, method="c-classification", kernel="radial", cost=1, gamma=0.25) #le. indique toutes les variables autre que #Species doivent être utilisées. print(modele.iris) class(modele.iris) summary(modele.iris) #On a 51 veectors supports. #"svm.formula" "svm" #regroupe toutes les informations. #Le nombre des vecteurs supports changent si on #change les parametres: gamma et cost. #plus on diminue les valeurs de "cost" et de "gamma", #plus le nombre des vecteurs supports évoluent, pourquoi?. modele.iris$sv #Matrice des vecteurs supports modele.iris$nsv #Nombre des vecteurs supports # #prevision de l échantillon d apprentissage d iris: #la prédiction sur le dataframe ou la matrice donnée. #ça renvoit un vecteur de prédictions #Prédiction de Species. predict.iris = predict(modele.iris, iris[,1:4]) print(predict.iris) class(predict.iris) #factor #comparer les valeurs predites et les valeurs réelles: Par deux manières table.iris = table(predict.iris,iris$species) print(table.iris) #Commentaire de ce tableau dans le rapport. 24

26 taux.iris = sum(diag(table.iris))/sum(table.iris) #taux=0.97, soit, 97% de nos predictions sont bonnes. print(taux.iris) #Visualisation des classes (couleurs) et des vecteurs supports ("+") plot(cmdscale(dist(iris[,-5])), col = as.integer(iris[,5]), pch = c("o","+")[1:150 %in% model$index +1], main="schema Illustratif avec les 3 classes des couleurs différentes") #Optimisation: connaitre la combinaison des paramètres #optimum pour construire le modèle #la fonction de "tuning" ou de calibration du modèle #La fonction tune.svm nous retourne les meilleurs paramètres pour #construire le modèle dans #le sens où ils minimisent l erreur induite par le modèle #(ou autrement dit, maximisent la performance du modèle). #Dans notre cas, il s agit de l erreur de discrimination #car la variable à expliquer est qualitative. obj = tune.svm(species~., data = iris, gamma = 2^(-7:0),cost = 2^c(-2:0)) summary(obj) ##################### #######ECOLI######### ##################### #DONNEES ECOLI donnees.ecoli = read.table("ecoli.txt", col.names=c("v1","v2","v3","v4","v5","v6","v7","v8","v9")) print(donnees.ecoli) class(donnees.ecoli) # c est un "dataframe" names(donnees.ecoli) # les noms de toutes les colonnes length(donnees.ecoli) # de longueur 9. #RESUME STATISTIQUE ECOLI summary(donnees.ecoli) #L Objectif étant de prevoir la dernière variable, la 9ième en fonction #des autres variables. #EXTRACTION DES DONNEES: ECOLI. a=c(donnees.ecoli$v1) b=c(donnees.ecoli$v2) c=c(donnees.ecoli$v3) d=c(donnees.ecoli$v4) e=c(donnees.ecoli$v5) f=c(donnees.ecoli$v6) g=c(donnees.ecoli$v7) h=c(donnees.ecoli$v8) i=c(donnees.ecoli$v9) #renvoie la premiere colonne. #c(): vecteur 25

27 #CLASSIFICATION SUPERVISEE D ECOLI: modele.ecoli = svm(i~.,donnees.ecoli, type="c-classification", kernel="radial",gamma = 0.5, cost=1) #toutes les variables autre que "i" print(modele.ecoli) summary(modele.ecoli) #on a 8 classes et 164 vecteurs supports. class(modele.ecoli) #PREDICTION DE LA 9ieme VARIABLE. prediction.ecoli = predict(modele.ecoli, donnees.ecoli[,-9]) print(prediction.ecoli) modele.ecoli$sv modele.ecoli$nsv #matrice des vecteurs de support. #nombre de vecteurs de support. #MATRICE DE CONFUSION POUR L ECHANTILLON D APPRENTISSAGE table.ecoli = table(prediction.ecoli,donnees.ecoli$v9) print(table.ecoli) #TAUX D ERREUR COMMIS taux.ecoli = sum(diag(table.ecoli))/sum(table.ecoli) #taux=0.90, soit, 90% de nos predictions sont bonnes. print(taux.ecoli) #fin! ##################### ########HEART######## ##################### #DONNEES STATISTIQUE HEART donnees.heart = read.table("heart.txt") attach(donnees.heart) print(donnees.heart) class(donnees.heart) #C est un "data.frame" length(donnees.heart) #14 #RESUME STATISTIQUE HEART summary(donnees.heart) #EXTRACTION DES DONNEES HEART aa=c(donnees.heart$v1) bb=c(donnees.heart$v2) cc=c(donnees.heart$v3) dd=c(donnees.heart$v4) ee=c(donnees.heart$v5) ff=c(donnees.heart$v6) gg=c(donnees.heart$v7) hh=c(donnees.heart$v8) ii=c(donnees.heart$v9) jj=c(donnees.heart$v10) 26

28 kk=c(donnees.heart$v11) ll=c(donnees.heart$v12) mm=c(donnees.heart$v13) nn=c(donnees.heart$v14) #L objectif etant le même, prevoir la 9ieme variable en fonction des autres. #CLASSIFICATION SUPERVISEE de HEART #On prend un noyau radial. modele.heart = svm(ii~.,data=donnees.heart, type="c-classification",kernel="radial", gamma=0.05,cost=3) #toutes les variables autre que "i" print(modele.heart) summary(modele.heart) #On a 2 classes et 260 vectors supports. class(modele.heart) #"svm.formula" "svm" #PREDICTION HEART prediction.heart = predict(modele.heart, donnees.heart[,-9]) print(prediction.heart) #matrice des vecteurs de support. modele.heart$sv #nombre de vecteurs de support partagé en 2 classes: 154 et 85 modele.heart$nsv #MATRICE DE CONFUSION POUR L ECHANTILLON D APPRENTISSAGE table.heart = table(prediction.heart,ii) print(table.heart) #TAUX D ERREUR GLOBAL taux.heart = sum(diag(table.heart))/sum(table.heart) print(taux.heart) #les prèdictions sont bonnes à 100%. #fin! 27

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Coup de Projecteur sur les Réseaux de Neurones

Coup de Projecteur sur les Réseaux de Neurones Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Une comparaison de méthodes de discrimination des masses de véhicules automobiles p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans

Plus en détail

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme? Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version

Plus en détail

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme?

Exercices Alternatifs. Quelqu un aurait-il vu passer un polynôme? Exercices Alternatifs Quelqu un aurait-il vu passer un polynôme? c 2004 Frédéric Le Roux, François Béguin (copyleft LDL : Licence pour Documents Libres). Sources et figures: polynome-lagrange/. Version

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA 75. Un plombier connaît la disposition de trois tuyaux sous des dalles ( voir figure ci dessous ) et il lui suffit de découvrir une partie de chacun d eux pour pouvoir y poser les robinets. Il cherche

Plus en détail

CHOIX OPTIMAL DU CONSOMMATEUR. A - Propriétés et détermination du choix optimal

CHOIX OPTIMAL DU CONSOMMATEUR. A - Propriétés et détermination du choix optimal III CHOIX OPTIMAL DU CONSOMMATEUR A - Propriétés et détermination du choix optimal La demande du consommateur sur la droite de budget Résolution graphique Règle (d or) pour déterminer la demande quand

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

Les indices à surplus constant

Les indices à surplus constant Les indices à surplus constant Une tentative de généralisation des indices à utilité constante On cherche ici en s inspirant des indices à utilité constante à définir un indice de prix de référence adapté

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Eteindre. les. lumières MATH EN JEAN 2013-2014. Mme BACHOC. Elèves de seconde, première et terminale scientifiques :

Eteindre. les. lumières MATH EN JEAN 2013-2014. Mme BACHOC. Elèves de seconde, première et terminale scientifiques : MTH EN JEN 2013-2014 Elèves de seconde, première et terminale scientifiques : Lycée Michel Montaigne : HERITEL ôme T S POLLOZE Hélène 1 S SOK Sophie 1 S Eteindre Lycée Sud Médoc : ROSIO Gauthier 2 nd PELGE

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

INF6304 Interfaces Intelligentes

INF6304 Interfaces Intelligentes INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie

Plus en détail

Transmission d informations sur le réseau électrique

Transmission d informations sur le réseau électrique Transmission d informations sur le réseau électrique Introduction Remarques Toutes les questions en italique devront être préparées par écrit avant la séance du TP. Les préparations seront ramassées en

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

Travaux pratiques avec RapidMiner

Travaux pratiques avec RapidMiner Travaux pratiques avec RapidMiner Master Informatique de Paris 6 Spécialité IAD Parcours EDOW Module Algorithmes pour la Fouille de Données Janvier 2012 Prise en main Généralités RapidMiner est un logiciel

Plus en détail

La demande Du consommateur. Contrainte budgétaire Préférences Choix optimal

La demande Du consommateur. Contrainte budgétaire Préférences Choix optimal La demande Du consommateur Contrainte budgétaire Préférences Choix optimal Plan du cours Préambule : Rationalité du consommateur I II III IV V La contrainte budgétaire Les préférences Le choix optimal

Plus en détail

Optimisation, traitement d image et éclipse de Soleil

Optimisation, traitement d image et éclipse de Soleil Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement

Plus en détail

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring

Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Projet SINF2275 «Data mining and decision making» Projet classification et credit scoring Année académique 2006-2007 Professeurs : Marco Saerens Adresse : Université catholique de Louvain Information Systems

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

Exercices Corrigés Premières notions sur les espaces vectoriels

Exercices Corrigés Premières notions sur les espaces vectoriels Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3

Plus en détail

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

Apprentissage par renforcement (1a/3)

Apprentissage par renforcement (1a/3) Apprentissage par renforcement (1a/3) Bruno Bouzy 23 septembre 2014 Ce document est le chapitre «Apprentissage par renforcement» du cours d apprentissage automatique donné aux étudiants de Master MI, parcours

Plus en détail

DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10.

DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. A1 Trouvez l entier positif n qui satisfait l équation suivante: Solution 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. En additionnant les termes du côté gauche de l équation en les mettant sur le même dénominateur

Plus en détail

EXERCICES - ANALYSE GÉNÉRALE

EXERCICES - ANALYSE GÉNÉRALE EXERCICES - ANALYSE GÉNÉRALE OLIVIER COLLIER Exercice 1 (2012) Une entreprise veut faire un prêt de S euros auprès d une banque au taux annuel composé r. Le remboursement sera effectué en n années par

Plus en détail

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007 Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................

Plus en détail

Arithmétique binaire. Chapitre. 5.1 Notions. 5.1.1 Bit. 5.1.2 Mot

Arithmétique binaire. Chapitre. 5.1 Notions. 5.1.1 Bit. 5.1.2 Mot Chapitre 5 Arithmétique binaire L es codes sont manipulés au quotidien sans qu on s en rende compte, et leur compréhension est quasi instinctive. Le seul fait de lire fait appel au codage alphabétique,

Plus en détail

Introduction au datamining

Introduction au datamining Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des

Plus en détail

La fonction exponentielle

La fonction exponentielle DERNIÈRE IMPRESSION LE 2 novembre 204 à :07 La fonction exponentielle Table des matières La fonction exponentielle 2. Définition et théorèmes.......................... 2.2 Approche graphique de la fonction

Plus en détail

Le produit semi-direct

Le produit semi-direct Le produit semi-direct Préparation à l agrégation de mathématiques Université de Nice - Sophia Antipolis Antoine Ducros Octobre 2007 Ce texte est consacré, comme son titre l indique, au produit semi-direct.

Plus en détail

Arbres binaires de décision

Arbres binaires de décision 1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI

Déroulement d un projet en DATA MINING, préparation et analyse des données. Walid AYADI 1 Déroulement d un projet en DATA MINING, préparation et analyse des données Walid AYADI 2 Les étapes d un projet Choix du sujet - Définition des objectifs Inventaire des données existantes Collecte, nettoyage

Plus en détail

Exercice : la frontière des portefeuilles optimaux sans actif certain

Exercice : la frontière des portefeuilles optimaux sans actif certain Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining.

Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining. 2 jours : Mardi 15 et mercredi 16 novembre 2005 de 9 heures 30 à 17 heures 30 Organisé par StatSoft France et animé par Dr Diego Kuonen, expert en techniques de data mining. Madame, Monsieur, On parle

Plus en détail

Calculer avec Sage. Revision : 417 du 1 er juillet 2010

Calculer avec Sage. Revision : 417 du 1 er juillet 2010 Calculer avec Sage Alexandre Casamayou Guillaume Connan Thierry Dumont Laurent Fousse François Maltey Matthias Meulien Marc Mezzarobba Clément Pernet Nicolas Thiéry Paul Zimmermann Revision : 417 du 1

Plus en détail

Complément d information concernant la fiche de concordance

Complément d information concernant la fiche de concordance Sommaire SAMEDI 0 DÉCEMBRE 20 Vous trouverez dans ce dossier les documents correspondants à ce que nous allons travailler aujourd hui : La fiche de concordance pour le DAEU ; Page 2 Un rappel de cours

Plus en détail

Continuité d une fonction de plusieurs variables

Continuité d une fonction de plusieurs variables Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs

Plus en détail

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU $SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU Fabien FIGUERES fabien.figueres@mpsa.com 0RWVFOpV : Krigeage, plans d expériences space-filling, points de validations, calibration moteur. 5pVXPp Dans le

Plus en détail

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN

Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN Nombres, mesures et incertitudes en sciences physiques et chimiques. Groupe des Sciences physiques et chimiques de l IGEN Table des matières. Introduction....3 Mesures et incertitudes en sciences physiques

Plus en détail

Chapitre 2/ La fonction de consommation et la fonction d épargne

Chapitre 2/ La fonction de consommation et la fonction d épargne hapitre 2/ La fonction de consommation et la fonction d épargne I : La fonction de consommation keynésienne II : Validations et limites de la fonction de consommation keynésienne III : Le choix de consommation

Plus en détail

Le scoring est-il la nouvelle révolution du microcrédit?

Le scoring est-il la nouvelle révolution du microcrédit? Retour au sommaire Le scoring est-il la nouvelle révolution du microcrédit? BIM n 32-01 octobre 2002 Frédéric DE SOUSA-SANTOS Le BIM de cette semaine se propose de vous présenter un ouvrage de Mark Schreiner

Plus en détail

Optimisation des fonctions de plusieurs variables

Optimisation des fonctions de plusieurs variables Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008) Examen optimisation Centrale Marseille (28) et SupGalilee (28) Olivier Latte, Jean-Michel Innocent, Isabelle Terrasse, Emmanuel Audusse, Francois Cuvelier duree 4 h Tout resultat enonce dans le texte peut

Plus en détail

Corefris RAPPORT ANNUEL 2011. Annexe 3 : La hausse des prix de l immobilier est-elle associée à une «bulle» de crédit en France?

Corefris RAPPORT ANNUEL 2011. Annexe 3 : La hausse des prix de l immobilier est-elle associée à une «bulle» de crédit en France? Annexe 3 : La hausse des prix de l immobilier est-elle associée à une «bulle» de crédit en France? (DGTrésor) 1. Indépendamment de facteurs d offre et de demande, qui jouent indéniablement sur les prix,

Plus en détail

Principe de symétrisation pour la construction d un test adaptatif

Principe de symétrisation pour la construction d un test adaptatif Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université

Plus en détail

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall

L utilisation d un réseau de neurones pour optimiser la gestion d un firewall L utilisation d un réseau de neurones pour optimiser la gestion d un firewall Réza Assadi et Karim Khattar École Polytechnique de Montréal Le 1 mai 2002 Résumé Les réseaux de neurones sont utilisés dans

Plus en détail

LES MÉTHODES DE POINT INTÉRIEUR 1

LES MÉTHODES DE POINT INTÉRIEUR 1 Chapitre XIII LES MÉTHODES DE POINT INTÉRIEUR 1 XIII.1 Introduction Nous débutons par un rappel de la formulation standard d un problème d optimisation 2 linéaire et donnons un bref aperçu des différences

Plus en détail

Chapitre 7. Récurrences

Chapitre 7. Récurrences Chapitre 7 Récurrences 333 Plan 1. Introduction 2. Applications 3. Classification des récurrences 4. Résolution de récurrences 5. Résumé et comparaisons Lectures conseillées : I MCS, chapitre 20. I Rosen,

Plus en détail

Chapitre 0 Introduction à la cinématique

Chapitre 0 Introduction à la cinématique Chapitre 0 Introduction à la cinématique Plan Vitesse, accélération Coordonnées polaires Exercices corrigés Vitesse, Accélération La cinématique est l étude du mouvement Elle suppose donc l existence à

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

Raisonnement par récurrence Suites numériques

Raisonnement par récurrence Suites numériques Chapitre 1 Raisonnement par récurrence Suites numériques Terminale S Ce que dit le programme : CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES Raisonnement par récurrence. Limite finie ou infinie d une suite.

Plus en détail

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

Représentation des Nombres

Représentation des Nombres Chapitre 5 Représentation des Nombres 5. Representation des entiers 5.. Principe des représentations en base b Base L entier écrit 344 correspond a 3 mille + 4 cent + dix + 4. Plus généralement a n a n...

Plus en détail

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples, Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très

Plus en détail

CAPTEURS - CHAINES DE MESURES

CAPTEURS - CHAINES DE MESURES CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Théorie et codage de l information

Théorie et codage de l information Théorie et codage de l information Les codes linéaires - Chapitre 6 - Principe Définition d un code linéaire Soient p un nombre premier et s est un entier positif. Il existe un unique corps de taille q

Plus en détail

Rappels sur les suites - Algorithme

Rappels sur les suites - Algorithme DERNIÈRE IMPRESSION LE 14 septembre 2015 à 12:36 Rappels sur les suites - Algorithme Table des matières 1 Suite : généralités 2 1.1 Déition................................. 2 1.2 Exemples de suites............................

Plus en détail

Item 169 : Évaluation thérapeutique et niveau de preuve

Item 169 : Évaluation thérapeutique et niveau de preuve Item 169 : Évaluation thérapeutique et niveau de preuve COFER, Collège Français des Enseignants en Rhumatologie Date de création du document 2010-2011 Table des matières ENC :...3 SPECIFIQUE :...3 I Différentes

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Etude d un cas industriel : Optimisation de la modélisation de paramètre de production

Etude d un cas industriel : Optimisation de la modélisation de paramètre de production Revue des Sciences et de la Technologie RST- Volume 4 N 1 /janvier 2013 Etude d un cas industriel : Optimisation de la modélisation de paramètre de production A.F. Bernate Lara 1, F. Entzmann 2, F. Yalaoui

Plus en détail

Etude des propriétés empiriques du lasso par simulations

Etude des propriétés empiriques du lasso par simulations Etude des propriétés empiriques du lasso par simulations L objectif de ce TP est d étudier les propriétés empiriques du LASSO et de ses variantes à partir de données simulées. Un deuxième objectif est

Plus en détail

Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques

Cours3. Applications continues et homéomorphismes. 1 Rappel sur les images réciproques Université de Provence Topologie 2 Cours3. Applications continues et homéomorphismes 1 Rappel sur les images réciproques Soit une application f d un ensemble X vers un ensemble Y et soit une partie P de

Plus en détail

Équations non linéaires

Équations non linéaires Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et

Plus en détail

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet

Plus en détail

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I

Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques

Plus en détail

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h Télécom Physique Strasbourg Master IRIV Optimisation et programmation mathématique Professeur Michel de Mathelin Cours intégré : 20 h Programme du cours d optimisation Introduction Chapitre I: Rappels

Plus en détail

Utilisation des méthodes Support Vector Machine (SVM) dans l analyse des bases de données

Utilisation des méthodes Support Vector Machine (SVM) dans l analyse des bases de données Ministère de l Enseignement Supérieur et de la Recherche Scientifique Université Mohamed Khider - Biskra Faculté des Sciences Exactes et des Sciences de la Nature et de la Vie Département d Informatique

Plus en détail

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke

Biostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke www.fundp.ac.be/biostats Module 140 140 ANOVA A UN CRITERE DE CLASSIFICATION FIXE...2 140.1 UTILITE...2 140.2 COMPARAISON DE VARIANCES...2 140.2.1 Calcul de la variance...2 140.2.2 Distributions de référence...3

Plus en détail

Enjeux mathématiques et Statistiques du Big Data

Enjeux mathématiques et Statistiques du Big Data Enjeux mathématiques et Statistiques du Big Data Mathilde Mougeot LPMA/Université Paris Diderot, mathilde.mougeot@univ-paris-diderot.fr Mathématique en Mouvements, Paris, IHP, 6 Juin 2015 M. Mougeot (Paris

Plus en détail

Résolution de systèmes linéaires par des méthodes directes

Résolution de systèmes linéaires par des méthodes directes Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.

Plus en détail