Apprentissage automatique

Dimension: px
Commencer à balayer dès la page:

Download "Apprentissage automatique"

Transcription

1 Apprentissage automatique Cours 2: Régression - Classification Logistique - Validation croisée Alexis Lechervy Alexis Lechervy Apprentissage automatique 1 / 49

2 Sommaire 1 Régression Problématique Résolution analytique Résolution par descente de gradient 2 Classification Logistique 3 Validation croisée Alexis Lechervy Apprentissage automatique 1 / 49

3 Problématique La régression Principes Exemple Trouver la relation entre une variable et une ou plusieurs autres variables. Expliquer les données. Trouver la fonction qui minimise un critère d erreur entre les valeurs de la fonction aux points d apprentissage et les observations pour effectuer ensuite des prédictions. Recherche d une fonction f a de paramètre a vérifiant y = f a (x). Alexis Lechervy Apprentissage automatique 2 / 49

4 Problématique Exemple d utilisation de la régression Exemples d utilisation Pression Température d ébullition. Vitesse + taux d humidité de la route Distance de freinage. Taux d alcool dans le sang temps de réaction.... But On souhaite prédire la valeur cible y à partir d une nouvelle entrée x. Alexis Lechervy Apprentissage automatique 3 / 49

5 Problématique Notations On note N la dimension de l ensemble d apprentissage. X l espace de description des exemples d apprentissage. Généralement X = R d où d est la dimensions des descripteurs. x i le i ème exemple d apprentissage. x i X et x i = [x (i) 1,, x (i) d ]. Y l espace des valeurs de labels, généralement Y = R. y i Y est le label de l exemple i. X la matrice N d des exemples tel que la i ème ligne contienne x i. y = [y 1,, y N ] est le vecteur des labels. Alexis Lechervy Apprentissage automatique 4 / 49

6 Problématique Les étapes de résolution d un problème de régression Initialisation Récolter un ensemble d exemple d apprentissage. Choisir une classe de fonction (par exemple les fonctions linéaires). Choisir un critère de sélection de la fonction optimale à partir de la classe de fonction. Résolution Trouver la fonction de la classe de fonction qui minimise notre critère de sélection sur nos données d apprentissages. Alexis Lechervy Apprentissage automatique 5 / 49

7 Problématique Exemple : les fonctions linéaires Ajustement linéaire aux données On cherche la fonction linéaire qui s ajuste au mieux à un ensemble de points observées X = [x 1,, x N ] associés aux labels réelles Y = [y 1,, y N ]. On cherche les paramètres w définissant la fonction f suivantes : f : R R, (1) f (x; w) = w 0 + w 1 x w d x d. (2) Alexis Lechervy Apprentissage automatique 6 / 49

8 Problématique Exemple : les fonctions linéaires Formes générales f (x; w) = w 0 + w, x = w 0 + w 1 x w d x d. Cas particuliers Cas 1D : une droite. Cas 2D : un plan. Cas nd : un hyperplan. Alexis Lechervy Apprentissage automatique 7 / 49

9 Problématique Erreur de prédiction Le critère de moindre carré On peut mesurer l erreur de prédiction en terme de moyenne des distances au carrés : Loss(y, ỹ) = y ỹ 2. On cherche donc les w minimisant la fonction de coût suivantes : L(w, X ) = 1 N N (y i f (x i, w)) 2. Alexis Lechervy Apprentissage automatique 8 / 49

10 Résolution analytique Résumé Contexte choisie Classe de fonction utilisé : les fonctions linéaires. d f (x; w) = w 0 + w, x = w 0 + w i x i. Critère de sélection : minimisation du risque empirique. L(w, X ) = 1 N N (y i f (x i, w)) 2. Problématique : la régression par moindre carré On cherche les w optimal tel que w = arg min w N y i w 0 2 d w j x (i). Alexis Lechervy Apprentissage automatique 9 / 49 j=1 j

11 Résolution analytique Minimisation par moindre carré dans le cas 1D Formulation Nous nous restreignons, dans un premier temps, au cas à une seule dimensions : Condition d optimalité w = arg min w L(w) = arg min w N ( y i w 0 w 1 x (i)) 2. Une condition nécessaire pour minimiser L est d annuler les dérivées de L suivant w 0 et w 1. Cette condition est suffisante si la fonction L est convexe. Alexis Lechervy Apprentissage automatique 10 / 49

12 Résolution analytique Annulation de la dérivée de L suivant w 0 L(w 0, w 1 ) w 0 = = = = w 0 N N N N ( y i w 0 w 1 x (i)) 2, (3) ( y i w 0 w 1 x (i)) 2, (4) w 0 ( 2 y i w 0 w 1 x (i)) ( 1) = 0, (5) ( 2 y i w 0 w 1 x (i)) = 0. (6) Alexis Lechervy Apprentissage automatique 11 / 49

13 Résolution analytique Annulation de la dérivée de L suivant w 0 L(w 0, w 1 ) w 0 = = = = w 0 N N N N ( y i w 0 w 1 x (i)) 2, (3) ( y i w 0 w 1 x (i)) 2, (4) w 0 ( 2 y i w 0 w 1 x (i)) ( 1) = 0, (5) ( 2 y i w 0 w 1 x (i)) = 0. (6) Annulation de la dérivée de L suivant w 1 L(w 0, w 1 ) N ( = 2 y i w 0 w 1 x (i)) x (i) = 0. w 1 Alexis Lechervy Apprentissage automatique 11 / 49

14 Résolution analytique Conditions d optimalités On obtient donc les conditions d optimalités suivantes : N ( y i w 0 w 1 x (i)) = 0, N ( y i w 0 w 1 x (i)) x (i) = 0. Remarques Soit ɛ i = y i w 0 w 1 x (i), on a : Les erreurs de prédiction ont une moyenne nulle 1 N N ɛ = 0. Les erreurs de prédiction ne sont pas corrélées avec les données 1 N N ɛx i = 0. Alexis Lechervy Apprentissage automatique 12 / 49

15 Résolution analytique Calcul de la solution Calcul de w 0 N ( y i w 0 w 1 x (i)) = 0 = w 0 = 1 N = w 0 = 1 N N N ( y i w 1 x (i)) (7) y i w 1 1 N N x (i) (8) = w 0 = ȳ w 1 x. (9) Alexis Lechervy Apprentissage automatique 13 / 49

16 Résolution analytique Calcul de la solution Calcul de w 0 w 0 = ȳ w 1 x. (10) Calcul de w 1 N ( y i w 0 w 1 x (i)) x (i) = 0 = = N N = w 1 = = w 1 = ( y i (ȳ w 1 x) w 1 x (i)) x (i) = (11) 0 ( ) y i ȳ w 1 ( x + x (i) ) x (i) = (12) 0 1 N N (y i ȳ) x (i) 1 N N ( x + x (i) ) x (i) (13) xy xȳ x 2 x 2. (14) Alexis Lechervy Apprentissage automatique 14 / 49

17 Résolution analytique Calcul de la solution Calcul de w 0 w0 = ȳ w1 x. (15) Calcul de w 1 w 1 = xy xȳ x 2 x 2. (16) Alexis Lechervy Apprentissage automatique 15 / 49

18 Résolution analytique Minimisation par moindre carrée dans le cas nd Notations On pose : X = Formulation 1 x (1) 1 x (1) d x (N) 1 x (N) d, y = y 1. y N, w = w 0. w d. w = arg min w L(w) = arg min y w ŷ 2 (17) = arg min w (y Xw) (y Xw). (18) Alexis Lechervy Apprentissage automatique 16 / 49

19 Résolution analytique Rappel mathématique Addition/Multiplication et transposé (AB) = B A, (A + B) = A + B. Dérivée et matrice a b = b a = b, a a a Ba = 2Ba. a Alexis Lechervy Apprentissage automatique 17 / 49

20 Résolution analytique Condition nécessaire d optimalité Annulation de la dérivée de L suivant w L(w) w = w (y Xw) (y Xw), (19) = [ y y w X y y Xw + w X Xw ], w (20) = 0 X y (y X ) + 2X Xw, (21) = 2(X y X Xw), (22) = X y X Xw = 0. (23) Alexis Lechervy Apprentissage automatique 18 / 49

21 Résolution analytique Condition nécessaire d optimalité Annulation de la dérivée de L suivant w L(w) w = w (y Xw) (y Xw), (19) = [ y y w X y y Xw + w X Xw ], w (20) = 0 X y (y X ) + 2X Xw, (21) = 2(X y X Xw), (22) = X y X Xw = 0. (23) Solution X Xw = X y, (24) w = (X X ) 1 X y. (25) X = (X X ) 1 X est la pseudo-inverse de X. Si X est inversible la pseudo-inverse est égale à l inverse de X. Alexis Lechervy Apprentissage automatique 18 / 49

22 Résolution par descente de gradient Méthode de résolution alternative Analyse de la solution analytique Le calcul de la pseudo-inverse est en O(D 3 ). Si le nombre de dimension des descripteurs est grand, le calcul de la pseudo-inverse peut s avérer très couteux. Solution de résolution alternative : la descente de gradient Cette solution consiste à atteindre le minimum d une fonction par des descentes successive selon son gradient (la plus forte pente). On change itérativement la valeur de w selon son gradient de L(w n ) : w n+1 w n α w L(w n ). Alexis Lechervy Apprentissage automatique 19 / 49

23 Résolution par descente de gradient Résolution d un problème de régression par descente de gradient A chaque itération on met à jour w w n+1 = w n α w L(w n ), (26) ] w n+1 = w n α w [(y Xw) (y Xw), (27) w n+1 = w n + 2αX (y Xw), (28) N w n+1 = w n + 2α (y i f (x i, w n )) x i. (29) Online gradient descent regression Afin d accélérer les calcules, on peut utiliser un descente de gradient stochastique. On approxime le gradient de L par le gradient de la fonction de coût pour un exemple : w n+1 = w n + 2α(y i f (x i, w n ))x i Alexis Lechervy Apprentissage automatique 20 / 49

24 Résolution par descente de gradient Normalisation des entrées Normalisation des entrées L amplification des modifications de w dépend de x i. Généralement on normalise les données de façon à avoir les entrées entre -1 et 1 et de moyenne nulle : x i = x i x σ. avec x = 1 N N x i et σ 2 = 1 N N 1 (x i x) 2. Alexis Lechervy Apprentissage automatique 21 / 49

25 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49

26 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49

27 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49

28 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49

29 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49

30 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49

31 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49

32 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49

33 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49

34 Résolution par descente de gradient Régression pour des fonctions non linéaires Hypothèse sur la famille de fonction On considère les fonctions de type f (x; w) = w 0 + w 1 ϕ 1 (x) + + w m ϕ m (x). Résolution On calcul les valeurs ϕ i (x) pour tout i, puis on effectue une régression linéaire dans ce nouvelle espace. { i, x i = ϕ i (x)} f (x; w) = w 0 + w 1 x w m x m. Alexis Lechervy Apprentissage automatique 23 / 49

35 Résolution par descente de gradient Exemple de fonction ϕ La régression polynomiale Combinaison d exponentielle ϕ i = x i. ϕ i = exp ( (x µ i) 2 ) 2σ 2. Combinaison de sigmoïde ( ) x µi ϕ i = s σ avec s(a) = exp( a). Alexis Lechervy Apprentissage automatique 24 / 49

36 Résolution par descente de gradient Exemple de régression polynomiale = On constate un phénomène de surapprentissage. Alexis Lechervy Apprentissage automatique 25 / 49

37 Résolution par descente de gradient Régularisation Motivation Pour éviter le surapprentissage, on ajoute un terme de régularisation dans le problème d optimisation pour pénaliser "les solution trop complexe" (cf. principe du rasoir d Occam). Le problème d optimisation régularisé w = arg min L(w) + λr(w). w r est une fonction de régularisation mesurant "la complexité" de la solution w. λ permet de régler le compromis entre attache aux données et "simplicité" de la solution. La fonction de régularisation r On choisie généralement une fonction de régularisation de la forme : d r(w) = w i q i=0 Alexis Lechervy Apprentissage automatique 26 / 49

38 Résolution par descente de gradient Régression d arête (Ridge Regression) Problème d optimisation On choisie une fonction de régularisation r avec q = 2. On veux minimiser : Solution analytique Exemples w ridge = arg min w N y i w 0 d w j x (i) j=1 w ridge = (λi + X X ) 1 X y. j 2 + λ d j=0 w 2 j. Alexis Lechervy Apprentissage automatique 27 / 49

39 Résolution par descente de gradient La régression LASSO (LASSO Regression) Problème d optimisation On choisie une fonction de régularisation r avec q = 1. On veux minimiser : w ridge = arg min w N y i w 0 d w j x (i) j=1 j 2 + λ d w j. j=0 Remarques On cherche une solution dont le maximum de coefficient soit nuls (parcimonie). Le problème n est plus minimisable par descente de gradient à cause de la discontinué de la dérivée de la fonction valeur absolue. On se base sur la forme Lagrangienne du problème d optimisation pour le résoudre. Alexis Lechervy Apprentissage automatique 28 / 49

40 Résolution par descente de gradient Forme Lagrangienne des problèmes de régression La régression d arête (Ridge Regression) N arg min w wridge = ( y i w 0 ) 2 d j=1 w jx (i) j sous contrainte d j=0 w j 2 t La régression LASSO N arg min w wridge = ( y i w 0 ) 2 d j=1 w jx (i) j sous contrainte d j=0 w j t.. Alexis Lechervy Apprentissage automatique 29 / 49

41 Classification Logistique Sommaire 1 Régression 2 Classification Logistique 3 Validation croisée Alexis Lechervy Apprentissage automatique 29 / 49

42 Classification Logistique Utilisation de la régression pour faire de la classification? Principe de la régression La régression consiste à apprendre une fonction f établissant un mapping d un espace X vers un espace continu Y. Principe de la classification La classification consiste à apprendre une fonction f établissant un mapping d un espace X vers un espace discret Y. Généralement Y = {0, 1} ou Y = { 1, 1}. Idée d approche naïve { 1 si Utiliser la régression pour apprendre une fonction f (w yi = 1, x i ) = 1 sinon Lors de la classification d un nouvel exemple, on regarde uniquement le signe de f (w, x i ) pour l attribuer à une des deux classes. Dans ce cas, l équation f (w, x) = 0 définit une frontière de décision qui partitionne l espace X en deux sous-espaces.. Alexis Lechervy Apprentissage automatique 30 / 49

43 Classification Logistique Exemple 1D Alexis Lechervy Apprentissage automatique 31 / 49

44 Classification Logistique Exemple 1D Alexis Lechervy Apprentissage automatique 31 / 49

45 Classification Logistique Exemple 1D Alexis Lechervy Apprentissage automatique 31 / 49

46 Classification Logistique Exemple 1D Alexis Lechervy Apprentissage automatique 31 / 49

47 Classification Logistique Est-ce une bonne approche? Alexis Lechervy Apprentissage automatique 32 / 49

48 Classification Logistique Comment utiliser la régression correctement pour faire de la classification? Idée Apprendre un régresseur donnant la probabilité d appartenir à la classe des positifs. f w (x) = P(y = 1 x, w). Si f w (x) 0.5 la classe prédite est 1. Si f w (x) < 0.5 la classe prédite est 0. Comme la somme des probabilités vaut 1 : P(y = 0 x, w) = 1 P(y = 1 x, w) = 1 f w (x). Alexis Lechervy Apprentissage automatique 33 / 49

49 Classification Logistique Le cas linéaire Comment transformer une fonction linéaire en probabilité? On utilise une sigmoïde g qui transforme une fonction de R en fonction dans l intervalle [0, 1]. 1 g(x) = 1 + e x. Alexis Lechervy Apprentissage automatique 34 / 49

50 Classification Logistique La classification logistique Famille de fonction cible On cherche à apprendre une fonction logistique de la forme Remarques P(y = 1 x) = f w (x) = g(w x) = e w x. Si f w (x) = 0.7, on a 70% de chance que x appartienne à la classe 1. w x = 0 f w (x) = 0.5. w x 0 f w (x) 0.5 x est dans la classe 1. Fonction de coût On va chercher à résoudre un problème similaire à la régression avec une fonction de coût de type : L(w, X ) = 1 N loss(f w (x i ), y i ). N Alexis Lechervy Apprentissage automatique 35 / 49

51 Classification Logistique La fonction de coût Utilisation de la même fonction que pour la régression Si on prend loss(f w (x i ), y i ) = f w (x i ) y i 2 comme pour la régression, L(w, X ) n est pas convexe! Utilisation des probabilités pour choisir une fonction de coût On veux maximiser la probabilité que les exemples x soit classé dans la bonne classe. Si on suppose que tout les couples (x i, y i ) sont indépendant les un des autres alors la probabilité que tout les exemples soit bien classé est égale à i P(y i x i ). On cherche donc w = arg max w = arg max log w = arg max w P(y i x i ), (30) i i ( ) P(y i x i ), (31) i log (P(y i x i )), (32) 1 = arg min log (P(y i x i )). (33) w N Alexis Lechervy Apprentissage automatique i 36 / 49

52 Classification Logistique La fonction de coût pour la classification logistique Fonction de coût On prend donc loss(f w (x i ), y i ) = log(p(y i x i )). On a donc pour la classification binaire : { log(fw (x loss(f w (x i ), y i ) = i )) si y = 1 log(1 f w (x i )) si y = 0. Analyse de la fonction de coût Si y = 1 et f w (x) = 1, le coût vaut 0 et augmente si f w (x) décroît. Si y = 0 et f w (x) = 0, le cout vaut 0 et augmente si f w (x) croît. Alexis Lechervy Apprentissage automatique 37 / 49

53 Classification Logistique La fonction de coût pour la classification logistique Comme on a toujours y à 0 ou 1, on peut simplifier la fonction de cout à optimiser par : L(w, X ) = 1 N = 1 N = 1 N N loss(f w (x i ), y i ), (35) N log (P(y i x i )), (36) N y i log(f w (x i )) + (1 y i ) log(1 f w (x i )). (37) Alexis Lechervy Apprentissage automatique 38 / 49

54 Classification Logistique Convexité de la fonction de coût Dérivée d une sigmoïde dg(a) da = g(a)(1 a). Dérivée première de la fonction de coût L(w, X ) w = 1 N N ( g(w ) x i ) y i xi. Dérivée seconde de la fonction de coût 2 L(w, X ) w 2 = 1 N N g(w x i )(1 g(w x i ))x 2 i > 0. La fonction est donc bien convexe. On peut donc utiliser une descente de gradient pour résoudre le problème d optimisation. Alexis Lechervy Apprentissage automatique 39 / 49

55 Classification Logistique Classification logistique non linéaire On peut considérer le cas des fonctions non linéaire en utilisant la même astuce que pour la régression : P(y = 1 x, w) = g(w 0 + w 1 ϕ 1 (x) + + w m ϕ m (x)). Alexis Lechervy Apprentissage automatique 40 / 49

56 Validation croisée Sommaire 1 Régression 2 Classification Logistique 3 Validation croisée Alexis Lechervy Apprentissage automatique 40 / 49

57 Validation croisée Décomposition en Biais/Variance Notations On cherche à apprendre le modèle bruité : y = F (x) + ν. On approche F par f (x, ŵ) H. Pour un ensemble X, on a ˆf (x) = f (x, ŵ) et f (x) = E X [f (x, ŵ)] la moyenne sur plusieurs ensembles de données. Biais/Bruit/Variance Alexis Lechervy Apprentissage automatique 41 / 49

58 Validation croisée Décomposition en Biais/Variance Décomposition E[l erreur quadratique] = biais 2 + variance + noise On ne peut rien faire pour réduire le bruit. Le biais est minimisé par notre fonction de coût quadratique. La variance est réduite par le terme de régularisation et/ou une validation croisé. Alexis Lechervy Apprentissage automatique 42 / 49

59 Validation croisée Idée de la validation croisé Idée On pourrait calculer l erreur sur un échantillon indépendant n ayant pas participé à l estimation du modèle. Les jeux de données On peut découpé l ensemble des données trois jeux de données : Train : données permettant l apprentissage, Val : données permettant de valider l apprentissage et notamment régler les paramètres de la méthode d apprentissage, Test : données de test permettant de mesurer les performances de la méthode. Chacun de ces ensembles doivent être statiquement représentatif des données que vous pouvez rencontrer. Vous pouvez, par exemples, tirer au hasard de façon uniforme chacun des trois ensembles en respectant l équilibre des classes. Alexis Lechervy Apprentissage automatique 43 / 49

60 Validation croisée La validation croisée Principe Itérer l estimation de l erreur sur plusieurs échantillons de validation puis en calculer la moyenne. C est indispensable pour réduire la variance et améliorer la précision lorsque la taille de l échantillon initial est trop réduite pour en extraire un échantillon de validation ou test de taille suffisante. Plusieurs stratégies existent : k-fold, leave-one-out,... k-fold cross-validation Découper aléatoirement l échantillon d apprentissage D en K parts de tailles approximativement égales. Répéter K fois l opération qui consiste à mettre de côté l une des parties, estimer le modèle sur les K 1 parties restantes, calculer l erreur sur chacune des observations n ayant pas participé à l estimation. Moyenner toutes ces erreurs pour aboutir à l estimation par validation croisée. Leave one out On utilise la même stratégie que la k-fold cross-validation mais la partie mise de coté a une taille d un exemple. Alexis Lechervy Apprentissage automatique 44 / 49

61 Validation croisée K-fold cross validation Alexis Lechervy Apprentissage automatique 45 / 49

62 Validation croisée Leave one out cross validation Les modèles sont appris sur toutes les données sauf le i-ème exemple. Alexis Lechervy Apprentissage automatique 46 / 49

63 Validation croisée Exemple de cross-validation Alexis Lechervy Apprentissage automatique 47 / 49

64 Validation croisée Sélection de modèle par validation simple Algorithme Sélection d une famille de fonction avec un hyperparamètre θ. Divisé l ensemble d apprentissage D n en deux : D tr = {x 1,, x tr}, D val = {x tr+1,, x tr+val }, On a n = tr + val. Pour toute les valeurs de θ m de l hyperparamètre θ faire : Sélectionner f θ m (D tr ) = arg min f Fθm ˆL(f, D tr ). Estimer L(f θ m ) avec ˆL(f, D val ) = 1 val Choisir θ = arg min θm L(f θ m ). Retourner f = arg min f Fθ m ˆL(f, Dn ). x i D val loss(x i, f θ m ). Alexis Lechervy Apprentissage automatique 48 / 49

65 Validation croisée Sélection de modèle par cross validation croisée Algorithme Sélection d une famille de fonction avec un hyperparamètre θ. Divisé l ensemble d apprentissage D n en K ensembles distincts de même taille D 1,, D K. Pour toute les valeurs de θ m de l hyperparamètre θ faire : Pour chaque ensemble D k et D k = D n \ D k faire : Sélectionner fθ m ( D tr ) = arg min f Fθm ˆL(f, D). Estimer L(fθ m ( D k )) avec ˆL(f, D k ) = 1 D k Choisir L(f ) avec 1 K Choisir θ = arg min θm L(fθ m ). k L(f θ m ( D k )). Retourner f = arg min f Fθ m ˆL(f, Dn ). x i D k loss(x i, f θ m ). Alexis Lechervy Apprentissage automatique 49 / 49

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

Coup de Projecteur sur les Réseaux de Neurones

Coup de Projecteur sur les Réseaux de Neurones Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

«Cours Statistique et logiciel R»

«Cours Statistique et logiciel R» «Cours Statistique et logiciel R» Rémy Drouilhet (1), Adeline Leclercq-Samson (1), Frédérique Letué (1), Laurence Viry (2) (1) Laboratoire Jean Kuntzmann, Dép. Probabilites et Statistique, (2) Laboratoire

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières

Plus en détail

Chapitre 6 Apprentissage des réseaux de neurones et régularisation

Chapitre 6 Apprentissage des réseaux de neurones et régularisation Chapitre 6 : Apprentissage des réseaux de neurones et régularisation 77 Chapitre 6 Apprentissage des réseaux de neurones et régularisation Après une introduction rapide aux réseaux de neurones et à la

Plus en détail

Programmation Linéaire - Cours 1

Programmation Linéaire - Cours 1 Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

Chapitre 2/ La fonction de consommation et la fonction d épargne

Chapitre 2/ La fonction de consommation et la fonction d épargne hapitre 2/ La fonction de consommation et la fonction d épargne I : La fonction de consommation keynésienne II : Validations et limites de la fonction de consommation keynésienne III : Le choix de consommation

Plus en détail

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire

Plus en détail

LES MÉTHODES DE POINT INTÉRIEUR 1

LES MÉTHODES DE POINT INTÉRIEUR 1 Chapitre XIII LES MÉTHODES DE POINT INTÉRIEUR 1 XIII.1 Introduction Nous débutons par un rappel de la formulation standard d un problème d optimisation 2 linéaire et donnons un bref aperçu des différences

Plus en détail

Optimisation, traitement d image et éclipse de Soleil

Optimisation, traitement d image et éclipse de Soleil Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement

Plus en détail

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle CHAPITRE I Modélisation de processus et estimation des paramètres d un modèle I. INTRODUCTION. Dans la première partie de ce chapitre, nous rappelons les notions de processus et de modèle, ainsi que divers

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

Arbres binaires de décision

Arbres binaires de décision 1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

Cryptographie et fonctions à sens unique

Cryptographie et fonctions à sens unique Cryptographie et fonctions à sens unique Pierre Rouchon Centre Automatique et Systèmes Mines ParisTech pierre.rouchon@mines-paristech.fr Octobre 2012 P.Rouchon (Mines ParisTech) Cryptographie et fonctions

Plus en détail

Etude des propriétés empiriques du lasso par simulations

Etude des propriétés empiriques du lasso par simulations Etude des propriétés empiriques du lasso par simulations L objectif de ce TP est d étudier les propriétés empiriques du LASSO et de ses variantes à partir de données simulées. Un deuxième objectif est

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

de calibration Master 2: Calibration de modèles: présentation et simulation d

de calibration Master 2: Calibration de modèles: présentation et simulation d Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe

Plus en détail

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA

Exercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA 75. Un plombier connaît la disposition de trois tuyaux sous des dalles ( voir figure ci dessous ) et il lui suffit de découvrir une partie de chacun d eux pour pouvoir y poser les robinets. Il cherche

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Équations non linéaires

Équations non linéaires Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

STATISTIQUES. UE Modélisation pour la biologie

STATISTIQUES. UE Modélisation pour la biologie STATISTIQUES UE Modélisation pour la biologie 2011 Cadre Général n individus: 1, 2,..., n Y variable à expliquer : Y = (y 1, y 2,..., y n ), y i R Modèle: Y = Xθ + ε X matrice du plan d expériences θ paramètres

Plus en détail

CAPTEURS - CHAINES DE MESURES

CAPTEURS - CHAINES DE MESURES CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,

Plus en détail

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU

$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU $SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU Fabien FIGUERES fabien.figueres@mpsa.com 0RWVFOpV : Krigeage, plans d expériences space-filling, points de validations, calibration moteur. 5pVXPp Dans le

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Résolution de systèmes linéaires par des méthodes directes

Résolution de systèmes linéaires par des méthodes directes Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.

Plus en détail

Soutenance de stage Laboratoire des Signaux et Systèmes

Soutenance de stage Laboratoire des Signaux et Systèmes Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud

Plus en détail

Table des matières. I Mise à niveau 11. Préface

Table des matières. I Mise à niveau 11. Préface Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane

Plus en détail

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases) Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases) Heuristique Constructive Itérativement, ajoute de nouvelles composantes à une solution partielle candidate Espace

Plus en détail

Apprentissage non paramétrique en régression

Apprentissage non paramétrique en régression 1 Apprentissage non paramétrique en régression Apprentissage non paramétrique en régression Résumé Différentes méthodes d estimation non paramétriques en régression sont présentées. Tout d abord les plus

Plus en détail

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Fausto Errico Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2012 Table des matières

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme

Plus en détail

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h Télécom Physique Strasbourg Master IRIV Optimisation et programmation mathématique Professeur Michel de Mathelin Cours intégré : 20 h Programme du cours d optimisation Introduction Chapitre I: Rappels

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

Resolution limit in community detection

Resolution limit in community detection Introduction Plan 2006 Introduction Plan Introduction Introduction Plan Introduction Point de départ : un graphe et des sous-graphes. But : quantifier le fait que les sous-graphes choisis sont des modules.

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55

Plus en détail

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés

Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés Professeur Patrice Francour francour@unice.fr Une grande partie des illustrations viennent

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Master IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP

Master IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP Master IMA - UMPC Paris 6 RDMM - Année 2009-200 Fiche de TP Préliminaires. Récupérez l archive du logiciel de TP à partir du lien suivant : http://www.ensta.fr/~manzaner/cours/ima/tp2009.tar 2. Développez

Plus en détail

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans

Mathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans Mathématique et Automatique : de la boucle ouverte à la boucle fermée Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans Maitine.Bergounioux@labomath.univ-orleans.fr Plan 1. Un peu de

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Une comparaison de méthodes de discrimination des masses de véhicules automobiles p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

Algorithmes pour la planification de mouvements en robotique non-holonome

Algorithmes pour la planification de mouvements en robotique non-holonome Algorithmes pour la planification de mouvements en robotique non-holonome Frédéric Jean Unité de Mathématiques Appliquées ENSTA Le 02 février 2006 Outline 1 2 3 Modélisation Géométrique d un Robot Robot

Plus en détail

OPTIMISATION À UNE VARIABLE

OPTIMISATION À UNE VARIABLE OPTIMISATION À UNE VARIABLE Sommaire 1. Optimum locaux d'une fonction... 1 1.1. Maximum local... 1 1.2. Minimum local... 1 1.3. Points stationnaires et points critiques... 2 1.4. Recherche d'un optimum

Plus en détail

Etude de fonctions: procédure et exemple

Etude de fonctions: procédure et exemple Etude de fonctions: procédure et exemple Yves Delhaye 8 juillet 2007 Résumé Dans ce court travail, nous présentons les différentes étapes d une étude de fonction à travers un exemple. Nous nous limitons

Plus en détail

!-.!#- $'( 1&) &) (,' &*- %,!

!-.!#- $'( 1&) &) (,' &*- %,! 0 $'( 1&) +&&/ ( &+&& &+&))&( -.#- 2& -.#- &) (,' %&,))& &)+&&) &- $ 3.#( %, (&&/ 0 ' Il existe plusieurs types de simulation de flux Statique ou dynamique Stochastique ou déterministe A événements discrets

Plus en détail

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. david.madore@enst.fr. 29 mai 2015

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. david.madore@enst.fr. 29 mai 2015 et et Journées Télécom-UPS «Le numérique pour tous» David A. Madore Télécom ParisTech david.madore@enst.fr 29 mai 2015 1/31 et 2/31 : définition Un réseau de R m est un sous-groupe (additif) discret L

Plus en détail

Apprentissage par renforcement (1a/3)

Apprentissage par renforcement (1a/3) Apprentissage par renforcement (1a/3) Bruno Bouzy 23 septembre 2014 Ce document est le chapitre «Apprentissage par renforcement» du cours d apprentissage automatique donné aux étudiants de Master MI, parcours

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Température corporelle d un castor (une petite introduction aux séries temporelles)

Température corporelle d un castor (une petite introduction aux séries temporelles) Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

Exercices Alternatifs. Une fonction continue mais dérivable nulle part

Exercices Alternatifs. Une fonction continue mais dérivable nulle part Eercices Alternatifs Une fonction continue mais dérivable nulle part c 22 Frédéric Le Rou (copyleft LDL : Licence pour Documents Libres). Sources et figures: applications-continues-non-derivables/. Version

Plus en détail

Data Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.

Data Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto. des des Data Mining Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne 2012-2013 1/65 des des 1 2 des des 3 4 Post-traitement 5 représentation : 6 2/65 des des Définition générale Le

Plus en détail

Rupture et plasticité

Rupture et plasticité Rupture et plasticité Département de Mécanique, Ecole Polytechnique, 2009 2010 Département de Mécanique, Ecole Polytechnique, 2009 2010 25 novembre 2009 1 / 44 Rupture et plasticité : plan du cours Comportements

Plus en détail

DETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES

DETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES Agence fédérale pour la Sécurité de la Chaîne alimentaire Administration des Laboratoires Procédure DETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES Date de mise en application

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

Traitement bas-niveau

Traitement bas-niveau Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.

Plus en détail

La demande Du consommateur. Contrainte budgétaire Préférences Choix optimal

La demande Du consommateur. Contrainte budgétaire Préférences Choix optimal La demande Du consommateur Contrainte budgétaire Préférences Choix optimal Plan du cours Préambule : Rationalité du consommateur I II III IV V La contrainte budgétaire Les préférences Le choix optimal

Plus en détail

Optimisation des fonctions de plusieurs variables

Optimisation des fonctions de plusieurs variables Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

CHOIX OPTIMAL DU CONSOMMATEUR. A - Propriétés et détermination du choix optimal

CHOIX OPTIMAL DU CONSOMMATEUR. A - Propriétés et détermination du choix optimal III CHOIX OPTIMAL DU CONSOMMATEUR A - Propriétés et détermination du choix optimal La demande du consommateur sur la droite de budget Résolution graphique Règle (d or) pour déterminer la demande quand

Plus en détail

Chapitre 1 Régime transitoire dans les systèmes physiques

Chapitre 1 Régime transitoire dans les systèmes physiques Chapitre 1 Régime transitoire dans les systèmes physiques Savoir-faire théoriques (T) : Écrire l équation différentielle associée à un système physique ; Faire apparaître la constante de temps ; Tracer

Plus en détail

Mathématiques appliquées à l'économie et à la Gestion

Mathématiques appliquées à l'économie et à la Gestion Mathématiques appliquées à l'économie et à la Gestion Mr Makrem Ben Jeddou Mme Hababou Hella Université Virtuelle de Tunis 2008 Continuité et dérivation1 1- La continuité Théorème : On considère un intervalle

Plus en détail

Dérivées d ordres supérieurs. Application à l étude d extrema.

Dérivées d ordres supérieurs. Application à l étude d extrema. Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une

Plus en détail

Exercices Corrigés Premières notions sur les espaces vectoriels

Exercices Corrigés Premières notions sur les espaces vectoriels Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3

Plus en détail

Enjeux mathématiques et Statistiques du Big Data

Enjeux mathématiques et Statistiques du Big Data Enjeux mathématiques et Statistiques du Big Data Mathilde Mougeot LPMA/Université Paris Diderot, mathilde.mougeot@univ-paris-diderot.fr Mathématique en Mouvements, Paris, IHP, 6 Juin 2015 M. Mougeot (Paris

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Intérêt du découpage en sous-bandes pour l analyse spectrale

Intérêt du découpage en sous-bandes pour l analyse spectrale Intérêt du découpage en sous-bandes pour l analyse spectrale David BONACCI Institut National Polytechnique de Toulouse (INP) École Nationale Supérieure d Électrotechnique, d Électronique, d Informatique,

Plus en détail

Exercice : la frontière des portefeuilles optimaux sans actif certain

Exercice : la frontière des portefeuilles optimaux sans actif certain Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué

Plus en détail

ALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII

ALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII ALGORITHMIQUE II NOTION DE COMPLEXITE 1 2 Comment choisir entre différents algorithmes pour résoudre un même problème? Plusieurs critères de choix : Exactitude Simplicité Efficacité (but de ce chapitre)

Plus en détail

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007

Vision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007 Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................

Plus en détail

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation Complexité Objectifs des calculs de complexité : - pouvoir prévoir le temps d'exécution d'un algorithme - pouvoir comparer deux algorithmes réalisant le même traitement Exemples : - si on lance le calcul

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail