Apprentissage automatique
|
|
- Roger Brunet
- il y a 7 ans
- Total affichages :
Transcription
1 Apprentissage automatique Cours 2: Régression - Classification Logistique - Validation croisée Alexis Lechervy Alexis Lechervy Apprentissage automatique 1 / 49
2 Sommaire 1 Régression Problématique Résolution analytique Résolution par descente de gradient 2 Classification Logistique 3 Validation croisée Alexis Lechervy Apprentissage automatique 1 / 49
3 Problématique La régression Principes Exemple Trouver la relation entre une variable et une ou plusieurs autres variables. Expliquer les données. Trouver la fonction qui minimise un critère d erreur entre les valeurs de la fonction aux points d apprentissage et les observations pour effectuer ensuite des prédictions. Recherche d une fonction f a de paramètre a vérifiant y = f a (x). Alexis Lechervy Apprentissage automatique 2 / 49
4 Problématique Exemple d utilisation de la régression Exemples d utilisation Pression Température d ébullition. Vitesse + taux d humidité de la route Distance de freinage. Taux d alcool dans le sang temps de réaction.... But On souhaite prédire la valeur cible y à partir d une nouvelle entrée x. Alexis Lechervy Apprentissage automatique 3 / 49
5 Problématique Notations On note N la dimension de l ensemble d apprentissage. X l espace de description des exemples d apprentissage. Généralement X = R d où d est la dimensions des descripteurs. x i le i ème exemple d apprentissage. x i X et x i = [x (i) 1,, x (i) d ]. Y l espace des valeurs de labels, généralement Y = R. y i Y est le label de l exemple i. X la matrice N d des exemples tel que la i ème ligne contienne x i. y = [y 1,, y N ] est le vecteur des labels. Alexis Lechervy Apprentissage automatique 4 / 49
6 Problématique Les étapes de résolution d un problème de régression Initialisation Récolter un ensemble d exemple d apprentissage. Choisir une classe de fonction (par exemple les fonctions linéaires). Choisir un critère de sélection de la fonction optimale à partir de la classe de fonction. Résolution Trouver la fonction de la classe de fonction qui minimise notre critère de sélection sur nos données d apprentissages. Alexis Lechervy Apprentissage automatique 5 / 49
7 Problématique Exemple : les fonctions linéaires Ajustement linéaire aux données On cherche la fonction linéaire qui s ajuste au mieux à un ensemble de points observées X = [x 1,, x N ] associés aux labels réelles Y = [y 1,, y N ]. On cherche les paramètres w définissant la fonction f suivantes : f : R R, (1) f (x; w) = w 0 + w 1 x w d x d. (2) Alexis Lechervy Apprentissage automatique 6 / 49
8 Problématique Exemple : les fonctions linéaires Formes générales f (x; w) = w 0 + w, x = w 0 + w 1 x w d x d. Cas particuliers Cas 1D : une droite. Cas 2D : un plan. Cas nd : un hyperplan. Alexis Lechervy Apprentissage automatique 7 / 49
9 Problématique Erreur de prédiction Le critère de moindre carré On peut mesurer l erreur de prédiction en terme de moyenne des distances au carrés : Loss(y, ỹ) = y ỹ 2. On cherche donc les w minimisant la fonction de coût suivantes : L(w, X ) = 1 N N (y i f (x i, w)) 2. Alexis Lechervy Apprentissage automatique 8 / 49
10 Résolution analytique Résumé Contexte choisie Classe de fonction utilisé : les fonctions linéaires. d f (x; w) = w 0 + w, x = w 0 + w i x i. Critère de sélection : minimisation du risque empirique. L(w, X ) = 1 N N (y i f (x i, w)) 2. Problématique : la régression par moindre carré On cherche les w optimal tel que w = arg min w N y i w 0 2 d w j x (i). Alexis Lechervy Apprentissage automatique 9 / 49 j=1 j
11 Résolution analytique Minimisation par moindre carré dans le cas 1D Formulation Nous nous restreignons, dans un premier temps, au cas à une seule dimensions : Condition d optimalité w = arg min w L(w) = arg min w N ( y i w 0 w 1 x (i)) 2. Une condition nécessaire pour minimiser L est d annuler les dérivées de L suivant w 0 et w 1. Cette condition est suffisante si la fonction L est convexe. Alexis Lechervy Apprentissage automatique 10 / 49
12 Résolution analytique Annulation de la dérivée de L suivant w 0 L(w 0, w 1 ) w 0 = = = = w 0 N N N N ( y i w 0 w 1 x (i)) 2, (3) ( y i w 0 w 1 x (i)) 2, (4) w 0 ( 2 y i w 0 w 1 x (i)) ( 1) = 0, (5) ( 2 y i w 0 w 1 x (i)) = 0. (6) Alexis Lechervy Apprentissage automatique 11 / 49
13 Résolution analytique Annulation de la dérivée de L suivant w 0 L(w 0, w 1 ) w 0 = = = = w 0 N N N N ( y i w 0 w 1 x (i)) 2, (3) ( y i w 0 w 1 x (i)) 2, (4) w 0 ( 2 y i w 0 w 1 x (i)) ( 1) = 0, (5) ( 2 y i w 0 w 1 x (i)) = 0. (6) Annulation de la dérivée de L suivant w 1 L(w 0, w 1 ) N ( = 2 y i w 0 w 1 x (i)) x (i) = 0. w 1 Alexis Lechervy Apprentissage automatique 11 / 49
14 Résolution analytique Conditions d optimalités On obtient donc les conditions d optimalités suivantes : N ( y i w 0 w 1 x (i)) = 0, N ( y i w 0 w 1 x (i)) x (i) = 0. Remarques Soit ɛ i = y i w 0 w 1 x (i), on a : Les erreurs de prédiction ont une moyenne nulle 1 N N ɛ = 0. Les erreurs de prédiction ne sont pas corrélées avec les données 1 N N ɛx i = 0. Alexis Lechervy Apprentissage automatique 12 / 49
15 Résolution analytique Calcul de la solution Calcul de w 0 N ( y i w 0 w 1 x (i)) = 0 = w 0 = 1 N = w 0 = 1 N N N ( y i w 1 x (i)) (7) y i w 1 1 N N x (i) (8) = w 0 = ȳ w 1 x. (9) Alexis Lechervy Apprentissage automatique 13 / 49
16 Résolution analytique Calcul de la solution Calcul de w 0 w 0 = ȳ w 1 x. (10) Calcul de w 1 N ( y i w 0 w 1 x (i)) x (i) = 0 = = N N = w 1 = = w 1 = ( y i (ȳ w 1 x) w 1 x (i)) x (i) = (11) 0 ( ) y i ȳ w 1 ( x + x (i) ) x (i) = (12) 0 1 N N (y i ȳ) x (i) 1 N N ( x + x (i) ) x (i) (13) xy xȳ x 2 x 2. (14) Alexis Lechervy Apprentissage automatique 14 / 49
17 Résolution analytique Calcul de la solution Calcul de w 0 w0 = ȳ w1 x. (15) Calcul de w 1 w 1 = xy xȳ x 2 x 2. (16) Alexis Lechervy Apprentissage automatique 15 / 49
18 Résolution analytique Minimisation par moindre carrée dans le cas nd Notations On pose : X = Formulation 1 x (1) 1 x (1) d x (N) 1 x (N) d, y = y 1. y N, w = w 0. w d. w = arg min w L(w) = arg min y w ŷ 2 (17) = arg min w (y Xw) (y Xw). (18) Alexis Lechervy Apprentissage automatique 16 / 49
19 Résolution analytique Rappel mathématique Addition/Multiplication et transposé (AB) = B A, (A + B) = A + B. Dérivée et matrice a b = b a = b, a a a Ba = 2Ba. a Alexis Lechervy Apprentissage automatique 17 / 49
20 Résolution analytique Condition nécessaire d optimalité Annulation de la dérivée de L suivant w L(w) w = w (y Xw) (y Xw), (19) = [ y y w X y y Xw + w X Xw ], w (20) = 0 X y (y X ) + 2X Xw, (21) = 2(X y X Xw), (22) = X y X Xw = 0. (23) Alexis Lechervy Apprentissage automatique 18 / 49
21 Résolution analytique Condition nécessaire d optimalité Annulation de la dérivée de L suivant w L(w) w = w (y Xw) (y Xw), (19) = [ y y w X y y Xw + w X Xw ], w (20) = 0 X y (y X ) + 2X Xw, (21) = 2(X y X Xw), (22) = X y X Xw = 0. (23) Solution X Xw = X y, (24) w = (X X ) 1 X y. (25) X = (X X ) 1 X est la pseudo-inverse de X. Si X est inversible la pseudo-inverse est égale à l inverse de X. Alexis Lechervy Apprentissage automatique 18 / 49
22 Résolution par descente de gradient Méthode de résolution alternative Analyse de la solution analytique Le calcul de la pseudo-inverse est en O(D 3 ). Si le nombre de dimension des descripteurs est grand, le calcul de la pseudo-inverse peut s avérer très couteux. Solution de résolution alternative : la descente de gradient Cette solution consiste à atteindre le minimum d une fonction par des descentes successive selon son gradient (la plus forte pente). On change itérativement la valeur de w selon son gradient de L(w n ) : w n+1 w n α w L(w n ). Alexis Lechervy Apprentissage automatique 19 / 49
23 Résolution par descente de gradient Résolution d un problème de régression par descente de gradient A chaque itération on met à jour w w n+1 = w n α w L(w n ), (26) ] w n+1 = w n α w [(y Xw) (y Xw), (27) w n+1 = w n + 2αX (y Xw), (28) N w n+1 = w n + 2α (y i f (x i, w n )) x i. (29) Online gradient descent regression Afin d accélérer les calcules, on peut utiliser un descente de gradient stochastique. On approxime le gradient de L par le gradient de la fonction de coût pour un exemple : w n+1 = w n + 2α(y i f (x i, w n ))x i Alexis Lechervy Apprentissage automatique 20 / 49
24 Résolution par descente de gradient Normalisation des entrées Normalisation des entrées L amplification des modifications de w dépend de x i. Généralement on normalise les données de façon à avoir les entrées entre -1 et 1 et de moyenne nulle : x i = x i x σ. avec x = 1 N N x i et σ 2 = 1 N N 1 (x i x) 2. Alexis Lechervy Apprentissage automatique 21 / 49
25 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49
26 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49
27 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49
28 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49
29 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49
30 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49
31 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49
32 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49
33 Résolution par descente de gradient Exemple de descente de gradient Alexis Lechervy Apprentissage automatique 22 / 49
34 Résolution par descente de gradient Régression pour des fonctions non linéaires Hypothèse sur la famille de fonction On considère les fonctions de type f (x; w) = w 0 + w 1 ϕ 1 (x) + + w m ϕ m (x). Résolution On calcul les valeurs ϕ i (x) pour tout i, puis on effectue une régression linéaire dans ce nouvelle espace. { i, x i = ϕ i (x)} f (x; w) = w 0 + w 1 x w m x m. Alexis Lechervy Apprentissage automatique 23 / 49
35 Résolution par descente de gradient Exemple de fonction ϕ La régression polynomiale Combinaison d exponentielle ϕ i = x i. ϕ i = exp ( (x µ i) 2 ) 2σ 2. Combinaison de sigmoïde ( ) x µi ϕ i = s σ avec s(a) = exp( a). Alexis Lechervy Apprentissage automatique 24 / 49
36 Résolution par descente de gradient Exemple de régression polynomiale = On constate un phénomène de surapprentissage. Alexis Lechervy Apprentissage automatique 25 / 49
37 Résolution par descente de gradient Régularisation Motivation Pour éviter le surapprentissage, on ajoute un terme de régularisation dans le problème d optimisation pour pénaliser "les solution trop complexe" (cf. principe du rasoir d Occam). Le problème d optimisation régularisé w = arg min L(w) + λr(w). w r est une fonction de régularisation mesurant "la complexité" de la solution w. λ permet de régler le compromis entre attache aux données et "simplicité" de la solution. La fonction de régularisation r On choisie généralement une fonction de régularisation de la forme : d r(w) = w i q i=0 Alexis Lechervy Apprentissage automatique 26 / 49
38 Résolution par descente de gradient Régression d arête (Ridge Regression) Problème d optimisation On choisie une fonction de régularisation r avec q = 2. On veux minimiser : Solution analytique Exemples w ridge = arg min w N y i w 0 d w j x (i) j=1 w ridge = (λi + X X ) 1 X y. j 2 + λ d j=0 w 2 j. Alexis Lechervy Apprentissage automatique 27 / 49
39 Résolution par descente de gradient La régression LASSO (LASSO Regression) Problème d optimisation On choisie une fonction de régularisation r avec q = 1. On veux minimiser : w ridge = arg min w N y i w 0 d w j x (i) j=1 j 2 + λ d w j. j=0 Remarques On cherche une solution dont le maximum de coefficient soit nuls (parcimonie). Le problème n est plus minimisable par descente de gradient à cause de la discontinué de la dérivée de la fonction valeur absolue. On se base sur la forme Lagrangienne du problème d optimisation pour le résoudre. Alexis Lechervy Apprentissage automatique 28 / 49
40 Résolution par descente de gradient Forme Lagrangienne des problèmes de régression La régression d arête (Ridge Regression) N arg min w wridge = ( y i w 0 ) 2 d j=1 w jx (i) j sous contrainte d j=0 w j 2 t La régression LASSO N arg min w wridge = ( y i w 0 ) 2 d j=1 w jx (i) j sous contrainte d j=0 w j t.. Alexis Lechervy Apprentissage automatique 29 / 49
41 Classification Logistique Sommaire 1 Régression 2 Classification Logistique 3 Validation croisée Alexis Lechervy Apprentissage automatique 29 / 49
42 Classification Logistique Utilisation de la régression pour faire de la classification? Principe de la régression La régression consiste à apprendre une fonction f établissant un mapping d un espace X vers un espace continu Y. Principe de la classification La classification consiste à apprendre une fonction f établissant un mapping d un espace X vers un espace discret Y. Généralement Y = {0, 1} ou Y = { 1, 1}. Idée d approche naïve { 1 si Utiliser la régression pour apprendre une fonction f (w yi = 1, x i ) = 1 sinon Lors de la classification d un nouvel exemple, on regarde uniquement le signe de f (w, x i ) pour l attribuer à une des deux classes. Dans ce cas, l équation f (w, x) = 0 définit une frontière de décision qui partitionne l espace X en deux sous-espaces.. Alexis Lechervy Apprentissage automatique 30 / 49
43 Classification Logistique Exemple 1D Alexis Lechervy Apprentissage automatique 31 / 49
44 Classification Logistique Exemple 1D Alexis Lechervy Apprentissage automatique 31 / 49
45 Classification Logistique Exemple 1D Alexis Lechervy Apprentissage automatique 31 / 49
46 Classification Logistique Exemple 1D Alexis Lechervy Apprentissage automatique 31 / 49
47 Classification Logistique Est-ce une bonne approche? Alexis Lechervy Apprentissage automatique 32 / 49
48 Classification Logistique Comment utiliser la régression correctement pour faire de la classification? Idée Apprendre un régresseur donnant la probabilité d appartenir à la classe des positifs. f w (x) = P(y = 1 x, w). Si f w (x) 0.5 la classe prédite est 1. Si f w (x) < 0.5 la classe prédite est 0. Comme la somme des probabilités vaut 1 : P(y = 0 x, w) = 1 P(y = 1 x, w) = 1 f w (x). Alexis Lechervy Apprentissage automatique 33 / 49
49 Classification Logistique Le cas linéaire Comment transformer une fonction linéaire en probabilité? On utilise une sigmoïde g qui transforme une fonction de R en fonction dans l intervalle [0, 1]. 1 g(x) = 1 + e x. Alexis Lechervy Apprentissage automatique 34 / 49
50 Classification Logistique La classification logistique Famille de fonction cible On cherche à apprendre une fonction logistique de la forme Remarques P(y = 1 x) = f w (x) = g(w x) = e w x. Si f w (x) = 0.7, on a 70% de chance que x appartienne à la classe 1. w x = 0 f w (x) = 0.5. w x 0 f w (x) 0.5 x est dans la classe 1. Fonction de coût On va chercher à résoudre un problème similaire à la régression avec une fonction de coût de type : L(w, X ) = 1 N loss(f w (x i ), y i ). N Alexis Lechervy Apprentissage automatique 35 / 49
51 Classification Logistique La fonction de coût Utilisation de la même fonction que pour la régression Si on prend loss(f w (x i ), y i ) = f w (x i ) y i 2 comme pour la régression, L(w, X ) n est pas convexe! Utilisation des probabilités pour choisir une fonction de coût On veux maximiser la probabilité que les exemples x soit classé dans la bonne classe. Si on suppose que tout les couples (x i, y i ) sont indépendant les un des autres alors la probabilité que tout les exemples soit bien classé est égale à i P(y i x i ). On cherche donc w = arg max w = arg max log w = arg max w P(y i x i ), (30) i i ( ) P(y i x i ), (31) i log (P(y i x i )), (32) 1 = arg min log (P(y i x i )). (33) w N Alexis Lechervy Apprentissage automatique i 36 / 49
52 Classification Logistique La fonction de coût pour la classification logistique Fonction de coût On prend donc loss(f w (x i ), y i ) = log(p(y i x i )). On a donc pour la classification binaire : { log(fw (x loss(f w (x i ), y i ) = i )) si y = 1 log(1 f w (x i )) si y = 0. Analyse de la fonction de coût Si y = 1 et f w (x) = 1, le coût vaut 0 et augmente si f w (x) décroît. Si y = 0 et f w (x) = 0, le cout vaut 0 et augmente si f w (x) croît. Alexis Lechervy Apprentissage automatique 37 / 49
53 Classification Logistique La fonction de coût pour la classification logistique Comme on a toujours y à 0 ou 1, on peut simplifier la fonction de cout à optimiser par : L(w, X ) = 1 N = 1 N = 1 N N loss(f w (x i ), y i ), (35) N log (P(y i x i )), (36) N y i log(f w (x i )) + (1 y i ) log(1 f w (x i )). (37) Alexis Lechervy Apprentissage automatique 38 / 49
54 Classification Logistique Convexité de la fonction de coût Dérivée d une sigmoïde dg(a) da = g(a)(1 a). Dérivée première de la fonction de coût L(w, X ) w = 1 N N ( g(w ) x i ) y i xi. Dérivée seconde de la fonction de coût 2 L(w, X ) w 2 = 1 N N g(w x i )(1 g(w x i ))x 2 i > 0. La fonction est donc bien convexe. On peut donc utiliser une descente de gradient pour résoudre le problème d optimisation. Alexis Lechervy Apprentissage automatique 39 / 49
55 Classification Logistique Classification logistique non linéaire On peut considérer le cas des fonctions non linéaire en utilisant la même astuce que pour la régression : P(y = 1 x, w) = g(w 0 + w 1 ϕ 1 (x) + + w m ϕ m (x)). Alexis Lechervy Apprentissage automatique 40 / 49
56 Validation croisée Sommaire 1 Régression 2 Classification Logistique 3 Validation croisée Alexis Lechervy Apprentissage automatique 40 / 49
57 Validation croisée Décomposition en Biais/Variance Notations On cherche à apprendre le modèle bruité : y = F (x) + ν. On approche F par f (x, ŵ) H. Pour un ensemble X, on a ˆf (x) = f (x, ŵ) et f (x) = E X [f (x, ŵ)] la moyenne sur plusieurs ensembles de données. Biais/Bruit/Variance Alexis Lechervy Apprentissage automatique 41 / 49
58 Validation croisée Décomposition en Biais/Variance Décomposition E[l erreur quadratique] = biais 2 + variance + noise On ne peut rien faire pour réduire le bruit. Le biais est minimisé par notre fonction de coût quadratique. La variance est réduite par le terme de régularisation et/ou une validation croisé. Alexis Lechervy Apprentissage automatique 42 / 49
59 Validation croisée Idée de la validation croisé Idée On pourrait calculer l erreur sur un échantillon indépendant n ayant pas participé à l estimation du modèle. Les jeux de données On peut découpé l ensemble des données trois jeux de données : Train : données permettant l apprentissage, Val : données permettant de valider l apprentissage et notamment régler les paramètres de la méthode d apprentissage, Test : données de test permettant de mesurer les performances de la méthode. Chacun de ces ensembles doivent être statiquement représentatif des données que vous pouvez rencontrer. Vous pouvez, par exemples, tirer au hasard de façon uniforme chacun des trois ensembles en respectant l équilibre des classes. Alexis Lechervy Apprentissage automatique 43 / 49
60 Validation croisée La validation croisée Principe Itérer l estimation de l erreur sur plusieurs échantillons de validation puis en calculer la moyenne. C est indispensable pour réduire la variance et améliorer la précision lorsque la taille de l échantillon initial est trop réduite pour en extraire un échantillon de validation ou test de taille suffisante. Plusieurs stratégies existent : k-fold, leave-one-out,... k-fold cross-validation Découper aléatoirement l échantillon d apprentissage D en K parts de tailles approximativement égales. Répéter K fois l opération qui consiste à mettre de côté l une des parties, estimer le modèle sur les K 1 parties restantes, calculer l erreur sur chacune des observations n ayant pas participé à l estimation. Moyenner toutes ces erreurs pour aboutir à l estimation par validation croisée. Leave one out On utilise la même stratégie que la k-fold cross-validation mais la partie mise de coté a une taille d un exemple. Alexis Lechervy Apprentissage automatique 44 / 49
61 Validation croisée K-fold cross validation Alexis Lechervy Apprentissage automatique 45 / 49
62 Validation croisée Leave one out cross validation Les modèles sont appris sur toutes les données sauf le i-ème exemple. Alexis Lechervy Apprentissage automatique 46 / 49
63 Validation croisée Exemple de cross-validation Alexis Lechervy Apprentissage automatique 47 / 49
64 Validation croisée Sélection de modèle par validation simple Algorithme Sélection d une famille de fonction avec un hyperparamètre θ. Divisé l ensemble d apprentissage D n en deux : D tr = {x 1,, x tr}, D val = {x tr+1,, x tr+val }, On a n = tr + val. Pour toute les valeurs de θ m de l hyperparamètre θ faire : Sélectionner f θ m (D tr ) = arg min f Fθm ˆL(f, D tr ). Estimer L(f θ m ) avec ˆL(f, D val ) = 1 val Choisir θ = arg min θm L(f θ m ). Retourner f = arg min f Fθ m ˆL(f, Dn ). x i D val loss(x i, f θ m ). Alexis Lechervy Apprentissage automatique 48 / 49
65 Validation croisée Sélection de modèle par cross validation croisée Algorithme Sélection d une famille de fonction avec un hyperparamètre θ. Divisé l ensemble d apprentissage D n en K ensembles distincts de même taille D 1,, D K. Pour toute les valeurs de θ m de l hyperparamètre θ faire : Pour chaque ensemble D k et D k = D n \ D k faire : Sélectionner fθ m ( D tr ) = arg min f Fθm ˆL(f, D). Estimer L(fθ m ( D k )) avec ˆL(f, D k ) = 1 D k Choisir L(f ) avec 1 K Choisir θ = arg min θm L(fθ m ). k L(f θ m ( D k )). Retourner f = arg min f Fθ m ˆL(f, Dn ). x i D k loss(x i, f θ m ). Alexis Lechervy Apprentissage automatique 49 / 49
Programmation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailCoup de Projecteur sur les Réseaux de Neurones
Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détail«Cours Statistique et logiciel R»
«Cours Statistique et logiciel R» Rémy Drouilhet (1), Adeline Leclercq-Samson (1), Frédérique Letué (1), Laurence Viry (2) (1) Laboratoire Jean Kuntzmann, Dép. Probabilites et Statistique, (2) Laboratoire
Plus en détailChp. 4. Minimisation d une fonction d une variable
Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailNotes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières
Plus en détailChapitre 6 Apprentissage des réseaux de neurones et régularisation
Chapitre 6 : Apprentissage des réseaux de neurones et régularisation 77 Chapitre 6 Apprentissage des réseaux de neurones et régularisation Après une introduction rapide aux réseaux de neurones et à la
Plus en détailProgrammation Linéaire - Cours 1
Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.
Plus en détailProgrammation linéaire
Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire
Plus en détailChapitre 2/ La fonction de consommation et la fonction d épargne
hapitre 2/ La fonction de consommation et la fonction d épargne I : La fonction de consommation keynésienne II : Validations et limites de la fonction de consommation keynésienne III : Le choix de consommation
Plus en détailContents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes
Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire
Plus en détailLES MÉTHODES DE POINT INTÉRIEUR 1
Chapitre XIII LES MÉTHODES DE POINT INTÉRIEUR 1 XIII.1 Introduction Nous débutons par un rappel de la formulation standard d un problème d optimisation 2 linéaire et donnons un bref aperçu des différences
Plus en détailOptimisation, traitement d image et éclipse de Soleil
Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement
Plus en détailCHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle
CHAPITRE I Modélisation de processus et estimation des paramètres d un modèle I. INTRODUCTION. Dans la première partie de ce chapitre, nous rappelons les notions de processus et de modèle, ainsi que divers
Plus en détailChapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Plus en détailArbres binaires de décision
1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailCryptographie et fonctions à sens unique
Cryptographie et fonctions à sens unique Pierre Rouchon Centre Automatique et Systèmes Mines ParisTech pierre.rouchon@mines-paristech.fr Octobre 2012 P.Rouchon (Mines ParisTech) Cryptographie et fonctions
Plus en détailEtude des propriétés empiriques du lasso par simulations
Etude des propriétés empiriques du lasso par simulations L objectif de ce TP est d étudier les propriétés empiriques du LASSO et de ses variantes à partir de données simulées. Un deuxième objectif est
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailde calibration Master 2: Calibration de modèles: présentation et simulation d
Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe
Plus en détailExercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA
75. Un plombier connaît la disposition de trois tuyaux sous des dalles ( voir figure ci dessous ) et il lui suffit de découvrir une partie de chacun d eux pour pouvoir y poser les robinets. Il cherche
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailÉquations non linéaires
Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailSTATISTIQUES. UE Modélisation pour la biologie
STATISTIQUES UE Modélisation pour la biologie 2011 Cadre Général n individus: 1, 2,..., n Y variable à expliquer : Y = (y 1, y 2,..., y n ), y i R Modèle: Y = Xθ + ε X matrice du plan d expériences θ paramètres
Plus en détailCAPTEURS - CHAINES DE MESURES
CAPTEURS - CHAINES DE MESURES Pierre BONNET Pierre Bonnet Master GSI - Capteurs Chaînes de Mesures 1 Plan du Cours Propriétés générales des capteurs Notion de mesure Notion de capteur: principes, classes,
Plus en détail$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU
$SSOLFDWLRQGXNULJHDJHSRXUOD FDOLEUDWLRQPRWHXU Fabien FIGUERES fabien.figueres@mpsa.com 0RWVFOpV : Krigeage, plans d expériences space-filling, points de validations, calibration moteur. 5pVXPp Dans le
Plus en détailM2 IAD UE MODE Notes de cours (3)
M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détailRésolution de systèmes linéaires par des méthodes directes
Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.
Plus en détailSoutenance de stage Laboratoire des Signaux et Systèmes
Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud
Plus en détailTable des matières. I Mise à niveau 11. Préface
Table des matières Préface v I Mise à niveau 11 1 Bases du calcul commercial 13 1.1 Alphabet grec...................................... 13 1.2 Symboles mathématiques............................... 14 1.3
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane
Plus en détailOptimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)
Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases) Heuristique Constructive Itérativement, ajoute de nouvelles composantes à une solution partielle candidate Espace
Plus en détailApprentissage non paramétrique en régression
1 Apprentissage non paramétrique en régression Apprentissage non paramétrique en régression Résumé Différentes méthodes d estimation non paramétriques en régression sont présentées. Tout d abord les plus
Plus en détailNotes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Fausto Errico Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2012 Table des matières
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détailOptimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h
Télécom Physique Strasbourg Master IRIV Optimisation et programmation mathématique Professeur Michel de Mathelin Cours intégré : 20 h Programme du cours d optimisation Introduction Chapitre I: Rappels
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailFonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailExercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Plus en détailCalcul différentiel. Chapitre 1. 1.1 Différentiabilité
Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace
Plus en détailResolution limit in community detection
Introduction Plan 2006 Introduction Plan Introduction Introduction Plan Introduction Point de départ : un graphe et des sous-graphes. But : quantifier le fait que les sous-graphes choisis sont des modules.
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailThéorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
Plus en détailObjectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique
Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55
Plus en détailAnalyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés
Analyses de Variance à un ou plusieurs facteurs Régressions Analyse de Covariance Modèles Linéaires Généralisés Professeur Patrice Francour francour@unice.fr Une grande partie des illustrations viennent
Plus en détail4.2 Unités d enseignement du M1
88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter
Plus en détailExo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.
Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).
Plus en détailMaster IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP
Master IMA - UMPC Paris 6 RDMM - Année 2009-200 Fiche de TP Préliminaires. Récupérez l archive du logiciel de TP à partir du lien suivant : http://www.ensta.fr/~manzaner/cours/ima/tp2009.tar 2. Développez
Plus en détailMathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans
Mathématique et Automatique : de la boucle ouverte à la boucle fermée Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans Maitine.Bergounioux@labomath.univ-orleans.fr Plan 1. Un peu de
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailProbabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
Plus en détailUne comparaison de méthodes de discrimination des masses de véhicules automobiles
p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans
Plus en détailSéminaire TEST. 1 Présentation du sujet. October 18th, 2013
Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de
Plus en détailAlgorithmes pour la planification de mouvements en robotique non-holonome
Algorithmes pour la planification de mouvements en robotique non-holonome Frédéric Jean Unité de Mathématiques Appliquées ENSTA Le 02 février 2006 Outline 1 2 3 Modélisation Géométrique d un Robot Robot
Plus en détailOPTIMISATION À UNE VARIABLE
OPTIMISATION À UNE VARIABLE Sommaire 1. Optimum locaux d'une fonction... 1 1.1. Maximum local... 1 1.2. Minimum local... 1 1.3. Points stationnaires et points critiques... 2 1.4. Recherche d'un optimum
Plus en détailEtude de fonctions: procédure et exemple
Etude de fonctions: procédure et exemple Yves Delhaye 8 juillet 2007 Résumé Dans ce court travail, nous présentons les différentes étapes d une étude de fonction à travers un exemple. Nous nous limitons
Plus en détail!-.!#- $'( 1&) &) (,' &*- %,!
0 $'( 1&) +&&/ ( &+&& &+&))&( -.#- 2& -.#- &) (,' %&,))& &)+&&) &- $ 3.#( %, (&&/ 0 ' Il existe plusieurs types de simulation de flux Statique ou dynamique Stochastique ou déterministe A événements discrets
Plus en détailJournées Télécom-UPS «Le numérique pour tous» David A. Madore. david.madore@enst.fr. 29 mai 2015
et et Journées Télécom-UPS «Le numérique pour tous» David A. Madore Télécom ParisTech david.madore@enst.fr 29 mai 2015 1/31 et 2/31 : définition Un réseau de R m est un sous-groupe (additif) discret L
Plus en détailApprentissage par renforcement (1a/3)
Apprentissage par renforcement (1a/3) Bruno Bouzy 23 septembre 2014 Ce document est le chapitre «Apprentissage par renforcement» du cours d apprentissage automatique donné aux étudiants de Master MI, parcours
Plus en détailCorrection du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Plus en détailTempérature corporelle d un castor (une petite introduction aux séries temporelles)
Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature
Plus en détail* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours
Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****
Plus en détailPrécision d un résultat et calculs d incertitudes
Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................
Plus en détailExercices Alternatifs. Une fonction continue mais dérivable nulle part
Eercices Alternatifs Une fonction continue mais dérivable nulle part c 22 Frédéric Le Rou (copyleft LDL : Licence pour Documents Libres). Sources et figures: applications-continues-non-derivables/. Version
Plus en détailData Mining. Vincent Augusto 2012-2013. École Nationale Supérieure des Mines de Saint-Étienne. Data Mining. V. Augusto.
des des Data Mining Vincent Augusto École Nationale Supérieure des Mines de Saint-Étienne 2012-2013 1/65 des des 1 2 des des 3 4 Post-traitement 5 représentation : 6 2/65 des des Définition générale Le
Plus en détailRupture et plasticité
Rupture et plasticité Département de Mécanique, Ecole Polytechnique, 2009 2010 Département de Mécanique, Ecole Polytechnique, 2009 2010 25 novembre 2009 1 / 44 Rupture et plasticité : plan du cours Comportements
Plus en détailDETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES
Agence fédérale pour la Sécurité de la Chaîne alimentaire Administration des Laboratoires Procédure DETERMINATION DE L INCERTITUDE DE MESURE POUR LES ANALYSES CHIMIQUES QUANTITATIVES Date de mise en application
Plus en détailCalcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.
1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le
Plus en détailTraitement bas-niveau
Plan Introduction L approche contour (frontière) Introduction Objectifs Les traitements ont pour but d extraire l information utile et pertinente contenue dans l image en regard de l application considérée.
Plus en détailLa demande Du consommateur. Contrainte budgétaire Préférences Choix optimal
La demande Du consommateur Contrainte budgétaire Préférences Choix optimal Plan du cours Préambule : Rationalité du consommateur I II III IV V La contrainte budgétaire Les préférences Le choix optimal
Plus en détailOptimisation des fonctions de plusieurs variables
Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détailCHOIX OPTIMAL DU CONSOMMATEUR. A - Propriétés et détermination du choix optimal
III CHOIX OPTIMAL DU CONSOMMATEUR A - Propriétés et détermination du choix optimal La demande du consommateur sur la droite de budget Résolution graphique Règle (d or) pour déterminer la demande quand
Plus en détailChapitre 1 Régime transitoire dans les systèmes physiques
Chapitre 1 Régime transitoire dans les systèmes physiques Savoir-faire théoriques (T) : Écrire l équation différentielle associée à un système physique ; Faire apparaître la constante de temps ; Tracer
Plus en détailMathématiques appliquées à l'économie et à la Gestion
Mathématiques appliquées à l'économie et à la Gestion Mr Makrem Ben Jeddou Mme Hababou Hella Université Virtuelle de Tunis 2008 Continuité et dérivation1 1- La continuité Théorème : On considère un intervalle
Plus en détailDérivées d ordres supérieurs. Application à l étude d extrema.
Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une
Plus en détailExercices Corrigés Premières notions sur les espaces vectoriels
Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3
Plus en détailEnjeux mathématiques et Statistiques du Big Data
Enjeux mathématiques et Statistiques du Big Data Mathilde Mougeot LPMA/Université Paris Diderot, mathilde.mougeot@univ-paris-diderot.fr Mathématique en Mouvements, Paris, IHP, 6 Juin 2015 M. Mougeot (Paris
Plus en détailSujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.
Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de
Plus en détailIntérêt du découpage en sous-bandes pour l analyse spectrale
Intérêt du découpage en sous-bandes pour l analyse spectrale David BONACCI Institut National Polytechnique de Toulouse (INP) École Nationale Supérieure d Électrotechnique, d Électronique, d Informatique,
Plus en détailExercice : la frontière des portefeuilles optimaux sans actif certain
Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué
Plus en détailALGORITHMIQUE II NOTION DE COMPLEXITE. SMI AlgoII
ALGORITHMIQUE II NOTION DE COMPLEXITE 1 2 Comment choisir entre différents algorithmes pour résoudre un même problème? Plusieurs critères de choix : Exactitude Simplicité Efficacité (but de ce chapitre)
Plus en détailVision industrielle et télédétection - Détection d ellipses. Guillaume Martinez 17 décembre 2007
Vision industrielle et télédétection - Détection d ellipses Guillaume Martinez 17 décembre 2007 1 Table des matières 1 Le projet 3 1.1 Objectif................................ 3 1.2 Les choix techniques.........................
Plus en détailComplexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation
Complexité Objectifs des calculs de complexité : - pouvoir prévoir le temps d'exécution d'un algorithme - pouvoir comparer deux algorithmes réalisant le même traitement Exemples : - si on lance le calcul
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détail