Régression logistique

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "Régression logistique"

Transcription

1 Régression logistique Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Régression logistique p. 1

2 Introduction Objectifs Le classifieur de Bayes est basé sur la comparaison des probabilités a posteriori càd le point x est affecté à la classe de plus forte probabilité a posteriori D(x) = argmax y Y Pr(y /x) Cas d une classification binaire Y = {C1, C 2 }. La règle de décision est D(x) = ( C 1 C 2 si autrement Pr(C 1 /x) Pr(C 2 /x) > 1 La règle nécessite uniquement la connaissance du rapport des probabilités a posteriori Pr(C 1/x) Pr(C 2 /x). D après la loi de Bayes, on a Pr(C 1/x) Pr(C 2 /x) = Pr(C 1)p(x/C 1 ) Pr(C 2 )p(x/c 2 ) Pour construire la fonction de décision D(x), il faut déterminer les lois conditionnelles p(x/c k ) et les probabilités a priori Pr(C k ) desquelles on déduit le rapport des probabilités a posteriori. Régression logistique p. 2

3 Introduction Objectifs Autre solution : estimer directement le rapport des probabilités a posteriori. Dans ce cours, on explore cette solution en utilisant la régression logistique. Objectif de la régression logistique : trouver une modélisation du rapport des probabilités a posteriori. f(x) = Pr(C j/x) Pr(C k /x) En réalité on cherche une modélisation de Pr(C log 1 /x) Pr(C 2. Ceci n influe pas la /x) règle de décision car la fonction log est monotone. On se limitera au cas de la classification binaire Y = {C1, C 2 } ou Y = {1,2}. Position du problème On considère l ensemble des données étiquettées D = {(x i, y i ) X Y, i = 1,,N} avec Y = {C 1, C 2 } et X R d On cherche une modélisation de log f(x) Régression logistique p. 3

4 Modèle pour la régression logistique On modélise le log du rapport des probabilités a posteriori par des modèles linéaires log Pr(C 1/x) Pr(C 2 /x) = [1 x ]θ = φ θ Comme Pr(C1 /x) + Pr(C 2 /x) = 1, on a les relations suivantes Pr(C 1 /x) Pr(C 2 /x) = exp φ θ Pr(C 1 /x) = et Pr(C 2 /x) = exp φ θ 1 + exp φ θ exp φ θ Remarque : x R d, on a par conséquent θ et φ R d+1 Régression logistique p. 4

5 Régression logistique Illustration Probabilité a posteriori Pr 1 = expφ θ 1+exp φ θ Probabilité a posteriori Pr 2 = 1 1+exp φ θ 1 1 P Y/X (Y=1/X=x) P Y/X (Y=2/X=x) x T a θ T x a θ Estimation des paramètres Paramètres : vecteur θ Optimisation des paramètres : maximisation de la vraisemblance à partir des données D = {(x i,y i )},,N Régression logistique p. 5

6 Critère Vraisemblance Supposons des données {xi },,N i.i.d. Vraisemblance Λ(x 1,,x N ) = Λ(θ; x 1,,x N ) = Log-Vraisemblance NY P(y i, x i ) NY Pr(y i /x i ; θ) p X (x i ) d après Bayes L(θ; x 1,, x N ) = NX log(pr(y i /x i ; θ)) + NX log(p X (x i )) Le 2 e terme de la log-vraisemblance étant indépendante de θ, on détermine θ par maximisation de J = P N log(pr(y i/x i ; θ)) Régression logistique p. 6

7 Critère Pour simplifier les notations, posons pi = Pr(y i = C 1 /x i ; θ). On remarquera que Pr(y i = C 2 /x i ; θ) = 1 p i Soit la variable z telle que zi = 1 si y i = C 1 et z i = 0 si y i = C 2 Le critère J peut s écrire alors J = NX z i log(p i ) + (1 z i ) log(1 p i ) Or pi = expφ i θ 1+exp φ i θ. On a alors J = J = NX z i φ i θ z i log(1 + exp φ i θ ) (1 z i ) log(1 + exp φ i θ ) NX z i φ i θ log(1 + exp φ i θ ) avec θ R d+1 Régression logistique p. 7

8 Estimation des paramètres Condition d optimalité Critère J = NX z i φ i θ log(1 + exp φ i θ ) Annulation de la dérivée de J θ J = 0 NX exp φ i θ z i φ i φ i 1 + exp φ i θ = 0 Problème : la solution de cette équation n est pas analytique Il faut faire appel à des techniques d optimisation non-linéaires Régression logistique p. 8

9 Introduction à l optimisation non-linéaire Principe Soit le problème d optimisation suivant min θ J(θ) où J est une fonction non-linéaire du vecteur de paramètres θ. Approche itérative : déterminer itérativement la solution θ t+1 = θ t + ρ t d t avec ρ t > 0 telle que à chaque étape, on s assure que J(θ t+1 ) < J(θ t ) dt est appelé direction de descente et le paramètre ρ t est le pas dans la direction d t On va voir deux algorithmes basés sur ce prinicipe : la méthode du gradient et la méthode de Newton Régression logistique p. 9

10 Introduction à l optimisation non-linéaire Illustration La direction de descente d t est celle de la décroissance du critère J localement autour de θ t. Le pas est déterminé de façon à avoir J(θ t+1 ) < J(θ t ) Régression logistique p. 10

11 Méthode du gradient La direction de descente est obtenue à partir du gradient du critère par d t = θ J(θ t ) Algorithme Initialiser θ 0 t = 0 Répéter Calculer la direction de descente d t = θ J(θ t ) Déterminer le pas optimal ρ t par " line search" θ t+1 = θ t + ρ t d t avec ρ t > 0 t = t + 1 Jusqu à convergence Régression logistique p. 11

12 Méthode du gradient Remarques Line search : recherche dichotomique du pas ρt sur un intervalle donné afin d assurer J(θ t+1 ) < J(θ t ). On peut utiliser un pas constant ρ fixé a priori Le gradient du critère est θ J(θ) = h J θ 1 J θ 2 i J θ d+1 On montre que la méthode du gradient converge au moins vers un minimum local du critère J Régression logistique p. 12

13 Méthode de type Newton Principe Basé sur l approximation de Taylor à l ordre du critère J autour de la solution courante θ t J(θ) J(θ t ) + θ θ t gt θ θ t Ht θ θ t H est la matrice Hessienne (matrice des dérivées seconde du critère) H t = 2 J(θ t ) θ θ et g t la dérivée g t = θ J(θ t ) au point courant θ t On minimise cette approximation locale du critère, ce qui donne θ J(θ) = 0 g t + H t θ θ t = 0 On en déduit alors θ = θ t Ht 1 g t La direction de descente est donc dt = Ht 1 g t. En général on adjoint la recherche du pas. Régression logistique p. 13

14 Méthode de type Newton Algorithme Initialiser θ 0. t = 0 Répéter Remarques Calculer le gradient g t = θ J(θ t ) Calculer la matrice hessienne H t Calculer la direction de descente d t = Ht 1 g t Déterminer le pas optimal ρ t θ t+1 = θ t + ρ t d t avec ρ t > 0 t = t + 1 Jusqu à convergence La convergence de cet algorithme est quadratique. Cette convergence est plus rapide que celle de l algorithme du gradient. Mais la méthode de Newton nécessite à chaque étape la résolution d un système linéaire pour obtenir d t La solution dt = Ht 1 g t peut être obtenue par un algorithme de type Choleski Régression logistique p. 14

15 Application à la régression logistique Gradient et hessien du critère P Critère : J = N z iφ i θ log(1 + expφ i θ ) Gradient g = θ J(θ) g = g = NX exp φ i θ z i φ i φ i 1 + exp φ i θ NX φ i (z i p i ) avec p i = expφ i θ 1 + exp φ i θ Matrice hessienne H = 2 J(θ) θ θ H = NX φ i φ i p i (1 p i ) On remarquera que pi dépend de θ Régression logistique p. 15

16 Forme matricielle Posons z = z 1 z , p = p 1 p RN, Φ = x 1 1 x RN (d+1) z N p N 1 x N Soit la matrice diagonale W = diag[pi (1 p i )],,N avec W R N N On montre qu on a g = Φ (z p) H = Φ WΦ Régression logistique p. 16

17 Solution de la régression logistique Solution de la méthode de Newton θ t+1 = θ t Ht 1 g t Remarque : le gradient et le hessien au point θ t sont donnés par g t = Φ (z p t ) H t = Φ W t Φ où p t et W t sont calculés à partir de p t i = expφ i θt En combinant ces éléments, on a alors 1+exp φ i θt θ t+1 = θ t + Φ W t Φ 1 Φ (z pt ) Régression logistique p. 17

18 Solution de la régression logistique Réécriture de la solution θ t+1 = 1 Φ W t Φ Φ Wt r t avec r t = Φθ t + Wt 1 (z p t ) r est la sortie ajustée du modèle de régression logistique puisque Φθ t est le vecteur de sortie et z p t l erreur à l itération t On s apercoit qu en fait à chaque itération, on résoud un problème de moindres carrés pondérés. En effet θ t+1 est solution du problème suivant θ t+1 = argmin θ (r t Φθ) W t (r t Φθ) d où le nom de Iterative Least Squares donné à la méthode Régression logistique p. 18

19 Algorithme Entrées : les données d apprentissage {(x i, y i ),i = 1,,N} Sortie : l estimation du vecteur de paramètres ˆθ 1. A partir des données {(x i, y i ), i = 1,, N}, former la matrice Φ, le vecteur z 2. Initialisation : t = 0, θ = 0. On en déduit que p 0 i = expφ i θ0 3. Répéter 1+exp φ i θ0 = 1/2 pour i = 1,, N Former la matrice W t et le vecteur p t Former le vecteur r t = Φθ t + W 1 t (z p t ) Calculer la nouvelle estimation par moindres carrés pondérés θ t+1 = Φ W t Φ 1 Φ Wt r t t = t Jusqu à convergence Régression logistique p. 19

20 Algorithme Illustration Classe 1 Classe 2 Dec frontier Classification d un nouveau point (x l, y l ) 1. Calculer la probabilité a posteriori d appartenance à la classe C 1 p l = expφ l ˆθ 1 + exp φ l ˆθ 2. Affecter le point à C 1 si p l > 1/2 ou à C 2 autrement Régression logistique p. 20

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Introduction aux modèles graphiques 2010/2011 Cours 2 6 octobre Enseignant: Francis Bach Scribe: Nicolas Cheifetz, Issam El Alaoui 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Soit

Plus en détail

Régression logistique

Régression logistique Régression logistique G. Gasso, S. Canu 1 novembre 2016 G. Gasso, S. Canu Régression logistique 1 / 22 Plan 1 Introduction 2 Modèle 3 Estimation des paramètres Critère Estimation Algorithme 4 Conclusion

Plus en détail

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I ÉLÉMENTS D OPTIMISATION Complément au cours et au livre de MTH 1101 - CALCUL I CHARLES AUDET DÉPARTEMENT DE MATHÉMATIQUES ET DE GÉNIE INDUSTRIEL ÉCOLE POLYTECHNIQUE DE MONTRÉAL Hiver 2011 1 Introduction

Plus en détail

Deuxième partie II. Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance

Deuxième partie II. Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance Deuxième partie II Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance (version corrigée, 4 avril 27) Construction d estimateurs 4 Construction d estimateurs Estimateur

Plus en détail

Analyse en composantes principales

Analyse en composantes principales Analyse en composantes principales Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Analyse en composantes principales p. 1/18 Introduction Objectifs Soit {x i } i=1,,l

Plus en détail

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7. Statistique Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.fr Cours Statistique, 2010 p. 1/52 Plan du cours Chapitre 1 : Estimation

Plus en détail

SPLEX Statistiques pour la classification et fouille de données en

SPLEX Statistiques pour la classification et fouille de données en SPLEX Statistiques pour la classification et fouille de données en génomique Classification Linéaire Binaire CLB Pierre-Henri WUILLEMIN DEcision, Système Intelligent et Recherche opérationnelle LIP6 pierre-henri.wuillemin@lip6.fr

Plus en détail

COURS OPTIMISATION. Cours en Master M1 SITN. Ionel Sorin CIUPERCA

COURS OPTIMISATION. Cours en Master M1 SITN. Ionel Sorin CIUPERCA COURS OPTIMISATION Cours en Master M1 SITN Ionel Sorin CIUPERCA 1 Table des matières 1 Introduction 4 2 Quelques rappels de calcul différentiel, analyse convexe et extremum 5 2.1 Rappel calcul différentiel............................

Plus en détail

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Philippe Gagnepain Université Paris 1 Ecole d Economie de Paris Centre d économie de la Sorbonne-UG 4-Bureau 405 philippe.gagnepain@univ-paris1.fr

Plus en détail

Actuariat IARD - ACT2040 Partie 2 - régression logistique et arbres de régression (Y {0, 1})

Actuariat IARD - ACT2040 Partie 2 - régression logistique et arbres de régression (Y {0, 1}) Actuariat IARD - ACT2040 Partie 2 - régression logistique et arbres de régression (Y {0, 1}) Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.hypotheses.org/ Hiver 2013 1 Modèlisation

Plus en détail

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE Pierre-Louis Gonzalez 1 I INTRODUCTION 1 variable qualitative. Tri à plat. Représentations graphiques. Modélisation : loi binomiale loi multinomiale

Plus en détail

Méthodes d analyse empirique

Méthodes d analyse empirique Méthodes d analyse empirique Partie Quantitative Michel Beine (suppl. S. Laurent) michel.beine@uni.lu Université du Luxembourg http://www.michelbeine.be Méthodes d analyse empirique p. 1/? Méthodes d analyse

Plus en détail

TRAVAUX DIRIGÉS DE l UE MNBif. Informatique 3A MÉTHODES NUMÉRIQUES DE BASE. 2015-2016, Automne. N. Débit & J. Bastien

TRAVAUX DIRIGÉS DE l UE MNBif. Informatique 3A MÉTHODES NUMÉRIQUES DE BASE. 2015-2016, Automne. N. Débit & J. Bastien TRAVAUX DIRIGÉS DE l UE MNBif Informatique 3A MÉTHODES NUMÉRIQUES DE BASE 2015-2016, Automne N. Débit & J. Bastien Document compilé le 13 novembre 2015 Liste des Travaux Dirigés Avant-propos iii Travaux

Plus en détail

Reconnaissance des formes

Reconnaissance des formes Reconnaissance des formes Discrimination A. Belaïd LORIA - Nancy Discrimination linéaire Notion d hyperplan Discrimination linéaire Principe Une forme x R d (vecteur forme) Rôle de la Trouver D : R d x

Plus en détail

Contenu. Sources et références. Classification supervisée. Classification supervisée vs. non-supervisée

Contenu. Sources et références. Classification supervisée. Classification supervisée vs. non-supervisée PJE : Analyse de comportements avec Twitter Classification supervisée Arnaud Liefooghe arnaud.liefooghe@univ-lille1.fr Master 1 Informatique PJE2 2012-2013 B. Derbel L. Jourdan A. Liefooghe Contenu Classification

Plus en détail

SY09 Rapport TP4 : Analyse discriminante, régression logistique

SY09 Rapport TP4 : Analyse discriminante, régression logistique UNIVERSITÉ DE TECHNOLOGIE DE COMPIÈGNE SY09 Rapport TP4 : Analyse discriminante, régression logistique CUNI Frédéric 15 juin 2015 Objectifs du TP : Le but de ce TP est l application de l analyse discriminante

Plus en détail

Econométrie des modèles de durée

Econométrie des modèles de durée Econométrie des modèles de durée Guillaume Horny Banque de France et UCLouvain Master 2 MOSEF Guillaume Horny (Banque de France) Econométrie des durées (chap 1) 2009 1 / 70 Introduction Introduction Pourquoi

Plus en détail

Introduction à l optimisation

Introduction à l optimisation Chapitre 1 Introduction à l optimisation 1.1 Problématique 1.1.1 Cadre Un problème d optimisation consiste, étant donnée une fonction f : S R, àtrouver: 1) son minimum v (resp. son maximum) dans S 2) un

Plus en détail

Chapitre 15 Variables Dépendantes Limitées et Qualitatives

Chapitre 15 Variables Dépendantes Limitées et Qualitatives Chapitre 15 Variables Dépendantes Limitées et Qualitatives 15.1 Introduction Les modèles de régression supposent de manière implicite que la variable dépendante, peut-être après une transformation logarithmique

Plus en détail

L2 2011/2012 USTV. Analyse. numérique M43. Recueil d exercices corrigés et aide-mémoire G. FACCANONI. Dernière mise-à-jour

L2 2011/2012 USTV. Analyse. numérique M43. Recueil d exercices corrigés et aide-mémoire G. FACCANONI. Dernière mise-à-jour L / Recueil d exercices corrigés et aide-mémoire USTV M Analyse numérique G FACCANONI Dernière mise-à-jour Jeudi mai Avertissement : ces notes sont régulièrement mises à jour et corrigées, ne vous étonnez

Plus en détail

Apprentissage de structure à partir de données incomplètes et application à la classication

Apprentissage de structure à partir de données incomplètes et application à la classication Apprentissage de structure à partir de données incomplètes et application à la classication Olivier François, Philippe Leray Francois.Olivier.C.H@gmail.com, Philippe.Leray@insa-rouen.fr Laboratoire d'informatique,

Plus en détail

Statistiques - Notes de cours - M1. Elisabeth Gassiat

Statistiques - Notes de cours - M1. Elisabeth Gassiat Statistiques - Notes de cours - M1 Elisabeth Gassiat Table des matières 1 Introduction 5 1.1 Estimation et régions de confiance...................... 5 1.2 Tests.......................................

Plus en détail

Principales caractéristiques de Mixmod

Principales caractéristiques de Mixmod Modèle de mélanges Principales caractéristiques de Mixmod Gérard Govaert et Gilles Celeux 24 octobre 2006 1 Plan Le modèledemélange Utilisations du modèle de mélange Les algorithmes de Mixmod Modèle de

Plus en détail

Sourour Ammar. To cite this version: HAL Id: tel-00568136 https://tel.archives-ouvertes.fr/tel-00568136

Sourour Ammar. To cite this version: HAL Id: tel-00568136 https://tel.archives-ouvertes.fr/tel-00568136 Modèles Graphiques Probabilistes pour l Estimation de Densité en grande dimension : applications du principe Perturb & Combine pour les mélanges d arbres Sourour Ammar To cite this version: Sourour Ammar.

Plus en détail

Série n 5 : Optimisation non linéaire

Série n 5 : Optimisation non linéaire Université Claude Bernard, Lyon I Licence Sciences & Technologies 43, boulevard 11 novembre 1918 Spécialité Mathématiques 69622 Villeurbanne cedex, France Option: M2AO 2007-2008 Série n 5 : Optimisation

Plus en détail

RO04/TI07 - Optimisation non-linéaire

RO04/TI07 - Optimisation non-linéaire RO04/TI07 - Optimisation non-linéaire Stéphane Mottelet Université de Technologie de Compiègne Printemps 2003 Sommaire I Motivations et notions fondamentales 7 I1 Motivations 8 I11 Formulation générale

Plus en détail

Apprentissage Automatique Numérique

Apprentissage Automatique Numérique Apprentissage Automatique Numérique Loïc BARRAULT Laboratoire d Informatique de l Université du Maine (LIUM) loic.barrault@lium.univ-lemans.fr 16 septembre 2015 1/42 Problème classique Automatique Autre

Plus en détail

Introduction d un biais près d une borne (pour x = ph, 0 p < 1 ) si f(x) 0. Rectification : utilisation des "boundary kernels", par exemple :

Introduction d un biais près d une borne (pour x = ph, 0 p < 1 ) si f(x) 0. Rectification : utilisation des boundary kernels, par exemple : Problème d estimation aux bornes Introduction d un biais près d une borne (pour x = ph, 0 p < 1 ) si f(x) 0. Soit a l (p) = p 1 ul K(u) du, notons que a 0 (p) < 1 E[ f(x)] = a 0 (p)f(x) h a 1 (p)f (x)+

Plus en détail

Estimation et calibration des paramètres

Estimation et calibration des paramètres et calibration des paramètres 6-601-09 Simulation Monte Carlo Geneviève Gauthier HEC Montréal 1 1. Nous allons discuter des diverses façons de déterminer les paramètres des modèles que nous employons lors

Plus en détail

Inférence via distribution asymptotique Objective : Construction des intervalles de confiance (approximatifs) c 2 µ 2 m (2) σ 2

Inférence via distribution asymptotique Objective : Construction des intervalles de confiance (approximatifs) c 2 µ 2 m (2) σ 2 Inférence via distribution asymptotique Objective : Construction des intervalles de confiance (approximatifs) Soit h = c n 1/5. Donc, par conséquent d un TCL, pour n : Estimateur localement linéaire :

Plus en détail

Gestion de la congestion

Gestion de la congestion Gestion de la congestion réseau de télécommunication ou de transport Madiagne Diallo Laboratoire Université de Versailles, France Projet FT R&D Participants : Barth, Bouhtou, Diallo et Wynter : 000 --

Plus en détail

Régression logistique avec R

Régression logistique avec R Université Rennes 2, UFR Sciences Sociales Régression logistique avec R Université Rennes 2 Place du Recteur H. le Moal CS 24307-35043 Rennes Tel : 02 99 14 18 06 Mel : laurent.rouviere@univ-rennes2.fr

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire NICOD JEAN-MARC Master 2 Informatique Université de Franche-Comté UFR des Sciences et Techniques septembre 2008 NICOD JEAN-MARC Rappels sur les graphes 1 / 47 Sommaire 1 Exemple

Plus en détail

Initialisation automatique du recalage 2D/3D pour la réalité virtuelle et augmentée

Initialisation automatique du recalage 2D/3D pour la réalité virtuelle et augmentée Initialisation automatique du recalage 2D/3D pour la réalité virtuelle et augmentée IRISA - Equipe TEMICS 6 Fevrier 2008 1/18 Problématique : Recalage vidéo 2D et modèle 3D Problématique Avec : Le modèle

Plus en détail

Plan. Définition et Objectifs Analyse discriminante Régression logistique Arbres de décision Réseaux bayésiens Exemple

Plan. Définition et Objectifs Analyse discriminante Régression logistique Arbres de décision Réseaux bayésiens Exemple La classification Plan Définition et Objectifs Analyse discriminante Régression logistique Arbres de décision Réseaux bayésiens Exemple Définition et Objectifs Prévoir l appartenance à une «classe» non

Plus en détail

Draft. Introduction à la Plateforme Dynare. Jean-Paul K. Tsasa Vangu. Mars 2, 2012; updated

Draft. Introduction à la Plateforme Dynare. Jean-Paul K. Tsasa Vangu. Mars 2, 2012; updated Jean-Paul K. Tsasa Vangu Laboratoire d analyse-recherche en économie quantitative (Atelier Laréq) Mars 2, 2012; updated Qu est-ce que Dynare? Dynare est un logiciel qui permet de simuler et d estimer les

Plus en détail

Formulaire de Probabilités et Statistiques

Formulaire de Probabilités et Statistiques Formulaire de Probabilités et Statistiques AD+JS 1 Rappels de combinatoire Arrangements avec répétitions Nombre d applications d un ensemble à k éléments dans un ensemble à n éléments : n k Arrangements

Plus en détail

Thèse de statistiques dans une PME : La localisation intra-muros WiFi

Thèse de statistiques dans une PME : La localisation intra-muros WiFi Thèse de statistiques dans une PME : La localisation intra-muros WiFi Thierry Dumont 1 1 Bureau E 20 Bât.G, Université Paris Ouest, 200 Av. République Nanterre France Résumé. Cet exposé revient sur la

Plus en détail

Modélisation des codes de calcul dans. le cadre des processus gaussiens

Modélisation des codes de calcul dans. le cadre des processus gaussiens Modélisation des codes de calcul dans le cadre des processus gaussiens Amandine Marrel Laboratoire de Modélisation des Transferts dans l Environnement CEA Cadarache Introduction (1) Fiabilité et calcul

Plus en détail

Planche n o 19. Applications linéaires continues, normes matricielles. Corrigé

Planche n o 19. Applications linéaires continues, normes matricielles. Corrigé Planche n o 19. Applications linéaires continues, normes matricielles. Corrigé n o 1 *I : 1 Soit P E. Si on pose P = + a k X k, il existe n N tel que k > n, a k =. Donc P = { k= P k } Sup k!, k N = Max{

Plus en détail

1/4 2/4 3/4 4/4. 10. Estimation MTH2302D. S. Le Digabel, École Polytechnique de Montréal H2016. (v1) MTH2302D: estimation 1/50

1/4 2/4 3/4 4/4. 10. Estimation MTH2302D. S. Le Digabel, École Polytechnique de Montréal H2016. (v1) MTH2302D: estimation 1/50 10. Estimation MTH2302D S. Le Digabel, École Polytechnique de Montréal H2016 (v1) MTH2302D: estimation 1/50 Plan 1. Introduction 2. Estimation ponctuelle 3. Estimation par intervalles de confiance 4. Autres

Plus en détail

Sujets HEC B/L 2013-36-

Sujets HEC B/L 2013-36- -36- -37- Sujet HEC 2012 B/L Exercice principal B/L1 1. Question de cours : Définition et propriétés de la fonction de répartition d une variable aléatoire à densité. Soit f la fonction définie par : f(x)

Plus en détail

ET - FONCTIONS D ONDE DANS LES ETATS LIES D UN PUITS DE POTENTIEL

ET - FONCTIONS D ONDE DANS LES ETATS LIES D UN PUITS DE POTENTIEL ET - FONCTIONS D ONDE DANS LES ETATS LIES D UN PUITS DE POTENTIEL Dans ce qui suit on adopte les notations suivantes : désigne une constante universelle h = π = 6,60 34 Joules par seconde est la constante

Plus en détail

Analyse des données individuelles groupées

Analyse des données individuelles groupées Analyse des données individuelles groupées Analyse des Temps de Réponse Le modèle mixte linéaire (L2M) Y ij, j-ième observation continue de l individu i (i = 1,, N ; j =1,, n) et le vecteur des réponses

Plus en détail

Introduction à l optimisation

Introduction à l optimisation Université du Québec à Montréal Introduction à l optimisation Donnée dans le cadre du cours Microéconomie II ECO2012 Baccalauréat en économique Par Dominique Duchesneau 21 janvier septembre 2008 Ce document

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

1.1. Le moment cinétique en mécanique classique

1.1. Le moment cinétique en mécanique classique c M Dunseath-Terao - Master 1 de Physique UR1 2006 2007 1 Complément 1 Le moment cinétique 1.1. Le moment cinétique en mécanique classique L équation du mouvement d un corps en rotation en mécanique classique

Plus en détail

RÉPUBLIQUE ALGÉRIENNE DÉMOCRATIQUE ET POPULAIRE MINISTÈRE DE L ENSEIGNEMENT SUPÉRIEUR ET DE LA RECHERCHE SCIENTIFIQUE

RÉPUBLIQUE ALGÉRIENNE DÉMOCRATIQUE ET POPULAIRE MINISTÈRE DE L ENSEIGNEMENT SUPÉRIEUR ET DE LA RECHERCHE SCIENTIFIQUE RÉPUBLIQUE ALGÉRIENNE DÉMOCRATIQUE ET POPULAIRE MINISTÈRE DE L ENSEIGNEMENT SUPÉRIEUR ET DE LA RECHERCHE SCIENTIFIQUE N o d ordre :... N o de série :... UNIVERSITÉ MENTOURI CONSTANTINE FACULTÉ DES SCIENCES

Plus en détail

TRAITEMENT DES DONNÉES MANQUANTES DANS LES DONNÉES DE PANEL : CAS DES VARIABLES DÉPENDANTES DICHOTOMIQUES

TRAITEMENT DES DONNÉES MANQUANTES DANS LES DONNÉES DE PANEL : CAS DES VARIABLES DÉPENDANTES DICHOTOMIQUES Mohamed Adel BARHOUMI TRAITEMENT DES DONNÉES MANQUANTES DANS LES DONNÉES DE PANEL : CAS DES VARIABLES DÉPENDANTES DICHOTOMIQUES Mémoire présenté à la Faculté des études supérieures de l Université Laval

Plus en détail

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières

Plus en détail

Qualité d une classification

Qualité d une classification Méthodes en classification automatique Qualité d une classification Yves Lechevallier INRIA-Rocquencourt E_mail : Yves.Lechevallier@inria.fr Master ISI Qualité d une partition Validation interne À partir

Plus en détail

Estimation indirecte en sciences humaines : une méthode bayésienne

Estimation indirecte en sciences humaines : une méthode bayésienne Estimation indirecte en sciences humaines : une méthode bayésienne Henri Caussinus, Institut de Mathématiques de Toulouse, en collaboration avec Daniel Courgeau, INED Isabelle Séguy, INED Luc Buchet, CNRS

Plus en détail

Introduction aux Support Vector Machines (SVM)

Introduction aux Support Vector Machines (SVM) Introduction aux Support Vector Machines (SVM) Olivier Bousquet Centre de Mathématiques Appliquées Ecole Polytechnique, Palaiseau Orsay, 15 Novembre 2001 But de l exposé 2 Présenter les SVM Encourager

Plus en détail

TD1, sur la Régression Logistique (STA 2211)

TD1, sur la Régression Logistique (STA 2211) TD, sur la Régression Logistique STA 22) Exercice : Un sondage international cité dans un article de presse le 4 décembre 2004) rapportait le faible taux d approbation de la politique du Président des

Plus en détail

L algorithme EM : une courte présentation

L algorithme EM : une courte présentation L algorithme EM : une courte présentation Frédéric Santos CNRS, UMR 5199 PACEA Avenue des facultés, Bât. B8 33400 Talence Cedex Courriel : frederic.santos@u-bordeaux1.fr 5 août 2015 Résumé Après avoir

Plus en détail

Econométrie. février 2008. Boutin, Rathelot

Econométrie. février 2008. Boutin, Rathelot 5ème séance Xavier Boutin Roland Rathelot Supélec février 2008 Plan Variables binaires La question y = β 0 + β 1 x 1 +...β k x k + u Que se passe-t-il lorsque y est une variable {0, 1} et non plus une

Plus en détail

Théorème de Rolle et égalité des accroissements finis. Applications

Théorème de Rolle et égalité des accroissements finis. Applications 0 Théorème de Rolle et égalité des accroissements finis. Applications 0. Le théorème de Rolle sur un espace vectoriel normé Pour ce paragraphe, on se donne un espace vectoriel normé (E, ). Le théorème

Plus en détail

5 Application de la méthode des éléments finis au pricing d options européennes

5 Application de la méthode des éléments finis au pricing d options européennes Table des matières 1 Introduction 5 2 Etat de la question 7 2.1 Le modèle de Black et Scholes.......................... 7 2.2 Résolution analytique du modèle de Black et Scholes............. 9 2.3 Résolution

Plus en détail

Support Vector Machines

Support Vector Machines Support Vector Machines Séparateurs à vaste marge Arnaud Revel revel.arnaud@gmail.com Plan 1 Introduction 2 Formalisation 3 Utilisation des noyaux 4 Cas multi-classes 5 Applications des SVM 6 Bibliographie

Plus en détail

Méthodes de placement multidimensionnelles. Fabrice Rossi Télécom ParisTech

Méthodes de placement multidimensionnelles. Fabrice Rossi Télécom ParisTech Méthodes de placement multidimensionnelles Fabrice Rossi Télécom ParisTech Plan Introduction Analyse en composantes principales Modèle Qualité et interprétation Autres méthodes 2 / 27 F. Rossi Plan Introduction

Plus en détail

Techniques de synchronisatio. communications numériques

Techniques de synchronisatio. communications numériques n pour les communications numériques ENST-Bretagne Département Signal et Communication 1/13 Sommaire La synchronisation dans les communications numériques Présentation du contexte Hypothèses sur les perturbations

Plus en détail

de calibration Master 2: Calibration de modèles: présentation et simulation d

de calibration Master 2: Calibration de modèles: présentation et simulation d Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe

Plus en détail

Modèles statistiques pour l analyse des séquences biologiques

Modèles statistiques pour l analyse des séquences biologiques Modèles statistiques pour l analyse des séquences biologiques Franck Picard UMR CNRS-5558, Laboratoire de Biométrie et Biologie Evolutive franck.picard@univ-lyon1.fr F. Picard (LBBE) 1 / 60 Outline Introduction

Plus en détail

COURS OPTIMISATION. Cours à l ISFA, en M1SAF. Ionel Sorin CIUPERCA

COURS OPTIMISATION. Cours à l ISFA, en M1SAF. Ionel Sorin CIUPERCA COURS OPTIMISATION Cours à l ISFA, en M1SAF Ionel Sorin CIUPERCA 1 Table des matières 1 Introduction 4 1.1 Motivation.................................... 4 1.2 Le problème général d optimisation......................

Plus en détail

Master de Sciences & Technologies. Année universitaire 2013 2014 Travaux dirigés et télé-enseignement : C. Audiard. Travaux pratiques Scilab N 2

Master de Sciences & Technologies. Année universitaire 2013 2014 Travaux dirigés et télé-enseignement : C. Audiard. Travaux pratiques Scilab N 2 Université Pierre et Marie Curie Bases des méthodes numériques Master de Sciences & Technologies MM006 Mention Mathématiques & Applications Cours : L. Boudin et E. Trélat Année universitaire 013 014 Travaux

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Suites et Convergence

Suites et Convergence Suites et Convergence Une suite c est se donner une valeur (sans ambigüité) pour chaque N sauf peutêtre les premiers n. Donc une suite est une fonction : I R où I = N: = N. Notation : On note ( ) I R pour

Plus en détail

Détection statistique d anomalies en présence de paramètres de nuisance

Détection statistique d anomalies en présence de paramètres de nuisance Détection statistique d anomalies en présence de paramètres de nuisance Lionel Fillatre ENST Bretagne, département Signal & Communication Lionel Fillatre (département SC) Détection d anomalies 1 / 29 Structure

Plus en détail

Économétrie. Francesco Quatraro M1 EFM 2010/2011

Économétrie. Francesco Quatraro M1 EFM 2010/2011 Francesco Quatraro M1 EFM 2010/2011 1 La violation des hypothèses Le modèle des MCO considère que les hypothèses suivantes sont toutes respectées: H1: le modèle est linéaire en x i,t H2: les valeurs x

Plus en détail

Calculs approchés d un point fixe

Calculs approchés d un point fixe M11 ÉPREUVE COMMUNE DE TIPE 2013 - Partie D TITRE : Calculs approchés d un point fixe Temps de préparation :.. 2 h 15 minutes Temps de présentation devant les examinateurs :.10 minutes Dialogue avec les

Plus en détail

Travaux pratiques V Modèles retardés pour une seule espèce Modèles discrets à plusieurs espèces

Travaux pratiques V Modèles retardés pour une seule espèce Modèles discrets à plusieurs espèces Biomodélisation 1 Département Licence K1BE6W14 Mathématiques Ph. Thieullen Biomodélisation TP machine V Travaux pratiques V Modèles retardés pour une seule espèce Modèles discrets à plusieurs espèces TP

Plus en détail

ACCQ204 4 Jan. 2016. Cours 3. Définition 1 Pour tout entier r 2 un code de Hamming (binaire) a pour matrice de parité H r telle que : 1 0 1 0 1.

ACCQ204 4 Jan. 2016. Cours 3. Définition 1 Pour tout entier r 2 un code de Hamming (binaire) a pour matrice de parité H r telle que : 1 0 1 0 1. ACCQ4 4 Jan 6 Cours 3 Enseignant: Aslan Tchamkerten Crédit: Pierre de Sainte Agathe Code de Hamming Définition Pour tout entier r un code de Hamming (binaire) a pour matrice de parité H r telle que : H

Plus en détail

Remerciements. Partie 1 Algèbre linéaire 1

Remerciements. Partie 1 Algèbre linéaire 1 Table des matières Préface Remerciements xix xxi Partie 1 Algèbre linéaire 1 1 Compléments d algèbre linéaire 3 I Rappels du cours de première année.......................... 3 I.1 Famille dans un espace

Plus en détail

L2 ÉCONOMIE & GESTION 2010-11 COURS DE MÉTHODES MATHÉMATIQUES 3. Alexandre VIDAL

L2 ÉCONOMIE & GESTION 2010-11 COURS DE MÉTHODES MATHÉMATIQUES 3. Alexandre VIDAL L2 ÉCONOMIE & GESTION 2010-11 COURS DE MÉTHODES MATHÉMATIQUES 3 Alexandre VIDAL Dernière modification : 11 janvier 2011 Table des matières I Généralités et rappels sur les fonctions 1 I.1 Définition....................................

Plus en détail

FONCTIONS CONVEXES. Chapitre 3. 3.1 Notations et définitions préliminaires

FONCTIONS CONVEXES. Chapitre 3. 3.1 Notations et définitions préliminaires Chapitre 3 FONCTIONS CONVEXES 3.1 Notations et définitions préliminaires L étude des fonctions convexes montrera que celles ci sont continues sur tout l intérieur de leur domaine de définition et qu elles

Plus en détail

TP 3 : STATISTIQUE PARAMÉTRIQUE

TP 3 : STATISTIQUE PARAMÉTRIQUE Statistique Numérique et Analyse de Données Ecole des Ponts ParisTech, 2 ème année TP 3 : STATISTIQUE PARAMÉTRIQUE La séance de TP se fait sous environnement Windows, sauf si vous avez une nette préférence

Plus en détail

Comment évaluer les méthodes de détermination de volumes métaboliquement actifs en Tomographie par Emission de Positons (TEP)?

Comment évaluer les méthodes de détermination de volumes métaboliquement actifs en Tomographie par Emission de Positons (TEP)? Comment évaluer les méthodes de détermination de volumes métaboliquement actifs en Tomographie par Emission de Positons (TEP)? Irène Buvat Imagerie et Modélisation en Neurobiologie et Cancérologie UMR

Plus en détail

Réseaux de neurones. 1 Introduction. Résumé. 1.1 Historique. 1.2 Réseaux de neurones. 1 Réseaux de neurones

Réseaux de neurones. 1 Introduction. Résumé. 1.1 Historique. 1.2 Réseaux de neurones. 1 Réseaux de neurones 1 Réseaux de neurones Résumé Réseaux de neurones Définition et caractéristiques des réseaux de neurones ou perceptrons multicouches spécifiques pour la régression et la discrimination ou classification

Plus en détail

sept.2003 I. Le problème traité, Mise en équation Le problème traité, Mise en équation 1. Généralités, hypothèses et notations

sept.2003 I. Le problème traité, Mise en équation Le problème traité, Mise en équation 1. Généralités, hypothèses et notations Modélisation et simulation de la déformation d'une pièce de tissu soumise à un champ de forces sept.23 I. Le problème traité, Mise en équation Le problème traité, Mise en équation 1. Généralités, hypothèses

Plus en détail

Econométrie des Variables Qualitatives. Emmanuel Duguet

Econométrie des Variables Qualitatives. Emmanuel Duguet Econométrie des Variables Qualitatives Emmanuel Duguet Version 5 2008 1 Les variables qualitatives explicatives 6 11 Modèlesanstermeconstant 6 12 Modèleavecuntermeconstant 10 13 Modèleavecvariablesexplicatives

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Introduction à la programmation en variables entières Cours 3

Introduction à la programmation en variables entières Cours 3 Introduction à la programmation en variables entières Cours 3 F. Clautiaux francois.clautiaux@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 272 Sommaire Notion d heuristique Les algorithmes gloutons

Plus en détail

Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005. Leçons d Algèbre et de Géométrie

Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005. Leçons d Algèbre et de Géométrie http://perso.wanadoo.fr/gilles.costantini/agreg.htm Liste complète des sujets d oral (SESSION 2004) servant pour 2004-2005 Légende : En italique : leçons dont le libellé a changé ou évolué par rapport

Plus en détail

Classification. Pr Roch Giorgi. roch.giorgi@univ-amu.fr

Classification. Pr Roch Giorgi. roch.giorgi@univ-amu.fr Classification Pr Roch Giorgi roch.giorgi@univ-amu.fr SESSTIM, Faculté de Médecine, Aix-Marseille Université, Marseille, France http://sesstim-orspaca.org http://optim-sesstim.univ-amu.fr Objectif Rechercher

Plus en détail

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq»

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Guy Perrière Pôle Rhône-Alpes de Bioinformatique 14 novembre 2012 Guy Perrière (PRABI) Tests statistiques 14 novembre 2012 1 / 40 Plan

Plus en détail

Modélisation de la demande de transport

Modélisation de la demande de transport Modélisation de la demande de transport Fabien Leurent ENPC / LVMT Introduction Approche empirique Fonctions de répartition Position microéconomique : préférences et rationalité Distribution des décideurs,

Plus en détail

Avertissement! Dans tout ce chapître, C désigne une partie convexe de IR n, et f une fonction. 9.1 Fonctions affines, convexes, strictement convexes

Avertissement! Dans tout ce chapître, C désigne une partie convexe de IR n, et f une fonction. 9.1 Fonctions affines, convexes, strictement convexes Chp. 9. Convexité Avertissement! Dans tout ce chapître, C désigne une partie convexe de IR n, et f une fonction numérique partout définie sur C. 9.1 Fonctions affines, convexes, strictement convexes Définition

Plus en détail

Deep-learning. B. Gas - V 0.1 (2014) UE 5AI02/5AK03 - ISIR/UPMC

Deep-learning. B. Gas - V 0.1 (2014) UE 5AI02/5AK03 - ISIR/UPMC Deep-learning VI B. Gas - V 0.1 (014) UE 5AI0/5AK03 - ISIR/UPMC Deep-network Importance du codage pour la classification: certains codages sont plus adaptés que d autres pour une classification donnée.

Plus en détail

Seconde Partie. Cours de Mathématiques. Semestre

Seconde Partie. Cours de Mathématiques. Semestre Année 2009-2010 ntégration et Probabilités Seconde Partie Cours de Mathématiques Takéo Takahashi Première Année FICM Semestre Table des matières 5 Indépendance et Convolution 3 5.1 Indépendance..............................................

Plus en détail

Programmation Linéaire - Cours 2

Programmation Linéaire - Cours 2 Programmation Linéaire - Cours 2 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Sommaire 1 2 3 Retournons dans le yaourt! Reprenons l exemple du 1er cours Forme normale

Plus en détail

Arbres binaires. Hélène Milhem. Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012

Arbres binaires. Hélène Milhem. Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 Arbres binaires Hélène Milhem Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 H. Milhem (IMT, INSA Toulouse) Arbres binaires IUP SID 2011-2012 1 / 35 PLAN Introduction Construction

Plus en détail

Optimisation numérique. Outline. Introduction et exemples. Daniele Di Pietro A.A. 2012-2013. 1 Dénitions et notations

Optimisation numérique. Outline. Introduction et exemples. Daniele Di Pietro A.A. 2012-2013. 1 Dénitions et notations Optimisation numérique Introduction et exemples Daniele Di Pietro A.A. 2012-2013 Outline 1 Dénitions et notations 2 Applications Exemples en recherche opérationnelle Exemples en algèbre linéaire Exemples

Plus en détail

Le problème des multiplications matricielles enchaînées peut être énoncé comme suit : étant

Le problème des multiplications matricielles enchaînées peut être énoncé comme suit : étant Licence informatique - L Année 0/0 Conception d algorithmes et applications (LI) COURS Résumé. Dans cette cinquième séance, nous continuons l exploration des algorithmes de type Programmation Dynamique.

Plus en détail

avec w ij poids liant le neurone j au neurone i vec w.vec xi = 0 vec xi vec xi

avec w ij poids liant le neurone j au neurone i vec w.vec xi = 0 vec xi vec xi Exemple pour un perceptrion à deux classes (1 unité de sortie) -> 1/-1 Si w i x 0 la réponse est 1 Si w i x 0 la réponse est -1 Donc la discrimination se fait pour des entrés (les x ). Cet hyperplan a

Plus en détail

Comparaison d approches statistiques pour la classification de textes d opinion. Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM)

Comparaison d approches statistiques pour la classification de textes d opinion. Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM) Comparaison d approches statistiques pour la classification de textes d opinion Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM) Caractéristiques des traitements Approche identique pour les

Plus en détail

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry

Outils mathématiques pour le datamining. http://www.elseware.fr/univevry Outils mathématiques pour le datamining http://wwwelsewarefr/univevry Géométrie Distance Distance entre parties Matrice de variance/covariance Inertie Minimisation Probabilités Définition Théorème de Bayes

Plus en détail

Chapitre 4 : Variables aléatoires à densité. Soit f une fonction continue sur IR. On définit sous réserve d existence. f(t) dt = [ exp( t) ] b

Chapitre 4 : Variables aléatoires à densité. Soit f une fonction continue sur IR. On définit sous réserve d existence. f(t) dt = [ exp( t) ] b Chapitre 4 : Variables aléatoires à densité I - Généralités 1. Intégrales généralisées. a) Généralisée en +. Soit f une fonction continue sur IR. On définit sous réserve d existence la limite lim b + b

Plus en détail

La maximisation du profit

La maximisation du profit 2 La maximisation du profit Le profit, au sens économique du terme, se définit comme la différence entre les recettes perçues et les coûts supportés par une firme. Il est important de bien comprendre que

Plus en détail

Séance 12: Algorithmes de Support Vector Machines

Séance 12: Algorithmes de Support Vector Machines Séance 12: Algorithmes de Support Vector Machines Laboratoire de Statistique et Probabilités UMR 5583 CNRS-UPS www.lsp.ups-tlse.fr/gadat Douzième partie XII Algorithmes de Support Vector Machines Principe

Plus en détail

Maîtrise de Mathématiques Travaux Pratiques

Maîtrise de Mathématiques Travaux Pratiques Maîtrise de Mathématiques Travaux Pratiques Pedro Ferreira 4 mai 2 Le but des travaux pratiques d Analyse Numérique est de créer un premier programme de mise en œuvre de la méthode des éléments finis.

Plus en détail