Reconnaissance des formes

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "Reconnaissance des formes"

Transcription

1 Reconnaissance des formes Discrimination A. Belaïd LORIA - Nancy

2 Discrimination linéaire Notion d hyperplan

3 Discrimination linéaire Principe Une forme x R d (vecteur forme) Rôle de la Trouver D : R d x D : Algorithme de décision { 1,..., K} D( x) avec un algorithme D «performant» : C est la classe ω =D(x) où ω {1..K} x d R, D(x) = "la Soit C le coût de la règle de décision D : C( D) = k = 1 Choisir D qui minimise cette fonction de coût K meilleure décision" C( D k ) P( D k = x) 3

4 Discrimination linéaire Comment ça marche? ω 1 ω 2 4

5 Discrimination linéaire Définition C est une fonction qui est une combinaison linéaire des composants de la forme x g(x) = w t x + w 0 (1) où w est un vecteur poids du système et w 0 le biais Un classifieur bi-classes entre (ω 1,ω 2 ) avec une fonction discriminante de type (1) utilise la règle suivante décide que x ω 1 si g(x) > 0 et x ω 2 si g(x) < 0 décide ω 1 si w t x > -w 0 et ω 2 autrement si g(x) = 0 x est affectée à ces deux classes 5

6 Discrimination linéaire et surface de décision 6 Définition L équation g(x) = 0 définit la surface de décision qui sépare les points affectés à la classe ω 1 des points affectés à la classe ω 2 Quand g(x) est linéaire, la surface de décision est un hyperplan d j= 1 w i x j + b = 0 ( = produit scalaire) Règle de décision linéaire d wi x j + b > 0 ( ronds rouges) j= 1 d wi x j + b 0 ( croix vertes) j= 1

7 Discrimination linéaire et surfaces de décision Le cas multi-classes On définit c fonctions linéaires discriminantes g i t = i i ( x) w x + w 0 i = 1,...,c et affecte x à ω 1i si g i (x) > g j (x) j i; En cas d'égalité, le classement est indéfini Dans ce cas, le classifieur est une machine linéaire Une machine linéaire divise l espace de paramètres en c régions de décision, avec g i (x) étant le discriminant le plus grand si x est dans la région R i 7

8 H 25 H 12 H 15 R 2 R 1 R 3 ω 5 H 35 H 13 R 1 ω 1 ω 2 R 3 ω 3 H 23 R 4 ω 4 R 3 ω 2 ω 1 ω 3 H 23 H 13 H 34 R 2 H 24 H 14 Frontières de décision créées par un système pour 3 classes et 5 classes 8

9 Discrimination linéaire et surfaces de décision Exemple : classif_lineaire.m Il s agit de classer des fleurs par la longueur et la largeur de leurs pétales Le fichier est donné par MatLab : load fisheriris On dispose de données composées d une matrice «meas» de 150 lignes (échantillons), 50 par type de fleur des Iris dans cet ordre : Setosa, versicolor, virginica 9

10 Opération 1 : distribution dans le plan gscatter(x, y, groupe) crée un nuage de points de x et y, regroupés par groupe gscatter(meas(:,1), meas(:,2), species,'rgb','osd'); % species : permet de récupérer les espèces dans le fichier et de faire un groupement spécifique par groupe de fleurs

11 Opération 2 : repérage des mauvaises classifications : 3 étapes % 1) Classification par rapport aux espèces ldaclass = classify(meas(:,1:2),meas(:,1:2),species); % 2) Repérage des mauvaises classifications bad = ~strcmp(ldaclass,species); ldaresuberr = sum(bad) / N; % 3) Création d une matrice de confusion [ldaresubcm,grporder] = confusionmat(species,ldaclass) Setosa Versicolor virginica Seto Vers, virgi On affiche avec des croix les mauvaises classifs

12 Sur les 150 observations de la base, 20% ou 30 observations sont mal classées par la fonction discriminante linéaire

13 Opération 3 afficher les hyperplans séparateurs On prend deux à deux les points appartenant à des classes différentes, puis on dessine à chaque fois le plan bissecteur Ainsi, de couple en couple, on finit par construire les hyperplans o o o o +

14 Opération 3 : en matlab On crée une grille de coordonnées (x, y) et on applique la fonction de classification sur cette grille [x,y] = meshgrid(4:.1:8,2:.1:4.5); x = x(:); y = y(:); j = classify([x y],meas(:,1:2), species); gscatter(x,y,j,'grb','sod')

15 Discrimination probabiliste Classifieur bayésien naïf

16 Décision bayésienne Principe Cette méthode suppose que le problème de représentation des formes admet un modèle probabiliste Elle définit l appartenance d une forme x à une classe avec un minimum d erreur et évalue le risque 16

17 Règle de Bayes à une dimension Propriétés la probabilité a priori P(ω i ) vérifie P(ω i ) 0 i Σ i P(ω i ) = 1 la densité de probabilité de x conditionnée par une classe p(x ω i ), aussi appelée vraisemblance de ω i par rapport à x + ωi ωi - p(x ) 0 i p(x )dx = 1 i 17

18 Vraisemblance d'une caractéristique pour deux classes Exemple : deux classes ω 1 et ω 2 les frontières de décision ne sont plus aussi lisibles qu avant : on parle en termes de probabilité d appartenance Vraisemblances Un elt. de ω 1 peut être affecté à ω 2 et vice versa P(x/w 1 ) P(x/w 2 ) 18

19 Classifieur Bayésien naïf Règle de Bayes Elle permet de calculer la probabilité a posteriori de chaque classe, c'est-à-dire la probabilité conditionnée par l'observation de x, soit P( ω x) = i px ( ωi ) P( ωi ) px ( ) où p(x)= Σ j p(x ω j )P(ω j ) est appelée évidence et est un facteur de normalisation qui assure que px ( ω ) P( ω ) px ( ω ) Pw ( ) i i i i i P( ω i i x) = = = 1 i px ( ) px ( ωj) P( ωj) 19

20 Décision optimale : bayes naïf Principe Étant donnés une caractéristique observée x d'un objet à identifier (par ex. moyenne du profil de la projection horizontale sur les mots ) l'ensemble des classes possibles {ω 1,ω 2,...ω c } La décision revient à formuler une fonction δ(x)=ω i Comment définir δ de manière optimale? en minimisant sa probabilité d erreur 20

21 Probabilité d'erreur Pour une caractéristique observée x, la probabilité d'erreur d'une décision δ(x)=ω i est égale à P( erreur x ) = P( ω x ) = 1 P( ω x ) j i j La probabilité d'erreur globale pour le système est + P ( erreur) = P( erreur x) p( x) dx i 21

22 Décision optimale (pour le naïf) La décision optimale (au sens de la probabilité d'erreur) consiste donc à choisir δ(x)=ω i telle que p(ω i x) soit maximale, c.à.d : P( ω x ) P( ω x ), j i j p( x ω )P( ω ) p( x ω )P( ω ) j i i j j Si les probabilités a priori des classes sont équivalentes, on obtient simplement p( x ω ) p( x ω ) j i j 22

23 Illustration de l'erreur irréductible 23

24 Illustration de l'erreur irréductible Zone d erreur réductible La proba qu un élément de Fonte2 soit affecté à Fonte7 La proba qu un élément de Fonte7 soit affecté à Fonte2 X * X B 24 Fonte 7 Fonte 2

25 Manipulation MatLab Exemple : Distrib_normale 25

26 Estimation paramétrique On a supposé connu la distribution des caractéristiques pour chaque classe (vraisemblance) les probabilités a priori des classes de manière optionnelle, les coûts d'une (fausse) décision Problème : comment estimer ces grandeurs? la vraisemblance est rarement connue les probabilités a priori ne sont pas toujours connues Solution On utilise une loi connue dont on peut cerner le comportement et les paramètres : on utilise la loi normale 26

27 Loi normale à une dimension Définition intuitive C est une loi qui incite les éléments d une distribution quelconque à se rapprocher le plus du centre de la classe (autour de la moyenne) avec un certain taux de dispersion Définition mathématique La loi normale à une dimension, notée N(µ, σ 2 ) est définie par p( x) = 1 exp 2πσ 1 2 x 2 µ σ µ représente la moyenne σ 2 représente la variance 27

28 Loi normale à une dimension Comment utilise-t-on cette loi? On détermine µ et σ par calcul de la moyenne des échantillons et des écarts avec cette moyenne 28

29 Exemple 1 Soit la distribution Param4 des mots de la classe Fonte7 : moyenne= écart type= La distribution normale correspondante 29 µ=1.6562

30 Exemple 1 : création sous Matlab Distributions >> Distr_normale_fonte Statistiques >> Distribution_normale >> Distrib_normal_Fonte7 Fonte7=[ ]; x = Fonte7(1):0.1:Fonte7(end); [mu,s,muci,sci] = normfit(x); pdfnormal = normpdf(x, mu, s); figure; plot(x,pdfnormal); mu = s =

31 Décision bayésienne Estimation non paramétrique

32 Introduction La reconnaissance Bayesienne suppose des connaissances sur La probabilité a priori des classes P(ω i ) La densité de probabilité des caractéristiques P(x ω i ) Généralement, les connaissances sur les densités de probabilité font défaut ou sont imprécises Souvent elles peuvent être estimées à partir d'échantillons d'apprentissage D i Le nombre d'échantillons pose problème, surtout dans les espaces de dimension élevée il n'y a jamais assez d'information pour déterminer P(x ω i ) en toute généralité 32

33 Estimation non paramétrique Problème Il n'est pas toujours possible de trouver une fonction de densité qui s ajuste sur les données et de pouvoir modéliser sous forme paramétrique surtout dans les cas de distributions complexes ou multimodales (avec plusieurs maxima locaux) Solution L'apprentissage non paramétrique consiste à estimer ces densités directement à partir des échantillons d'apprentissage Deux techniques seront étudiées la méthode des fenêtres de Parzen la méthode des k plus proches voisins 33

34 Fenêtres de Parzen Idée Subdiviser l espace en régions R et faire des estimations locales, plus faciles à maîtriser Ensuite, généraliser l estimation à l ensemble de l espace k=3 V n n=37 Observations 34

35 Fenêtres de Parzen Estimation de la densité dans une fenêtre L idée de l estimation de la densité est que la probabilité P qu un échantillon x tombe dans la région R est donnée par P = p( x) dx R Si maintenant, on suppose que R est tellement petit que p(x) varie peu à son intérieur, alors on peut écrire P = R p( x) dx p( x) dx = R p( x) V où V est le volume de R 35

36 Fenêtres de Parzen D un autre côté, supposons maintenant que n échantillons x 1,, x n considérés de manière indépendante interviennent dans le calcul de la fonction de densité de probabilité p(x), et qu il y a k échantillons qui tombent dans la région R P = k / n Ainsi, on arrive à l estimation évidente de p(x) k / n p( x) = V En général, on fixe V et on compte k dans chaque V 36 V = 1 n

37 Fenêtres de Parzen Comment on calcule effectivement Considérez que R soit un carré (ou un hypercube dans l espace) Soit h le côté du carré (x 1 -h/2, x 2 +h/2) (x 1 -h/2, x 2 -h/2) x (x 1 +h/2, x 2 +h/2) (x 1 +h/2, x 2 +h/2) On définit 37 x x x x ik i φ( ) = 1 si h h 0 qui indique si x i est à l intérieur du carré ou pas k 1/ 2, k = 1,2 sinon

38 38 Fenêtres de Parzen Le nombre total k d échantillons tombant dans R, est donné par L estimation de la densité dans la fenêtre de Parzen est donnée par = = n i i h x x k 1 ) φ( = = = n i i h x x h n V n k x p 1 2 ) ( 1 1 / ) ( φ est appelée fonction fenêtre ou noyau ) ( h x i x φ

39 Fenêtres de Parzen Généralisation On peut généraliser l idée et permettre l utilisation d autres fonctions noyau, comme une gaussienne, Dans ce cas, ( x φ i h x) = 1 n n i= 1 1 exp( 2πσ ( x i 2σ x) 2 2 ) 39

40 Fenêtres de Parzen Si on considère le nuage observé séquentiellement On pourrait estimer des suites d éléments par des petites gaussiennes, puis généraliser à l ensemble x 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9 x 10 x 11 x 12 40

41 Les k plus proches voisins (Kppv/K-nn) Particularités Contrairement aux fenêtres de Parzen, ici, on ne fixe pas V, mais k : Principe : Utiliser les exemples déjà connus Regarder la classe des k exemples les plus proches (k = 1, 3,...) Affecter la classe majoritaire au nouvel exemple Exemple : deux classes, k=1 41

42 K-ppv Exemple : deux classes, k=3 42

43 Kppv Notations Soit L={(x,c x R d, c C} l ensemble d apprentissage Soit x l exemple dont on souhaite déterminer la classe Algorithme début pour chaque (exemple (x, c) L) faire Calculer la distance D(x, x ) fin pour chaque {x kppv(x)} faire compter le nombre d occurrences de chaque classe fin Attribuer à x la classe la plus fréquente fin 43

44 K-ppv Quelle décision prendre en cas d égalité? Augmenter la valeur de k de 1 pour trancher. L ambiguïté peut persister Tirer au hasard la classe parmi les classes ambiguës Pondération des exemples par leur distance au point x 44

45 Fenêtres de Parzen vs K-ppv Illustration des méthodes 1. des fenêtres de Parzen 2. des k plus proches voisins 45

46 Tests en Matlab Illustration des méthodes Étape 1 : Affichage spatial de la distribution des fleurs load fisheriris x = meas(:,3:4); gscatter(x(:,1),x(:,2),species) set(legend,'location','best') 46

47 Étape 2 : placer un point : newpoint = [5 1.45]; line(newpoint(1),newpoint(2),'marker','x','color','k',... 'markersize',10,'linewidth',2) 47

48 Étape 3 : chercher les 10 échantillons proches de ce point [n,d] = knnsearch(x,newpoint,'k',10) line(x(n,1),x(n,2),'color',[.5.5.5],'marker','o',... 'linestyle','none','markersize',10) Knnsearch a trouvé que 8 points 48

49 Étape 3 : pour rendre plus visible l'affichage : xj = x +.05*(rand(150,2)-.5); gscatter(xj(:,1),xj(:,2),species) set(gca,'xlim',[ ],'ylim',[1 2]); axis square 49

50 Étape 4 : trouver les éléments des différentes parmi les 10 voisins tabulate(species(n)) Value Count Percent virginica % versicolor % 50

51 Étape 4 : mettre un cercle autour des voisins % Define the center and diameter of a circle, based on the % location of the new point: ctr = newpoint - d(end); diameter = 2*d(end); % Draw a circle around the 10 nearest neighbors: h = rectangle('position',[ctr,diameter,diameter],... 'curvature',[1 1]); set(h,'linestyle',':') 51

52 Étape 5 : en utilisant la même base, trouver les plus proches voisins de trois points figure newpoint2 = [5 1.45;6 2; ]; gscatter(x(:,1),x(:,2),species) legend('location','best') [n2,d2] = knnsearch(x,newpoint2,'k',10); line(x(n2,1),x(n2,2),'color',[.5.5.5],'marker','o',... 'linestyle','none','markersize',10)line(newpoint2(:,1),newpoint2(:,2), marker','x','color','k',... 'markersize',10,'linewidth',2,'linestyle','none') 52

53 53 Étape 6 : Trouvez les classes des 10 plus proches voisins pour chaque nouveau point:

Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme

Distance et classification. Cours 4: Traitement du signal et reconnaissance de forme Distance et classification Cours 4: Traitement du signal et reconnaissance de forme Plan Introduction Pré-traitement Segmentation d images Morphologie mathématique Extraction de caractéristiques Classification

Plus en détail

Laboratoire 2 Extraction des caractéristiques

Laboratoire 2 Extraction des caractéristiques Laboratoire 2 Extraction des caractéristiques L objectif de l extraction et de la sélection de caractéristiques est d identifier les caractéristiques importantes pour la discrimination entre classes. Après

Plus en détail

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Introduction aux modèles graphiques 2010/2011 Cours 2 6 octobre Enseignant: Francis Bach Scribe: Nicolas Cheifetz, Issam El Alaoui 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Soit

Plus en détail

Vision Par Ordinateur. Techniques Statistiques de la Reconnaissance de Forme. Segmentation...2. Variables Aléatoires...7

Vision Par Ordinateur. Techniques Statistiques de la Reconnaissance de Forme. Segmentation...2. Variables Aléatoires...7 Vision Par Ordinateur James L. Crowley DEA IVR Premier Bimestre 1999/00 Séance 4 26 octobre 1999 Plan de la séance : Techniques Statistiques de la Reconnaissance de Forme Segmentation...2 La Distribution

Plus en détail

Contenu. Sources et références. Classification supervisée. Classification supervisée vs. non-supervisée

Contenu. Sources et références. Classification supervisée. Classification supervisée vs. non-supervisée PJE : Analyse de comportements avec Twitter Classification supervisée Arnaud Liefooghe arnaud.liefooghe@univ-lille1.fr Master 1 Informatique PJE2 2012-2013 B. Derbel L. Jourdan A. Liefooghe Contenu Classification

Plus en détail

Méthodes de placement multidimensionnelles. Fabrice Rossi Télécom ParisTech

Méthodes de placement multidimensionnelles. Fabrice Rossi Télécom ParisTech Méthodes de placement multidimensionnelles Fabrice Rossi Télécom ParisTech Plan Introduction Analyse en composantes principales Modèle Qualité et interprétation Autres méthodes 2 / 27 F. Rossi Plan Introduction

Plus en détail

Apprentissage Automatique Numérique

Apprentissage Automatique Numérique Apprentissage Automatique Numérique Loïc BARRAULT Laboratoire d Informatique de l Université du Maine (LIUM) loic.barrault@lium.univ-lemans.fr 16 septembre 2015 1/42 Problème classique Automatique Autre

Plus en détail

Analyse en composantes principales

Analyse en composantes principales Analyse en composantes principales Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Analyse en composantes principales p. 1/18 Introduction Objectifs Soit {x i } i=1,,l

Plus en détail

Analyse des données 1: erreurs expérimentales et courbe normale

Analyse des données 1: erreurs expérimentales et courbe normale Analyse des données 1: erreurs expérimentales et courbe normale 1 Incertitude vs. erreur Une mesure expérimentale comporte toujours deux parties: la valeur vraie de la grandeur mesurée et l'erreur sur

Plus en détail

Régression logistique

Régression logistique Régression logistique Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Régression logistique p. 1 Introduction Objectifs Le classifieur de Bayes est basé sur la comparaison des probabilités

Plus en détail

CODES CORRECTEURS D'ERREURS

CODES CORRECTEURS D'ERREURS CODES CORRECTEURS D'ERREURS Marc URO TABLE DES MATIÈRES DÉTECTION ET CORRECTION D'ERREURS... 6 CAS D'UN CANAL SANS SYMBOLE D'EFFACEMENT...6 CAS D'UN CANAL AVEC SYMBOLE D'EFFACEMENT...7 GÉNÉRATION ET DÉTECTION

Plus en détail

Méthodologie d'évaluation 1. Analyse et estimation de l'erreur. 10 Novembre 2009

Méthodologie d'évaluation 1. Analyse et estimation de l'erreur. 10 Novembre 2009 Méthodologie d'évaluation 1. Analyse et estimation de l'erreur 10 Novembre 2009 Datamining 1 2009-2010 Plan 1 Décomposition biais/variance de l'erreur 2 Techniques d'estimation de l'erreur Datamining 2

Plus en détail

Baccalauréat ES Polynésie 10 juin 2016

Baccalauréat ES Polynésie 10 juin 2016 Baccalauréat ES Polynésie 0 juin 06 EXERCICE Les parties A et B sont indépendantes On s intéresse à l ensemble des demandes de prêts immobiliers auprès de trois grandes banques. Une étude montre que %

Plus en détail

Agrégation externe de mathématiques, texte d exercice diffusé en 2012 Épreuve de modélisation, option informatique

Agrégation externe de mathématiques, texte d exercice diffusé en 2012 Épreuve de modélisation, option informatique Agrégation externe de mathématiques, texte d exercice diffusé en 2012 Épreuve de modélisation, option informatique Résumé : A partir du problème de la représentation des droites sur un écran d ordinateur,

Plus en détail

Introduction sur l analyse en composantes principales (ACP)

Introduction sur l analyse en composantes principales (ACP) Introduction sur l analyse en composantes principales (CP) ) Introduction sur un exemple à 2 dimensions On veut représenter graphiquement les profils d élèves qui ont été notés sur 2 matières (Français

Plus en détail

1/4 2/4 3/4 4/4. 10. Estimation MTH2302D. S. Le Digabel, École Polytechnique de Montréal H2016. (v1) MTH2302D: estimation 1/50

1/4 2/4 3/4 4/4. 10. Estimation MTH2302D. S. Le Digabel, École Polytechnique de Montréal H2016. (v1) MTH2302D: estimation 1/50 10. Estimation MTH2302D S. Le Digabel, École Polytechnique de Montréal H2016 (v1) MTH2302D: estimation 1/50 Plan 1. Introduction 2. Estimation ponctuelle 3. Estimation par intervalles de confiance 4. Autres

Plus en détail

Apprentissage statistique Stratégie du Data-Mining

Apprentissage statistique Stratégie du Data-Mining Apprentissage statistique Stratégie du Data-Mining Hélène Milhem Institut de Mathématiques de Toulouse, INSA Toulouse, France IUP SID, 2011-2012 H. Milhem (IMT, INSA Toulouse) Apprentissage statistique

Plus en détail

Mathieu Fauvel. 19 janvier 2007

Mathieu Fauvel. 19 janvier 2007 Méthodes à Noyaux pour L analyse de Données Mathieu Fauvel gipsa-lab 19 janvier 2007 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier 2007 1 / 39 Introduction 1 Présentation Générale Les Données

Plus en détail

Intégration de polynômes Points de Gauss

Intégration de polynômes Points de Gauss Intégration de polynômes Points de Gauss Commençons par un exercice classique de premier cycle. Problème 1 Trouver trois réels α, β et γ tels que, pour tout polynôme P de degré au plus 2, on ait : ( )

Plus en détail

Statistique (MATH-F-315, Cours #1)

Statistique (MATH-F-315, Cours #1) Statistique (MATH-F-315, Cours #1) Thomas Verdebout Université Libre de Bruxelles 2015 Plan de la partie Statistique du cours 1. Introduction. 2. Théorie de l estimation. 3. Tests d hypothèses et intervalles

Plus en détail

La Grille, moyen fondamental de l analyse

La Grille, moyen fondamental de l analyse Fiche méthodologie #1 La Grille, moyen fondamental de l analyse Cette rubrique présente des notes et documents publiés par Philippe Latour, enseignant au Master Géomarketing et stratégies territoriales

Plus en détail

Installation de la librairie VISP et création du projet

Installation de la librairie VISP et création du projet ESIR3-IN Travaux Pratiques VO 2012-2013 PREAMBULE Copier les données des TPs 1. créez un répertoire VO dans votre homedir cd ~/ mkdir VO cd VO 2. copier le dossier contenant toutes les données pour les

Plus en détail

Estimation indirecte en sciences humaines : une méthode bayésienne

Estimation indirecte en sciences humaines : une méthode bayésienne Estimation indirecte en sciences humaines : une méthode bayésienne Henri Caussinus, Institut de Mathématiques de Toulouse, en collaboration avec Daniel Courgeau, INED Isabelle Séguy, INED Luc Buchet, CNRS

Plus en détail

Préparation aux épreuves écrites du CAPES Conseils de rédaction

Préparation aux épreuves écrites du CAPES Conseils de rédaction Préparation aux épreuves écrites du CAPES Conseils de rédaction Claire Debord Le texte qui suit est une libre compilation de plusieurs textes sur le même thème, notamment ceux de Christophe Champetier

Plus en détail

Arithmétique Algorithmique. http://www.math.univ-lyon1.fr/~roblot/ens.html

Arithmétique Algorithmique. http://www.math.univ-lyon1.fr/~roblot/ens.html Arithmétique Algorithmique http://www.math.univ-lyon1.fr/~roblot/ens.html Partie III Algorithmes classiques 1 Coût de la multiplication et de la division 2 Exponentiation rapide 3 Algorithme d Euclide

Plus en détail

en dimension finie Table des matières

en dimension finie Table des matières Maths PCSI Cours Algèbre linéaire en dimension finie Table des matières 1 Rappels d algèbre linéaire 2 1.1 Applications linéaires......................................... 2 1.2 Familles libres, génératrices

Plus en détail

avec w ij poids liant le neurone j au neurone i vec w.vec xi = 0 vec xi vec xi

avec w ij poids liant le neurone j au neurone i vec w.vec xi = 0 vec xi vec xi Exemple pour un perceptrion à deux classes (1 unité de sortie) -> 1/-1 Si w i x 0 la réponse est 1 Si w i x 0 la réponse est -1 Donc la discrimination se fait pour des entrés (les x ). Cet hyperplan a

Plus en détail

Reconnaissance des Formes Travaux Pratiques, 1 ère séance /4 - Corrigé partiel -

Reconnaissance des Formes Travaux Pratiques, 1 ère séance /4 - Corrigé partiel - Reconnaissance des Formes Travaux Pratiques, 1 ère séance /4 - Corrigé partiel - Modalités de déroulement o séance en salle Linux o compte-rendu à remettre à l'issue de la séance Objectif de la séance

Plus en détail

Le problème des multiplications matricielles enchaînées peut être énoncé comme suit : étant

Le problème des multiplications matricielles enchaînées peut être énoncé comme suit : étant Licence informatique - L Année 0/0 Conception d algorithmes et applications (LI) COURS Résumé. Dans cette cinquième séance, nous continuons l exploration des algorithmes de type Programmation Dynamique.

Plus en détail

Quelques éléments d algèbre pour l analyse de

Quelques éléments d algèbre pour l analyse de Fiche TD avec le logiciel : tdr80 Quelques éléments d algèbre pour l analyse de données A.B. Dufour, D. Chessel et M. Royer L algèbre matricielle est fondamentale dans la compréhension de la théorie liée

Plus en détail

CH.2 CODES CORRECTEURS

CH.2 CODES CORRECTEURS CH.2 CODES CORRECTEURS 2.1 Le canal bruité 2.2 La distance de Hamming 2.3 Les codes linéaires 2.4 Les codes de Reed-Muller 2.5 Les codes circulaires 2.6 Le câblage des codes circulaires 2.7 Les performances

Plus en détail

HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES

HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES 105 HUITIEME PARTIE ANALYSE EN COMPSANTES PRINCIPALES 1. Introduction En statistiques il arrive fréquemment que les individus soient décrits par un grand nombre de caractères. : voitures décrites par leur

Plus en détail

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I ÉLÉMENTS D OPTIMISATION Complément au cours et au livre de MTH 1101 - CALCUL I CHARLES AUDET DÉPARTEMENT DE MATHÉMATIQUES ET DE GÉNIE INDUSTRIEL ÉCOLE POLYTECHNIQUE DE MONTRÉAL Hiver 2011 1 Introduction

Plus en détail

Baccalauréat ES/L Métropole 21 juin 2013 (sujet dévoilé)

Baccalauréat ES/L Métropole 21 juin 2013 (sujet dévoilé) Baccalauréat ES/L Métropole 21 juin 2013 (sujet dévoilé) EXERCICE 1 4 points Cet exercice est un questionnaire à choix multiples (QCM). Pour chacune des questions posées, une seule des quatre réponses

Plus en détail

Statistique (MATH-F-315, Cours #3)

Statistique (MATH-F-315, Cours #3) Statistique (MATH-F-315, Cours #3) Thomas Verdebout Université Libre de Bruxelles 2015 Plan de la partie Statistique du cours 1. Introduction. 2. Théorie de l estimation. 3. Tests d hypothèses et intervalles

Plus en détail

1. Description du cours

1. Description du cours 1. Description du cours Ce cours porte sur la généralisation de notions mathématiques par le biais d expériences, d applications et du développement de structures formelles et abstraites. Au moyen de la

Plus en détail

Estimateur et Estimation Prof Franck Bonnetain Unité de méthodologie & de qualité de vie en cancérologie (EA3181) CHRU Besançon

Estimateur et Estimation Prof Franck Bonnetain Unité de méthodologie & de qualité de vie en cancérologie (EA3181) CHRU Besançon PACES - APEMK UE 4 Evaluation des méthodes d analyses appliquées aux sciences de la vie et de la santé Estimateur et Estimation Prof Franck Bonnetain Unité de méthodologie & de qualité de vie en cancérologie

Plus en détail

1 FAITES CONNAISSANCE AVEC LA MÉTHODE DES PLANS D EXPÉRIENCES

1 FAITES CONNAISSANCE AVEC LA MÉTHODE DES PLANS D EXPÉRIENCES 1 FAITES CONNAISSANCE AVEC LA MÉTHODE DES PLANS D EXPÉRIENCES Si vous lisez ce livre c est que, probablement, vous faites des expériences et que vous cherchez à mieux les organiser. Vous cherchez surtout

Plus en détail

SPLEX Statistiques pour la classification et fouille de données en

SPLEX Statistiques pour la classification et fouille de données en SPLEX Statistiques pour la classification et fouille de données en génomique Classification Linéaire Binaire CLB Pierre-Henri WUILLEMIN DEcision, Système Intelligent et Recherche opérationnelle LIP6 pierre-henri.wuillemin@lip6.fr

Plus en détail

Analyse de la complexité algorithmique (1)

Analyse de la complexité algorithmique (1) Analyse de la complexité algorithmique (1) L analyse de la complexité telle que nous l avons vue jusqu à présent nous a essentiellement servi à déterminer si un problème est ou non facile (i.e. soluble

Plus en détail

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE Pierre-Louis Gonzalez 1 I INTRODUCTION 1 variable qualitative. Tri à plat. Représentations graphiques. Modélisation : loi binomiale loi multinomiale

Plus en détail

Deuxième partie II. Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance

Deuxième partie II. Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance Deuxième partie II Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance (version corrigée, 4 avril 27) Construction d estimateurs 4 Construction d estimateurs Estimateur

Plus en détail

1 Données synthétiques

1 Données synthétiques Master 2 MIMSE 2015-2016 Apprentissage automatique TP1 : les k plus proches voisins 1 Données synthétiques Récupérer les jeux de données synth_train.txt et synth_test.txt. On a Y 1, 2 et X R 2. On dispose

Plus en détail

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Philippe Gagnepain Université Paris 1 Ecole d Economie de Paris Centre d économie de la Sorbonne-UG 4-Bureau 405 philippe.gagnepain@univ-paris1.fr

Plus en détail

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq»

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Guy Perrière Pôle Rhône-Alpes de Bioinformatique 14 novembre 2012 Guy Perrière (PRABI) Tests statistiques 14 novembre 2012 1 / 40 Plan

Plus en détail

4.1 Planification d une expérience complètement randomisée

4.1 Planification d une expérience complètement randomisée Chapitre 4 La validation des hypothèses d ANOVA à un facteur Dans le modèle standard d ANOVA, on a fait quelques hypothèses. Pour que les résultats de l analyse effectuée soient fiables, il est nécessaire

Plus en détail

Analyse discriminante

Analyse discriminante Analyse discriminante Christine Decaestecker & Marco Saerens ULB & UCL LINF2275 1 Analyse Discriminante Particularités: 2 formes/utilisations complémentaires: méthode factorielle: description "géométrique"

Plus en détail

Cours IFT6266, Apprentissage Non-Supervisé de Variétés

Cours IFT6266, Apprentissage Non-Supervisé de Variétés Cours IFT6266, Apprentissage Non-Supervisé de Variétés L Apprentissage Non-Supervisé L apprentissage non-supervisé vise à caractériser la distribution des données, et les relations entre les variables,

Plus en détail

M2 Informatique/Réseaux Université Pierre et Marie Curie UE APMM

M2 Informatique/Réseaux Université Pierre et Marie Curie UE APMM TD TECHNIQUES DE CODAGE ET DE COMPRESSION. LANGAGE / CODAGE / VALENCE.. Rappels Toute fraction intelligible d un message est constituée de symboles. Le langage est l ensemble de ces symboles. Un codage

Plus en détail

SY09 Rapport TP4 : Analyse discriminante, régression logistique

SY09 Rapport TP4 : Analyse discriminante, régression logistique UNIVERSITÉ DE TECHNOLOGIE DE COMPIÈGNE SY09 Rapport TP4 : Analyse discriminante, régression logistique CUNI Frédéric 15 juin 2015 Objectifs du TP : Le but de ce TP est l application de l analyse discriminante

Plus en détail

Calcul Stochastique et Applications Financières

Calcul Stochastique et Applications Financières 0 Calcul Stochastique et Applications Financières Aurélia Istratii Luis Macavilca Taylan Kunal M I.E.F. SOMMAIRE I. MODELE DE COX-ROSS-RUBINSTEIN II. III. INTRODUCTION AUX METHODES DE MONTE CARLO EQUATION

Plus en détail

Master 2 IMOI - Mathématiques Financières

Master 2 IMOI - Mathématiques Financières Master 2 IMOI - Mathématiques Financières Exercices - Liste 1 1 Comportement d un investisseur face au risque Exercice 1 Soit K la matrice définie par 1 2 [ 3 1 1 3 1.1 Montrer que K est la matrice de

Plus en détail

Plan de la séance du 18 septembre 2015. Cours de gestion financière (M1) Objectif pédagogiques de la séance. Risque (partie 2)

Plan de la séance du 18 septembre 2015. Cours de gestion financière (M1) Objectif pédagogiques de la séance. Risque (partie 2) Cours de gestion financière (M1) Séance du 18 septembre 015 Risque CAC 0 GR (gross return / dividendes réinvestis https://indices.nyx.com/fr/products/indices/qs001113183 XPAR/quotes Variance du taux de

Plus en détail

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7. Statistique Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.fr Cours Statistique, 2010 p. 1/52 Plan du cours Chapitre 1 : Estimation

Plus en détail

Choix de modèle en régression linéaire

Choix de modèle en régression linéaire Master pro Fouille de données Philippe Besse 1 Objectif Choix de modèle en régression linéaire La construction d un score d appétence sur les données bancaires correspond au choix et à l estimation d un

Plus en détail

Prof.É.D.Taillard. Classification automatique @Prof. E. Taillard 1 EIVD, Informatique logiciel, 4 e semestre

Prof.É.D.Taillard. Classification automatique @Prof. E. Taillard 1 EIVD, Informatique logiciel, 4 e semestre INFORMATIQUE ORIENTATION LOGICIELS CLASSIFICATION AUTOMATIQUE Prof.É.D.Taillard Classification automatique @Prof. E. Taillard EIVD, Informatique logiciel, 4 e semestre CLASSIFICATION AUTOMATIQUE But :

Plus en détail

Détection statistique d anomalies en présence de paramètres de nuisance

Détection statistique d anomalies en présence de paramètres de nuisance Détection statistique d anomalies en présence de paramètres de nuisance Lionel Fillatre ENST Bretagne, département Signal & Communication Lionel Fillatre (département SC) Détection d anomalies 1 / 29 Structure

Plus en détail

Analyse de spectres d absorbance pour la prédiction des taux de moisissure, de matières grasses et de protéines d échantillons de viande

Analyse de spectres d absorbance pour la prédiction des taux de moisissure, de matières grasses et de protéines d échantillons de viande Université de Nantes M2 Ingénierie Mathématiques Rapport de chimiométrie Analyse de spectres d absorbance pour la prédiction des taux de moisissure, de matières grasses et de protéines d échantillons de

Plus en détail

Corrigé du Baccalauréat S Nouvelle-Calédonie Mars 2016

Corrigé du Baccalauréat S Nouvelle-Calédonie Mars 2016 Corrigé du Baccalauréat S Nouvelle-Calédonie Mars 0 A. P. M. E. P. EXERCICE Commun à tous les candidats points Partie A Une boite contient 00 médailles souvenir dont 50 sont argentées, les autres dorées.

Plus en détail

Ressources pour le lycée technologique

Ressources pour le lycée technologique éduscol Enseignement de mathématiques Classe de première STMG Ressources pour le lycée technologique Échantillonnage : couleur des yeux au Canada Contexte pédagogique Objectifs Obtenir un intervalle de

Plus en détail

Technique du drift-scan

Technique du drift-scan Technique du drift-scan Philippe Deverchère Octobre 2006 L objectif de ce petit article est de comprendre dans le détail la technique du drift-scan dans le cadre des occultations d étoiles par des astéroïdes.

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Arts & Métiers Filière PSI

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Arts & Métiers Filière PSI Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Arts & Métiers Filière PSI Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes

Plus en détail

La classification 2012-2013. Fabien Chevalier Jérôme Le Bellac

La classification 2012-2013. Fabien Chevalier Jérôme Le Bellac La classification 2012-2013 Fabien Chevalier Jérôme Le Bellac Introduction : Classification : méthode d analyse de données Objectif : Obtenir une représentation schématique simple d'un tableau de données

Plus en détail

Équations différentielles en physique

Équations différentielles en physique Fiche Mathématiques pour la Physique - Équations différentielles en physique - MPSI 1 Lycée Chaptal - 2012 Équations différentielles en physique On ne considère en physique en prépa (quasiment) que des

Plus en détail

Au menu. Cours 7: Classes Probabilistes. Application : Calcul de la médiane. Sous menu. Retours sur quelques algorithmes.

Au menu. Cours 7: Classes Probabilistes. Application : Calcul de la médiane. Sous menu. Retours sur quelques algorithmes. Au menu Cours 7: Classes Probabilistes Olivier Bournez bournez@lix.polytechnique.fr LIX, Ecole Polytechnique Retours sur quelques algorithmes Quelques résultats INF561 Algorithmes et Complexité 1 2 Sous

Plus en détail

Régression linéaire et corrélation

Régression linéaire et corrélation CHAPITRE 10 Régression linéaire et corrélation 1. Introduction Dans ce chapitre, nous regarderons comment vérifier si une variable à un influence sur une autre variable afin de prédire une des variables

Plus en détail

Concevoir et analyser des tâches mathématiques dans un environnement logiciel : Quels objectifs d apprentissage? Quels choix de conception?

Concevoir et analyser des tâches mathématiques dans un environnement logiciel : Quels objectifs d apprentissage? Quels choix de conception? Concevoir et analyser des tâches mathématiques dans un environnement logiciel : Quels objectifs d apprentissage? Quels choix de conception? Semaine 2, auteurs Maha Abboud-Blanchard (ESPE de Versailles,

Plus en détail

TP 1 M1 Informatique Apprentissage Automatique. Premières classifications : apprentissage et évaluation

TP 1 M1 Informatique Apprentissage Automatique. Premières classifications : apprentissage et évaluation Premières classifications : apprentissage et évaluation L objectif de ce TP est double : prise en main de la bibliothèque scikit-learn de Python, dédiée à l apprentissage automatique, sensibilisation à

Plus en détail

Qualité d une classification

Qualité d une classification Méthodes en classification automatique Qualité d une classification Yves Lechevallier INRIA-Rocquencourt E_mail : Yves.Lechevallier@inria.fr Master ISI Qualité d une partition Validation interne À partir

Plus en détail

Chapitre IV Bases et dimension d un espace vectoriel

Chapitre IV Bases et dimension d un espace vectoriel Chapitre IV Bases et dimension d un espace vectoriel Objectif : Nous allons voir comment fabriquer des systèmes de coordonnées pour les vecteurs d un espace vectoriel général. Dans ce chapitre désigne

Plus en détail

TRAVAIL PRATIQUE. 2x + 1. x + 1

TRAVAIL PRATIQUE. 2x + 1. x + 1 A - Polynômes et factorisation Résultats d apprentissage générau C COMMUNICATION RP RÉSOLUTION DE PROBLÈMES L LIENS R RAISONNEMENT E ESTIMATION ET CALCUL MENTAL T TECHNOLOGIE V VISUALISATION généraliser

Plus en détail

Rapport de Recherche. 1 Estimation fonctionnelle en temps continu. 1.1 Vitesses de convergence pour l estimateur à noyau. (D. Blanke - Mars 2008)

Rapport de Recherche. 1 Estimation fonctionnelle en temps continu. 1.1 Vitesses de convergence pour l estimateur à noyau. (D. Blanke - Mars 2008) Rapport de Recherche (D. Blanke - Mars 2008) L essentiel de mes activités de recherche porte sur l estimation fonctionnelle ou paramétrique pour des processus. L ensemble de ces travaux peut se diviser

Plus en détail

De l art d écrire des programmes qui résolvent des problèmes que l on ne sait pas résoudre soi-même!

De l art d écrire des programmes qui résolvent des problèmes que l on ne sait pas résoudre soi-même! Chapitre 1 La récursivité De l art d écrire des programmes qui résolvent des problèmes que l on ne sait pas résoudre soi-même! 1.1 Définition et types de récursivité Définition 1 (Définition récursive,

Plus en détail

Introduction aux sondages

Introduction aux sondages Service Universitaire d Enseignement à Distance Licence AES - Troisième année Introduction aux sondages Université Rennes 2 Place du Recteur H. le Moal CS 24307-35043 Rennes Tel : 02 99 14 18 21 Mel :

Plus en détail

Erik PERNOD Calcul Scientifique 3 ème Année RESEAUX DE NEURONES

Erik PERNOD Calcul Scientifique 3 ème Année RESEAUX DE NEURONES Erik PERNOD Calcul Scientifique 3 ème Année RESEAUX DE NEURONES 1 TABLE DES MATIERES TABLE DES MATIERES... 2 I PERCEPTRON SIMPLE... 3 I.1 Introduction... 3 I.2 Algorithme... 3 I.3 Résultats... 4 1er exemple

Plus en détail

I. LA VARIABILITE AU SEIN DES POPULATIONS

I. LA VARIABILITE AU SEIN DES POPULATIONS I. LA VARIABILITE AU SEIN DES POPULATIONS La notion de population recouvre un concept difficilement réductible à une définition unique. Au sens de la génétique, une population représente une entité de

Plus en détail

Séance 12: Algorithmes de Support Vector Machines

Séance 12: Algorithmes de Support Vector Machines Séance 12: Algorithmes de Support Vector Machines Laboratoire de Statistique et Probabilités UMR 5583 CNRS-UPS www.lsp.ups-tlse.fr/gadat Douzième partie XII Algorithmes de Support Vector Machines Principe

Plus en détail

Baccalauréat ES Pondichéry 21 avril 2016

Baccalauréat ES Pondichéry 21 avril 2016 Exercice 1 Commun à tous les candidats Baccalauréat ES Pondichéry 21 avril 216 4 points Cet exercice est un QCM (questionnaire à choix multiples). Pour chacune des quatre questions posées, une seule des

Plus en détail

Chapitre 3 Dénombrement et représentation d un caractère continu. Lætitia Perrier Bruslé Cours de statistique descriptive sous Excel

Chapitre 3 Dénombrement et représentation d un caractère continu. Lætitia Perrier Bruslé Cours de statistique descriptive sous Excel Chapitre 3 Dénombrement et représentation d un caractère continu Lætitia Perrier Bruslé Cours de statistique descriptive sous Excel Introduction Un caractère quantitatif est continu si ses modalités possibles

Plus en détail

Approche empirique du test χ 2 d ajustement

Approche empirique du test χ 2 d ajustement Approche empirique du test χ 2 d ajustement Alain Stucki, Lycée cantonal de Porrentruy Introduction En lisant des rapports, on rencontre souvent des raisonnements du style : «le premier groupe est meilleur

Plus en détail

Problème du voyageur de commerce par algorithme génétique

Problème du voyageur de commerce par algorithme génétique Problème du voyageur de commerce par algorithme génétique 1 Problème du voyageur de commerce Le problème du voyageur de commerce, consiste en la recherche d un trajet minimal permettant à un voyageur de

Plus en détail

Probabilités et statistiques M2MT01 - TD2

Probabilités et statistiques M2MT01 - TD2 Probabilités et statistiques M2MT01 - TD2 Exercice 1 : Une fourmi se déplace sur un dé à six faces. A chaque sommet, elle choisit le prochain parmi les trois sommets voisins avec la même probabilité. La

Plus en détail

TD : Microéconomie de l incertain. Emmanuel Duguet

TD : Microéconomie de l incertain. Emmanuel Duguet TD : Microéconomie de l incertain Emmanuel Duguet 2013-2014 Sommaire 1 Les loteries 2 2 Production en univers incertain 4 3 Prime de risque 6 3.1 Prime de risque et utilité CRRA.................. 6 3.2

Plus en détail

TP 5 & 6 : Graphique

TP 5 & 6 : Graphique L1-S1-IMP Informatique Année 2010-2011 Semestre 1 TP 5 & 6 : Graphique 1 Bases 1.1 Bibliothèque graphique Pour dessiner des figures géométriques (et autres), Caml offre une bibliothèque de fonctions graphiques.

Plus en détail

28 nov. 1 déc. 2005 Formation INRA ACTA ICTA La Rochelle. David Makowski. UMR Agronomie INRA/INA-PG makowski@grignon.inra.fr

28 nov. 1 déc. 2005 Formation INRA ACTA ICTA La Rochelle. David Makowski. UMR Agronomie INRA/INA-PG makowski@grignon.inra.fr 28 nov. 1 déc. 2005 Formation INRA ACTA ICTA La Rochelle David Makowski UMR Agronomie INRA/INA-PG makowski@grignon.inra.fr Mon cours sur l estimation des paramètres comportent deux parties. La première

Plus en détail

Probabilités et statistique

Probabilités et statistique Probabilités et statistique Université Paris 1 Panthéon-Sorbonne Cours de deuxième année de licence de sciences économiques Fabrice Rossi Cette œuvre est mise à disposition selon les termes de la licence

Plus en détail

ECGE 1224 - Statistiques en économie et gestion : TP 1

ECGE 1224 - Statistiques en économie et gestion : TP 1 ECGE 14 - Statistiques en économie et gestion : TP 1 Exercice 1 Un dé parfaitement équilibré est lancé. Soit X la variable aléatoire (v.a.) correspondant au résultat obtenu avec le dé. a) Justifer pourquoi

Plus en détail

1 Contrôle des connaissances 2010/2011

1 Contrôle des connaissances 2010/2011 1 Contrôle des connaissances 2010/2011 Remarque préliminaire On s attachera dans la rédaction à être aussi précis que possible. Ainsi, lors de l écriture de chaque problème d optimisation et de chaque

Plus en détail

COURS DE LICENCE 2 SCIENCES ECONOMIQUES COURS D ANNIE CLARET

COURS DE LICENCE 2 SCIENCES ECONOMIQUES COURS D ANNIE CLARET COURS DE LICENCE 2 SCIENCES ECONOMIQUES COURS D ANNIE CLARET MATHEMATIQUES 3 PRISE DE NOTE PAR : PLASMAN SYLVAIN SERIE 7 ANNEE 2010-2011 1 Sommaire et accès aux chapitres/sous-chapitres Cliquez sur le

Plus en détail

Université des Sciences et Technologies de Lille U.F.R. de Mathématiques Pures et Appliquées Bât. M2, F-59655 Villeneuve d Ascq Cedex

Université des Sciences et Technologies de Lille U.F.R. de Mathématiques Pures et Appliquées Bât. M2, F-59655 Villeneuve d Ascq Cedex Université des Sciences et Technologies de Lille U.F.R. de Mathématiques Pures et Appliquées Bât. M2, F-59655 Villeneuve d Ascq Cedex Agrégation externe Année 2003-2004 Corrigé de l exercice sur le test

Plus en détail

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 2014 MATHS/STATS. Solution des exercices d algèbre linéaire

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 2014 MATHS/STATS. Solution des exercices d algèbre linéaire UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 3 4 Master d économie Cours de M. Desgraupes MATHS/STATS Document : Solution des exercices d algèbre linéaire Table des matières

Plus en détail

Premiers exemples de traitements

Premiers exemples de traitements #include #include Premiers exemples de traitements void main() float b(0.0); float c(0.0); float delta(0.0); cin >> b >> c; delta = b*b - 4*c; if (delta < 0.0) cout

Plus en détail

1 Variable aléatoire discrète... 1. 1.1 Rappels... 1. 1.2 Exemple... 2 2 Couples de variables aléatoires... 3. 2.1 Définition... 3

1 Variable aléatoire discrète... 1. 1.1 Rappels... 1. 1.2 Exemple... 2 2 Couples de variables aléatoires... 3. 2.1 Définition... 3 CHAPITRE : LOIS DISCRÈTES Sommaire Variable aléatoire discrète................................... Rappels........................................... Exemple......................................... Couples

Plus en détail

MATHÉMATIQUES ET SCIENCES HUMAINES

MATHÉMATIQUES ET SCIENCES HUMAINES MATHÉMATIQUES ET SCIENCES HUMAINES M. C. WEISS Variations pédagogiques sur le thème des échantillons systématiques Mathématiques et sciences humaines, tome 102 (1988), p. 39-45.

Plus en détail

Introduction au logiciel R

Introduction au logiciel R Introduction au logiciel R Fabrice Rossi Projet AxIS, INRIA Rocquencourt 2007 F. Rossi (INRIA) Introduction au logiciel R 2007 1 / 34 Plan 1 Manipulations élémentaires Vecteurs et tableaux de données Graphisme

Plus en détail

DESCRIPTION DE COURS. Nom du cours : Mathématiques 8. Nom de l enseignante : Mme Dianne L. Doucet. Année Scolaire : 2009 2010

DESCRIPTION DE COURS. Nom du cours : Mathématiques 8. Nom de l enseignante : Mme Dianne L. Doucet. Année Scolaire : 2009 2010 DESCRIPTION DE COURS Nom du cours : Mathématiques 8 Nom de l enseignante : Mme Dianne L. Doucet Année Scolaire : 2009 2010 1. Description du cours : Le programme de mathématiques de la 8 e année vise à

Plus en détail

Rapport de stage Mise à plat d'un polygone

Rapport de stage Mise à plat d'un polygone Rapport de stage Mise à plat d'un polygone Stagiaire : Sejjil Olfa Tuteurs de stage: Luc BIARD et Bernard LACOLLE Laboratoire: Jean Kuntzmann (LJK) Equipe: Modélisation Géométrique & Multirésolution pour

Plus en détail

THEORIE DU SONDAGE ALEATOIRE ET ETUDE D UN SONDAGE D OPINION AVANT LE 1ER TOUR D UNE ELECTION PRESIDENTIELLE. Martin KÖRNIG

THEORIE DU SONDAGE ALEATOIRE ET ETUDE D UN SONDAGE D OPINION AVANT LE 1ER TOUR D UNE ELECTION PRESIDENTIELLE. Martin KÖRNIG THEORIE DU SONDAGE ALEATOIRE ET ETUDE D UN SONDAGE D OPINION AVANT LE 1ER TOUR D UNE ELECTION PRESIDENTIELLE Martin KÖRNIG Résumé Après le dépouillement d un échantillon aléatoire, que sait-on sur l ensemble

Plus en détail

Comparaison d approches statistiques pour la classification de textes d opinion. Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM)

Comparaison d approches statistiques pour la classification de textes d opinion. Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM) Comparaison d approches statistiques pour la classification de textes d opinion Michel Plantié, Gérard Dray, Mathieu Roche (LGI2P/EMA LIRMM) Caractéristiques des traitements Approche identique pour les

Plus en détail