Modèles Mathématiques pour l'image Méthodes de Classication (II)
|
|
- Mathieu Malo
- il y a 7 ans
- Total affichages :
Transcription
1 1/1 Modèles Mathématiques pour l'image Méthodes de Classication (II) Julie Digne LIRIS - Équipe GeoMod - CNRS 10 Décembre 2015
2 2/1 Previously in Modèles Mathématiques pour l'image On a vu: Comment et pourquoi passer de l'image à un espace des caractéristiques (potentiellement de plus grande dimension). Comment classier des points selon leurs caractéristiques à travers diérents algorithmes: les K-moyennes et mean-shift.
3 3/1 Et aujourd'hui... l'analyse en Composantes Principales Le modèle probabiliste et l'estimation a posteriori (MAP) Les mélanges de gaussiennes Un algorithme très connu (et très utile): l'algorithme EM
4 Plan 4/1
5 Plan L'Analyse en Composantes Principales (ACP - PCA) 5/1
6 L'Analyse en Composantes Principales (ACP - PCA) 6/1 L'Analyse en Composantes Principales (ACP - PCA) Parfois les données sont exprimées dans un espace qui ne leur est pas favorable. Il peut être intéressant de changer d'espace pour mieux capturer la variabilité des données. Par exemple: On veut visualiser des éléments de R d, on va trouver un sous-espace E de R d tel que la plupart des variations des données se passent dans E.
7 L'Analyse en Composantes Principales (ACP - PCA) 7/1 Quelques outils de base: les variables aléatoires Espace de probabilité Soit Ω l'univers, A un ensemble de sous-parties de Ω (tous les évènements possibles de Ω). Une application P dénie sur A à valeurs dans [0, 1] est une mesure de probabilité (loi de probabilité) si: P(Ω) = 1 pour un ensemble A i d'éléments disjoints de A, P( i A i ) = i P(A i).
8 L'Analyse en Composantes Principales (ACP - PCA) 7/1 Quelques outils de base: les variables aléatoires Espace de probabilité Soit Ω l'univers, A un ensemble de sous-parties de Ω (tous les évènements possibles de Ω). Une application P dénie sur A à valeurs dans [0, 1] est une mesure de probabilité (loi de probabilité) si: P(Ω) = 1 pour un ensemble A i d'éléments disjoints de A, P( i A i ) = i P(A i). Variable aléatoire On appelle variable aléatoire toute application X dénie sur Ω et à valeurs dans un espace mesurable E.
9 L'Analyse en Composantes Principales (ACP - PCA) 8/1 Quelques outils pour caractériser les variables aléatoires Chaque point x i de R d est une variable aléatoire distribuée selon une certaine loi de probabilité. Moyenne (espérance - expectation): E[x] = 1 n n i=1 x i Obtenir des variables aléatoires centrées: X = X E[X ] Variance d'une variable aléatoire: Var(X ) = E[(X E[X ]) 2 ] = E[X 2 ] E[X ] 2
10 L'Analyse en Composantes Principales (ACP - PCA) 9/1 Analyse de couples de variables aléatoires Deux variables aléatoires X et Y Covariance de deux variables aléatoires X et Y : Cov(X, Y ) = E[(X E[X ]) (Y E[Y ])] Écart-type (standard deviation): σ X = Var(X ) Corrélation de deux variables aléatoires: Cor(X, Y ) = Cov(X,Y ) σ X σ Y
11 L'Analyse en Composantes Principales (ACP - PCA) 10/1 Variables aléatoires multivariées Les variables aléatoires sont à valeurs dans R d Les formules de moyenne et de variance se généralisent en prenant en compte les composantes deux à deux.
12 L'Analyse en Composantes Principales (ACP - PCA) 11/1 l'analyse en Composante Principale A priori les composantes de x i pourraient être corrélées: si c'est le cas, l'espace dans lequel elles sont exprimées n'est pas adapté à ces variables.
13 L'Analyse en Composantes Principales (ACP - PCA) 11/1 l'analyse en Composante Principale A priori les composantes de x i pourraient être corrélées: si c'est le cas, l'espace dans lequel elles sont exprimées n'est pas adapté à ces variables. Idée On va chercher un espace où ces variables ne sont plus correlées.
14 L'Analyse en Composantes Principales (ACP - PCA) 12/1 On calcule la moyenne des x i µ = 1 n n i=1 On calcule la matrice de covariance C : n C = (x i µ) (x i µ) i=1 On cherche la direction qui explique le mieux les données x i
15 Idée On va chercher la direction u 1 telle que les échantillons x i projetés sur u 1 ait une variance maximale. Soit X R d n la matrice des échantillons X = ( x 1 x 2 x n ) La projection de X sur u 1 s'écrit X T u 1 La variance de ces variables réelles est: u T 1 C u 1 L'Analyse en Composantes Principales (ACP - PCA) 13/1
16 L'Analyse en Composantes Principales (ACP - PCA) 14/1 Quelques rappels sur la diagonalisation de matrice Extraction des vecteurs propres et valeurs propres de la matrice C Hypothèse (dans notre cas): C est une matrice symétrique à coecients réels Par le théorème spectral, C est diagonalisable dans une base orthogonale i.e. C = UDU T où: Les lignes de U, les colonnes de V sont les vecteurs propres de C. U est orthogonale: U U T = U T U = 1 D est une matrice diagonale dont les éléments diagonaux sont les valeurs propres λ i
17 L'Analyse en Composantes Principales (ACP - PCA) 15/1 Et donc: La direction qui maximise la variance est le vecteur propre qui correspond à la plus grande valeur propre: u 1, λ 1 Itérativement les colonnes de U sont les directions successives sur lesquelles il faut projeter les données pour maximiser les variances résiduelles.
18 L'Analyse en Composantes Principales (ACP - PCA) 16/1 Application: réduction de dimension On a parfois des données en dimension élevée (ex: ltres de Gabor) on ne peut pas les visualiser facilement! Représentation de données en grande dimension On capture les 2 ou 3 premières directions principales, on projette les données dessus et c'est ce qu'on va représenter.
19 L'Analyse en Composantes Principales (ACP - PCA) 17/1 Application: réduction de dimension Considérons l'espace des patchs de taille 5 5 de l'image. On a une matrice de points dans R 2 5
20 L'Analyse en Composantes Principales (ACP - PCA) 18/1 Application: réduction de dimension Projection sur la première direction: 77% des variations sont capturées.
21 L'Analyse en Composantes Principales (ACP - PCA) 18/1 Application: réduction de dimension Projection sur la première direction: 77% des variations sont capturées.
22 L'Analyse en Composantes Principales (ACP - PCA) 19/1 Application: réduction de dimension Projection sur les deux premières directions: 86% des variations sont capturées.
23 L'Analyse en Composantes Principales (ACP - PCA) 20/1 Application: réduction de dimension Projection sur les trois premières directions: 92% des variations sont capturées.
24 L'Analyse en Composantes Principales (ACP - PCA) 21/1 Une remarque sur la réduction de dimension PCA fait l'hypothèse que l'ensemble des données peuvent être expliquée par un modèle linéaire Pour aller plus loin sur la réduction de dimension Locally Linear Embedding, Multi-dimensionnal Scaling, NonLinear PCA...
25 L'Analyse en Composantes Principales (ACP - PCA) 22/1 Application: réduction de dimension Les dernières dimensions capturent des variances très faibles: assimilables à du bruit. Robustesse Quand on calcule la distance entre deux vecteurs de description, on ne va regarder que la diérence selon ces premières variations. Principe qui peut s'appliquer à K-means, meanshift et l'algorithme EM que nous allons voir aujourd'hui.
26 L'Analyse en Composantes Principales (ACP - PCA) 23/1 Lien avec la régression de droite ou de plan Si on veut trouver la droite de régression d'un ensemble de points p i, on cherche à résoudre: p i proj(p i, π) 2 min πunplan i
27 L'Analyse en Composantes Principales (ACP - PCA) 23/1 Lien avec la régression de droite ou de plan Si on veut trouver la droite de régression d'un ensemble de points p i, on cherche à résoudre: p i proj(p i, π) 2 min πunplan i Le plan π peut s'écrire par un point o et une direction normale n
28 L'Analyse en Composantes Principales (ACP - PCA) 23/1 Lien avec la régression de droite ou de plan Si on veut trouver la droite de régression d'un ensemble de points p i, on cherche à résoudre: p i proj(p i, π) 2 min πunplan i Le plan π peut s'écrire par un point o et une direction normale n Pouvez-vous montrer le lien entre la direction qui minimise la variance du nuage de points centrés et la normale au plan de régression?
29 L'Analyse en Composantes Principales (ACP - PCA) 23/1 Lien avec la régression de droite ou de plan Si on veut trouver la droite de régression d'un ensemble de points p i, on cherche à résoudre: p i proj(p i, π) 2 min πunplan i Le plan π peut s'écrire par un point o et une direction normale n Pouvez-vous montrer le lien entre la direction qui minimise la variance du nuage de points centrés et la normale au plan de régression? PCA - régression Finalement pour trouver le plan de régression, il sut de chercher le barycentre des points et la direction propre associée à la plus petite valeur propre de la plus petite matrice de covariance.
30 L'Analyse en Composantes Principales (ACP - PCA) 24/1 Lien avec la régression Tout ce que vous avez toujours voulu savoir sur la régression au prochain cours!
31 L'Analyse en Composantes Principales (ACP - PCA) 25/1 Un algorithme de segmentation basée sur PCA Un algorithme de segmentation TODOexpliciter Bouman et Orchard
32 Plan Gaussiennes et Mélanges de Gaussiennes 26/1
33 Gaussiennes et Mélanges de Gaussiennes 27/1 Loi Gaussienne Distribution Gaussienne dans R d La distribution gaussienne est une distribution qui dépend de plusieurs paramètres, une matrice de variance Σ R d d et une moyenne µ R d, une variable aléatoire X à valeurs dans R d suit une loi gaussienne si sa densite de probabilité s'écrit: f µ,σ (x) = 1 2π d det(σ) exp 1 2 (x µ)t Σ 1 (x µ) On se restreint au cas non dégénéré où Σ est dénie positive.
34 Gaussiennes et Mélanges de Gaussiennes 28/1 Mélanges de Gaussiennes Dénition d'un mélange de Gaussiennes Un mélange de Gaussienne (Gaussian Mixture Model - GMM) permet de modéliser une distribution comme une somme pondérée de K gaussiennes. Sa densité s'écrit: g Λ (x) = K π i f µi,σ i (x) = i=1 K i=1 π i 1 2π d det(σ) exp 1 2 (x µ)t Σ 1 (x µ) Λ = {(µ i ) i=1 K, (Σ i ) i=1 K, (π i ) i=1 K } π i est la proportion de la ième gaussienne dans le mélange: π i [0, 1] et K i=1 π i = 1. µ i R d et Σ i R d d sont la moyenne et la covariance de la i eme gaussienne
35 Mélanges de Gaussiennes Gaussiennes et Mélanges de Gaussiennes 29/1
36 Mélanges de Gaussiennes Gaussiennes et Mélanges de Gaussiennes 30/1
37 Plan Algorithme Expectation Maximization 31/1
38 Algorithme Expectation Maximization 32/1 Idée derrière l'algorithme EM (Dempster et al. 77) But: estimer les paramètres Λ du mélange de gaussiennes qui représenta au mieux les données Etant donné les paramètres Λ on peut quantier la probabilité que l'échantillon suive cette loi.
39 Algorithme Expectation Maximization 32/1 Idée derrière l'algorithme EM (Dempster et al. 77) But: estimer les paramètres Λ du mélange de gaussiennes qui représenta au mieux les données Etant donné les paramètres Λ on peut quantier la probabilité que l'échantillon suive cette loi. Principe On va estimer les paramètres Λ du mélange qui maximisent la probabilité de réalisation de l'observation.
40 Algorithme Expectation Maximization 33/1 Log-vraisemblance Dénition La vraisemblance (likelihood) est une probabilité conditionnelle mesurant la probabilité de l'échantillon sachant les paramètres: L(x 1 x n Λ) = n g Λ (x i ) i=1 Plus la vraisemblance est forte plus le modèle avec ces paramètres ont de chance d'avoir généré l'échantillon. On parle souvent en log-vraisemblance (plus pratique)
41 Algorithme Expectation Maximization 34/1 Estimateur du maximum de vraisemblance Pour estimer les paramètres optimaux Λ, on va résoudre: ˆΛ = argmin L(x 1 x n, Λ) Λ
42 Algorithme Expectation Maximization 34/1 Estimateur du maximum de vraisemblance Pour estimer les paramètres optimaux Λ, on va résoudre: ˆΛ = argmin L(x 1 x n, Λ) Λ L'estimation des paramètres se réduit à un problème d'optimisation
43 Algorithme Expectation Maximization 34/1 Estimateur du maximum de vraisemblance Pour estimer les paramètres optimaux Λ, on va résoudre: ˆΛ = argmin L(x 1 x n, Λ) Λ L'estimation des paramètres se réduit à un problème d'optimisation Si la vraisemblance est dérivable, il faut résoudre L Λ = 0
44 Algorithme Expectation Maximization 35/1 La vraisemblance dans le cas des mélanges de Gaussiennes Rappel: g Λ (x) = K π i f µi,σ i (x) = i=1 K i=1 π i 1 2π d det(σ) exp 1 2 (x µ)t Σ 1 (x µ) Et donc: n ln L(Λ) = ln g Λ (x i ) i=1 Maximiser directement ln L(Λ) est impossible! Il y a des données cachées qui sont l'appartenance à l'une ou l'autre des classes.
45 Algorithme Expectation Maximization 36/1 Simplication: appartenance des classes connues Hypothèse supplémentaire On observe les variables (x i, z i ) i=1 n où z i est un vecteurs à K dimensions à valeurs dans {0, 1} et telle que la somme de ses composantes vaut 1. La log-vraisemblance s'écrit: h Λ (x, z) = K π i z i f µi,σ i (x) i=1 L X,Z (Λ) = ln n h Λ (x i, z i ) i=1 La maximisation de la log-vraisemblance donne: π i = card C j n 1 ; µ i = card C i 1 x j ; Σ i = card C i x j C i x j C i (x j µ i ) T (x j µ i )
46 Problème réel On reprend le problème de maximisation de ln L(Λ) = n i=1 ln g Λ(x i ) Impossible à maximiser à cause des variables cachées z i Proba conditionnelle f (z x, Λ) L(x, z; Λ) = n ln f (z i x i, Λ) + ln f (x i, Λ) i=1 L(x; Λ) = L(x, z, Λ) n ln f (z i x i, Λ) En passant par des espérances conditionnelles, cela peut se réécrire: i=1 L(x; Λ) = Q(Λ, Λ k ) H(Λ, Λ k ) Algorithme Expectation Maximization 37/1
47 Algorithme Expectation Maximization 38/1 On traduit ceci en algorithme: La suite Λ k+1 = argmax Q(Λ, Λ k ) fait tendre la log-vraisemblance vers un maximum local On va se servir ce principe pour construire un algorithme itératif. Etape E (expectation): on évalue l'espérance de l'échantillon sachant Λ k Etape M (maximization): on calcule Λ k+1
48 Algorithme Expectation Maximization 39/1 Algorithme Algorithm 1: Algorithme EM 1 Initialiser Λ 0 ; 2 do 3 Étape E Calculer H t ij = π t j f Λ t (z j x i ) K j=1 πt j f Λ t (z j x i ) ; 4 Étape M Calculer π t+1 j = 1 n n i=1 H t ij Σ t+1 j = µ t+1 j = n i=1 x i H t ij n i=1 H t ij n i=1 (x i µ t+1 j ) T (x i µ t+1 j n i=1 H t ij )H t ij 5 Until Convergence;
49 Algorithme Expectation Maximization 40/1 Pourquoi ça marche? La log-vraisemblance croît au long de l'algorithme, elle est bornée, l'algorithme converge La convergence peut être vers un maximum local Pour sortir du maximum local, on peut lancer l'algorithme avec diérentes initialisations
50 Application à la segmentation Algorithme Expectation Maximization 41/1
51 Application à la segmentation Algorithme Expectation Maximization 42/1
52 Application à la segmentation Algorithme Expectation Maximization 43/1
53 Algorithme Expectation Maximization 44/1 Conclusion Les données images peuvent être expliquées par des modèles génératifs diérents Gaussiennes et Mélanges de Gaussiennes très utiles pour transférer de la couleur: voir le cours 4 en Janvier Segmentation d'histogramme EM plus intéressante qu'avec K-means et plus ecace que meanshift. Mais il faut connaitre le nombre de classes.
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailProgrammation Linéaire - Cours 1
Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.
Plus en détailClassification non supervisée
AgroParisTech Classification non supervisée E. Lebarbier, T. Mary-Huard Table des matières 1 Introduction 4 2 Méthodes de partitionnement 5 2.1 Mesures de similarité et de dissimilarité, distances.................
Plus en détailAnalyse en Composantes Principales
Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailApprentissage Automatique
Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailLE PROBLEME DU PLUS COURT CHEMIN
LE PROBLEME DU PLUS COURT CHEMIN Dans cette leçon nous définissons le modèle de plus court chemin, présentons des exemples d'application et proposons un algorithme de résolution dans le cas où les longueurs
Plus en détailDétection de têtes dans un nuage de points 3D à l aide d un modèle de mélange sphérique
Détection de têtes dans un nuage de points 3D à l aide d un modèle de mélange sphérique Denis Brazey & Bruno Portier 2 Société Prynɛl, RD974 290 Corpeau, France denis.brazey@insa-rouen.fr 2 Normandie Université,
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détailProgrammation linéaire
Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire
Plus en détailMATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA
MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détailNON-LINEARITE ET RESEAUX NEURONAUX
NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail
Plus en détailTESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION
TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailUne application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies
Une application de méthodes inverses en astrophysique : l'analyse de l'histoire de la formation d'étoiles dans les galaxies Ariane Lançon (Observatoire de Strasbourg) en collaboration avec: Jean-Luc Vergely,
Plus en détailPourquoi l apprentissage?
Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage
Plus en détailSoutenance de stage Laboratoire des Signaux et Systèmes
Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud
Plus en détailProgrammation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
Plus en détailChapitre 6 Apprentissage des réseaux de neurones et régularisation
Chapitre 6 : Apprentissage des réseaux de neurones et régularisation 77 Chapitre 6 Apprentissage des réseaux de neurones et régularisation Après une introduction rapide aux réseaux de neurones et à la
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailLe modèle de Black et Scholes
Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un
Plus en détail4. Martingales à temps discret
Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les
Plus en détailCCP PSI - 2010 Mathématiques 1 : un corrigé
CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P
Plus en détailLEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,
Plus en détailOPTIMISATION À UNE VARIABLE
OPTIMISATION À UNE VARIABLE Sommaire 1. Optimum locaux d'une fonction... 1 1.1. Maximum local... 1 1.2. Minimum local... 1 1.3. Points stationnaires et points critiques... 2 1.4. Recherche d'un optimum
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailCouples de variables aléatoires discrètes
Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude
Plus en détailIntroduction. Préambule. Le contexte
Préambule... INTRODUCTION... BREF HISTORIQUE DE L ACP... 4 DOMAINE D'APPLICATION... 5 INTERPRETATIONS GEOMETRIQUES... 6 a - Pour les n individus... 6 b - Pour les p variables... 7 c - Notion d éléments
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailChapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Plus en détailAlgorithmes d'apprentissage
Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailOrdonnancement. N: nains de jardin. X: peinture extérieure. E: électricité T: toit. M: murs. F: fondations CHAPTER 1
CHAPTER 1 Ordonnancement 1.1. Étude de cas Ordonnancement de tâches avec contraintes de précédences 1.1.1. Exemple : construction d'une maison. Exercice. On veut construire une maison, ce qui consiste
Plus en détailINTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine
Plus en détailMCMC et approximations en champ moyen pour les modèles de Markov
MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:
Plus en détailComplexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation
Complexité Objectifs des calculs de complexité : - pouvoir prévoir le temps d'exécution d'un algorithme - pouvoir comparer deux algorithmes réalisant le même traitement Exemples : - si on lance le calcul
Plus en détailBaccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailPrincipe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université
Plus en détailTests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA
Plus en détailUne comparaison de méthodes de discrimination des masses de véhicules automobiles
p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans
Plus en détailInterception des signaux issus de communications MIMO
Interception des signaux issus de communications MIMO par Vincent Choqueuse Laboratoire E 3 I 2, EA 3876, ENSIETA Laboratoire LabSTICC, UMR CNRS 3192, UBO 26 novembre 2008 Interception des signaux issus
Plus en détailAgrégation des portefeuilles de contrats d assurance vie
Agrégation des portefeuilles de contrats d assurance vie Est-il optimal de regrouper les contrats en fonction de l âge, du genre, et de l ancienneté des assurés? Pierre-O. Goffard Université d été de l
Plus en détailMesures de Risque Multipériodes Cohérentes Appliquées au Compte à Terme
TFE Ingénieur Civil Mathématiques Appliquées 24 juin 2010 Mesures de Risque Multipériodes Cohérentes Appliquées au Compte à Terme Auteur Christophe Pochet Promoteur Pierre Devolder Comment garantir la
Plus en détailProjet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies
Projet de traitement d'image - SI 381 reconstitution 3D d'intérieur à partir de photographies Régis Boulet Charlie Demené Alexis Guyot Balthazar Neveu Guillaume Tartavel Sommaire Sommaire... 1 Structure
Plus en détailIntroduction à la Statistique Inférentielle
UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique
Plus en détailENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N
ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement
Plus en détailExamen optimisation Centrale Marseille (2008) et SupGalilee (2008)
Examen optimisation Centrale Marseille (28) et SupGalilee (28) Olivier Latte, Jean-Michel Innocent, Isabelle Terrasse, Emmanuel Audusse, Francois Cuvelier duree 4 h Tout resultat enonce dans le texte peut
Plus en détailDan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier
Détection et reconnaissance des sons pour la surveillance médicale Dan Istrate le 16 décembre 2003 Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Thèse mené dans le cadre d une collaboration
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailTravaux dirigés n 1. Programmation linéaire
Université de Reims Champagne Ardenne U.F.R. de Sciences Exactes et Naturelles MASTER 1 Informatique - 2014/2015 Pierre Delisle Travaux dirigés n 1 Programmation linéaire Exercice 1 (Résolution d'un programme
Plus en détailBiostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke
www.fundp.ac.be/biostats Module 140 140 ANOVA A UN CRITERE DE CLASSIFICATION FIXE...2 140.1 UTILITE...2 140.2 COMPARAISON DE VARIANCES...2 140.2.1 Calcul de la variance...2 140.2.2 Distributions de référence...3
Plus en détailProgrammation linéaire
CHAPTER 1 Programmation linéaire 1.1. Qu'est-ce que la programmation linéaire 1.1.1. Exemple: le problème du régime de Polly [1, p.3]. Besoins journaliers: Énergie: 2000 kcal Protéines: 55g Calcium: 800
Plus en détaila) La technique de l analyse discriminante linéaire : une brève présentation. 3 étapes de la méthode doivent être distinguées :
a) La technique de l analyse discriminante linéaire : une brève présentation. Nous nous limiterons ici à l'analyse discriminante linéaire et à deux groupes : - linéaire, la variante utilisée par ALTMAN
Plus en détailCritère du choix des variables auxiliaires à utiliser dans l'estimateur par calage
des variables auxiliaires à utiliser dans l'estimateur par calage Mohammed El Haj Tirari Institut National de Statistique et d'economie Appliquée - roc Laboratoire de Statistique d'enquêtes, CREST - Ensai
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailLes mathématiques de la finance Université d été de Sourdun Olivier Bardou olivier.bardou@gdfsuez.com 28 août 2012 De quoi allons nous parler? des principales hypothèses de modélisation des marchés, des
Plus en détailCours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Plus en détailRégression linéaire. Nicolas Turenne INRA nicolas.turenne@jouy.inra.fr
Régression linéaire Nicolas Turenne INRA nicolas.turenne@jouy.inra.fr 2005 Plan Régression linéaire simple Régression multiple Compréhension de la sortie de la régression Coefficient de détermination R
Plus en détailAnalyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
Plus en détail1 Définition de la non stationnarité
Chapitre 2: La non stationnarité -Testsdedétection Quelques notes de cours (non exhaustives) 1 Définition de la non stationnarité La plupart des séries économiques sont non stationnaires, c est-à-direqueleprocessusquiles
Plus en détailAmphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailRelation entre deux variables : estimation de la corrélation linéaire
CHAPITRE 3 Relation entre deux variables : estimation de la corrélation linéaire Parmi les analyses statistiques descriptives, l une d entre elles est particulièrement utilisée pour mettre en évidence
Plus en détailALGORITHME GENETIQUE ET MODELE DE SIMULATION POUR L'ORDONNANCEMENT D'UN ATELIER DISCONTINU DE CHIMIE
ALGORITHME GENETIQUE ET MODELE DE SIMULATION POUR L'ORDONNANCEMENT D'UN ATELIER DISCONTINU DE CHIMIE P. Baudet, C. Azzaro-Pantel, S. Domenech et L. Pibouleau Laboratoire de Génie Chimique - URA 192 du
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailCorrigé des TD 1 à 5
Corrigé des TD 1 à 5 1 Premier Contact 1.1 Somme des n premiers entiers 1 (* Somme des n premiers entiers *) 2 program somme_entiers; n, i, somme: integer; 8 (* saisie du nombre n *) write( Saisissez un
Plus en détailIntroduction. I Étude rapide du réseau - Apprentissage. II Application à la reconnaissance des notes.
Introduction L'objectif de mon TIPE est la reconnaissance de sons ou de notes de musique à l'aide d'un réseau de neurones. Ce réseau doit être capable d'apprendre à distinguer les exemples présentés puis
Plus en détailGestion du niveau de la franchise d'un contrat avec bonus-malus
Gestion du niveau de la franchise d'un contrat avec bonus-malus Pierre Thérond Stéphane Bonche Résumé Réduire la franchise d'un contrat d'assurance permet d'améliorer la qualité du contrat du point de
Plus en détailStatistiques - Cours. 1. Gén éralités. 2. Statistique descriptive univari ée. 3. Statistique descriptive bivariée. 4. Régression orthogonale dans R².
Statistiques - Cours Page 1 L I C E N C E S c i e n t i f i q u e Cours Henri IMMEDIATO S t a t i s t i q u e s 1 Gén éralités Statistique descriptive univari ée 1 Repr é s e n t a t i o n g r a p h i
Plus en détailCours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012 LES STATISTIQUES INFERENTIELLES
LES STATISTIQUES INFERENTIELLES (test de Student) L inférence statistique est la partie des statistiques qui, contrairement à la statistique descriptive, ne se contente pas de décrire des observations,
Plus en détail«Cours Statistique et logiciel R»
«Cours Statistique et logiciel R» Rémy Drouilhet (1), Adeline Leclercq-Samson (1), Frédérique Letué (1), Laurence Viry (2) (1) Laboratoire Jean Kuntzmann, Dép. Probabilites et Statistique, (2) Laboratoire
Plus en détailAnalyse de corrélation Étude des dépendances - Variables quantitatives
Ricco Rakotomalala Analyse de corrélation Étude des dépendances - Variables quantitatives Version 1.1 Université Lumière Lyon 2 Page: 1 job: Analyse_de_Correlation macro: svmono.cls date/time: 8-Mar-2015/7:21
Plus en détailIntroduction à l'actuariat
Introduction à l'actuariat 3A MMEFI M2 AMSE M2 IMSA Renaud Bourlès Introduction (1) Spécicité de l'assurance : cycle de production inversé Contrat d'assurance = promesse Importance de la prévision Importance
Plus en détailExercices du Cours de la programmation linéaire donné par le Dr. Ali DERBALA
75. Un plombier connaît la disposition de trois tuyaux sous des dalles ( voir figure ci dessous ) et il lui suffit de découvrir une partie de chacun d eux pour pouvoir y poser les robinets. Il cherche
Plus en détailAnalyse de la variance Comparaison de plusieurs moyennes
Analyse de la variance Comparaison de plusieurs moyennes Biostatistique Pr. Nicolas MEYER Laboratoire de Biostatistique et Informatique Médicale Fac. de Médecine de Strasbourg Mars 2011 Plan 1 Introduction
Plus en détailL'analyse de données. Polycopié de cours ENSIETA - Réf. : 1463. Arnaud MARTIN
L'analyse de données Polycopié de cours ENSIETA - Réf : 1463 Arnaud MARTIN Septembre 2004 Table des matières 1 Introduction 1 11 Domaines d'application 2 12 Les données 2 13 Les objectifs 3 14 Les méthodes
Plus en détailMaster IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008
Master IAD Module PS Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique Gaël RICHARD Février 2008 1 Reconnaissance de la parole Introduction Approches pour la reconnaissance
Plus en détailRaisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Plus en détailFinance, Navier-Stokes, et la calibration
Finance, Navier-Stokes, et la calibration non linéarités en finance 1 1 www.crimere.com/blog Avril 2013 Lignes directrices Non-linéarités en Finance 1 Non-linéarités en Finance Les équations de Fokker-Planck
Plus en détailCorrection du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Plus en détailCHAPITRE 5. Stratégies Mixtes
CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,
Plus en détailRésolution de systèmes linéaires par des méthodes directes
Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.
Plus en détailObjectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique
Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55
Plus en détailIntroduction à la théorie des files d'attente. Claude Chaudet Claude.Chaudet@enst.fr
Introduction à la théorie des files d'attente Claude Chaudet Claude.Chaudet@enst.fr La théorie des files d'attente... Principe: modélisation mathématique de l accès à une ressource partagée Exemples réseaux
Plus en détailContributions aux méthodes d estimation en aveugle
Université Joseph Fourier Année 2005 INPG Contributions aux méthodes d estimation en aveugle THÈSE DE DOCTORAT Spécialité : Traitement de signal et Automatique École Doctorale de Grenoble soutenue le 01
Plus en détailAnalyse des correspondances avec colonne de référence
ADE-4 Analyse des correspondances avec colonne de référence Résumé Quand une table de contingence contient une colonne de poids très élevé, cette colonne peut servir de point de référence. La distribution
Plus en détailDense Reconstruction Method s for Active Vision
Méthodes de Reconstruction Denses pour la Vision Active Dense Reconstruction Method s for Active Vision par Emmanuelle CLERGUE et Thierry VIÉVILL E INRIA, Unité de Recherche de Sophia-Antipolis 2004, route
Plus en détail1. Vocabulaire : Introduction au tableau élémentaire
L1-S1 Lire et caractériser l'information géographique - Le traitement statistique univarié Statistique : le terme statistique désigne à la fois : 1) l'ensemble des données numériques concernant une catégorie
Plus en détailMathématique et Automatique : de la boucle ouverte à la boucle fermée. Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans
Mathématique et Automatique : de la boucle ouverte à la boucle fermée Maïtine bergounioux Laboratoire MAPMO - UMR 6628 Université d'orléans Maitine.Bergounioux@labomath.univ-orleans.fr Plan 1. Un peu de
Plus en détail