Modèles markoviens et extensions pour la classification de données complexes
|
|
- Jonathan Malo
- il y a 7 ans
- Total affichages :
Transcription
1 Modèles markoviens et extensions pour la classification de données complexes THÈSE présentée par Juliette BLANCHET réalisée sous la direction de Cordelia Schmid et Florence Forbes Mercredi 10 octobre / 41
2 1 Problématique : classification de données structurées 2 Classification d individus soumis à un bruit complexe 3 Classification d individus à partir d observations incomplètes 4 Conclusion et perspectives 2 / 41
3 1 Problématique : classification de données structurées 2 Classification d individus soumis à un bruit complexe 3 Classification d individus à partir d observations incomplètes 4 Conclusion et perspectives 3 / 41
4 Problématique : classification Objectif : Faire des groupes d individus à partir d observations. Hypothèse : Dépendances particulières entre les individus, définies à l aide d un graphe d interactions fixé et connu. Noeuds = individus/sites Arêtes = dépendance directe voisins Exemple : segmentation d image Classification supervisée : observations étiquetées (base d apprentissage) Classification non supervisée 4 / 41
5 Approche probabiliste I les individus, K les classes (ex. : vélo/fond), G un graphe observations x = {x i IR D, i I} classification z = {z i K, i I} Classification probabiliste optimale : Maximum a posteriori (MAP) : z map = argmax P(z x) z }{{} loi a posteriori Maximum des probabilités marginales (MPM) : pour tout i I, z mpm i = argmax P(z i x) z i Quel modèle pour tenir compte du graphe? 5 / 41
6 Modèle de champ de Markov caché P(x,z) = P(x z) }{{} P(z) }{{} modèle de bruit loi a priori Définition : On dit que (X,Z) est un champ de Markov caché à bruit indépendant si : Hypothèse de bruit indépendant : P(x z) = i I P(x i z i ) En général P(. Z i = k) N(µ k,σ k ) Z est un champ de Markov graphe P(z) i I P(z i ) 6 / 41
7 Loi a priori markovienne Définition : Z est un champ de Markov si z, i, P(z i z I\i ) = P(z i z Ni ) Z suit une distribution de Gibbs : P G (z) = W 1 exp( V c (z c )) c C clique c C = ensemble de sites tous voisins les uns des autres 7 / 41
8 Loi a priori markovienne Définition : Z est un champ de Markov si z, i, P(z i z I\i ) = P(z i z Ni ) Z suit une distribution de Gibbs : P G (z) = W 1 exp( V ij (z i, z j )) i j en se restreignant aux potentiels sur les cliques d ordre 2 7 / 41
9 Loi a priori markovienne Définition : Z est un champ de Markov si z, i, P(z i z I\i ) = P(z i z Ni ) Z suit une distribution de Gibbs : P G (z) = W 1 exp( V (z i, z j )) i j en supposant les potentiels homogènes et isotropes. Paramètre = matrice symétrique V = (V (k, k )) k,k K V (k, k ) coefficient de compatibilité entre les classes k et k 7 / 41
10 Loi a priori markovienne Définition : Z est un champ de Markov si z, i, P(z i z I\i ) = P(z i z Ni ) Z suit une distribution de Gibbs : P G (z) = W 1 exp( V (z i, z j )) i j en supposant les potentiels homogènes et isotropes. Paramètre = matrice symétrique V = (V (k, k )) k,k K V (k, k ) coefficient de compatibilité entre les classes k et k W ne peut pas être calculé. Des approximations sont nécessaires. 7 / 41
11 Illustration graphique Considérons 3 individus i, s et t tels que : s i t Modèles graphiques associés : Z s Z i Z t Z s Z i Z t X s X i X t champ de Markov caché à bruit indépendant X s X i X t mélange indépendant Il existe divers algorithmes d estimation (ICE, gradient stochastique, EM-champ moyen...) et de classification (recuit simulé, ICM...). 8 / 41
12 Contributions On s intéresse à la classification d individus structurés à partir d observations dites «complexes» : Classification d individus à partir d observations de grande dimension > Modèle parcimonieux de [Bouv07] dans un cadre markovien Classification d individus soumis à un bruit complexe > Famille de modèles de Markov triplet Classification d individus à partir d observations incomplètes > Cadre markovien, sans complétion préalable des données 9 / 41
13 1 Problématique : classification de données structurées 2 Classification d individus soumis à un bruit complexe 3 Classification d individus à partir d observations incomplètes 4 Conclusion et perspectives 10 / 41
14 Limites des hypothèses classiques Le modèle de champ de Markov caché à bruit indépendant suppose : (A) Z est un champ de Markov (B) Le bruit est indépendant : P(x z) = i I P(x i z i ) On va chercher à relâcher l hypothèse de bruit indépendant (B). Remarque : En pratique dans les algorithmes, l hypothèse (A) n est pas nécessaire puisque seule est utilisée la markovianité de Z X = x (et non directement celle de Z). 11 / 41
15 Relâcher les hypothèses classiques Zs Xs Zs Zi Xi Zi Xs Xi Zt Xt Zt Xt (X,Z) est un champ de Markov caché à bruit indépendant (A) Z est markovien (B) P(x z) = i I P(x i z i ) (X,Z) est un champ de Markov couple si sa distribution est markovienne : P G (x,z) exp( c C V c (x c,z c )) Zs Zi Zt Ys Yi Yt Xs Xi Xt Ajout d un champ auxilliaire Y = (Y i ) i I discret, Y i L (X,Y,Z) est un champ de Markov triplet si sa distribution est markovienne : P G (x,y,z) exp( c C V c (x c,y c,z c )) 12 / 41
16 Intérêt du modèle triplet En notant U = (Y,Z), U i = (Y i, Z i ) L K, P G (x,u) exp( c C V c (x c,u c )) (X,U) est un champ de Markov couple On est ramené au cadre connu des champs de Markov couples par l ajout d un champ auxiliaire modélisant des bruits complexes. On passe d un problème à K classes associées à des bruits complexes à un problème à LK classes associées à des bruits plus simples. Le champ auxilliaire Y peut être interprété de diverses façons : stationnarités (image) sous-classes (textures) / 41
17 Cas particulier P G (x,y,z) exp( V c (y c,z c )) P(x i y i, z i ) c C i I }{{} P G (y,z) }{{} P(x y,z) (X, U) est un champ de Markov caché à bruit indépendant. Zs Zi Zt Ys Yi Yt Xs Xi Xt Avantage : plus général que P(x y,z) = P(x i z i ) de [Benb05,07] Inconvénient : nécessite le cadre supervisé i I 14 / 41
18 Notre modèle de Markov triplet P G (x,y,z) exp( B ziz j (y i, y j ) + C(z i, z j )) f(x i θ yiz i ) i j i I }{{}}{{} P G (y,z) P(x y,z) Paramètres : les θ lk associés aux LK classes les K 2 matrices B kk de taille L L la matrice C de taille K K C(k, k ) compatibilité entre les classes k et k B kk (l, l ) compat. entre les sous-classes l et l des classes k et k. 15 / 41
19 Caractéristiques de notre modèle P G (x,y,z) exp( B ziz j (y i, y j ) + C(z i, z j )) f(x i θ yiz i ) i j i I }{{} P G (y,z) }{{} P(x y,z) 1 Avec U = (Y,Z), le couple (X,U) est un champ de Markov caché à bruit indépendant à LK classes 2 Y Z = z est un champ de Markov : P G (y z) = 1 W(z) exp( B ziz j (y i, y j )) i j 3 Conditionnellement à Z = z, le couple (X,Y) est un champ de Markov caché à bruit indépendant adapté au cadre supervisé 16 / 41
20 Schéma de la classification supervisée Modèle de Markov triplet initial Zs Zi Zt Ys Yi Yt Xs Xi Xt Phase d apprentissage sur le modèle de champ de Markov caché à bruit indépendant (X,Y Z = z) : estimation des θ lk et B kk. Phase de test sur le modèle de champ de Markov caché à bruit indépendant (X,U) : estimation de la matrice C avec les ˆθ lk et ˆB kk appris, puis classification. Y s z Xs Us Xs Y i z Xi Ui Xi Y t z Xt Ut Xt 17 / 41
21 Application : reconnaissance de textures Base d apprentissage : 7 textures, 10 7 = 70 images uni-texture Brique Moquette Tissu Sol 1 Sol 2 Marbre Bois Base de test : 70 images uni-texture et 63 images multi-textures. Les images sont prises dans des conditions naturelles : grandes variations de luminosité, différentes échelles, différents angles de vue. Niveaux de gris inefficaces. Descripteurs d image, très classiques en vision par ordinateur. 18 / 41
22 Descripteurs d image L extraction des descripteurs d image s effectue en deux étapes : 1 Détection des points d intérêt et calcul des échelles associées : identifie les zones ayant des caractéristiques particulières Ex : Laplace : régions les plus saillantes 2 Calcul des descripteurs sur les zones détectées Ex : SIFT découpe les zones en 4 4 zones puis calcule le gradient de l intensité dans les 8 directions dimension D = = / 41
23 Choix du réseau d interaction Les points d intérêt sont irrégulièrement espacés. Quel graphe? Il n existe pas d outils pour le choix du meilleur graphe. Graphe de Delaunay 20 / 41
24 Les modèles considérés Mélange indépendant : P(x,z) = i I π zi f(x i θ zi ) Champ de Markov caché : P(x,z) exp(c 1 zi=z j ) f(x i θ zi )) i j i I Mélange de mélange indépendant : P(x,y,z) = i I λ yiz i π zi f(x i θ yiz i ) Champ de Markov triplet : P G (x,y,z) exp( i j [B ziz j (y i, y j ) + c] 1 zi=z j ) i I f(x i θ yiz i ) où f est gaussienne de matrice de covariance diagonale ou paramétrée pour la grande dimension [Bouv07] 21 / 41
25 Taux de classification correcte Modèle Brique Moqu. Tissu Sol 1 Sol 2 Marbre Bois Mélange diagonal Mélange grande dimension Markov caché diagonal Markov caché grande dimension Mél. de mél. diagonal Mél. de mél. grande dimension Markov triplet diagonal Markov triplet grande dimension / 41
26 Illustration Brique Moqu. Tissu Sol 1 Sol 2 Marbre Bois Taux Vraie classif. Markov caché grande dimension 37.9% Mél. de mél. diagonal 41.5% Mél. de mél. grande dimension Markov triplet diagonal Markov triplet grande dimension 43.4% 79.9% 94.3% 23 / 41
27 1 Problématique : classification de données structurées 2 Classification d individus soumis à un bruit complexe 3 Classification d individus à partir d observations incomplètes 4 Conclusion et perspectives 24 / 41
28 Données incomplètes Certaines observations sont manquantes : elles n ont pas pu être observées. Ex : sondé ne répondant pas à une question elles sont incohérentes. Ex : spectres de Mars Express (Labo. de Planétologie de Grenoble) Objectif : classer les individus à partir d observations incomplètes et du graphe d interaction. 25 / 41
29 Traitement heuristique Se ramener à des observations complètes... suppression des vecteurs d observations incomplets imputation : remplacer les observations manquantes par une valeur raisonnable (zéro, moyenne, k-plus proches voisins...)... puis classer les individus à partir des observations complétées. Ne tient compte ni de l incertitude sur les valeurs imputées, ni du graphe, ni de l objectif de classification. Modifie les relations entre les observations (sous-estime la variabilité). Approche probabiliste ne nécessitant pas le remplacement préalable des valeurs manquantes 26 / 41
30 Modélisation du problème I les individus, K les classes, G un graphe observations x = {x i IR D, i I} classification z = {z i K, i I} absence m = {m i {1,, D}, i I} + x = (x o,x m ) x o = {x oi i } xm = {x mi i } Ce qu on connait : x o, m, G Ce qui est manquant : x m, z 27 / 41
31 Modélisation probabiliste Nécessite de définir la loi jointe : P(x,z,m ψ; ρ) = P(m x,z, ρ) P(x,z ψ) où ρ paramètres de P(m x,z) ψ paramètres de P(x,z) Classification optimale : Maximum a posteriori (MAP) : z map = argmax P(z x o, ψ) z Maximum des probabilités marginales (MPM) : pour tout i I, z mpm i Nécessite la connaissance de ψ... = argmax z i P(z i x o, ψ) 28 / 41
32 Hypothèse MAR On se place sous l hypothèse MAR (Missing At Random) : le processus d absence ne dépend que des données observées P(m x,z) = P(m x o ) Intérêt : factorisation de la vraisemblance P(x o,m ψ, ρ) = P(m x o, ρ) P(x o ψ) Chercher ˆψ maximisant la vraisemblance P(x o,m ψ, ρ) revient à chercher ˆψ maximisant la vraisemblance P(x o ψ), indépendamment du mécanisme d absence. 29 / 41
33 Estimation Modèle pour (X, Z) : champ de Markov caché à bruit indépendant P(x,z ψ) = P G (z φ) i I f(x i θ zi ) On cherche ψ maximisant la vraisemblance des observations : ˆψ = argmax ψ log P(x o ψ) 30 / 41
34 Estimation Modèle pour (X, Z) : champ de Markov caché à bruit indépendant P(x,z ψ) = P G (z φ) i I f(x i θ zi ) On cherche ψ maximisant la vraisemblance complétée : ˆψ = argmax ψ logp(x o,x m,z ψ) 30 / 41
35 Estimation Modèle pour (X, Z) : champ de Markov caché à bruit indépendant P(x,z ψ) = P G (z φ) i I f(x i θ zi ) On cherche ψ maximisant la vraisemblance complétée : ˆψ = argmax ψ logp(x o,x m,z ψ) }{{} E(log P(x o,x m,z ψ) x o ) 30 / 41
36 Estimation Modèle pour (X, Z) : champ de Markov caché à bruit indépendant P(x,z ψ) = P G (z φ) i I f(x i θ zi ) On cherche ψ maximisant la vraisemblance complétée : ˆψ = argmax ψ logp(x o,x m,z ψ) }{{} E(log P(x o,x m,z ψ) x o ) Algorithme itératif EM pour observations incomplètes : ψ (q+1) = argmax E(log P(x o,x m,z ψ) x o, ψ (q) ) ψ Problème : Incalculable lorsque Z markovien Mais : facile lorsque Z indépendant [Litt86] se ramener à une distribution factorisée [Cel03] sur observations complètes 30 / 41
37 EM de type champ moyen Approximation par une distribution factorisée : P G (z) i I Q i (z i ) 31 / 41
38 EM de type champ moyen Approximation en champ moyen : P G (z) i I P(z i µ Ni ) 31 / 41
39 EM de type champ moyen Approximation de type champ moyen : z = champ constant P G (z) i I P(z i z Ni ) 31 / 41
40 EM de type champ moyen Approximation de type champ moyen : z = champ constant P G (z) i I P(z i z Ni ) Algorithme itératif EM-champ moyen pour observations incomplètes : 1 Fixer une configuration z à partir de x o et ψ (q) 2 Appliquer EM sur le modèle factorisé pour mettre à jour les paramètres ψ (q+1). En particulier, z peut être simulé selon P(Z x o, ψ (q) ) (échantillonneur de Gibbs) : algorithme en champ simulé (SF). 31 / 41
41 L étape (EM) (E) Calcul des probabilités a posteriori t (q) ik = P(Z i = k z Ni, x oi i, ψ(q) ) : π (q) t (q) ik f(xoi i θ(q) k ik = ) si o i π (q) ik f(x oi i θ(q) k ) k K si o i = où π (q) ik = P(Z i = k z Ni, φ (q) ) (M) Mise à jour des paramètres φ de P G (z φ) et θ = (θ k ) k K des densités f(. θ k ) : φ (q+1) = argmax t (q) ik log π ik (1) φ θ (q+1) i I k K k = argmax θ k i I π (q) ik t (q) ik E(log f(xoi i, Xmi i θ k ) x oi i, θ(q) k ) (2) L équation (1) est identique au cas complet (descente de gradient) L équation (2) est identique au cas du mélange indépendant [Litt86] 32 / 41
42 Cas gaussien - moyenne On s intéresse au cas où f(. θ k ) est gaussienne, avec θ k = (µ k, Σ k ). f(x oi i θ k) f(x mi i x oi i, θ k) où η ik et Γ ik = N(x oi i µoi k, Σoioi = N(x mi i η ik, Γ ik ) = µ mi k = Σ mimi k + Σ mioi k k ) Σ mioi k (Σ oioi k (Σ oioi k ) 1 (x oi i µ oi ) 1 Σ oimi k Mise à jour de la composante d 1, D de la moyenne µ k : µ d k = t i ik lik d { x i t avec lik d = d i si d o i ik ηik d sinon k ) consiste à remplacer les valeurs manquantes x mi i conditionnellement aux observations x oi i. par leur moyenne η ik 33 / 41
43 Cas gaussien - covariance On s intéresse au cas où f(. θ k ) est gaussienne, avec θ k = (µ k, Σ k ). f(x oi i θ k) f(x mi i x oi i, θ k) où η ik et Γ ik = N(x oi i µoi k, Σoioi = N(x mi i η ik, Γ ik ) = µ mi k = Σ mimi k + Σ mioi k k ) Σ mioi k (Σ oioi k (Σ oioi k ) 1 (x oi i µ oi ) 1 Σ oimi k Mise à jour de la composante d, d 1, D de covariance Σ k : k ) Σ dd k = (S dd ik ) = i t ik S dd ik i t ik avec (x d i µd k )(xd i µ d k ) k ) k ) (x d i µd k )(ηd ik µd (ηik d µd k )(xd i µ d (ηik d µd k )(ηd ik µd k ) + Γdd ik si d o i et d o i si d o i et d m i si d m i et d o i si d m i et d m i n est pas équivalent à remplacer les valeurs manquantes x mi i moyenne η ik conditionnellement aux observations x oi i. par leur 34 / 41
44 Application : sur images synthétiques Bruit gaussien non diagonal, D = 4 % erreur EMmiss ZERO+SF MEAN+SF KNN+SF UMEAN+SF CMEAN+SF SFmiss Absence aléatoire 10 (MAR) % absence 0% 30% 60% 80% 90% e = 0.61% e = 0.77% e = 1.12% e = 3.08% e = 4.94% 35 / 41
45 Application : sur images synthétiques EMmiss ZERO+SF MEAN+SF KNN+SF UMEAN+SF CMEAN+SF SFmiss Bruit gaussien non diagonal, en dimension D = 4 Absence par censure % erreur (NMAR) % absence 0% 30% 50% 60% 70% e = 0.61% e = 2.24% e = 5.56% e = 11.47% e = 32.45% 36 / 41
46 Application : classification de gènes On souhaite classer des gènes de Saccharomyces cerevisiae (levure) régulés lors de la division cellulaire. Les données [Spel98] : 612 gènes observés toutes les 10 minutes durant 160 minutes Observations = scores de biopuces, D = / 41
47 Application : classification de gènes On souhaite classer des gènes de Saccharomyces cerevisiae (levure) régulés lors de la division cellulaire. Les données [Spel98] : 612 gènes observés toutes les 10 minutes durant 160 minutes Observations = scores de biopuces, D = 17 5% d observations manquantes, > 80% des gènes affectés Réseau d interactions entre protéines arêtes (11.5 voisins par gène) 41 gènes non connectés 37 / 41
48 Classification de gènes de la levure : résultats Groupes plus homogènes avec notre algorithme (SFmiss) 38 / 41
49 Classification de gènes de la levure : résultats Groupes plus homogènes avec notre algorithme (SFmiss) Groupe mieux les gènes de fonctions biologiques similaires (GO) n o p-valeur p-valeur p-valeur de classe pour SFmiss pour EMmiss pour KNN+SF k=4 GO : , coenzyme met. process > 0.1 > 0.1 k=5 GO : , spindle GO : , sulf. met. process GO : , mitotic cell cycle > 0.1 GO : , mit. spin. org. & biogen. in nucleus k=6 GO : , resp. to DNA dam. stim GO : , dbl-str. bk rep. via hom. comb GO : , mannosyltransf. act k=9 GO : , MCM cplx GO : , ATP-dep. helicase act GO : , DNA unwind. replic GO : , ATPase act. coupl / 41
50 Classification de gènes de la levure : résultats Groupes plus homogènes avec notre algorithme (SFmiss) Groupe mieux les gènes de fonctions biologiques similaires (GO) Etude de stabilité : EMmiss 5 KNN+SF PREV+SF SFmiss / 41
51 1 Problématique : classification de données structurées 2 Classification d individus soumis à un bruit complexe 3 Classification d individus à partir d observations incomplètes 4 Conclusion et perspectives 39 / 41
52 Conclusion Modèles et méthodes pour la classification d individus structurés à partir d observations complexes : Famille de champs de Markov triplets pour la classification d individus soumis à des bruits complexes. > Application à la reconnaissance d images de textures. Cadre markovien pour la classification d observations incomplètes. > Application à la classification de gènes de la levure. Logiciel SpaCEM 3 (Spatial Clustering with EM and Markov Models) en C++, disponible à l adresse : 40 / 41
53 Perspectives A court terme, dans les applications : Introduction de poids w, fixés, connus, pour pondérer l importance relative des arêtes (distance, confiance...) V ij (z i, z j ) = w ij V (z i, z j ) Reconstruire les observations manquantes en les estimant par la moyenne conditionnelle, après classification : 2 (ẑ i, ˆx mi i ) = argmax z i,x m i i P(z i, x mi i x oi i ) { ẑi = argmax zi P(z i x oi i ) ˆx mi i = argmax m x i f(x mi i i x oi i, ẑ i) = η iẑi erreur relative moyenne ZERO MEAN KNN SFmiss A plus long terme : Graphe non fixé? Incomplet? Modèle de Markov triplet en situation non supervisée? % absence 41 / 41
MCMC et approximations en champ moyen pour les modèles de Markov
MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:
Plus en détailModèles à Événements Discrets. Réseaux de Petri Stochastiques
Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés
Plus en détailModélisation aléatoire en fiabilité des logiciels
collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.
Plus en détailApprentissage Automatique
Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs
Plus en détailMATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA
MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option
Plus en détailAnalyse en Composantes Principales
Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées
Plus en détailProjet de Traitement du Signal Segmentation d images SAR
Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailSéminaire TEST. 1 Présentation du sujet. October 18th, 2013
Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de
Plus en détailPourquoi l apprentissage?
Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage
Plus en détail4 Exemples de problèmes MapReduce incrémentaux
4 Exemples de problèmes MapReduce incrémentaux 1 / 32 Calcul des plus courtes distances à un noeud d un graphe Calcul des plus courts chemins entre toutes les paires de noeuds d un graphe Algorithme PageRank
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailObjectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique
Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détailClassification non supervisée
AgroParisTech Classification non supervisée E. Lebarbier, T. Mary-Huard Table des matières 1 Introduction 4 2 Méthodes de partitionnement 5 2.1 Mesures de similarité et de dissimilarité, distances.................
Plus en détailTests semi-paramétriques d indépendance
Tests semi-paramétriques d indépendance Bernard Colin et Ernest Monga Département de Mathématiques Université de Sherbrooke Sherbrooke J1K-2R1 (Québec) Canada Rapport de recherche N o 139 Abstract Let
Plus en détailChapitre 3. Mesures stationnaires. et théorèmes de convergence
Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée
Plus en détailProcessus aléatoires avec application en finance
Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détailExercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailCalcul intégral élémentaire en plusieurs variables
Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement
Plus en détailProduits de crédit en portefeuille
Chapitre 6 Produits de crédit en portefeuille et défauts corrélés Dans ce chapitre, on étudie des produits financiers de crédit en portfeuille, notamment k th -to-default swap et CDOs (voir 1.2 pour une
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détailRaisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Plus en détailTD1 Signaux, énergie et puissance, signaux aléatoires
TD1 Signaux, énergie et puissance, signaux aléatoires I ) Ecrire l'expression analytique des signaux représentés sur les figures suivantes à l'aide de signaux particuliers. Dans le cas du signal y(t) trouver
Plus en détailCHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.
CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires
Plus en détailPlus courts chemins, programmation dynamique
1 Plus courts chemins, programmation dynamique 1. Plus courts chemins à partir d un sommet 2. Plus courts chemins entre tous les sommets 3. Semi-anneau 4. Programmation dynamique 5. Applications à la bio-informatique
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détailUne introduction aux codes correcteurs quantiques
Une introduction aux codes correcteurs quantiques Jean-Pierre Tillich INRIA Rocquencourt, équipe-projet SECRET 20 mars 2008 1/38 De quoi est-il question ici? Code quantique : il est possible de corriger
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailL apprentissage automatique
L apprentissage automatique L apprentissage automatique L'apprentissage automatique fait référence au développement, à l analyse et à l implémentation de méthodes qui permettent à une machine d évoluer
Plus en détailModule 7: Chaînes de Markov à temps continu
Module 7: Chaînes de Markov à temps continu Patrick Thiran 1 Introduction aux chaînes de Markov à temps continu 1.1 (Première) définition Ce module est consacré aux processus à temps continu {X(t), t R
Plus en détailCarrotAge, un logiciel pour la fouille de données agricoles
CarrotAge, un logiciel pour la fouille de données agricoles F. Le Ber (engees & loria) J.-F. Mari (loria) M. Benoît, C. Mignolet et C. Schott (inra sad) Conférence STIC et Environnement, Rouen, 19-20 juin
Plus en détailAtelier Transversal AT11. Activité «Fourmis» Pierre Chauvet. pierre.chauvet@uco.fr
Atelier Transversal AT11 Activité «Fourmis» Pierre Chauvet pierre.chauvet@uco.fr Ant : un algorithme inspiré de l éthologie L éthologie Etude scientifique des comportements animaux, avec une perspective
Plus en détailTests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision
Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous
Plus en détailFonctions de plusieurs variables. Sébastien Tordeux
Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................
Plus en détailCours d analyse numérique SMI-S4
ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,
Plus en détailHealth Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation
Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation Laurent Denis STATXPERT Journée technologique "Solutions de maintenance prévisionnelle adaptées à la production" FIGEAC,
Plus en détailTests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA
Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université
Plus en détailDe même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
Plus en détailActuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.
Actuariat I ACT2121 septième séance Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement
Plus en détailOptimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)
Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases) Heuristique Constructive Itérativement, ajoute de nouvelles composantes à une solution partielle candidate Espace
Plus en détailESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring
ESSEC Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring Les méthodes d évaluation du risque de crédit pour les PME et les ménages Caractéristiques Comme les montants des crédits et des
Plus en détailIntégration de la dimension sémantique dans les réseaux sociaux
Intégration de la dimension sémantique dans les réseaux sociaux Application : systèmes de recommandation Maria Malek LARIS-EISTI maria.malek@eisti.fr 1 Contexte : Recommandation dans les réseaux sociaux
Plus en détailExclusion Mutuelle. Arnaud Labourel Courriel : arnaud.labourel@lif.univ-mrs.fr. Université de Provence. 9 février 2011
Arnaud Labourel Courriel : arnaud.labourel@lif.univ-mrs.fr Université de Provence 9 février 2011 Arnaud Labourel (Université de Provence) Exclusion Mutuelle 9 février 2011 1 / 53 Contexte Epistémologique
Plus en détailOptimisation for Cloud Computing and Big Data
1 / 23 Optimisation for Cloud Computing and Big Data Olivier Beaumont, Lionel Eyraud-Dubois 2 / 23 Aujourd hui Problèmes de fiabilité on va oublier la dynamicité Placement de VMs en programmation par contraintes
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailProgrammation linéaire
Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire
Plus en détailLagrange, où λ 1 est pour la contrainte sur µ p ).
Chapitre 1 Exercice 1 : Portefeuilles financiers Considérons trois types d actions qui sont négociées à la bourse et dont les rentabilités r 1, r 2 et r 3 sont des variables aléatoires d espérances µ i
Plus en détailMarkov processes and applications to queueing/risk/storage theory and mathematical biology
Markov processes and applications to queueing/risk/storage theory and mathematical biology Florin Avram Contents 1 Introduction aux processus stochastiques/aléatoires 3 2 Marches aléatoires et récurrences
Plus en détailL E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun
9 L E Ç O N Marches aléatoires Niveau : Terminale S Prérequis : aucun 1 Chaînes de Markov Définition 9.1 Chaîne de Markov I Une chaîne de Markov est une suite de variables aléatoires (X n, n N) qui permet
Plus en détailDynamique des protéines, simulation moléculaire et physique statistique
Dynamique des protéines, simulation moléculaire et physique statistique Gerald R. Kneller kneller@llb.saclay.cea.fr, kneller@cnrs-orleans.fr Université d Orléans Laboratoire Léon Brillouin, CEA Saclay
Plus en détailEléments de Théorie des Graphes et Programmation Linéaire
INSTITUT NATIONAL POLYTECHNIQUE DE LORRAINE Ecole Nationale Supérieure d Electricité et de Mécanique Eléments de Théorie des Graphes et Programmation Linéaire Didier Maquin Professeur à l INPL Version
Plus en détailÉconometrie non paramétrique I. Estimation d une densité
Économetrie non paramétrique I. Estimation d une densité Stéphane Adjemian Université d Évry Janvier 2004 1 1 Introduction 1.1 Pourquoi estimer une densité? Étudier la distribution des richesses... Proposer
Plus en détailI. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailSujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.
Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de
Plus en détailChapitre 3. Algorithmes stochastiques. 3.1 Introduction
Chapitre 3 Algorithmes stochastiques 3.1 Introduction Les algorithmes stochastiques sont des techniques de simulation numériques de chaînes de Markov, visant à résoudre des problèmes d optimisation ou
Plus en détailMaster IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008
Master IAD Module PS Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique Gaël RICHARD Février 2008 1 Reconnaissance de la parole Introduction Approches pour la reconnaissance
Plus en détailLe théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
Plus en détail4. Martingales à temps discret
Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les
Plus en détailVARIABLES LATENTES ET MODÉLISATION STATISTIQUE EN ASSURANCE
VARIABLES LATENTES ET MODÉLISATION STATISTIQUE EN ASSURANCE A. MONFORT CNAM et CREST-INSEE 1 1. INTRODUCTION. Les variables latentes, ou inobservables, jouent un rôle de plus en plus important dans la
Plus en détailCalcul Stochastique pour la finance. Romuald ELIE
Calcul Stochastique pour la finance Romuald ELIE 2 Nota : Ces notes de cours sont librement inspirées de différentes manuels, polycopiés, notes de cours ou ouvrages. Citons en particulier ceux de Francis
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailAlgorithmes d'apprentissage
Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt
Plus en détailReconstruction de bâtiments en 3D à partir de nuages de points LIDAR
Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR Mickaël Bergem 25 juin 2014 Maillages et applications 1 Table des matières Introduction 3 1 La modélisation numérique de milieux urbains
Plus en détailCours de Recherche Opérationnelle IUT d Orsay. Nicolas M. THIÉRY. E-mail address: Nicolas.Thiery@u-psud.fr URL: http://nicolas.thiery.
Cours de Recherche Opérationnelle IUT d Orsay Nicolas M. THIÉRY E-mail address: Nicolas.Thiery@u-psud.fr URL: http://nicolas.thiery.name/ CHAPTER 1 Introduction à l optimisation 1.1. TD: Ordonnancement
Plus en détailStructures algébriques
Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe
Plus en détailPrincipe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université
Plus en détailThéorie de l estimation et de la décision statistique
Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory
Plus en détailOptimisation des fonctions de plusieurs variables
Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables
Plus en détailLa gestion de données dans le cadre d une application de recherche d alignement de séquence : BLAST.
La gestion de données dans le cadre d une application de recherche d alignement de séquence : BLAST. Gaël Le Mahec - p. 1/12 L algorithme BLAST. Basic Local Alignment Search Tool est un algorithme de recherche
Plus en détailDurée de L épreuve : 2 heures. Barème : Exercice n 4 : 1 ) 1 point 2 ) 2 points 3 ) 1 point
03 Mai 2013 Collège Oasis Durée de L épreuve : 2 heures. apple Le sujet comporte 4 pages et est présenté en livret ; apple La calculatrice est autorisée ; apple 4 points sont attribués à la qualité de
Plus en détailModèles et Méthodes de Réservation
Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E
Plus en détailModélisation multi-agents - Agents réactifs
Modélisation multi-agents - Agents réactifs Syma cursus CSI / SCIA Julien Saunier - julien.saunier@ifsttar.fr Sources www-lih.univlehavre.fr/~olivier/enseignement/masterrecherche/cours/ support/algofourmis.pdf
Plus en détailChapitre 0 Introduction à la cinématique
Chapitre 0 Introduction à la cinématique Plan Vitesse, accélération Coordonnées polaires Exercices corrigés Vitesse, Accélération La cinématique est l étude du mouvement Elle suppose donc l existence à
Plus en détailDétection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux
Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux hétérogènes Laurent Déjean Thales Airborne Systems/ENST-Bretagne Le 20 novembre 2006 Laurent Déjean Détection en
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailÉquations d amorçage d intégrales premières formelles
Équations d amorçage d intégrales premières formelles D Boularas, A Chouikrat 30 novembre 2005 Résumé Grâce à une analyse matricielle et combinatoire des conditions d intégrabilité, on établit des équations
Plus en détailFORMULAIRE DE STATISTIQUES
FORMULAIRE DE STATISTIQUES I. STATISTIQUES DESCRIPTIVES Moyenne arithmétique Remarque: population: m xμ; échantillon: Mx 1 Somme des carrés des écarts "# FR MOYENNE(série) MOYENNE(série) NL GEMIDDELDE(série)
Plus en détailDan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier
Détection et reconnaissance des sons pour la surveillance médicale Dan Istrate le 16 décembre 2003 Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Thèse mené dans le cadre d une collaboration
Plus en détailCryptographie et fonctions à sens unique
Cryptographie et fonctions à sens unique Pierre Rouchon Centre Automatique et Systèmes Mines ParisTech pierre.rouchon@mines-paristech.fr Octobre 2012 P.Rouchon (Mines ParisTech) Cryptographie et fonctions
Plus en détailNON-LINEARITE ET RESEAUX NEURONAUX
NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail
Plus en détailSAV ET RÉPARATION. Savoir-faire. www.jarltech.fr
i & V : SA E b i i 1 3 2 0 1 Ai 0800 9 h P i iè P i i i i S j C i Si E ) i Ti (i ib i Q,. bq i, FA V k, Pi b h iè i Si b, D Z, P E q Si-i SAV ET RÉPARATION S hiq : E q SSII VAR, i hiq Jh i h 0800 910 231.
Plus en détailFeuille d exercices 2 : Espaces probabilisés
Feuille d exercices 2 : Espaces probabilisés Cours de Licence 2 Année 07/08 1 Espaces de probabilité Exercice 1.1 (Une inégalité). Montrer que P (A B) min(p (A), P (B)) Exercice 1.2 (Alphabet). On a un
Plus en détailModélisation du comportement habituel de la personne en smarthome
Modélisation du comportement habituel de la personne en smarthome Arnaud Paris, Selma Arbaoui, Nathalie Cislo, Adnen El-Amraoui, Nacim Ramdani Université d Orléans, INSA-CVL, Laboratoire PRISME 26 mai
Plus en détailTP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options
Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce
Plus en détailOutils logiciels pour la combinaison de vérification fonctionnelle et d évaluation de performances au sein de CADP
Outils logiciels pour la combinaison de vérification fonctionnelle et d évaluation de performances au sein de CADP Christophe Joubert Séminaire VASY 2002 30 Octobre 2002 Aix les Bains Contexte du projet
Plus en détail4.2 Unités d enseignement du M1
88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter
Plus en détailRO04/TI07 - Optimisation non-linéaire
RO04/TI07 - Optimisation non-linéaire Stéphane Mottelet Université de Technologie de Compiègne Printemps 2003 I Motivations et notions fondamentales 4 I1 Motivations 5 I2 Formes quadratiques 13 I3 Rappels
Plus en détailPROCESSUS PONCTUELS MARKOVIENS
PROCESSUS PONCTUELS MARKOVIENS François JAULIN Juin 2008 Résumé Dans ce qui suit, on rappelle dans un premier temps quelques notions générales sur les processus ponctuels. On introduit ensuite les processus
Plus en détailArbres binaires de décision
1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression
Plus en détail