Modèles markoviens et extensions pour la classification de données complexes

Dimension: px
Commencer à balayer dès la page:

Download "Modèles markoviens et extensions pour la classification de données complexes"

Transcription

1 Modèles markoviens et extensions pour la classification de données complexes THÈSE présentée par Juliette BLANCHET réalisée sous la direction de Cordelia Schmid et Florence Forbes Mercredi 10 octobre / 41

2 1 Problématique : classification de données structurées 2 Classification d individus soumis à un bruit complexe 3 Classification d individus à partir d observations incomplètes 4 Conclusion et perspectives 2 / 41

3 1 Problématique : classification de données structurées 2 Classification d individus soumis à un bruit complexe 3 Classification d individus à partir d observations incomplètes 4 Conclusion et perspectives 3 / 41

4 Problématique : classification Objectif : Faire des groupes d individus à partir d observations. Hypothèse : Dépendances particulières entre les individus, définies à l aide d un graphe d interactions fixé et connu. Noeuds = individus/sites Arêtes = dépendance directe voisins Exemple : segmentation d image Classification supervisée : observations étiquetées (base d apprentissage) Classification non supervisée 4 / 41

5 Approche probabiliste I les individus, K les classes (ex. : vélo/fond), G un graphe observations x = {x i IR D, i I} classification z = {z i K, i I} Classification probabiliste optimale : Maximum a posteriori (MAP) : z map = argmax P(z x) z }{{} loi a posteriori Maximum des probabilités marginales (MPM) : pour tout i I, z mpm i = argmax P(z i x) z i Quel modèle pour tenir compte du graphe? 5 / 41

6 Modèle de champ de Markov caché P(x,z) = P(x z) }{{} P(z) }{{} modèle de bruit loi a priori Définition : On dit que (X,Z) est un champ de Markov caché à bruit indépendant si : Hypothèse de bruit indépendant : P(x z) = i I P(x i z i ) En général P(. Z i = k) N(µ k,σ k ) Z est un champ de Markov graphe P(z) i I P(z i ) 6 / 41

7 Loi a priori markovienne Définition : Z est un champ de Markov si z, i, P(z i z I\i ) = P(z i z Ni ) Z suit une distribution de Gibbs : P G (z) = W 1 exp( V c (z c )) c C clique c C = ensemble de sites tous voisins les uns des autres 7 / 41

8 Loi a priori markovienne Définition : Z est un champ de Markov si z, i, P(z i z I\i ) = P(z i z Ni ) Z suit une distribution de Gibbs : P G (z) = W 1 exp( V ij (z i, z j )) i j en se restreignant aux potentiels sur les cliques d ordre 2 7 / 41

9 Loi a priori markovienne Définition : Z est un champ de Markov si z, i, P(z i z I\i ) = P(z i z Ni ) Z suit une distribution de Gibbs : P G (z) = W 1 exp( V (z i, z j )) i j en supposant les potentiels homogènes et isotropes. Paramètre = matrice symétrique V = (V (k, k )) k,k K V (k, k ) coefficient de compatibilité entre les classes k et k 7 / 41

10 Loi a priori markovienne Définition : Z est un champ de Markov si z, i, P(z i z I\i ) = P(z i z Ni ) Z suit une distribution de Gibbs : P G (z) = W 1 exp( V (z i, z j )) i j en supposant les potentiels homogènes et isotropes. Paramètre = matrice symétrique V = (V (k, k )) k,k K V (k, k ) coefficient de compatibilité entre les classes k et k W ne peut pas être calculé. Des approximations sont nécessaires. 7 / 41

11 Illustration graphique Considérons 3 individus i, s et t tels que : s i t Modèles graphiques associés : Z s Z i Z t Z s Z i Z t X s X i X t champ de Markov caché à bruit indépendant X s X i X t mélange indépendant Il existe divers algorithmes d estimation (ICE, gradient stochastique, EM-champ moyen...) et de classification (recuit simulé, ICM...). 8 / 41

12 Contributions On s intéresse à la classification d individus structurés à partir d observations dites «complexes» : Classification d individus à partir d observations de grande dimension > Modèle parcimonieux de [Bouv07] dans un cadre markovien Classification d individus soumis à un bruit complexe > Famille de modèles de Markov triplet Classification d individus à partir d observations incomplètes > Cadre markovien, sans complétion préalable des données 9 / 41

13 1 Problématique : classification de données structurées 2 Classification d individus soumis à un bruit complexe 3 Classification d individus à partir d observations incomplètes 4 Conclusion et perspectives 10 / 41

14 Limites des hypothèses classiques Le modèle de champ de Markov caché à bruit indépendant suppose : (A) Z est un champ de Markov (B) Le bruit est indépendant : P(x z) = i I P(x i z i ) On va chercher à relâcher l hypothèse de bruit indépendant (B). Remarque : En pratique dans les algorithmes, l hypothèse (A) n est pas nécessaire puisque seule est utilisée la markovianité de Z X = x (et non directement celle de Z). 11 / 41

15 Relâcher les hypothèses classiques Zs Xs Zs Zi Xi Zi Xs Xi Zt Xt Zt Xt (X,Z) est un champ de Markov caché à bruit indépendant (A) Z est markovien (B) P(x z) = i I P(x i z i ) (X,Z) est un champ de Markov couple si sa distribution est markovienne : P G (x,z) exp( c C V c (x c,z c )) Zs Zi Zt Ys Yi Yt Xs Xi Xt Ajout d un champ auxilliaire Y = (Y i ) i I discret, Y i L (X,Y,Z) est un champ de Markov triplet si sa distribution est markovienne : P G (x,y,z) exp( c C V c (x c,y c,z c )) 12 / 41

16 Intérêt du modèle triplet En notant U = (Y,Z), U i = (Y i, Z i ) L K, P G (x,u) exp( c C V c (x c,u c )) (X,U) est un champ de Markov couple On est ramené au cadre connu des champs de Markov couples par l ajout d un champ auxiliaire modélisant des bruits complexes. On passe d un problème à K classes associées à des bruits complexes à un problème à LK classes associées à des bruits plus simples. Le champ auxilliaire Y peut être interprété de diverses façons : stationnarités (image) sous-classes (textures) / 41

17 Cas particulier P G (x,y,z) exp( V c (y c,z c )) P(x i y i, z i ) c C i I }{{} P G (y,z) }{{} P(x y,z) (X, U) est un champ de Markov caché à bruit indépendant. Zs Zi Zt Ys Yi Yt Xs Xi Xt Avantage : plus général que P(x y,z) = P(x i z i ) de [Benb05,07] Inconvénient : nécessite le cadre supervisé i I 14 / 41

18 Notre modèle de Markov triplet P G (x,y,z) exp( B ziz j (y i, y j ) + C(z i, z j )) f(x i θ yiz i ) i j i I }{{}}{{} P G (y,z) P(x y,z) Paramètres : les θ lk associés aux LK classes les K 2 matrices B kk de taille L L la matrice C de taille K K C(k, k ) compatibilité entre les classes k et k B kk (l, l ) compat. entre les sous-classes l et l des classes k et k. 15 / 41

19 Caractéristiques de notre modèle P G (x,y,z) exp( B ziz j (y i, y j ) + C(z i, z j )) f(x i θ yiz i ) i j i I }{{} P G (y,z) }{{} P(x y,z) 1 Avec U = (Y,Z), le couple (X,U) est un champ de Markov caché à bruit indépendant à LK classes 2 Y Z = z est un champ de Markov : P G (y z) = 1 W(z) exp( B ziz j (y i, y j )) i j 3 Conditionnellement à Z = z, le couple (X,Y) est un champ de Markov caché à bruit indépendant adapté au cadre supervisé 16 / 41

20 Schéma de la classification supervisée Modèle de Markov triplet initial Zs Zi Zt Ys Yi Yt Xs Xi Xt Phase d apprentissage sur le modèle de champ de Markov caché à bruit indépendant (X,Y Z = z) : estimation des θ lk et B kk. Phase de test sur le modèle de champ de Markov caché à bruit indépendant (X,U) : estimation de la matrice C avec les ˆθ lk et ˆB kk appris, puis classification. Y s z Xs Us Xs Y i z Xi Ui Xi Y t z Xt Ut Xt 17 / 41

21 Application : reconnaissance de textures Base d apprentissage : 7 textures, 10 7 = 70 images uni-texture Brique Moquette Tissu Sol 1 Sol 2 Marbre Bois Base de test : 70 images uni-texture et 63 images multi-textures. Les images sont prises dans des conditions naturelles : grandes variations de luminosité, différentes échelles, différents angles de vue. Niveaux de gris inefficaces. Descripteurs d image, très classiques en vision par ordinateur. 18 / 41

22 Descripteurs d image L extraction des descripteurs d image s effectue en deux étapes : 1 Détection des points d intérêt et calcul des échelles associées : identifie les zones ayant des caractéristiques particulières Ex : Laplace : régions les plus saillantes 2 Calcul des descripteurs sur les zones détectées Ex : SIFT découpe les zones en 4 4 zones puis calcule le gradient de l intensité dans les 8 directions dimension D = = / 41

23 Choix du réseau d interaction Les points d intérêt sont irrégulièrement espacés. Quel graphe? Il n existe pas d outils pour le choix du meilleur graphe. Graphe de Delaunay 20 / 41

24 Les modèles considérés Mélange indépendant : P(x,z) = i I π zi f(x i θ zi ) Champ de Markov caché : P(x,z) exp(c 1 zi=z j ) f(x i θ zi )) i j i I Mélange de mélange indépendant : P(x,y,z) = i I λ yiz i π zi f(x i θ yiz i ) Champ de Markov triplet : P G (x,y,z) exp( i j [B ziz j (y i, y j ) + c] 1 zi=z j ) i I f(x i θ yiz i ) où f est gaussienne de matrice de covariance diagonale ou paramétrée pour la grande dimension [Bouv07] 21 / 41

25 Taux de classification correcte Modèle Brique Moqu. Tissu Sol 1 Sol 2 Marbre Bois Mélange diagonal Mélange grande dimension Markov caché diagonal Markov caché grande dimension Mél. de mél. diagonal Mél. de mél. grande dimension Markov triplet diagonal Markov triplet grande dimension / 41

26 Illustration Brique Moqu. Tissu Sol 1 Sol 2 Marbre Bois Taux Vraie classif. Markov caché grande dimension 37.9% Mél. de mél. diagonal 41.5% Mél. de mél. grande dimension Markov triplet diagonal Markov triplet grande dimension 43.4% 79.9% 94.3% 23 / 41

27 1 Problématique : classification de données structurées 2 Classification d individus soumis à un bruit complexe 3 Classification d individus à partir d observations incomplètes 4 Conclusion et perspectives 24 / 41

28 Données incomplètes Certaines observations sont manquantes : elles n ont pas pu être observées. Ex : sondé ne répondant pas à une question elles sont incohérentes. Ex : spectres de Mars Express (Labo. de Planétologie de Grenoble) Objectif : classer les individus à partir d observations incomplètes et du graphe d interaction. 25 / 41

29 Traitement heuristique Se ramener à des observations complètes... suppression des vecteurs d observations incomplets imputation : remplacer les observations manquantes par une valeur raisonnable (zéro, moyenne, k-plus proches voisins...)... puis classer les individus à partir des observations complétées. Ne tient compte ni de l incertitude sur les valeurs imputées, ni du graphe, ni de l objectif de classification. Modifie les relations entre les observations (sous-estime la variabilité). Approche probabiliste ne nécessitant pas le remplacement préalable des valeurs manquantes 26 / 41

30 Modélisation du problème I les individus, K les classes, G un graphe observations x = {x i IR D, i I} classification z = {z i K, i I} absence m = {m i {1,, D}, i I} + x = (x o,x m ) x o = {x oi i } xm = {x mi i } Ce qu on connait : x o, m, G Ce qui est manquant : x m, z 27 / 41

31 Modélisation probabiliste Nécessite de définir la loi jointe : P(x,z,m ψ; ρ) = P(m x,z, ρ) P(x,z ψ) où ρ paramètres de P(m x,z) ψ paramètres de P(x,z) Classification optimale : Maximum a posteriori (MAP) : z map = argmax P(z x o, ψ) z Maximum des probabilités marginales (MPM) : pour tout i I, z mpm i Nécessite la connaissance de ψ... = argmax z i P(z i x o, ψ) 28 / 41

32 Hypothèse MAR On se place sous l hypothèse MAR (Missing At Random) : le processus d absence ne dépend que des données observées P(m x,z) = P(m x o ) Intérêt : factorisation de la vraisemblance P(x o,m ψ, ρ) = P(m x o, ρ) P(x o ψ) Chercher ˆψ maximisant la vraisemblance P(x o,m ψ, ρ) revient à chercher ˆψ maximisant la vraisemblance P(x o ψ), indépendamment du mécanisme d absence. 29 / 41

33 Estimation Modèle pour (X, Z) : champ de Markov caché à bruit indépendant P(x,z ψ) = P G (z φ) i I f(x i θ zi ) On cherche ψ maximisant la vraisemblance des observations : ˆψ = argmax ψ log P(x o ψ) 30 / 41

34 Estimation Modèle pour (X, Z) : champ de Markov caché à bruit indépendant P(x,z ψ) = P G (z φ) i I f(x i θ zi ) On cherche ψ maximisant la vraisemblance complétée : ˆψ = argmax ψ logp(x o,x m,z ψ) 30 / 41

35 Estimation Modèle pour (X, Z) : champ de Markov caché à bruit indépendant P(x,z ψ) = P G (z φ) i I f(x i θ zi ) On cherche ψ maximisant la vraisemblance complétée : ˆψ = argmax ψ logp(x o,x m,z ψ) }{{} E(log P(x o,x m,z ψ) x o ) 30 / 41

36 Estimation Modèle pour (X, Z) : champ de Markov caché à bruit indépendant P(x,z ψ) = P G (z φ) i I f(x i θ zi ) On cherche ψ maximisant la vraisemblance complétée : ˆψ = argmax ψ logp(x o,x m,z ψ) }{{} E(log P(x o,x m,z ψ) x o ) Algorithme itératif EM pour observations incomplètes : ψ (q+1) = argmax E(log P(x o,x m,z ψ) x o, ψ (q) ) ψ Problème : Incalculable lorsque Z markovien Mais : facile lorsque Z indépendant [Litt86] se ramener à une distribution factorisée [Cel03] sur observations complètes 30 / 41

37 EM de type champ moyen Approximation par une distribution factorisée : P G (z) i I Q i (z i ) 31 / 41

38 EM de type champ moyen Approximation en champ moyen : P G (z) i I P(z i µ Ni ) 31 / 41

39 EM de type champ moyen Approximation de type champ moyen : z = champ constant P G (z) i I P(z i z Ni ) 31 / 41

40 EM de type champ moyen Approximation de type champ moyen : z = champ constant P G (z) i I P(z i z Ni ) Algorithme itératif EM-champ moyen pour observations incomplètes : 1 Fixer une configuration z à partir de x o et ψ (q) 2 Appliquer EM sur le modèle factorisé pour mettre à jour les paramètres ψ (q+1). En particulier, z peut être simulé selon P(Z x o, ψ (q) ) (échantillonneur de Gibbs) : algorithme en champ simulé (SF). 31 / 41

41 L étape (EM) (E) Calcul des probabilités a posteriori t (q) ik = P(Z i = k z Ni, x oi i, ψ(q) ) : π (q) t (q) ik f(xoi i θ(q) k ik = ) si o i π (q) ik f(x oi i θ(q) k ) k K si o i = où π (q) ik = P(Z i = k z Ni, φ (q) ) (M) Mise à jour des paramètres φ de P G (z φ) et θ = (θ k ) k K des densités f(. θ k ) : φ (q+1) = argmax t (q) ik log π ik (1) φ θ (q+1) i I k K k = argmax θ k i I π (q) ik t (q) ik E(log f(xoi i, Xmi i θ k ) x oi i, θ(q) k ) (2) L équation (1) est identique au cas complet (descente de gradient) L équation (2) est identique au cas du mélange indépendant [Litt86] 32 / 41

42 Cas gaussien - moyenne On s intéresse au cas où f(. θ k ) est gaussienne, avec θ k = (µ k, Σ k ). f(x oi i θ k) f(x mi i x oi i, θ k) où η ik et Γ ik = N(x oi i µoi k, Σoioi = N(x mi i η ik, Γ ik ) = µ mi k = Σ mimi k + Σ mioi k k ) Σ mioi k (Σ oioi k (Σ oioi k ) 1 (x oi i µ oi ) 1 Σ oimi k Mise à jour de la composante d 1, D de la moyenne µ k : µ d k = t i ik lik d { x i t avec lik d = d i si d o i ik ηik d sinon k ) consiste à remplacer les valeurs manquantes x mi i conditionnellement aux observations x oi i. par leur moyenne η ik 33 / 41

43 Cas gaussien - covariance On s intéresse au cas où f(. θ k ) est gaussienne, avec θ k = (µ k, Σ k ). f(x oi i θ k) f(x mi i x oi i, θ k) où η ik et Γ ik = N(x oi i µoi k, Σoioi = N(x mi i η ik, Γ ik ) = µ mi k = Σ mimi k + Σ mioi k k ) Σ mioi k (Σ oioi k (Σ oioi k ) 1 (x oi i µ oi ) 1 Σ oimi k Mise à jour de la composante d, d 1, D de covariance Σ k : k ) Σ dd k = (S dd ik ) = i t ik S dd ik i t ik avec (x d i µd k )(xd i µ d k ) k ) k ) (x d i µd k )(ηd ik µd (ηik d µd k )(xd i µ d (ηik d µd k )(ηd ik µd k ) + Γdd ik si d o i et d o i si d o i et d m i si d m i et d o i si d m i et d m i n est pas équivalent à remplacer les valeurs manquantes x mi i moyenne η ik conditionnellement aux observations x oi i. par leur 34 / 41

44 Application : sur images synthétiques Bruit gaussien non diagonal, D = 4 % erreur EMmiss ZERO+SF MEAN+SF KNN+SF UMEAN+SF CMEAN+SF SFmiss Absence aléatoire 10 (MAR) % absence 0% 30% 60% 80% 90% e = 0.61% e = 0.77% e = 1.12% e = 3.08% e = 4.94% 35 / 41

45 Application : sur images synthétiques EMmiss ZERO+SF MEAN+SF KNN+SF UMEAN+SF CMEAN+SF SFmiss Bruit gaussien non diagonal, en dimension D = 4 Absence par censure % erreur (NMAR) % absence 0% 30% 50% 60% 70% e = 0.61% e = 2.24% e = 5.56% e = 11.47% e = 32.45% 36 / 41

46 Application : classification de gènes On souhaite classer des gènes de Saccharomyces cerevisiae (levure) régulés lors de la division cellulaire. Les données [Spel98] : 612 gènes observés toutes les 10 minutes durant 160 minutes Observations = scores de biopuces, D = / 41

47 Application : classification de gènes On souhaite classer des gènes de Saccharomyces cerevisiae (levure) régulés lors de la division cellulaire. Les données [Spel98] : 612 gènes observés toutes les 10 minutes durant 160 minutes Observations = scores de biopuces, D = 17 5% d observations manquantes, > 80% des gènes affectés Réseau d interactions entre protéines arêtes (11.5 voisins par gène) 41 gènes non connectés 37 / 41

48 Classification de gènes de la levure : résultats Groupes plus homogènes avec notre algorithme (SFmiss) 38 / 41

49 Classification de gènes de la levure : résultats Groupes plus homogènes avec notre algorithme (SFmiss) Groupe mieux les gènes de fonctions biologiques similaires (GO) n o p-valeur p-valeur p-valeur de classe pour SFmiss pour EMmiss pour KNN+SF k=4 GO : , coenzyme met. process > 0.1 > 0.1 k=5 GO : , spindle GO : , sulf. met. process GO : , mitotic cell cycle > 0.1 GO : , mit. spin. org. & biogen. in nucleus k=6 GO : , resp. to DNA dam. stim GO : , dbl-str. bk rep. via hom. comb GO : , mannosyltransf. act k=9 GO : , MCM cplx GO : , ATP-dep. helicase act GO : , DNA unwind. replic GO : , ATPase act. coupl / 41

50 Classification de gènes de la levure : résultats Groupes plus homogènes avec notre algorithme (SFmiss) Groupe mieux les gènes de fonctions biologiques similaires (GO) Etude de stabilité : EMmiss 5 KNN+SF PREV+SF SFmiss / 41

51 1 Problématique : classification de données structurées 2 Classification d individus soumis à un bruit complexe 3 Classification d individus à partir d observations incomplètes 4 Conclusion et perspectives 39 / 41

52 Conclusion Modèles et méthodes pour la classification d individus structurés à partir d observations complexes : Famille de champs de Markov triplets pour la classification d individus soumis à des bruits complexes. > Application à la reconnaissance d images de textures. Cadre markovien pour la classification d observations incomplètes. > Application à la classification de gènes de la levure. Logiciel SpaCEM 3 (Spatial Clustering with EM and Markov Models) en C++, disponible à l adresse : 40 / 41

53 Perspectives A court terme, dans les applications : Introduction de poids w, fixés, connus, pour pondérer l importance relative des arêtes (distance, confiance...) V ij (z i, z j ) = w ij V (z i, z j ) Reconstruire les observations manquantes en les estimant par la moyenne conditionnelle, après classification : 2 (ẑ i, ˆx mi i ) = argmax z i,x m i i P(z i, x mi i x oi i ) { ẑi = argmax zi P(z i x oi i ) ˆx mi i = argmax m x i f(x mi i i x oi i, ẑ i) = η iẑi erreur relative moyenne ZERO MEAN KNN SFmiss A plus long terme : Graphe non fixé? Incomplet? Modèle de Markov triplet en situation non supervisée? % absence 41 / 41

MCMC et approximations en champ moyen pour les modèles de Markov

MCMC et approximations en champ moyen pour les modèles de Markov MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

Apprentissage Automatique

Apprentissage Automatique Apprentissage Automatique Introduction-I jean-francois.bonastre@univ-avignon.fr www.lia.univ-avignon.fr Définition? (Wikipedia) L'apprentissage automatique (machine-learning en anglais) est un des champs

Plus en détail

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option

Plus en détail

Analyse en Composantes Principales

Analyse en Composantes Principales Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées

Plus en détail

Projet de Traitement du Signal Segmentation d images SAR

Projet de Traitement du Signal Segmentation d images SAR Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

Pourquoi l apprentissage?

Pourquoi l apprentissage? Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage

Plus en détail

4 Exemples de problèmes MapReduce incrémentaux

4 Exemples de problèmes MapReduce incrémentaux 4 Exemples de problèmes MapReduce incrémentaux 1 / 32 Calcul des plus courtes distances à un noeud d un graphe Calcul des plus courts chemins entre toutes les paires de noeuds d un graphe Algorithme PageRank

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Classification non supervisée

Classification non supervisée AgroParisTech Classification non supervisée E. Lebarbier, T. Mary-Huard Table des matières 1 Introduction 4 2 Méthodes de partitionnement 5 2.1 Mesures de similarité et de dissimilarité, distances.................

Plus en détail

Tests semi-paramétriques d indépendance

Tests semi-paramétriques d indépendance Tests semi-paramétriques d indépendance Bernard Colin et Ernest Monga Département de Mathématiques Université de Sherbrooke Sherbrooke J1K-2R1 (Québec) Canada Rapport de recherche N o 139 Abstract Let

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Processus aléatoires avec application en finance

Processus aléatoires avec application en finance Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Calcul intégral élémentaire en plusieurs variables

Calcul intégral élémentaire en plusieurs variables Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement

Plus en détail

Produits de crédit en portefeuille

Produits de crédit en portefeuille Chapitre 6 Produits de crédit en portefeuille et défauts corrélés Dans ce chapitre, on étudie des produits financiers de crédit en portfeuille, notamment k th -to-default swap et CDOs (voir 1.2 pour une

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Raisonnement probabiliste

Raisonnement probabiliste Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte

Plus en détail

TD1 Signaux, énergie et puissance, signaux aléatoires

TD1 Signaux, énergie et puissance, signaux aléatoires TD1 Signaux, énergie et puissance, signaux aléatoires I ) Ecrire l'expression analytique des signaux représentés sur les figures suivantes à l'aide de signaux particuliers. Dans le cas du signal y(t) trouver

Plus en détail

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES. CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires

Plus en détail

Plus courts chemins, programmation dynamique

Plus courts chemins, programmation dynamique 1 Plus courts chemins, programmation dynamique 1. Plus courts chemins à partir d un sommet 2. Plus courts chemins entre tous les sommets 3. Semi-anneau 4. Programmation dynamique 5. Applications à la bio-informatique

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

Une introduction aux codes correcteurs quantiques

Une introduction aux codes correcteurs quantiques Une introduction aux codes correcteurs quantiques Jean-Pierre Tillich INRIA Rocquencourt, équipe-projet SECRET 20 mars 2008 1/38 De quoi est-il question ici? Code quantique : il est possible de corriger

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

L apprentissage automatique

L apprentissage automatique L apprentissage automatique L apprentissage automatique L'apprentissage automatique fait référence au développement, à l analyse et à l implémentation de méthodes qui permettent à une machine d évoluer

Plus en détail

Module 7: Chaînes de Markov à temps continu

Module 7: Chaînes de Markov à temps continu Module 7: Chaînes de Markov à temps continu Patrick Thiran 1 Introduction aux chaînes de Markov à temps continu 1.1 (Première) définition Ce module est consacré aux processus à temps continu {X(t), t R

Plus en détail

CarrotAge, un logiciel pour la fouille de données agricoles

CarrotAge, un logiciel pour la fouille de données agricoles CarrotAge, un logiciel pour la fouille de données agricoles F. Le Ber (engees & loria) J.-F. Mari (loria) M. Benoît, C. Mignolet et C. Schott (inra sad) Conférence STIC et Environnement, Rouen, 19-20 juin

Plus en détail

Atelier Transversal AT11. Activité «Fourmis» Pierre Chauvet. pierre.chauvet@uco.fr

Atelier Transversal AT11. Activité «Fourmis» Pierre Chauvet. pierre.chauvet@uco.fr Atelier Transversal AT11 Activité «Fourmis» Pierre Chauvet pierre.chauvet@uco.fr Ant : un algorithme inspiré de l éthologie L éthologie Etude scientifique des comportements animaux, avec une perspective

Plus en détail

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous

Plus en détail

Fonctions de plusieurs variables. Sébastien Tordeux

Fonctions de plusieurs variables. Sébastien Tordeux Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................

Plus en détail

Cours d analyse numérique SMI-S4

Cours d analyse numérique SMI-S4 ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,

Plus en détail

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation Laurent Denis STATXPERT Journée technologique "Solutions de maintenance prévisionnelle adaptées à la production" FIGEAC,

Plus en détail

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA Soutenance de doctorat, sous la direction de Pr. Bilodeau, M. et Pr. Ducharme, G. Université de Montréal et Université

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free. Actuariat I ACT2121 septième séance Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement

Plus en détail

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases)

Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases) Optimisation Combinatoire (Méthodes approchées) II. Recherche Locale simple (Les bases) Heuristique Constructive Itérativement, ajoute de nouvelles composantes à une solution partielle candidate Espace

Plus en détail

ESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring

ESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring ESSEC Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring Les méthodes d évaluation du risque de crédit pour les PME et les ménages Caractéristiques Comme les montants des crédits et des

Plus en détail

Intégration de la dimension sémantique dans les réseaux sociaux

Intégration de la dimension sémantique dans les réseaux sociaux Intégration de la dimension sémantique dans les réseaux sociaux Application : systèmes de recommandation Maria Malek LARIS-EISTI maria.malek@eisti.fr 1 Contexte : Recommandation dans les réseaux sociaux

Plus en détail

Exclusion Mutuelle. Arnaud Labourel Courriel : arnaud.labourel@lif.univ-mrs.fr. Université de Provence. 9 février 2011

Exclusion Mutuelle. Arnaud Labourel Courriel : arnaud.labourel@lif.univ-mrs.fr. Université de Provence. 9 février 2011 Arnaud Labourel Courriel : arnaud.labourel@lif.univ-mrs.fr Université de Provence 9 février 2011 Arnaud Labourel (Université de Provence) Exclusion Mutuelle 9 février 2011 1 / 53 Contexte Epistémologique

Plus en détail

Optimisation for Cloud Computing and Big Data

Optimisation for Cloud Computing and Big Data 1 / 23 Optimisation for Cloud Computing and Big Data Olivier Beaumont, Lionel Eyraud-Dubois 2 / 23 Aujourd hui Problèmes de fiabilité on va oublier la dynamicité Placement de VMs en programmation par contraintes

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

Lagrange, où λ 1 est pour la contrainte sur µ p ).

Lagrange, où λ 1 est pour la contrainte sur µ p ). Chapitre 1 Exercice 1 : Portefeuilles financiers Considérons trois types d actions qui sont négociées à la bourse et dont les rentabilités r 1, r 2 et r 3 sont des variables aléatoires d espérances µ i

Plus en détail

Markov processes and applications to queueing/risk/storage theory and mathematical biology

Markov processes and applications to queueing/risk/storage theory and mathematical biology Markov processes and applications to queueing/risk/storage theory and mathematical biology Florin Avram Contents 1 Introduction aux processus stochastiques/aléatoires 3 2 Marches aléatoires et récurrences

Plus en détail

L E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun

L E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun 9 L E Ç O N Marches aléatoires Niveau : Terminale S Prérequis : aucun 1 Chaînes de Markov Définition 9.1 Chaîne de Markov I Une chaîne de Markov est une suite de variables aléatoires (X n, n N) qui permet

Plus en détail

Dynamique des protéines, simulation moléculaire et physique statistique

Dynamique des protéines, simulation moléculaire et physique statistique Dynamique des protéines, simulation moléculaire et physique statistique Gerald R. Kneller kneller@llb.saclay.cea.fr, kneller@cnrs-orleans.fr Université d Orléans Laboratoire Léon Brillouin, CEA Saclay

Plus en détail

Eléments de Théorie des Graphes et Programmation Linéaire

Eléments de Théorie des Graphes et Programmation Linéaire INSTITUT NATIONAL POLYTECHNIQUE DE LORRAINE Ecole Nationale Supérieure d Electricité et de Mécanique Eléments de Théorie des Graphes et Programmation Linéaire Didier Maquin Professeur à l INPL Version

Plus en détail

Économetrie non paramétrique I. Estimation d une densité

Économetrie non paramétrique I. Estimation d une densité Économetrie non paramétrique I. Estimation d une densité Stéphane Adjemian Université d Évry Janvier 2004 1 1 Introduction 1.1 Pourquoi estimer une densité? Étudier la distribution des richesses... Proposer

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Cours de méthodes de scoring

Cours de méthodes de scoring UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction Chapitre 3 Algorithmes stochastiques 3.1 Introduction Les algorithmes stochastiques sont des techniques de simulation numériques de chaînes de Markov, visant à résoudre des problèmes d optimisation ou

Plus en détail

Master IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008

Master IAD Module PS. Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique. Gaël RICHARD Février 2008 Master IAD Module PS Reconnaissance de la parole (suite) Alignement temporel et Programmation dynamique Gaël RICHARD Février 2008 1 Reconnaissance de la parole Introduction Approches pour la reconnaissance

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

VARIABLES LATENTES ET MODÉLISATION STATISTIQUE EN ASSURANCE

VARIABLES LATENTES ET MODÉLISATION STATISTIQUE EN ASSURANCE VARIABLES LATENTES ET MODÉLISATION STATISTIQUE EN ASSURANCE A. MONFORT CNAM et CREST-INSEE 1 1. INTRODUCTION. Les variables latentes, ou inobservables, jouent un rôle de plus en plus important dans la

Plus en détail

Calcul Stochastique pour la finance. Romuald ELIE

Calcul Stochastique pour la finance. Romuald ELIE Calcul Stochastique pour la finance Romuald ELIE 2 Nota : Ces notes de cours sont librement inspirées de différentes manuels, polycopiés, notes de cours ou ouvrages. Citons en particulier ceux de Francis

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Algorithmes d'apprentissage

Algorithmes d'apprentissage Algorithmes d'apprentissage 1 Agents qui apprennent à partir d'exemples La problématique : prise de décision automatisée à partir d'un ensemble d'exemples Diagnostic médical Réponse à une demande de prêt

Plus en détail

Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR

Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR Reconstruction de bâtiments en 3D à partir de nuages de points LIDAR Mickaël Bergem 25 juin 2014 Maillages et applications 1 Table des matières Introduction 3 1 La modélisation numérique de milieux urbains

Plus en détail

Cours de Recherche Opérationnelle IUT d Orsay. Nicolas M. THIÉRY. E-mail address: Nicolas.Thiery@u-psud.fr URL: http://nicolas.thiery.

Cours de Recherche Opérationnelle IUT d Orsay. Nicolas M. THIÉRY. E-mail address: Nicolas.Thiery@u-psud.fr URL: http://nicolas.thiery. Cours de Recherche Opérationnelle IUT d Orsay Nicolas M. THIÉRY E-mail address: Nicolas.Thiery@u-psud.fr URL: http://nicolas.thiery.name/ CHAPTER 1 Introduction à l optimisation 1.1. TD: Ordonnancement

Plus en détail

Structures algébriques

Structures algébriques Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe

Plus en détail

Principe de symétrisation pour la construction d un test adaptatif

Principe de symétrisation pour la construction d un test adaptatif Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université

Plus en détail

Théorie de l estimation et de la décision statistique

Théorie de l estimation et de la décision statistique Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory

Plus en détail

Optimisation des fonctions de plusieurs variables

Optimisation des fonctions de plusieurs variables Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables

Plus en détail

La gestion de données dans le cadre d une application de recherche d alignement de séquence : BLAST.

La gestion de données dans le cadre d une application de recherche d alignement de séquence : BLAST. La gestion de données dans le cadre d une application de recherche d alignement de séquence : BLAST. Gaël Le Mahec - p. 1/12 L algorithme BLAST. Basic Local Alignment Search Tool est un algorithme de recherche

Plus en détail

Durée de L épreuve : 2 heures. Barème : Exercice n 4 : 1 ) 1 point 2 ) 2 points 3 ) 1 point

Durée de L épreuve : 2 heures. Barème : Exercice n 4 : 1 ) 1 point 2 ) 2 points 3 ) 1 point 03 Mai 2013 Collège Oasis Durée de L épreuve : 2 heures. apple Le sujet comporte 4 pages et est présenté en livret ; apple La calculatrice est autorisée ; apple 4 points sont attribués à la qualité de

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

Modélisation multi-agents - Agents réactifs

Modélisation multi-agents - Agents réactifs Modélisation multi-agents - Agents réactifs Syma cursus CSI / SCIA Julien Saunier - julien.saunier@ifsttar.fr Sources www-lih.univlehavre.fr/~olivier/enseignement/masterrecherche/cours/ support/algofourmis.pdf

Plus en détail

Chapitre 0 Introduction à la cinématique

Chapitre 0 Introduction à la cinématique Chapitre 0 Introduction à la cinématique Plan Vitesse, accélération Coordonnées polaires Exercices corrigés Vitesse, Accélération La cinématique est l étude du mouvement Elle suppose donc l existence à

Plus en détail

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux hétérogènes Laurent Déjean Thales Airborne Systems/ENST-Bretagne Le 20 novembre 2006 Laurent Déjean Détection en

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Équations d amorçage d intégrales premières formelles

Équations d amorçage d intégrales premières formelles Équations d amorçage d intégrales premières formelles D Boularas, A Chouikrat 30 novembre 2005 Résumé Grâce à une analyse matricielle et combinatoire des conditions d intégrabilité, on établit des équations

Plus en détail

FORMULAIRE DE STATISTIQUES

FORMULAIRE DE STATISTIQUES FORMULAIRE DE STATISTIQUES I. STATISTIQUES DESCRIPTIVES Moyenne arithmétique Remarque: population: m xμ; échantillon: Mx 1 Somme des carrés des écarts "# FR MOYENNE(série) MOYENNE(série) NL GEMIDDELDE(série)

Plus en détail

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Détection et reconnaissance des sons pour la surveillance médicale Dan Istrate le 16 décembre 2003 Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Thèse mené dans le cadre d une collaboration

Plus en détail

Cryptographie et fonctions à sens unique

Cryptographie et fonctions à sens unique Cryptographie et fonctions à sens unique Pierre Rouchon Centre Automatique et Systèmes Mines ParisTech pierre.rouchon@mines-paristech.fr Octobre 2012 P.Rouchon (Mines ParisTech) Cryptographie et fonctions

Plus en détail

NON-LINEARITE ET RESEAUX NEURONAUX

NON-LINEARITE ET RESEAUX NEURONAUX NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail

Plus en détail

SAV ET RÉPARATION. Savoir-faire. www.jarltech.fr

SAV ET RÉPARATION. Savoir-faire. www.jarltech.fr i & V : SA E b i i 1 3 2 0 1 Ai 0800 9 h P i iè P i i i i S j C i Si E ) i Ti (i ib i Q,. bq i, FA V k, Pi b h iè i Si b, D Z, P E q Si-i SAV ET RÉPARATION S hiq : E q SSII VAR, i hiq Jh i h 0800 910 231.

Plus en détail

Feuille d exercices 2 : Espaces probabilisés

Feuille d exercices 2 : Espaces probabilisés Feuille d exercices 2 : Espaces probabilisés Cours de Licence 2 Année 07/08 1 Espaces de probabilité Exercice 1.1 (Une inégalité). Montrer que P (A B) min(p (A), P (B)) Exercice 1.2 (Alphabet). On a un

Plus en détail

Modélisation du comportement habituel de la personne en smarthome

Modélisation du comportement habituel de la personne en smarthome Modélisation du comportement habituel de la personne en smarthome Arnaud Paris, Selma Arbaoui, Nathalie Cislo, Adnen El-Amraoui, Nacim Ramdani Université d Orléans, INSA-CVL, Laboratoire PRISME 26 mai

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

Outils logiciels pour la combinaison de vérification fonctionnelle et d évaluation de performances au sein de CADP

Outils logiciels pour la combinaison de vérification fonctionnelle et d évaluation de performances au sein de CADP Outils logiciels pour la combinaison de vérification fonctionnelle et d évaluation de performances au sein de CADP Christophe Joubert Séminaire VASY 2002 30 Octobre 2002 Aix les Bains Contexte du projet

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

RO04/TI07 - Optimisation non-linéaire

RO04/TI07 - Optimisation non-linéaire RO04/TI07 - Optimisation non-linéaire Stéphane Mottelet Université de Technologie de Compiègne Printemps 2003 I Motivations et notions fondamentales 4 I1 Motivations 5 I2 Formes quadratiques 13 I3 Rappels

Plus en détail

PROCESSUS PONCTUELS MARKOVIENS

PROCESSUS PONCTUELS MARKOVIENS PROCESSUS PONCTUELS MARKOVIENS François JAULIN Juin 2008 Résumé Dans ce qui suit, on rappelle dans un premier temps quelques notions générales sur les processus ponctuels. On introduit ensuite les processus

Plus en détail

Arbres binaires de décision

Arbres binaires de décision 1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression

Plus en détail