Le suivi dans les séquences vidéo
|
|
- Achille Cardinal
- il y a 6 ans
- Total affichages :
Transcription
1 Cours AIV/VOIR 7 janvier 2014
2 Plan du cours Introduction 1 Introduction 2 3 Cas linéaire et gaussien : filtre de Kalman 4 Cas général : filtrage particulaire
3 Travail sur le mouvement Détection du mouvement : motion detection Identifier les pixels en mouvement Différence d images Techniques de soustraction de fond etc.
4 Travail sur le mouvement Estimation du mouvement : motion estimation Ensemble des vecteurs mouvement transformant une image en une autre Algorithmes de Block-Matching Estimation du flot optique Mise en correspondance (RANSAC, etc.) etc.
5 Travail sur le mouvement Suivi du mouvement : tracking Localiser à chaque instant la position d un ou des objets Suivre la trajectoire d un ou des objets dans la scène
6 Objectif : estimer les trajectoires des objets Qualité du suivi versus temps de réponse Applications Vidéo-surveillance, biométrie. Imagerie biomédicale. Production média (motion capture). Robotique et véhicules intelligents....
7 : difficultés Détection, extraction et représentation de données : variabilité spatio-temporelle, représentativité, compacité Liens temporels entre les données : localisation
8 Représentation et localisation d objets Contours, coins, points caractéristiques, etc. (mise en correspondance, etc.) Noyaux (mean-shift, etc.), blob Suivi : en trois temps 1 Prédiction : prévoir à t en fonction de t 1 2 Association des données : quelles observations sont liées avec quelles prédictions 3 Correction de la prédiction avec les observations
9 Les modèles espace-état Données Variables cachées x t : états Modèles Variables observées y t : mesures ou observations Équation d état : évolution entre t 1 et t. Équation de mesure : lien à t entre observation et état. Système à résoudre : { xt = f t (x t 1, w t ) y t = h t (x t, v t ) Avec : f t la fonction de transition, h t fonction d observation, w t et v t des bruits blancs indépendants
10 Les modèles espace-état Modèle graphique Hypothèses markoviennes L état courant ne dépend que de l état précédent. Les observations sont indépendantes conditionnellement aux états et ne dépendent que de l état courant.
11 Principe Estimer l ensemble des états x 0:t connaissant l ensemble des observations passées et présentes y 1:t. Cette information est contenue dans la densité de filtrage p(x 0:t y 1:t ). But du filtrate récursif bayésien : estimer p(x 0:t y 1:t ). Définition Sous hypothèses markoviennes, la densité de filtrage s écrit sous la forme récursive : p(x 0:t y 1:t ) p(y t x t )p(x t x t 1 )p(x 0:t 1 y 1:t 1 )
12 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(x 0:t y t, y 1:t 1 )
13 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(x 0:t y t, y 1:t 1 ) = p(y t, y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) p(a B, C) = p(b, C A) p(a) p(b,c)
14 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(x 0:t y t, y 1:t 1 ) = p(y t, y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) p(a, B C) = p(a B, C)p(B C)
15 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(x 0:t y t, y 1:t 1 ) = p(y t, y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 )p(y 1:t 1 )p(x 0:t ) p(x 0:t )p(y t, y 1:t 1 ) p(a B) = p(b A) p(a) p(b)
16 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(x 0:t y t, y 1:t 1 ) = p(y t, y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 )p(y 1:t 1 ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 )p(y 1:t 1 ) p(y t y 1:t 1 )p(y 1:t 1 ) p(a, B) = p(a B)p(B)
17 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 ) p(y t y 1:t 1 )
18 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 ) p(y t y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x t, x 0:t 1 y 1:t 1 ) p(y t y 1:t 1 )
19 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 ) p(y t y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x t, x 0:t 1 y 1:t 1 ) p(y t y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x t x 0:t 1, y 1:t 1 )p(x 0:t 1 y 1:t 1 ) p(y t y 1:t 1 ) p(a, B C) = p(a B, C)p(B C)
20 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 ) p(y t y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x t, x 0:t 1 y 1:t 1 ) p(y t y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x t x 0:t 1, y 1:t 1 )p(x 0:t 1 y 1:t 1 ) p(y t y 1:t 1 ) p(y t y 1:t 1, x 0:t )p(x t x 0:t 1, y 1:t 1 )p(x 0:t 1 y 1:t 1 )
21 Ecriture récursive : démonstration Hypothèses markoviennes L état courant ne dépend que de l état précédent : p(x t x 0:t 1, y 1:t 1 ) = p(x t x t 1 ) Les observations sont indépendantes conditionnellement aux états et ne dépendent que de l état courant. p(y t y 1:t 1, x 0:t ) = p(y t x t ) p(x 0:t y 1:t ) p(y t y 1:t 1, x 0:t )p(x t x 0:t 1, y 1:t 1 )p(x 0:t 1 y 1:t 1 ) p(y t x t )p(x t x t 1 )p(x 0:t 1 y 1:t 1 )
22 p(x 0:t y 1:t ) p(y t x t ) }{{} vraisemblance p(x t x t 1 ) }{{} transition p(x 0:t 1 y 1:t 1 )
23
24 Estimation : par la moyenne conditionnelle E p [F(x 0:t )] = F(x 0:t )p(x 0:t y 1:t )dx 0:t x 0:t Solution Fonctions linéaires, densités gaussiennes : solution analytique : filtre de Kalman. Fonctions linéarisables : filtres de Kalman étendu, sans parfum. Cas général (la plupart des problèmes en suivi) : approximation par filtrage particulaire.
25 Hypothèses et propriétés On connaît la distribution (modèle) et ses paramètres a priori à t = 0. On sait comment l état (caché) produit l observation : fonction linéaire. La fonction de transition est linéaire. Distributions gaussiennes et fonctions linéaires : on manipule des gaussiennes uniquement. Produit de distributions gaussiennes : gaussiennes. But du filtre de Kalman Donner l estimation à l instant courant la plus fiable en prenant en compte à la fois les mesures et l estimation précédente.
26 Équation d état Avec : x t = F t x t 1 (+B t u t ) + w t x t : vecteur d état à t décrivant le système de manière concise (position, vitesse, etc.) u t : vecteur de contrôle d entrée (angle d orientation, etc.) F t : matrice de transition d état entre t 1 et t B t : matrice de contrôle d entrée w t : vecteur de bruit d état, w t N (0, W t ), E[w t w T t ] = W t Ici, on n utilisera pas le contrôle : x t = F t x t 1 + w t
27 Équation de mesure y t = H t x t + v t Avec : y t : vecteur de mesure à t H t : matrice de transformation de l état vers la mesure v t : vecteur de bruit de mesure, v t N (0, V t ), E[v t vt T ] = V t
28 Principe : en deux temps Soit x t 1 t 1 l estimateur optimal non biaisé de x t 1 Soit y t l observation à l instant t 1 Déterminer l estimateur non biaisé x t t 1 de x t sans l observation y t 2 Déterminer un estimateur non biaisé x t t de x t en utilisant l observation y t
29 Principe : utilisation d un contrôle en feedback But : minimiser récursivement l erreur quadratique moyenne minimale entre estimation et état 1 Étape de prédiction (valeur théorique) : avec les paramètres à t 1. 2 Étape de correction : l observation courante corrige les paramètres prédits à t.
30 Principe Estimer les densités de probabilités décrivant le système Rappel : ici les densités sont des gaussiennes Densité a posteriori à t 1 : p(x 0:t 1 y 1:t 1 ) = N (x t 1 t 1, P t 1 t 1 ) Densité a priori à t : p(x 0:t y 1:t 1 ) = N (x t t 1, P t t 1 ) Densité a posteriori à t : p(x 0:t y 1:t ) = N (x t t, P t t )
31 Algorithme général Initialisation x 0 = x 0 0 = E[x 0 ] = µ 0, P 0 = E[(x 0 µ 0 )(x 0 µ 0 ) T ]. Prédiction de la moyenne x t t 1 Pas d observation : prédiction à partir de x t 1 t 1 uniquement, en utilisant l équation d état x t t 1 = E[x t y 1:t 1 ] = E[F t x t 1 + w t ] = E[F t x t 1 ] + E[w t ] = F t x t 1 t 1
32 Algorithme général Erreur de prédiction e t t 1 = x t x t t 1 = F t x t 1 + w t F t x t 1 t 1 = F t (x t 1 x t 1 t 1 ) + w t = F t e t 1 t 1 + w t
33 Algorithme général Prédiction de la covariance d erreur d état P t t 1 Par définition : P t t 1 = E[e t t 1 e T t t 1 ] = E[(F t e t 1 t 1 + w t )(F t e t 1 t 1 + w t ) T ] = F t E[e t 1 t 1 e T t 1 t 1 ]FT t + E[w t wt T ] = F t P t 1 t 1 F T t + W t
34 Algorithme général Correction : utiliser l observation courante y t Correction de la moyenne : mise-à-jour de la prédiction à l aide de l écart entre l observation prédite et l observation (innovation) Observation prédite : y t t 1 = H t x t t 1 x t t = ( ) x t t 1 + Q }{{} t yt H t x t t 1 }{{} gain innovation = (I Q t H t )x t t 1 + Q t y t = Q tx t t 1 + Q t y t Question : comment déterminer le gain Q t pour qu il minimise l erreur quadratique moyenne entre l état et son estimation?
35 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t
36 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t = x t Q t( xt e t t 1 ) Qt (H t x t + v t )
37 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t ( ) = x t Q t xt e t t 1 Qt (H t x t + v t ) ) = (I Q t Q t H t x t + Q te t t 1 Q t v t
38 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t ( ) = x t Q t xt e t t 1 Qt (H t x t + v t ) ) = (I Q t Q t H t x t + Q te t t 1 Q t v t ) ) = (I Q t Q t H t x t + Q t( xt x t t 1 Qt v t
39 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t ( ) = x t Q t xt e t t 1 Qt (H t x t + v t ) ) = (I Q t Q t H t x t + Q te t t 1 Q t v t ) ( ) = (I Q t Q t H t x t + Q t xt x t t 1 Qt v t = x t Q t H t x t Q tx t t 1 Q t v t
40 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t ( ) = x t Q t xt e t t 1 Qt (H t x t + v t ) ) = (I Q t Q t H t x t + Q te t t 1 Q t v t ) ( ) = (I Q t Q t H t x t + Q t xt x t t 1 Qt v t = x t Q t H t x t Q tx t t 1 Q t v t = x t Q t H t x t (I Q t H t )x t t 1 Q t v t
41 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t ( ) = x t Q t xt e t t 1 Qt (H t x t + v t ) ) = (I Q t Q t H t x t + Q te t t 1 Q t v t ) ( ) = (I Q t Q t H t x t + Q t xt x t t 1 Qt v t = x t Q t H t x t Q tx t t 1 Q t v t = x t Q t H t x t (I Q t H t ) x t t 1 Q t v t = (I Q t H t ) e t t 1 Q t v t
42 Algorithme général Covariance d erreur d état P t t Par définition : P t t = E[e t t e T t t ] = E[ ( ) ( ) T (I Q t H t ) e t t 1 Q t v t (I Qt H t ) e t t 1 Q t v t ]
43 Algorithme général Covariance d erreur d état P t t Par définition : P t t = E[e t t e T t t ] = E[ ( ) ( ) T (I Q t H t ) e t t 1 Q t v t (I Qt H t ) e t t 1 Q t v t ] = (I Q t H t ) E[e t t 1 e T t t 1 ] (I Q th t ) T Q t E[v t vt T ]Q T t
44 Algorithme général Covariance d erreur d état P t t Par définition : P t t = E[e t t e T t t ] = E[ ( ) ( ) T (I Q t H t ) e t t 1 Q t v t (I Qt H t ) e t t 1 Q t v t ] = (I Q t H t ) E[e t t 1 e T t t 1 ] (I Q th t ) T Q t E[v t vt T ]Q T t = (I Q t H t ) P t t 1 (I Q t H t ) T Q t V t Q T t
45 Algorithme général Cas du gain Le gain de Kalman doit tenir compte des incertitudes relatives de l estimation courante et de l observation : x t t = x t t 1 + Q t ( yt H t x t t 1 ) Si l incertitude de l observation (V t ) est négligeable devant P t t 1 : gain fort (i.e. observation fiable). Si V t est grand par rapport à P t t 1 : gain faible (i.e. observation peu fiable, ne devant modifier que peu l estimation courante). Il minimise l erreur quadratique moyenne : trace ( P t t ) On peut montrer qu il est égal à : Q t = P t t 1 H T t (H t P t t 1 H T t + V t ) 1
46 Algorithme général Bilan et conclusion Hypothèses gaussiennes. Matrices définies positives : calcul matriciel. Matrices de transition et d observation supposées connues. Problèmes de vision : bien plus généraux que cela : dynamique non connue, sans hypothèse a priori ; lien entre l état et l observation non linéaire ; densités non paramétriques voire multimodales. On ne peut plus estimer : on approche (méthodes séquentielles de Monte Carlo, ou filtrage particulaire).
47 Le filtre particulaire Principe : approcher la densité de filtrage par un échantillon pondéré Approximation de Monte Carlo + estimation bayésienne p(x 0:t y 1:t ) 1 N N i=1 w (i) t δ (i) x (x 0:t ) 0:t
48 Le filtre particulaire Deux articles fondateurs Gordon et al., Novel approach to non-linear/non-gaussian Bayesian state estimation. Radar and Signal Processing, IEE Proceedings F, 140(2) : Isard et Blake, CONDENSATION : CONditional DENSity propagation for visual tracking. International Journal of Computer Vision, 29 : Trois étapes principales 1 Prédiction : densité a priori p(x 0:t y 1:t 1 ) à partir de la distribution de transition p(x t x t 1 ) et de la précédente densité estimée p(x 0:t 1 y 1:t 1 ). 2 Correction : densité a posteriori p(x 0:t y 1:t ), à partir de la distribution de vraisemblance p(y t x t ) et de l a priori. 3 Étape de rééchantillonnage (sélection)
49 Le filtre particulaire Étape de prédiction
50 Le filtre particulaire Étape de correction
51 Le filtre particulaire Étape de rééchantillonnage
52 Le filtrage particulaire Un exemple type en suivi visuel État et espace d état : x t = {x, y} N 2 Échantillon {x (i) t } N i=1 Fonction de transition : x (i) t N (µ, Σ) Fonction de vraisemblance : p(y t x t ) e λd2
53 Échantillonnage d importance But Approcher l intégrale à l aide de réalisations d une variable aléatoire distribuée selon la densité a posteriori Problème : on ne sait pas échantillonner selon cette loi. Solution Utiliser une fonction de proposition q(x 0:t y 1:t ) suivant laquelle on sait échantillonner : E p [F(x 0:t )] = F(x 0:t ) p(x 0:t y 1:t ) x 0:t q(x 0:t y 1:t ) q(x 0:t y 1:t )dx 0:t [ = E q F(x 0:t ) p(x ] 0:t y 1:t ) q(x 0:t y 1:t )
54 Échantillonnage d importance Solution N réalisations x (i) 0:t q(x 0:t y 1:t ) approchant l intégrale par : Ê p [F(x 0:t )] = 1 N N i=1 F(x (i) 0:t ) y 1:t) q(x (i) 0:t y 1:t) 0:t )p(x(i) Soit les poids d importance w (i) t = p(x(i) 0:t y 1:t) q(x (i) (i) 0:t )p(x(i) 0:t ) 0:t y 1:t) = p(y 1:t x p(y 1:t )q(x (i) 0:t y 1:t) Problème : p(y 1:t ) = x 0:t p(y 1:t x 0:t )p(x 0:t )dx 0:t incalculable.
55 Échantillonnage d importance Solution Nouvel estimateur : Ê p [F(x 0:t )] = 1 N N i=1 F(x (i) 0:t ) w (i) t N j=1 w (j) t avec : w (i) t p(y 1:t x (i) 0:t )p(x(i) 0:t ) q(x (i) 0:t y 1:t), ou encore w (i) t p(x(i) 0:t y 1:t) q(x (i) 0:t y 1:t) Loi des grands nombres : Ê p [F(x 0:t )] p.s. E p [F(x 0:t )]
56 Échantillonnage d importance Formulation récursive des poids Hypothèse : q(x (i) 0:t y 1:t) = q(x (i) t x (i) 0:t 1, y 1:t)q(x (i) 0:t 1 y 1:t 1) Alors : w (i) t p(x(i) 0:t y 1:t) q(x (i) 0:t y 1:t) p(y t x (i) t )p(x (i) t x (i) t 1 )p(x(i) 0:t 1 y 1:t 1) q(x (i) t x (i) 0:t 1, y 1:t)q(x (i) 0:t 1 y 1:t 1) w (i) t 1 p(y t x (i) t )p(x (i) t x (i) t 1 ) q(x (i) t x (i) 0:t 1, y 1:t)
57 Algorithme général 1 p(x 0:t 1 y 1:t 1 ) représentée par {x (i) 0:t 1, w (i) 2 Propagation via une fonction de proposition : x (i) t q(x t x (i) 0:t 1, y 1:t) t 1 }N i=1 3 Correction, ou évaluation de la qualité des particules, à l aide des observations, en calculant les poids : w (i) t w (i) t 1 p(y t x (i) t )p(x (i) t x (i) t 1 ) q(x (i) t x (i) 0:t 1, y 1:t), w (i) t = 4 Espérance empirique de loi a posteriori à l instant t, E(F(x 0:t )) 1 N 5 Rééchantillonnage (si nécessaire) N i=1 w (i) t F(x (i) 0:t ) w (i) t N j=1 w (j) t
58 Espace d état Introduction Paramètres que l on cherche à estimer Dépend de la nature de l objet à suivre : voiture, visage, objet articulé, etc. Exemples Position dans l image : x t = {x t, y t } Un contour fermé : x t = {p 1 t,..., p n t } = { {x 1 t, y 1 t },..., {x n t, y n t } } Une boîte englobante : x t = {c t, w t, h t, θ t } Un objet articulé : x t = { {c 1 t, w 1 t, h 1 t, θ 1 t },..., {c n t, w n t, h n t, θ n t } }
59 Espace d observation Paramètres qui nous servent à estimer/corriger
60 Étape de prédiction But Propager les particules pour parcourir l espace d état. Mauvaise propagation = perte de l objet à suivre. Comment En utilisant une fonction de proposition q. La fonction de proposition optimale utilise l ensemble des états x 0:t et des observations y 1:t : on ne sait pas la construire. q(x (i) t x (i) 0:t 1, y 1:t)
61 Étape de prédiction : choix de q Choix usuel : q(x (i) t x (i) 0:t 1, y 1:t) = p(x (i) t w (i) t w (i) t 1 x (i) t 1 ) p(y t x (i) t )p(x (i) t x (i) t 1 ) q(x (i) t x (i) 0:t 1, y 1:t) w (i) t 1 p(y t x (i) t ) Le poids est proportionnel à la vraisemblance : filtre bootstrap
62 Étape de prédiction : choix de q Choix usuel : q(x (i) t x (i) 0:t 1, y 1:t) = p(x (i) t x (i) t 1 ) Exemple : marche aléatoire gaussienne : q N (x t 1, Σ)
63 Étape de prédiction : choix de q Prise en compte de l observation courante : q(x (i) t x (i) t 1, y t) Exemple : détection avant suivi (detect before track) d q N (x t 1, Σ) + N (p j t, Σ j ) j=1
64 Étape de prédiction : choix de q Un cas plus complexe
65 Étape de correction But Calculer l a posteriori à partir de l a priori. Mauvaise correction = mauvais calcul des poids des particules. Comment En utilisant une fonction de vraisemblance p(y t x t ). La fonction de vraisemblance nous donne la croyance en la validité de l observation y t connaissant l état x t d un objet. Mesurer l adéquation entre un modèle et une cible : Modèle : à partir de l estimation précédente. Cible : à partir d une particule à l instant t.
66 Étape de correction Mesure d adéquation : en fonction de l observation
67 Étape de correction Quelques exemples Couleur, contours : histogrammes distance de Bhattacharyya, distance euclidienne, distance de diffusion, EMD, etc. Ensemble d apprentissage : ACP (sous-espaces de représentation) distance euclidienne, de Mahalanobis, etc. Formes : distance de Hausdorff Calcul de la vraisemblance avec d la mesure d adéquation p(y t x t ) e λd2
68 Étape de correction Un premier exemple visuel
69 Étape de correction Rôle de λ Faire que la vraisemblance soit piquée ou non
70 Prédiction et correction
71 Rééchantillonnage Dégénérescence de l échantillon Divergence du filtre Rééchantillonnage : duplication des particules de plus fort poids
72 Rééchantillonnage Rééchantillonnage multinomial Tirage aléatoire non équi-réparti selon la distribution des poids d importance. Sélectionner N nombres k i U(0, 1), i = 1,..., N S t = {x (i) t, w (i) t } S t = {x (D(k i )) t, 1 N } est avec D(k i) entier unique tel que : D(ki ) 1 h=1 w (h) t < k i D(k i ) h=1 w (h) t.
73 Rééchantillonnage Appauvrissement de l échantillon Problème induit par le rééchantillonnage Nombre efficace de particules : N eff (N) = Si N eff (N) > Seuil alors on rééchantillonne [ N ( i=1 w (i) t ) 2 ] 1
74 Limite de la dimension des espaces Un problème majeur N est lié exponentiellement à la dimension de l espace d état et d observation. Les problèmes de vision demandent la prise en compte de toujours plus d informations. Des solutions Focalisation dans l espace d état. Décomposition de l espace d état.
75 Modèles de focalisation dans l espace d état Principe Déterminer les zones utiles de l espace d état. Calculs dans ces zones uniquement.
76 Modèles de focalisation dans l espace d état Grandes familles d approches Ajout de contraintes, connaissances a priori, extraction d informations. Heuristiques, algorithmes évolutionnaires, génétiques, PSO, etc. Méthodes d optimisation, recherches globales ou locales : type descente de gradient ; Filtre particulaire à recuit simulé (Deutscher et al., Articulated Body Motion Capture by Stochastic Search, CVPR 01).
77 Filtre particulaire à recuit simulé Principe Recuit simulé : méthode stochastique d optimisation d une densité multimodale, évitant les minima locaux. Ajouter à l étape de correction des itérations de pseudo recuit simulé pour diffuser les particules au niveau des modes de la densité à estimer. À chaque itération : on corrige de mieux en mieux avec la fonction de vraisemblance. on diffuse de moins en moins en utilisant la fonction de transition ;
78 Filtre particulaire à recuit simulé Itération m du recuit simulé (instant t) 1 Calcul des poids des particules : w m,(i) t = 2 Rééchantillonnage multinomial 3 Propagation des particules : x m,(i) t Avec m = M à 0 β M <... < β 0 et β 0 = 1 P m = P 0 α M... α m α 0 =... = α M = 0.5 ( w m 1,(i) t ) β m = N (x m 1,(i) t, P m )
79 Filtre particulaire à recuit simulé
80 Filtre particulaire à recuit simulé Conclusion Permet de mieux explorer l espace d état et positionner les particules au niveau des modes. Très précis, très bons résultats. Très lent : succession de corrections/rééchantillonnages/propagations. Inutilisable en l état pour des applications temps réels ou avec beaucoup d objets à suivre.
81 Modèles de décomposition de l espace d état Principe Décomposer l espace d état en sous-espaces. Appliquer le filtrage particulaire dans chaque sous-espace.
82 Modèles de décomposition de l espace d état Quelques grandes approches Un filtre particulaire par sous-espace et fusion finale des résultats (pas généralisable). Filtres particulaires en cascade (pas généralisable). Échantillonnage partitionné (PS - Mac Cormick et al., ECCV 00). Utilisation des réseaux bayésiens dynamiques (DBNs) Filtre particulaire Rao-Blackwellisé (Doucet et al., UAI 00) (pas généralisable). Propagation de croyance : approximations. Rose et al. (AAAI 08) : combinaison de PS avec un DBN.
83 Modèles de décomposition de l espace d état Échantillonnage partitionné Principe Décomposer l état en sous-états : calculs faisables. Convergence théorique plus rapide que celle du filtre particulaire. Application au suivi multi-objets ou d objets articulés : { x (i) t } N x t = {x 1 t,..., x n t } { =,..., x n,(i) i=1 x 1,(i) t t } N i=1
84 Échantillonnage partitionné
85 Échantillonnage partitionné
86 Échantillonnage partitionné
87 Échantillonnage partitionné
88 Échantillonnage partitionné
89 Échantillonnage partitionné
90 Échantillonnage partitionné
91 Échantillonnage partitionné
92 Échantillonnage partitionné Schéma général du filtre à échantillonnage partitionné
93 Échantillonnage partitionné Conclusion Décomposition des calculs en sous-calculs. Résout partiellement le problème de grandes dimensions. Problème en cas d occultation : quel objet/ quelle partie à considérer d abord? variantes : BPS, DPS, RPS, etc. Beaucoup de rééchantillonnages : ajoutent du bruit et perte de la précision.
94 Conclusion générale sur le filtrage récursif bayésien Représentation des objets par des densités de probabilité qu on : estime avec le filtre de Kalman ; approche avec le filtrage particulaire. : densités gaussiennes, fonction linéaires. : densités quelconques. Problèmes de suivi en vision par ordinateur : filtrage particulaire en général plus adapté.
95 Devenir du suivi Ce que l on sait (très bien) faire Suivre un ou des objets. Analyser une trajectoire. Ce que l on commence à savoir faire Utiliser des modèles de représentation plus complexes. Détecter un comportement ou un événement connu. Ce que l on ne sait pas encore faire Détecter un comportement ou un événement inconnu. Prédire et/ou analyser un comportement, événement. Suivre un objet durant une longue séquence.
Utilisation d informations visuelles dynamiques en asservissement visuel Armel Crétual IRISA, projet TEMIS puis VISTA L asservissement visuel géométrique Principe : Réalisation d une tâche robotique par
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailProjet de Traitement du Signal Segmentation d images SAR
Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,
Plus en détailModèles à Événements Discrets. Réseaux de Petri Stochastiques
Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés
Plus en détailIntelligence artificielle et les défis en robotique mobile et autonome
Intelligence artificielle et les défis en robotique mobile et autonome Éric Beaudry http://planiart.usherbrooke.ca/~eric/ Étudiant au doctorat en informatique Laboratoires Planiart et Laborius 13 février
Plus en détailAnalyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57
Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation
Plus en détailUne méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données
Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données Marc Boullé Orange Labs 2 avenue Pierre Marzin 22300 Lannion marc.boulle@orange-ftgroup.com,
Plus en détailSoutenance de stage Laboratoire des Signaux et Systèmes
Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud
Plus en détailBaccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé
Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détailIntroduction au datamining
Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détail4.2 Unités d enseignement du M1
88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter
Plus en détailMATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA
MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option
Plus en détailchargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d
Laboratoire de Mécanique et Ingénieriesnieries EA 3867 - FR TIMS / CNRS 2856 ER MPS Modélisation stochastique d un d chargement d amplitude variable à partir de mesures Application à l approche fiabiliste
Plus en détailThéorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France
Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes
Plus en détailCoup de Projecteur sur les Réseaux de Neurones
Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détailGrandes lignes ASTRÉE. Logiciels critiques. Outils de certification classiques. Inspection manuelle. Definition. Test
Grandes lignes Analyseur Statique de logiciels Temps RÉel Embarqués École Polytechnique École Normale Supérieure Mercredi 18 juillet 2005 1 Présentation d 2 Cadre théorique de l interprétation abstraite
Plus en détailI. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Plus en détailObjectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique
Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55
Plus en détailEchantillonnage Non uniforme
Echantillonnage Non uniforme Marie CHABERT IRIT/INP-ENSEEIHT/ ENSEEIHT/TéSASA Patrice MICHEL et Bernard LACAZE TéSA 1 Plan Introduction Echantillonnage uniforme Echantillonnage irrégulier Comparaison Cas
Plus en détailProgramme scientifique Majeure INTELLIGENCE NUMERIQUE. Mentions Image et Réalité Virtuelle Intelligence Artificielle et Robotique
É C O L E D I N G É N I E U R D E S T E C H N O L O G I E S D E L I N F O R M A T I O N E T D E L A C O M M U N I C A T I O N Programme scientifique Majeure INTELLIGENCE NUMERIQUE Langage Java Mentions
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailRelever les défis des véhicules autonomes
EMM 2014 12eme rencontre européenne de mécatronique Relever les défis des véhicules autonomes Mathias Perrollaz Ingénieur expert Inria Christian Laugier Directeur de recherche Inria E-Motion Team Annecy,
Plus en détailReconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12
Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 2 Discrimination Invariance Expressions faciales Age Pose Eclairage 11/12/2012 3 Personne Inconnue Identité
Plus en détailExercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,
Plus en détailModélisation et simulation
Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.
Plus en détailChapitre 3. Algorithmes stochastiques. 3.1 Introduction
Chapitre 3 Algorithmes stochastiques 3.1 Introduction Les algorithmes stochastiques sont des techniques de simulation numériques de chaînes de Markov, visant à résoudre des problèmes d optimisation ou
Plus en détailTempérature corporelle d un castor (une petite introduction aux séries temporelles)
Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature
Plus en détailIntérêt du découpage en sous-bandes pour l analyse spectrale
Intérêt du découpage en sous-bandes pour l analyse spectrale David BONACCI Institut National Polytechnique de Toulouse (INP) École Nationale Supérieure d Électrotechnique, d Électronique, d Informatique,
Plus en détailIncertitude et variabilité : la nécessité de les intégrer dans les modèles
Incertitude et variabilité : la nécessité de les intégrer dans les modèles M. L. Delignette-Muller Laboratoire de Biométrie et Biologie Evolutive VetAgro Sup - Université de Lyon - CNRS UMR 5558 24 novembre
Plus en détailRaisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Plus en détailOptimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h
Télécom Physique Strasbourg Master IRIV Optimisation et programmation mathématique Professeur Michel de Mathelin Cours intégré : 20 h Programme du cours d optimisation Introduction Chapitre I: Rappels
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailModélisation aléatoire en fiabilité des logiciels
collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.
Plus en détailCHAPITRE 5. Stratégies Mixtes
CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détailAlgorithmes pour la planification de mouvements en robotique non-holonome
Algorithmes pour la planification de mouvements en robotique non-holonome Frédéric Jean Unité de Mathématiques Appliquées ENSTA Le 02 février 2006 Outline 1 2 3 Modélisation Géométrique d un Robot Robot
Plus en détailSommaire Chapitre 1 Chapitre 2 Chapitre 3 Chapitre 4 Chapitre 5 Chapitre 6 Chapitre 7. ARC EPS Eco-microbiologie Prévisionnelle Statistique
ARC EPS Eco-microbiologie Prévisionnelle Statistique 1 Objectifs de l ARC EPS 2 Partenaires 3 Moyens 4 Problématique Microbiologique 5 Démarche et Résultats 6 Perspectives 7 Valorisation LES OBJECTIFS
Plus en détailTP N 57. Déploiement et renouvellement d une constellation de satellites
TP N 57 Déploiement et renouvellement d une constellation de satellites L objet de ce TP est d optimiser la stratégie de déploiement et de renouvellement d une constellation de satellites ainsi que les
Plus en détailCalcul intégral élémentaire en plusieurs variables
Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement
Plus en détaila et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b
I Définition d une fonction affine Faire l activité 1 «une nouvelle fonction» 1. définition générale a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailObject Removal by Exemplar-Based Inpainting
Object Removal by Exemplar-Based Inpainting Kévin Polisano A partir d un article de A. Criminisi, P. Pérez & H. K. Toyama 14/02/2013 Kévin Polisano Object Removal by Exemplar-Based Inpainting 14/02/2013
Plus en détailINF6304 Interfaces Intelligentes
INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie
Plus en détailCommande Prédictive. J. P. Corriou. LSGC-ENSIC-CNRS, Nancy. e-mail : corriou@ensic.inpl-nancy.fr
Commande Prédictive J P Corriou LSGC-ENSIC-CNRS, Nancy e-mail : corriou@ensicinpl-nancyfr Ý Consigne Trajectoire de référence Ý Ö Réponse Ý Horizon de prédiction À Ô ¹ Ù ¹ Temps Entrée Ù Horizon de commande
Plus en détailModélisation intégrée des écoulements pour la gestion en temps réel d'un bassin versant anthropisé
1 TGR Modélisation intégrée des écoulements pour la gestion en temps réel d'un bassin versant anthropisé Simon Munier Institut des Sciences et Industries du Vivant et de l'environnement (AgroParisTech)
Plus en détailContents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes
Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire
Plus en détail!-.!#- $'( 1&) &) (,' &*- %,!
0 $'( 1&) +&&/ ( &+&& &+&))&( -.#- 2& -.#- &) (,' %&,))& &)+&&) &- $ 3.#( %, (&&/ 0 ' Il existe plusieurs types de simulation de flux Statique ou dynamique Stochastique ou déterministe A événements discrets
Plus en détailDan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier
Détection et reconnaissance des sons pour la surveillance médicale Dan Istrate le 16 décembre 2003 Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Thèse mené dans le cadre d une collaboration
Plus en détailSystème complet d acquisition vidéo, de suivi de trajectoires et de modélisation comportementale pour des environnements 3D naturellement encombrés
Système complet d acquisition vidéo, de suivi de trajectoires et de modélisation comportementale pour des environnements 3D naturellement encombrés Application à la surveillance apicole SOUTENANCE DE THÈSE
Plus en détailCours de Master Recherche
Cours de Master Recherche Spécialité CODE : Résolution de problèmes combinatoires Christine Solnon LIRIS, UMR 5205 CNRS / Université Lyon 1 2007 Rappel du plan du cours 16 heures de cours 1 - Introduction
Plus en détailIntroduction à l approche bootstrap
Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?
Plus en détailConception de réseaux de télécommunications : optimisation et expérimentations
Conception de réseaux de télécommunications : optimisation et expérimentations Jean-François Lalande Directeurs de thèse: Jean-Claude Bermond - Michel Syska Université de Nice-Sophia Antipolis Mascotte,
Plus en détailINTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE
INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE Le schéma synoptique ci-dessous décrit les différentes étapes du traitement numérique
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailCircuits RL et RC. Chapitre 5. 5.1 Inductance
Chapitre 5 Circuits RL et RC Ce chapitre présente les deux autres éléments linéaires des circuits électriques : l inductance et la capacitance. On verra le comportement de ces deux éléments, et ensuite
Plus en détailÉconometrie non paramétrique I. Estimation d une densité
Économetrie non paramétrique I. Estimation d une densité Stéphane Adjemian Université d Évry Janvier 2004 1 1 Introduction 1.1 Pourquoi estimer une densité? Étudier la distribution des richesses... Proposer
Plus en détailPRÉCIS DE SIMULATION
PRÉCIS DE SIMULATION P. Del Moral Centre INRIA Bordeaux Sud-Ouest & Institut de Mathématiques de Bordeaux Université Bordeaux I, 351, cours de la Libération 33405 Talence, France Table des matières 1
Plus en détailCours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques
Université Mohammed V, Faculté des Sciences de Rabat Laboratoire de Recherche Mathématiques, Informatique et Applications Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques MASTER
Plus en détailCalculs de probabilités conditionelles
Calculs de probabilités conditionelles Mathématiques Générales B Université de Genève Sylvain Sardy 20 mars 2008 1. Indépendance 1 Exemple : On lance deux pièces. Soit A l évènement la première est Pile
Plus en détailComparer l intérêt simple et l intérêt composé
Comparer l intérêt simple et l intérêt composé Niveau 11 Dans la présente leçon, les élèves compareront divers instruments d épargne et de placement en calculant l intérêt simple et l intérêt composé.
Plus en détailJulien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration
Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...
Plus en détail6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses
6. Hachage Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses PLAN Définition Fonctions de Hachage Méthodes de résolution de collisions Estimation
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailMaster IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP
Master IMA - UMPC Paris 6 RDMM - Année 2009-200 Fiche de TP Préliminaires. Récupérez l archive du logiciel de TP à partir du lien suivant : http://www.ensta.fr/~manzaner/cours/ima/tp2009.tar 2. Développez
Plus en détailOptimisation, traitement d image et éclipse de Soleil
Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement
Plus en détailDifférentiabilité ; Fonctions de plusieurs variables réelles
Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2
Plus en détailLa nouvelle planification de l échantillonnage
La nouvelle planification de l échantillonnage Pierre-Arnaud Pendoli Division Sondages Plan de la présentation Rappel sur le Recensement de la population (RP) en continu Description de la base de sondage
Plus en détailIntroduction à l analyse numérique : exemple du cloud computing
Introduction à l analyse numérique : exemple du cloud computing Tony FEVRIER Aujourd hui! Table des matières 1 Equations aux dérivées partielles et modélisation Equation différentielle et modélisation
Plus en détailModèles et Méthodes de Réservation
Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailK. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre 2014 - Palaiseau
Apport des modèles de krigeage à la simulation numérique K Ammar, F Bachoc, JM Martinez CEA-Saclay, DEN, DM2S, F-91191 Gif-sur-Yvette, France Séminaire ARISTOTE - 23 octobre 2014 - Palaiseau Apport des
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailChafa Azzedine - Faculté de Physique U.S.T.H.B 1
Chafa Azzedine - Faculté de Physique U.S.T.H.B 1 Définition: La cinématique est une branche de la mécanique qui étudie les mouements des corps dans l espace en fonction du temps indépendamment des causes
Plus en détailComparatif entre Matrox RT.X2 et Adobe Premiere Pro CS3 (logiciel seul)
Comparatif entre et Adobe Premiere Pro CS3 (logiciel seul) offre la puissance de montage en temps réel et les outils de productivité supplémentaires dont vous avez besoin pour tirer pleinement parti d'adobe
Plus en détailLe Futur de la Visualisation d Information. Jean-Daniel Fekete Projet in situ INRIA Futurs
Le Futur de la Visualisation d Information Jean-Daniel Fekete Projet in situ INRIA Futurs La visualisation d information 1.Présentation 2.Bilan 3.Perspectives Visualisation : 3 domaines Visualisation scientifique
Plus en détailUne application des algorithmes génétiques à l ordonnancement d atelier
Une application des algorithmes génétiques à l ordonnancement d atelier VACHER Jean-Philippe - GALINHO Thierry - MAMMERI Zoubir Laboratoire d Informatique du Havre Université du Havre 25, Rue Philippe
Plus en détailRO04/TI07 - Optimisation non-linéaire
RO04/TI07 - Optimisation non-linéaire Stéphane Mottelet Université de Technologie de Compiègne Printemps 2003 I Motivations et notions fondamentales 4 I1 Motivations 5 I2 Formes quadratiques 13 I3 Rappels
Plus en détailObjet du document. Version document : 1.00
Version document : 1.00 Objet du document Les dix points de cet article constituent les règles à connaitre pour intégrer une application au sein d AppliDis. Le site des Experts Systancia comporte également
Plus en détailProbabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
Plus en détailTD1 Signaux, énergie et puissance, signaux aléatoires
TD1 Signaux, énergie et puissance, signaux aléatoires I ) Ecrire l'expression analytique des signaux représentés sur les figures suivantes à l'aide de signaux particuliers. Dans le cas du signal y(t) trouver
Plus en détailHealth Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation
Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation Laurent Denis STATXPERT Journée technologique "Solutions de maintenance prévisionnelle adaptées à la production" FIGEAC,
Plus en détailEnregistrement et transformation du son. S. Natkin Novembre 2001
Enregistrement et transformation du son S. Natkin Novembre 2001 1 Éléments d acoustique 2 Dynamique de la puissance sonore 3 Acoustique géométrique: effets de diffusion et de diffraction des ondes sonores
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailVérification audiovisuelle de l identité
Vérification audiovisuelle de l identité Rémi Landais, Hervé Bredin, Leila Zouari, et Gérard Chollet École Nationale Supérieure des Télécommunications, Département Traitement du Signal et des Images, Laboratoire
Plus en détailTechniques d interaction dans la visualisation de l information Séminaire DIVA
Techniques d interaction dans la visualisation de l information Séminaire DIVA Zingg Luca, luca.zingg@unifr.ch 13 février 2007 Résumé Le but de cet article est d avoir une vision globale des techniques
Plus en détailAPPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE
SûretéGlobale.Org La Guitonnière 49770 La Meignanne Téléphone : +33 241 777 886 Télécopie : +33 241 200 987 Portable : +33 6 83 01 01 80 Adresse de messagerie : c.courtois@sureteglobale.org APPORT DES
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailChapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping
Chapitre V : La gestion de la mémoire Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping Introduction Plusieurs dizaines de processus doivent se partager
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailRésumé des communications des Intervenants
Enseignements de la 1ere semaine (du 01 au 07 décembre 2014) I. Titre du cours : Introduction au calcul stochastique pour la finance Intervenante : Prof. M hamed EDDAHBI Dans le calcul différentiel dit
Plus en détailBTS Groupement A. Mathématiques Session 2011. Spécialités CIRA, IRIS, Systèmes électroniques, TPIL
BTS Groupement A Mathématiques Session 11 Exercice 1 : 1 points Spécialités CIRA, IRIS, Systèmes électroniques, TPIL On considère un circuit composé d une résistance et d un condensateur représenté par
Plus en détailELEC2753 Electrotechnique examen du 11/06/2012
ELEC2753 Electrotechnique examen du 11/06/2012 Pour faciliter la correction et la surveillance, merci de répondre aux 3 questions sur des feuilles différentes et d'écrire immédiatement votre nom sur toutes
Plus en détail