Le suivi dans les séquences vidéo

Dimension: px
Commencer à balayer dès la page:

Download "Le suivi dans les séquences vidéo"

Transcription

1 Cours AIV/VOIR 7 janvier 2014

2 Plan du cours Introduction 1 Introduction 2 3 Cas linéaire et gaussien : filtre de Kalman 4 Cas général : filtrage particulaire

3 Travail sur le mouvement Détection du mouvement : motion detection Identifier les pixels en mouvement Différence d images Techniques de soustraction de fond etc.

4 Travail sur le mouvement Estimation du mouvement : motion estimation Ensemble des vecteurs mouvement transformant une image en une autre Algorithmes de Block-Matching Estimation du flot optique Mise en correspondance (RANSAC, etc.) etc.

5 Travail sur le mouvement Suivi du mouvement : tracking Localiser à chaque instant la position d un ou des objets Suivre la trajectoire d un ou des objets dans la scène

6 Objectif : estimer les trajectoires des objets Qualité du suivi versus temps de réponse Applications Vidéo-surveillance, biométrie. Imagerie biomédicale. Production média (motion capture). Robotique et véhicules intelligents....

7 : difficultés Détection, extraction et représentation de données : variabilité spatio-temporelle, représentativité, compacité Liens temporels entre les données : localisation

8 Représentation et localisation d objets Contours, coins, points caractéristiques, etc. (mise en correspondance, etc.) Noyaux (mean-shift, etc.), blob Suivi : en trois temps 1 Prédiction : prévoir à t en fonction de t 1 2 Association des données : quelles observations sont liées avec quelles prédictions 3 Correction de la prédiction avec les observations

9 Les modèles espace-état Données Variables cachées x t : états Modèles Variables observées y t : mesures ou observations Équation d état : évolution entre t 1 et t. Équation de mesure : lien à t entre observation et état. Système à résoudre : { xt = f t (x t 1, w t ) y t = h t (x t, v t ) Avec : f t la fonction de transition, h t fonction d observation, w t et v t des bruits blancs indépendants

10 Les modèles espace-état Modèle graphique Hypothèses markoviennes L état courant ne dépend que de l état précédent. Les observations sont indépendantes conditionnellement aux états et ne dépendent que de l état courant.

11 Principe Estimer l ensemble des états x 0:t connaissant l ensemble des observations passées et présentes y 1:t. Cette information est contenue dans la densité de filtrage p(x 0:t y 1:t ). But du filtrate récursif bayésien : estimer p(x 0:t y 1:t ). Définition Sous hypothèses markoviennes, la densité de filtrage s écrit sous la forme récursive : p(x 0:t y 1:t ) p(y t x t )p(x t x t 1 )p(x 0:t 1 y 1:t 1 )

12 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(x 0:t y t, y 1:t 1 )

13 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(x 0:t y t, y 1:t 1 ) = p(y t, y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) p(a B, C) = p(b, C A) p(a) p(b,c)

14 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(x 0:t y t, y 1:t 1 ) = p(y t, y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) p(a, B C) = p(a B, C)p(B C)

15 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(x 0:t y t, y 1:t 1 ) = p(y t, y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 )p(y 1:t 1 )p(x 0:t ) p(x 0:t )p(y t, y 1:t 1 ) p(a B) = p(b A) p(a) p(b)

16 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(x 0:t y t, y 1:t 1 ) = p(y t, y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(y 1:t 1 x 0:t )p(x 0:t ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 )p(y 1:t 1 ) p(y t, y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 )p(y 1:t 1 ) p(y t y 1:t 1 )p(y 1:t 1 ) p(a, B) = p(a B)p(B)

17 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 ) p(y t y 1:t 1 )

18 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 ) p(y t y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x t, x 0:t 1 y 1:t 1 ) p(y t y 1:t 1 )

19 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 ) p(y t y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x t, x 0:t 1 y 1:t 1 ) p(y t y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x t x 0:t 1, y 1:t 1 )p(x 0:t 1 y 1:t 1 ) p(y t y 1:t 1 ) p(a, B C) = p(a B, C)p(B C)

20 Ecriture récursive : démonstration p(x 0:t y 1:t ) = p(y t y 1:t 1, x 0:t )p(x 0:t y 1:t 1 ) p(y t y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x t, x 0:t 1 y 1:t 1 ) p(y t y 1:t 1 ) = p(y t y 1:t 1, x 0:t )p(x t x 0:t 1, y 1:t 1 )p(x 0:t 1 y 1:t 1 ) p(y t y 1:t 1 ) p(y t y 1:t 1, x 0:t )p(x t x 0:t 1, y 1:t 1 )p(x 0:t 1 y 1:t 1 )

21 Ecriture récursive : démonstration Hypothèses markoviennes L état courant ne dépend que de l état précédent : p(x t x 0:t 1, y 1:t 1 ) = p(x t x t 1 ) Les observations sont indépendantes conditionnellement aux états et ne dépendent que de l état courant. p(y t y 1:t 1, x 0:t ) = p(y t x t ) p(x 0:t y 1:t ) p(y t y 1:t 1, x 0:t )p(x t x 0:t 1, y 1:t 1 )p(x 0:t 1 y 1:t 1 ) p(y t x t )p(x t x t 1 )p(x 0:t 1 y 1:t 1 )

22 p(x 0:t y 1:t ) p(y t x t ) }{{} vraisemblance p(x t x t 1 ) }{{} transition p(x 0:t 1 y 1:t 1 )

23

24 Estimation : par la moyenne conditionnelle E p [F(x 0:t )] = F(x 0:t )p(x 0:t y 1:t )dx 0:t x 0:t Solution Fonctions linéaires, densités gaussiennes : solution analytique : filtre de Kalman. Fonctions linéarisables : filtres de Kalman étendu, sans parfum. Cas général (la plupart des problèmes en suivi) : approximation par filtrage particulaire.

25 Hypothèses et propriétés On connaît la distribution (modèle) et ses paramètres a priori à t = 0. On sait comment l état (caché) produit l observation : fonction linéaire. La fonction de transition est linéaire. Distributions gaussiennes et fonctions linéaires : on manipule des gaussiennes uniquement. Produit de distributions gaussiennes : gaussiennes. But du filtre de Kalman Donner l estimation à l instant courant la plus fiable en prenant en compte à la fois les mesures et l estimation précédente.

26 Équation d état Avec : x t = F t x t 1 (+B t u t ) + w t x t : vecteur d état à t décrivant le système de manière concise (position, vitesse, etc.) u t : vecteur de contrôle d entrée (angle d orientation, etc.) F t : matrice de transition d état entre t 1 et t B t : matrice de contrôle d entrée w t : vecteur de bruit d état, w t N (0, W t ), E[w t w T t ] = W t Ici, on n utilisera pas le contrôle : x t = F t x t 1 + w t

27 Équation de mesure y t = H t x t + v t Avec : y t : vecteur de mesure à t H t : matrice de transformation de l état vers la mesure v t : vecteur de bruit de mesure, v t N (0, V t ), E[v t vt T ] = V t

28 Principe : en deux temps Soit x t 1 t 1 l estimateur optimal non biaisé de x t 1 Soit y t l observation à l instant t 1 Déterminer l estimateur non biaisé x t t 1 de x t sans l observation y t 2 Déterminer un estimateur non biaisé x t t de x t en utilisant l observation y t

29 Principe : utilisation d un contrôle en feedback But : minimiser récursivement l erreur quadratique moyenne minimale entre estimation et état 1 Étape de prédiction (valeur théorique) : avec les paramètres à t 1. 2 Étape de correction : l observation courante corrige les paramètres prédits à t.

30 Principe Estimer les densités de probabilités décrivant le système Rappel : ici les densités sont des gaussiennes Densité a posteriori à t 1 : p(x 0:t 1 y 1:t 1 ) = N (x t 1 t 1, P t 1 t 1 ) Densité a priori à t : p(x 0:t y 1:t 1 ) = N (x t t 1, P t t 1 ) Densité a posteriori à t : p(x 0:t y 1:t ) = N (x t t, P t t )

31 Algorithme général Initialisation x 0 = x 0 0 = E[x 0 ] = µ 0, P 0 = E[(x 0 µ 0 )(x 0 µ 0 ) T ]. Prédiction de la moyenne x t t 1 Pas d observation : prédiction à partir de x t 1 t 1 uniquement, en utilisant l équation d état x t t 1 = E[x t y 1:t 1 ] = E[F t x t 1 + w t ] = E[F t x t 1 ] + E[w t ] = F t x t 1 t 1

32 Algorithme général Erreur de prédiction e t t 1 = x t x t t 1 = F t x t 1 + w t F t x t 1 t 1 = F t (x t 1 x t 1 t 1 ) + w t = F t e t 1 t 1 + w t

33 Algorithme général Prédiction de la covariance d erreur d état P t t 1 Par définition : P t t 1 = E[e t t 1 e T t t 1 ] = E[(F t e t 1 t 1 + w t )(F t e t 1 t 1 + w t ) T ] = F t E[e t 1 t 1 e T t 1 t 1 ]FT t + E[w t wt T ] = F t P t 1 t 1 F T t + W t

34 Algorithme général Correction : utiliser l observation courante y t Correction de la moyenne : mise-à-jour de la prédiction à l aide de l écart entre l observation prédite et l observation (innovation) Observation prédite : y t t 1 = H t x t t 1 x t t = ( ) x t t 1 + Q }{{} t yt H t x t t 1 }{{} gain innovation = (I Q t H t )x t t 1 + Q t y t = Q tx t t 1 + Q t y t Question : comment déterminer le gain Q t pour qu il minimise l erreur quadratique moyenne entre l état et son estimation?

35 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t

36 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t = x t Q t( xt e t t 1 ) Qt (H t x t + v t )

37 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t ( ) = x t Q t xt e t t 1 Qt (H t x t + v t ) ) = (I Q t Q t H t x t + Q te t t 1 Q t v t

38 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t ( ) = x t Q t xt e t t 1 Qt (H t x t + v t ) ) = (I Q t Q t H t x t + Q te t t 1 Q t v t ) ) = (I Q t Q t H t x t + Q t( xt x t t 1 Qt v t

39 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t ( ) = x t Q t xt e t t 1 Qt (H t x t + v t ) ) = (I Q t Q t H t x t + Q te t t 1 Q t v t ) ( ) = (I Q t Q t H t x t + Q t xt x t t 1 Qt v t = x t Q t H t x t Q tx t t 1 Q t v t

40 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t ( ) = x t Q t xt e t t 1 Qt (H t x t + v t ) ) = (I Q t Q t H t x t + Q te t t 1 Q t v t ) ( ) = (I Q t Q t H t x t + Q t xt x t t 1 Qt v t = x t Q t H t x t Q tx t t 1 Q t v t = x t Q t H t x t (I Q t H t )x t t 1 Q t v t

41 Algorithme général Erreur d estimation à t e t t = x t x t t = x t Q tx t t 1 Q t y t ( ) = x t Q t xt e t t 1 Qt (H t x t + v t ) ) = (I Q t Q t H t x t + Q te t t 1 Q t v t ) ( ) = (I Q t Q t H t x t + Q t xt x t t 1 Qt v t = x t Q t H t x t Q tx t t 1 Q t v t = x t Q t H t x t (I Q t H t ) x t t 1 Q t v t = (I Q t H t ) e t t 1 Q t v t

42 Algorithme général Covariance d erreur d état P t t Par définition : P t t = E[e t t e T t t ] = E[ ( ) ( ) T (I Q t H t ) e t t 1 Q t v t (I Qt H t ) e t t 1 Q t v t ]

43 Algorithme général Covariance d erreur d état P t t Par définition : P t t = E[e t t e T t t ] = E[ ( ) ( ) T (I Q t H t ) e t t 1 Q t v t (I Qt H t ) e t t 1 Q t v t ] = (I Q t H t ) E[e t t 1 e T t t 1 ] (I Q th t ) T Q t E[v t vt T ]Q T t

44 Algorithme général Covariance d erreur d état P t t Par définition : P t t = E[e t t e T t t ] = E[ ( ) ( ) T (I Q t H t ) e t t 1 Q t v t (I Qt H t ) e t t 1 Q t v t ] = (I Q t H t ) E[e t t 1 e T t t 1 ] (I Q th t ) T Q t E[v t vt T ]Q T t = (I Q t H t ) P t t 1 (I Q t H t ) T Q t V t Q T t

45 Algorithme général Cas du gain Le gain de Kalman doit tenir compte des incertitudes relatives de l estimation courante et de l observation : x t t = x t t 1 + Q t ( yt H t x t t 1 ) Si l incertitude de l observation (V t ) est négligeable devant P t t 1 : gain fort (i.e. observation fiable). Si V t est grand par rapport à P t t 1 : gain faible (i.e. observation peu fiable, ne devant modifier que peu l estimation courante). Il minimise l erreur quadratique moyenne : trace ( P t t ) On peut montrer qu il est égal à : Q t = P t t 1 H T t (H t P t t 1 H T t + V t ) 1

46 Algorithme général Bilan et conclusion Hypothèses gaussiennes. Matrices définies positives : calcul matriciel. Matrices de transition et d observation supposées connues. Problèmes de vision : bien plus généraux que cela : dynamique non connue, sans hypothèse a priori ; lien entre l état et l observation non linéaire ; densités non paramétriques voire multimodales. On ne peut plus estimer : on approche (méthodes séquentielles de Monte Carlo, ou filtrage particulaire).

47 Le filtre particulaire Principe : approcher la densité de filtrage par un échantillon pondéré Approximation de Monte Carlo + estimation bayésienne p(x 0:t y 1:t ) 1 N N i=1 w (i) t δ (i) x (x 0:t ) 0:t

48 Le filtre particulaire Deux articles fondateurs Gordon et al., Novel approach to non-linear/non-gaussian Bayesian state estimation. Radar and Signal Processing, IEE Proceedings F, 140(2) : Isard et Blake, CONDENSATION : CONditional DENSity propagation for visual tracking. International Journal of Computer Vision, 29 : Trois étapes principales 1 Prédiction : densité a priori p(x 0:t y 1:t 1 ) à partir de la distribution de transition p(x t x t 1 ) et de la précédente densité estimée p(x 0:t 1 y 1:t 1 ). 2 Correction : densité a posteriori p(x 0:t y 1:t ), à partir de la distribution de vraisemblance p(y t x t ) et de l a priori. 3 Étape de rééchantillonnage (sélection)

49 Le filtre particulaire Étape de prédiction

50 Le filtre particulaire Étape de correction

51 Le filtre particulaire Étape de rééchantillonnage

52 Le filtrage particulaire Un exemple type en suivi visuel État et espace d état : x t = {x, y} N 2 Échantillon {x (i) t } N i=1 Fonction de transition : x (i) t N (µ, Σ) Fonction de vraisemblance : p(y t x t ) e λd2

53 Échantillonnage d importance But Approcher l intégrale à l aide de réalisations d une variable aléatoire distribuée selon la densité a posteriori Problème : on ne sait pas échantillonner selon cette loi. Solution Utiliser une fonction de proposition q(x 0:t y 1:t ) suivant laquelle on sait échantillonner : E p [F(x 0:t )] = F(x 0:t ) p(x 0:t y 1:t ) x 0:t q(x 0:t y 1:t ) q(x 0:t y 1:t )dx 0:t [ = E q F(x 0:t ) p(x ] 0:t y 1:t ) q(x 0:t y 1:t )

54 Échantillonnage d importance Solution N réalisations x (i) 0:t q(x 0:t y 1:t ) approchant l intégrale par : Ê p [F(x 0:t )] = 1 N N i=1 F(x (i) 0:t ) y 1:t) q(x (i) 0:t y 1:t) 0:t )p(x(i) Soit les poids d importance w (i) t = p(x(i) 0:t y 1:t) q(x (i) (i) 0:t )p(x(i) 0:t ) 0:t y 1:t) = p(y 1:t x p(y 1:t )q(x (i) 0:t y 1:t) Problème : p(y 1:t ) = x 0:t p(y 1:t x 0:t )p(x 0:t )dx 0:t incalculable.

55 Échantillonnage d importance Solution Nouvel estimateur : Ê p [F(x 0:t )] = 1 N N i=1 F(x (i) 0:t ) w (i) t N j=1 w (j) t avec : w (i) t p(y 1:t x (i) 0:t )p(x(i) 0:t ) q(x (i) 0:t y 1:t), ou encore w (i) t p(x(i) 0:t y 1:t) q(x (i) 0:t y 1:t) Loi des grands nombres : Ê p [F(x 0:t )] p.s. E p [F(x 0:t )]

56 Échantillonnage d importance Formulation récursive des poids Hypothèse : q(x (i) 0:t y 1:t) = q(x (i) t x (i) 0:t 1, y 1:t)q(x (i) 0:t 1 y 1:t 1) Alors : w (i) t p(x(i) 0:t y 1:t) q(x (i) 0:t y 1:t) p(y t x (i) t )p(x (i) t x (i) t 1 )p(x(i) 0:t 1 y 1:t 1) q(x (i) t x (i) 0:t 1, y 1:t)q(x (i) 0:t 1 y 1:t 1) w (i) t 1 p(y t x (i) t )p(x (i) t x (i) t 1 ) q(x (i) t x (i) 0:t 1, y 1:t)

57 Algorithme général 1 p(x 0:t 1 y 1:t 1 ) représentée par {x (i) 0:t 1, w (i) 2 Propagation via une fonction de proposition : x (i) t q(x t x (i) 0:t 1, y 1:t) t 1 }N i=1 3 Correction, ou évaluation de la qualité des particules, à l aide des observations, en calculant les poids : w (i) t w (i) t 1 p(y t x (i) t )p(x (i) t x (i) t 1 ) q(x (i) t x (i) 0:t 1, y 1:t), w (i) t = 4 Espérance empirique de loi a posteriori à l instant t, E(F(x 0:t )) 1 N 5 Rééchantillonnage (si nécessaire) N i=1 w (i) t F(x (i) 0:t ) w (i) t N j=1 w (j) t

58 Espace d état Introduction Paramètres que l on cherche à estimer Dépend de la nature de l objet à suivre : voiture, visage, objet articulé, etc. Exemples Position dans l image : x t = {x t, y t } Un contour fermé : x t = {p 1 t,..., p n t } = { {x 1 t, y 1 t },..., {x n t, y n t } } Une boîte englobante : x t = {c t, w t, h t, θ t } Un objet articulé : x t = { {c 1 t, w 1 t, h 1 t, θ 1 t },..., {c n t, w n t, h n t, θ n t } }

59 Espace d observation Paramètres qui nous servent à estimer/corriger

60 Étape de prédiction But Propager les particules pour parcourir l espace d état. Mauvaise propagation = perte de l objet à suivre. Comment En utilisant une fonction de proposition q. La fonction de proposition optimale utilise l ensemble des états x 0:t et des observations y 1:t : on ne sait pas la construire. q(x (i) t x (i) 0:t 1, y 1:t)

61 Étape de prédiction : choix de q Choix usuel : q(x (i) t x (i) 0:t 1, y 1:t) = p(x (i) t w (i) t w (i) t 1 x (i) t 1 ) p(y t x (i) t )p(x (i) t x (i) t 1 ) q(x (i) t x (i) 0:t 1, y 1:t) w (i) t 1 p(y t x (i) t ) Le poids est proportionnel à la vraisemblance : filtre bootstrap

62 Étape de prédiction : choix de q Choix usuel : q(x (i) t x (i) 0:t 1, y 1:t) = p(x (i) t x (i) t 1 ) Exemple : marche aléatoire gaussienne : q N (x t 1, Σ)

63 Étape de prédiction : choix de q Prise en compte de l observation courante : q(x (i) t x (i) t 1, y t) Exemple : détection avant suivi (detect before track) d q N (x t 1, Σ) + N (p j t, Σ j ) j=1

64 Étape de prédiction : choix de q Un cas plus complexe

65 Étape de correction But Calculer l a posteriori à partir de l a priori. Mauvaise correction = mauvais calcul des poids des particules. Comment En utilisant une fonction de vraisemblance p(y t x t ). La fonction de vraisemblance nous donne la croyance en la validité de l observation y t connaissant l état x t d un objet. Mesurer l adéquation entre un modèle et une cible : Modèle : à partir de l estimation précédente. Cible : à partir d une particule à l instant t.

66 Étape de correction Mesure d adéquation : en fonction de l observation

67 Étape de correction Quelques exemples Couleur, contours : histogrammes distance de Bhattacharyya, distance euclidienne, distance de diffusion, EMD, etc. Ensemble d apprentissage : ACP (sous-espaces de représentation) distance euclidienne, de Mahalanobis, etc. Formes : distance de Hausdorff Calcul de la vraisemblance avec d la mesure d adéquation p(y t x t ) e λd2

68 Étape de correction Un premier exemple visuel

69 Étape de correction Rôle de λ Faire que la vraisemblance soit piquée ou non

70 Prédiction et correction

71 Rééchantillonnage Dégénérescence de l échantillon Divergence du filtre Rééchantillonnage : duplication des particules de plus fort poids

72 Rééchantillonnage Rééchantillonnage multinomial Tirage aléatoire non équi-réparti selon la distribution des poids d importance. Sélectionner N nombres k i U(0, 1), i = 1,..., N S t = {x (i) t, w (i) t } S t = {x (D(k i )) t, 1 N } est avec D(k i) entier unique tel que : D(ki ) 1 h=1 w (h) t < k i D(k i ) h=1 w (h) t.

73 Rééchantillonnage Appauvrissement de l échantillon Problème induit par le rééchantillonnage Nombre efficace de particules : N eff (N) = Si N eff (N) > Seuil alors on rééchantillonne [ N ( i=1 w (i) t ) 2 ] 1

74 Limite de la dimension des espaces Un problème majeur N est lié exponentiellement à la dimension de l espace d état et d observation. Les problèmes de vision demandent la prise en compte de toujours plus d informations. Des solutions Focalisation dans l espace d état. Décomposition de l espace d état.

75 Modèles de focalisation dans l espace d état Principe Déterminer les zones utiles de l espace d état. Calculs dans ces zones uniquement.

76 Modèles de focalisation dans l espace d état Grandes familles d approches Ajout de contraintes, connaissances a priori, extraction d informations. Heuristiques, algorithmes évolutionnaires, génétiques, PSO, etc. Méthodes d optimisation, recherches globales ou locales : type descente de gradient ; Filtre particulaire à recuit simulé (Deutscher et al., Articulated Body Motion Capture by Stochastic Search, CVPR 01).

77 Filtre particulaire à recuit simulé Principe Recuit simulé : méthode stochastique d optimisation d une densité multimodale, évitant les minima locaux. Ajouter à l étape de correction des itérations de pseudo recuit simulé pour diffuser les particules au niveau des modes de la densité à estimer. À chaque itération : on corrige de mieux en mieux avec la fonction de vraisemblance. on diffuse de moins en moins en utilisant la fonction de transition ;

78 Filtre particulaire à recuit simulé Itération m du recuit simulé (instant t) 1 Calcul des poids des particules : w m,(i) t = 2 Rééchantillonnage multinomial 3 Propagation des particules : x m,(i) t Avec m = M à 0 β M <... < β 0 et β 0 = 1 P m = P 0 α M... α m α 0 =... = α M = 0.5 ( w m 1,(i) t ) β m = N (x m 1,(i) t, P m )

79 Filtre particulaire à recuit simulé

80 Filtre particulaire à recuit simulé Conclusion Permet de mieux explorer l espace d état et positionner les particules au niveau des modes. Très précis, très bons résultats. Très lent : succession de corrections/rééchantillonnages/propagations. Inutilisable en l état pour des applications temps réels ou avec beaucoup d objets à suivre.

81 Modèles de décomposition de l espace d état Principe Décomposer l espace d état en sous-espaces. Appliquer le filtrage particulaire dans chaque sous-espace.

82 Modèles de décomposition de l espace d état Quelques grandes approches Un filtre particulaire par sous-espace et fusion finale des résultats (pas généralisable). Filtres particulaires en cascade (pas généralisable). Échantillonnage partitionné (PS - Mac Cormick et al., ECCV 00). Utilisation des réseaux bayésiens dynamiques (DBNs) Filtre particulaire Rao-Blackwellisé (Doucet et al., UAI 00) (pas généralisable). Propagation de croyance : approximations. Rose et al. (AAAI 08) : combinaison de PS avec un DBN.

83 Modèles de décomposition de l espace d état Échantillonnage partitionné Principe Décomposer l état en sous-états : calculs faisables. Convergence théorique plus rapide que celle du filtre particulaire. Application au suivi multi-objets ou d objets articulés : { x (i) t } N x t = {x 1 t,..., x n t } { =,..., x n,(i) i=1 x 1,(i) t t } N i=1

84 Échantillonnage partitionné

85 Échantillonnage partitionné

86 Échantillonnage partitionné

87 Échantillonnage partitionné

88 Échantillonnage partitionné

89 Échantillonnage partitionné

90 Échantillonnage partitionné

91 Échantillonnage partitionné

92 Échantillonnage partitionné Schéma général du filtre à échantillonnage partitionné

93 Échantillonnage partitionné Conclusion Décomposition des calculs en sous-calculs. Résout partiellement le problème de grandes dimensions. Problème en cas d occultation : quel objet/ quelle partie à considérer d abord? variantes : BPS, DPS, RPS, etc. Beaucoup de rééchantillonnages : ajoutent du bruit et perte de la précision.

94 Conclusion générale sur le filtrage récursif bayésien Représentation des objets par des densités de probabilité qu on : estime avec le filtre de Kalman ; approche avec le filtrage particulaire. : densités gaussiennes, fonction linéaires. : densités quelconques. Problèmes de suivi en vision par ordinateur : filtrage particulaire en général plus adapté.

95 Devenir du suivi Ce que l on sait (très bien) faire Suivre un ou des objets. Analyser une trajectoire. Ce que l on commence à savoir faire Utiliser des modèles de représentation plus complexes. Détecter un comportement ou un événement connu. Ce que l on ne sait pas encore faire Détecter un comportement ou un événement inconnu. Prédire et/ou analyser un comportement, événement. Suivre un objet durant une longue séquence.

Utilisation d informations visuelles dynamiques en asservissement visuel Armel Crétual IRISA, projet TEMIS puis VISTA L asservissement visuel géométrique Principe : Réalisation d une tâche robotique par

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Projet de Traitement du Signal Segmentation d images SAR

Projet de Traitement du Signal Segmentation d images SAR Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Intelligence artificielle et les défis en robotique mobile et autonome

Intelligence artificielle et les défis en robotique mobile et autonome Intelligence artificielle et les défis en robotique mobile et autonome Éric Beaudry http://planiart.usherbrooke.ca/~eric/ Étudiant au doctorat en informatique Laboratoires Planiart et Laborius 13 février

Plus en détail

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57 Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation

Plus en détail

Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données

Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données Une méthode de classification supervisée sans paramètre pour l apprentissage sur les grandes bases de données Marc Boullé Orange Labs 2 avenue Pierre Marzin 22300 Lannion marc.boulle@orange-ftgroup.com,

Plus en détail

Soutenance de stage Laboratoire des Signaux et Systèmes

Soutenance de stage Laboratoire des Signaux et Systèmes Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud

Plus en détail

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé

Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé Baccalauréat ES Antilles Guyane 12 septembre 2014 Corrigé EXERCICE 1 5 points Commun à tous les candidats 1. Réponse c : ln(10)+2 ln ( 10e 2) = ln(10)+ln ( e 2) = ln(10)+2 2. Réponse b : n 13 0,7 n 0,01

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Introduction au datamining

Introduction au datamining Introduction au datamining Patrick Naïm janvier 2005 Définition Définition Historique Mot utilisé au départ par les statisticiens Le mot indiquait une utilisation intensive des données conduisant à des

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA

MATHS FINANCIERES. Mireille.Bossy@sophia.inria.fr. Projet OMEGA MATHS FINANCIERES Mireille.Bossy@sophia.inria.fr Projet OMEGA Sophia Antipolis, septembre 2004 1. Introduction : la valorisation de contrats optionnels Options d achat et de vente : Call et Put Une option

Plus en détail

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d

chargement d amplitude variable à partir de mesures Application à l approche fiabiliste de la tolérance aux dommages Modélisation stochastique d un d Laboratoire de Mécanique et Ingénieriesnieries EA 3867 - FR TIMS / CNRS 2856 ER MPS Modélisation stochastique d un d chargement d amplitude variable à partir de mesures Application à l approche fiabiliste

Plus en détail

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France

Théorie et Codage de l Information (IF01) exercices 2013-2014. Paul Honeine Université de technologie de Troyes France Théorie et Codage de l Information (IF01) exercices 2013-2014 Paul Honeine Université de technologie de Troyes France TD-1 Rappels de calculs de probabilités Exercice 1. On dispose d un jeu de 52 cartes

Plus en détail

Coup de Projecteur sur les Réseaux de Neurones

Coup de Projecteur sur les Réseaux de Neurones Coup de Projecteur sur les Réseaux de Neurones Les réseaux de neurones peuvent être utilisés pour des problèmes de prévision ou de classification. La représentation la plus populaire est le réseau multicouche

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Cours de méthodes de scoring

Cours de méthodes de scoring UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-

Plus en détail

Grandes lignes ASTRÉE. Logiciels critiques. Outils de certification classiques. Inspection manuelle. Definition. Test

Grandes lignes ASTRÉE. Logiciels critiques. Outils de certification classiques. Inspection manuelle. Definition. Test Grandes lignes Analyseur Statique de logiciels Temps RÉel Embarqués École Polytechnique École Normale Supérieure Mercredi 18 juillet 2005 1 Présentation d 2 Cadre théorique de l interprétation abstraite

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55

Plus en détail

Echantillonnage Non uniforme

Echantillonnage Non uniforme Echantillonnage Non uniforme Marie CHABERT IRIT/INP-ENSEEIHT/ ENSEEIHT/TéSASA Patrice MICHEL et Bernard LACAZE TéSA 1 Plan Introduction Echantillonnage uniforme Echantillonnage irrégulier Comparaison Cas

Plus en détail

Programme scientifique Majeure INTELLIGENCE NUMERIQUE. Mentions Image et Réalité Virtuelle Intelligence Artificielle et Robotique

Programme scientifique Majeure INTELLIGENCE NUMERIQUE. Mentions Image et Réalité Virtuelle Intelligence Artificielle et Robotique É C O L E D I N G É N I E U R D E S T E C H N O L O G I E S D E L I N F O R M A T I O N E T D E L A C O M M U N I C A T I O N Programme scientifique Majeure INTELLIGENCE NUMERIQUE Langage Java Mentions

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Relever les défis des véhicules autonomes

Relever les défis des véhicules autonomes EMM 2014 12eme rencontre européenne de mécatronique Relever les défis des véhicules autonomes Mathias Perrollaz Ingénieur expert Inria Christian Laugier Directeur de recherche Inria E-Motion Team Annecy,

Plus en détail

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12

Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 Reconnaissance de visages 2.5D par fusion des indices de texture et de profondeur ICI 12/12/12 2 Discrimination Invariance Expressions faciales Age Pose Eclairage 11/12/2012 3 Personne Inconnue Identité

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,

Plus en détail

Modélisation et simulation

Modélisation et simulation Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.

Plus en détail

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction Chapitre 3 Algorithmes stochastiques 3.1 Introduction Les algorithmes stochastiques sont des techniques de simulation numériques de chaînes de Markov, visant à résoudre des problèmes d optimisation ou

Plus en détail

Température corporelle d un castor (une petite introduction aux séries temporelles)

Température corporelle d un castor (une petite introduction aux séries temporelles) Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature

Plus en détail

Intérêt du découpage en sous-bandes pour l analyse spectrale

Intérêt du découpage en sous-bandes pour l analyse spectrale Intérêt du découpage en sous-bandes pour l analyse spectrale David BONACCI Institut National Polytechnique de Toulouse (INP) École Nationale Supérieure d Électrotechnique, d Électronique, d Informatique,

Plus en détail

Incertitude et variabilité : la nécessité de les intégrer dans les modèles

Incertitude et variabilité : la nécessité de les intégrer dans les modèles Incertitude et variabilité : la nécessité de les intégrer dans les modèles M. L. Delignette-Muller Laboratoire de Biométrie et Biologie Evolutive VetAgro Sup - Université de Lyon - CNRS UMR 5558 24 novembre

Plus en détail

Raisonnement probabiliste

Raisonnement probabiliste Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte

Plus en détail

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h

Optimisation et programmation mathématique. Professeur Michel de Mathelin. Cours intégré : 20 h Télécom Physique Strasbourg Master IRIV Optimisation et programmation mathématique Professeur Michel de Mathelin Cours intégré : 20 h Programme du cours d optimisation Introduction Chapitre I: Rappels

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

CHAPITRE 5. Stratégies Mixtes

CHAPITRE 5. Stratégies Mixtes CHAPITRE 5 Stratégies Mixtes Un des problèmes inhérents au concept d équilibre de Nash en stratégies pures est que pour certains jeux, de tels équilibres n existent pas. P.ex.le jeu de Pierre, Papier,

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme

Plus en détail

Algorithmes pour la planification de mouvements en robotique non-holonome

Algorithmes pour la planification de mouvements en robotique non-holonome Algorithmes pour la planification de mouvements en robotique non-holonome Frédéric Jean Unité de Mathématiques Appliquées ENSTA Le 02 février 2006 Outline 1 2 3 Modélisation Géométrique d un Robot Robot

Plus en détail

Sommaire Chapitre 1 Chapitre 2 Chapitre 3 Chapitre 4 Chapitre 5 Chapitre 6 Chapitre 7. ARC EPS Eco-microbiologie Prévisionnelle Statistique

Sommaire Chapitre 1 Chapitre 2 Chapitre 3 Chapitre 4 Chapitre 5 Chapitre 6 Chapitre 7. ARC EPS Eco-microbiologie Prévisionnelle Statistique ARC EPS Eco-microbiologie Prévisionnelle Statistique 1 Objectifs de l ARC EPS 2 Partenaires 3 Moyens 4 Problématique Microbiologique 5 Démarche et Résultats 6 Perspectives 7 Valorisation LES OBJECTIFS

Plus en détail

TP N 57. Déploiement et renouvellement d une constellation de satellites

TP N 57. Déploiement et renouvellement d une constellation de satellites TP N 57 Déploiement et renouvellement d une constellation de satellites L objet de ce TP est d optimiser la stratégie de déploiement et de renouvellement d une constellation de satellites ainsi que les

Plus en détail

Calcul intégral élémentaire en plusieurs variables

Calcul intégral élémentaire en plusieurs variables Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement

Plus en détail

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b I Définition d une fonction affine Faire l activité 1 «une nouvelle fonction» 1. définition générale a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Object Removal by Exemplar-Based Inpainting

Object Removal by Exemplar-Based Inpainting Object Removal by Exemplar-Based Inpainting Kévin Polisano A partir d un article de A. Criminisi, P. Pérez & H. K. Toyama 14/02/2013 Kévin Polisano Object Removal by Exemplar-Based Inpainting 14/02/2013

Plus en détail

INF6304 Interfaces Intelligentes

INF6304 Interfaces Intelligentes INF6304 Interfaces Intelligentes filtres collaboratifs 1/42 INF6304 Interfaces Intelligentes Systèmes de recommandations, Approches filtres collaboratifs Michel C. Desmarais Génie informatique et génie

Plus en détail

Commande Prédictive. J. P. Corriou. LSGC-ENSIC-CNRS, Nancy. e-mail : corriou@ensic.inpl-nancy.fr

Commande Prédictive. J. P. Corriou. LSGC-ENSIC-CNRS, Nancy. e-mail : corriou@ensic.inpl-nancy.fr Commande Prédictive J P Corriou LSGC-ENSIC-CNRS, Nancy e-mail : corriou@ensicinpl-nancyfr Ý Consigne Trajectoire de référence Ý Ö Réponse Ý Horizon de prédiction À Ô ¹ Ù ¹ Temps Entrée Ù Horizon de commande

Plus en détail

Modélisation intégrée des écoulements pour la gestion en temps réel d'un bassin versant anthropisé

Modélisation intégrée des écoulements pour la gestion en temps réel d'un bassin versant anthropisé 1 TGR Modélisation intégrée des écoulements pour la gestion en temps réel d'un bassin versant anthropisé Simon Munier Institut des Sciences et Industries du Vivant et de l'environnement (AgroParisTech)

Plus en détail

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire

Plus en détail

!-.!#- $'( 1&) &) (,' &*- %,!

!-.!#- $'( 1&) &) (,' &*- %,! 0 $'( 1&) +&&/ ( &+&& &+&))&( -.#- 2& -.#- &) (,' %&,))& &)+&&) &- $ 3.#( %, (&&/ 0 ' Il existe plusieurs types de simulation de flux Statique ou dynamique Stochastique ou déterministe A événements discrets

Plus en détail

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier

Dan Istrate. Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Détection et reconnaissance des sons pour la surveillance médicale Dan Istrate le 16 décembre 2003 Directeur de thèse : Eric Castelli Co-Directeur : Laurent Besacier Thèse mené dans le cadre d une collaboration

Plus en détail

Système complet d acquisition vidéo, de suivi de trajectoires et de modélisation comportementale pour des environnements 3D naturellement encombrés

Système complet d acquisition vidéo, de suivi de trajectoires et de modélisation comportementale pour des environnements 3D naturellement encombrés Système complet d acquisition vidéo, de suivi de trajectoires et de modélisation comportementale pour des environnements 3D naturellement encombrés Application à la surveillance apicole SOUTENANCE DE THÈSE

Plus en détail

Cours de Master Recherche

Cours de Master Recherche Cours de Master Recherche Spécialité CODE : Résolution de problèmes combinatoires Christine Solnon LIRIS, UMR 5205 CNRS / Université Lyon 1 2007 Rappel du plan du cours 16 heures de cours 1 - Introduction

Plus en détail

Introduction à l approche bootstrap

Introduction à l approche bootstrap Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?

Plus en détail

Conception de réseaux de télécommunications : optimisation et expérimentations

Conception de réseaux de télécommunications : optimisation et expérimentations Conception de réseaux de télécommunications : optimisation et expérimentations Jean-François Lalande Directeurs de thèse: Jean-Claude Bermond - Michel Syska Université de Nice-Sophia Antipolis Mascotte,

Plus en détail

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE

INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE INTRODUCTION A L ELECTRONIQUE NUMERIQUE ECHANTILLONNAGE ET QUANTIFICATION I. ARCHITECTURE DE L ELECRONIQUE NUMERIQUE Le schéma synoptique ci-dessous décrit les différentes étapes du traitement numérique

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

Circuits RL et RC. Chapitre 5. 5.1 Inductance

Circuits RL et RC. Chapitre 5. 5.1 Inductance Chapitre 5 Circuits RL et RC Ce chapitre présente les deux autres éléments linéaires des circuits électriques : l inductance et la capacitance. On verra le comportement de ces deux éléments, et ensuite

Plus en détail

Économetrie non paramétrique I. Estimation d une densité

Économetrie non paramétrique I. Estimation d une densité Économetrie non paramétrique I. Estimation d une densité Stéphane Adjemian Université d Évry Janvier 2004 1 1 Introduction 1.1 Pourquoi estimer une densité? Étudier la distribution des richesses... Proposer

Plus en détail

PRÉCIS DE SIMULATION

PRÉCIS DE SIMULATION PRÉCIS DE SIMULATION P. Del Moral Centre INRIA Bordeaux Sud-Ouest & Institut de Mathématiques de Bordeaux Université Bordeaux I, 351, cours de la Libération 33405 Talence, France Table des matières 1

Plus en détail

Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques

Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques Université Mohammed V, Faculté des Sciences de Rabat Laboratoire de Recherche Mathématiques, Informatique et Applications Cours des Méthodes de Résolution Exactes Heuristiques et Métaheuristiques MASTER

Plus en détail

Calculs de probabilités conditionelles

Calculs de probabilités conditionelles Calculs de probabilités conditionelles Mathématiques Générales B Université de Genève Sylvain Sardy 20 mars 2008 1. Indépendance 1 Exemple : On lance deux pièces. Soit A l évènement la première est Pile

Plus en détail

Comparer l intérêt simple et l intérêt composé

Comparer l intérêt simple et l intérêt composé Comparer l intérêt simple et l intérêt composé Niveau 11 Dans la présente leçon, les élèves compareront divers instruments d épargne et de placement en calculant l intérêt simple et l intérêt composé.

Plus en détail

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration

Julien MATHEVET Alexandre BOISSY GSID 4. Rapport RE09. Load Balancing et migration Julien MATHEVET Alexandre BOISSY GSID 4 Rapport Load Balancing et migration Printemps 2001 SOMMAIRE INTRODUCTION... 3 SYNTHESE CONCERNANT LE LOAD BALANCING ET LA MIGRATION... 4 POURQUOI FAIRE DU LOAD BALANCING?...

Plus en détail

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses 6. Hachage Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses PLAN Définition Fonctions de Hachage Méthodes de résolution de collisions Estimation

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Master IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP

Master IMA - UMPC Paris 6 RDMM - Année 2009-2010 Fiche de TP Master IMA - UMPC Paris 6 RDMM - Année 2009-200 Fiche de TP Préliminaires. Récupérez l archive du logiciel de TP à partir du lien suivant : http://www.ensta.fr/~manzaner/cours/ima/tp2009.tar 2. Développez

Plus en détail

Optimisation, traitement d image et éclipse de Soleil

Optimisation, traitement d image et éclipse de Soleil Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

La nouvelle planification de l échantillonnage

La nouvelle planification de l échantillonnage La nouvelle planification de l échantillonnage Pierre-Arnaud Pendoli Division Sondages Plan de la présentation Rappel sur le Recensement de la population (RP) en continu Description de la base de sondage

Plus en détail

Introduction à l analyse numérique : exemple du cloud computing

Introduction à l analyse numérique : exemple du cloud computing Introduction à l analyse numérique : exemple du cloud computing Tony FEVRIER Aujourd hui! Table des matières 1 Equations aux dérivées partielles et modélisation Equation différentielle et modélisation

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

K. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre 2014 - Palaiseau

K. Ammar, F. Bachoc, JM. Martinez. Séminaire ARISTOTE - 23 octobre 2014 - Palaiseau Apport des modèles de krigeage à la simulation numérique K Ammar, F Bachoc, JM Martinez CEA-Saclay, DEN, DM2S, F-91191 Gif-sur-Yvette, France Séminaire ARISTOTE - 23 octobre 2014 - Palaiseau Apport des

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Chafa Azzedine - Faculté de Physique U.S.T.H.B 1

Chafa Azzedine - Faculté de Physique U.S.T.H.B 1 Chafa Azzedine - Faculté de Physique U.S.T.H.B 1 Définition: La cinématique est une branche de la mécanique qui étudie les mouements des corps dans l espace en fonction du temps indépendamment des causes

Plus en détail

Comparatif entre Matrox RT.X2 et Adobe Premiere Pro CS3 (logiciel seul)

Comparatif entre Matrox RT.X2 et Adobe Premiere Pro CS3 (logiciel seul) Comparatif entre et Adobe Premiere Pro CS3 (logiciel seul) offre la puissance de montage en temps réel et les outils de productivité supplémentaires dont vous avez besoin pour tirer pleinement parti d'adobe

Plus en détail

Le Futur de la Visualisation d Information. Jean-Daniel Fekete Projet in situ INRIA Futurs

Le Futur de la Visualisation d Information. Jean-Daniel Fekete Projet in situ INRIA Futurs Le Futur de la Visualisation d Information Jean-Daniel Fekete Projet in situ INRIA Futurs La visualisation d information 1.Présentation 2.Bilan 3.Perspectives Visualisation : 3 domaines Visualisation scientifique

Plus en détail

Une application des algorithmes génétiques à l ordonnancement d atelier

Une application des algorithmes génétiques à l ordonnancement d atelier Une application des algorithmes génétiques à l ordonnancement d atelier VACHER Jean-Philippe - GALINHO Thierry - MAMMERI Zoubir Laboratoire d Informatique du Havre Université du Havre 25, Rue Philippe

Plus en détail

RO04/TI07 - Optimisation non-linéaire

RO04/TI07 - Optimisation non-linéaire RO04/TI07 - Optimisation non-linéaire Stéphane Mottelet Université de Technologie de Compiègne Printemps 2003 I Motivations et notions fondamentales 4 I1 Motivations 5 I2 Formes quadratiques 13 I3 Rappels

Plus en détail

Objet du document. Version document : 1.00

Objet du document. Version document : 1.00 Version document : 1.00 Objet du document Les dix points de cet article constituent les règles à connaitre pour intégrer une application au sein d AppliDis. Le site des Experts Systancia comporte également

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

TD1 Signaux, énergie et puissance, signaux aléatoires

TD1 Signaux, énergie et puissance, signaux aléatoires TD1 Signaux, énergie et puissance, signaux aléatoires I ) Ecrire l'expression analytique des signaux représentés sur les figures suivantes à l'aide de signaux particuliers. Dans le cas du signal y(t) trouver

Plus en détail

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation

Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation Health Monitoring pour la Maintenance Prévisionnelle, Modélisation de la Dégradation Laurent Denis STATXPERT Journée technologique "Solutions de maintenance prévisionnelle adaptées à la production" FIGEAC,

Plus en détail

Enregistrement et transformation du son. S. Natkin Novembre 2001

Enregistrement et transformation du son. S. Natkin Novembre 2001 Enregistrement et transformation du son S. Natkin Novembre 2001 1 Éléments d acoustique 2 Dynamique de la puissance sonore 3 Acoustique géométrique: effets de diffusion et de diffraction des ondes sonores

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Vérification audiovisuelle de l identité

Vérification audiovisuelle de l identité Vérification audiovisuelle de l identité Rémi Landais, Hervé Bredin, Leila Zouari, et Gérard Chollet École Nationale Supérieure des Télécommunications, Département Traitement du Signal et des Images, Laboratoire

Plus en détail

Techniques d interaction dans la visualisation de l information Séminaire DIVA

Techniques d interaction dans la visualisation de l information Séminaire DIVA Techniques d interaction dans la visualisation de l information Séminaire DIVA Zingg Luca, luca.zingg@unifr.ch 13 février 2007 Résumé Le but de cet article est d avoir une vision globale des techniques

Plus en détail

APPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE

APPORT DES RESEAUX BAYESIENS DANS LA PREVENTION DE LA DELINQUANCE SûretéGlobale.Org La Guitonnière 49770 La Meignanne Téléphone : +33 241 777 886 Télécopie : +33 241 200 987 Portable : +33 6 83 01 01 80 Adresse de messagerie : c.courtois@sureteglobale.org APPORT DES

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Chapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping

Chapitre V : La gestion de la mémoire. Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping Chapitre V : La gestion de la mémoire Hiérarchie de mémoires Objectifs Méthodes d'allocation Simulation de mémoire virtuelle Le mapping Introduction Plusieurs dizaines de processus doivent se partager

Plus en détail

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et

Plus en détail

Résumé des communications des Intervenants

Résumé des communications des Intervenants Enseignements de la 1ere semaine (du 01 au 07 décembre 2014) I. Titre du cours : Introduction au calcul stochastique pour la finance Intervenante : Prof. M hamed EDDAHBI Dans le calcul différentiel dit

Plus en détail

BTS Groupement A. Mathématiques Session 2011. Spécialités CIRA, IRIS, Systèmes électroniques, TPIL

BTS Groupement A. Mathématiques Session 2011. Spécialités CIRA, IRIS, Systèmes électroniques, TPIL BTS Groupement A Mathématiques Session 11 Exercice 1 : 1 points Spécialités CIRA, IRIS, Systèmes électroniques, TPIL On considère un circuit composé d une résistance et d un condensateur représenté par

Plus en détail

ELEC2753 Electrotechnique examen du 11/06/2012

ELEC2753 Electrotechnique examen du 11/06/2012 ELEC2753 Electrotechnique examen du 11/06/2012 Pour faciliter la correction et la surveillance, merci de répondre aux 3 questions sur des feuilles différentes et d'écrire immédiatement votre nom sur toutes

Plus en détail