Apprentissage automatique Méthodes d échantillonnage - motivation

Dimension: px
Commencer à balayer dès la page:

Download "Apprentissage automatique Méthodes d échantillonnage - motivation"

Transcription

1 Apprentissage automatique Méthodes d échantillonnage - motivation

2 ÉCHANTILLONNAGE échantillonnage La plupart des algorithmes d apprentissage vus sont basés sur un modèle probabiliste un modèle probabiliste exprime comment on suppose que nos données ont été générées Comment simule-t-on ce processus de génération? on utilise un algorithme d échantillonnage tel que : probabilité de générer une donnée = probabilité assignée par le modèle 2

3 ÉCHANTILLONNAGE visualisation Pourquoi échantillonner? pour visualiser ce qui a été appris Salakhutdinov et Murray, 2008 Ensemble d entraînement Mélange de produits de Bernoulli 3

4 ÉCHANTILLONNAGE estimation d espérance, estimation Monte Carlo Pourquoi échantillonner? pour estimer une espérance E[f] = f(z)p(z) dz Un tel calcul d une espérance ainsi est appelé une estimation Monte Carlo 4

5 ÉCHANTILLONNAGE estimation d espérance, estimation Monte Carlo Pourquoi échantillonner? pour estimer une espérance L 1 E[f] = f(z)p(z) dz f(z (l) ) L l=1 z (l) échantillonnés de p(z) Un tel calcul d une espérance ainsi est appelé une estimation Monte Carlo 4

6 ÉCHANTILLONNAGE estimation de la loi prédictive a posteriori Pourquoi échantillonner? pour estimer la loi prédictive a posteriori p(t t, α, β) = p(t w, β)p(w t, α, β) dw 5

7 ÉCHANTILLONNAGE estimation de la loi prédictive a posteriori Pourquoi échantillonner? pour estimer la loi prédictive a posteriori p(t t, α, β) = p(t w, β)p(w t, α, β) dw LX 1 L p(t w (l), ) l=1 5 w (l) échantillonnés de p(w t,, )

8 ÉCHANTILLONNAGE estimation de la loi prédictive a posteriori Pourquoi échantillonner? pour approximer l étape M de l algorithme EM Q(θ, θ old ) = p(z X, θ old ) ln p(z, X θ) dz. 6

9 ÉCHANTILLONNAGE estimation de la loi prédictive a posteriori Pourquoi échantillonner? pour approximer l étape M de l algorithme EM Q(θ, θ old ) = p(z X, θ old ) ln p(z, X θ) dz. L ) 1 L ln p(z (l), X θ). l=1 {Z } Z (l) échantillonnés de 6 p(z X, θ old )

10 Apprentissage automatique Méthodes d échantillonnage - variable aléatoire discrète scalaire

11 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 8

12 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 8

13 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire Variable : Z {1,2,...,M} Algorithme 1. séparer l intervalle (0,1) en M intervalles, où le i e intervalle est de longueur p(z=i) et est associé à la valeur i 2. échantillonner un nombre x uniformément dans (0,1) 9 3. retourner l étiquette de l intervalle dans lequel x se trouve

14 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) =

15 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z=

16 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z= x =

17 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z= x =

18 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z=4 p(0.7 <x<0.8) x =

19 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z=4 retourne { p(0.7 <x<0.8) x =

20 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z=4 retourne { p(0.7 <x<0.8) = x = Z dx =0.1 10

21 Apprentissage automatique Méthodes d échantillonnage - variable aléatoire continue scalaire

22 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire RAPPEL d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 12

23 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire RAPPEL d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 12

24 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire Variable : Z I, fonction de densité p(z) et fonction de répartition Algorithme P (z) = Z z min(i) 1. échantillonner un nombre x uniformément dans (0,1) p(x)dx 2. retourner P -1 (x) 13

25 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire Variable : Z I, fonction de densité p(z) et fonction de répartition Algorithme P (z) = Z z min(i) 1. échantillonner un nombre x uniformément dans (0,1) p(x)dx 2. retourner P -1 (x) fonction réciproque de P(z) (inverse function) 13

26 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 h(y) P(z) p(z) p(y) 14 0 y z

27 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 x h(y) P(z) p(z) p(y) 14 0 y z

28 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 x h(y) P(z) p(z) p(y) 14 0 y z P -1 (x)

29 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 x h(y) P(z) p(z) p(y) 14 0 y z P -1 (x)

30 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 p(p 1 (X) apple z) x h(y) P(z) p(z) p(y) 14 0 y z P -1 (x)

31 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 p(p 1 (X) apple z) = p(x apple P (z)) x h(y) P(z) p(z) p(y) 14 0 y z P -1 (x)

32 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire x 1 p(z) p(y) h(y) P(z) p(p 1 (X) apple z) = p(x apple P (z)) = P (z) puisque X est uniforme dans (0,1) 14 0 y z P -1 (x)

33 Apprentissage automatique Méthodes d échantillonnage - vecteur aléatoire gaussien

34 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire RAPPEL d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 16

35 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire RAPPEL d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 16

36 ÉCHANTILLONNAGE DE BASE variable aléatoire gaussienne vectorielle Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire gaussienne vectorielle Variable : Z gaussienne, fonction de densité N (z µ, ) Algorithme 1. générer vecteur gaussien x de moyenne 0 et covariance I 2. calculer L telle que = LL T 3. retourner Lx + µ 17

37 ÉCHANTILLONNAGE DE BASE variable aléatoire gaussienne vectorielle Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire gaussienne vectorielle Génère de N (z µ, ) puisque transformation linéaire de variables gaussiennes est aussi gaussienne E[Lx + µ] =LE[x]+µ = µ cov[lx + µ] =Lcov[x]L T = LL T = 18

38 ÉCHANTILLONNAGE DE BASE variable aléatoire gaussienne vectorielle Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire gaussienne vectorielle Comment calculer L? décomposition de Cholesky (L est alors triangulaire inférieure) à partir de la décomposition en valeurs/vecteurs propres de : L = U 1 2 U T 19

39 Apprentissage automatique Méthodes d échantillonnage - méthode de rejet

40 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire RAPPEL d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 21

41 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage RAPPEL d une variable aléatoire discrète scalaire d une variable aléatoire continue scalaire Quoi faire lorsque ces méthodes d une variable aléatoire gaussienne vectorielle ne sont pas applicables? On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 21

42 EXEMPLE exemple de cas problématique Considérons le cas d une loi p(z) = 1 Z p p(z) où calculer Z p Cas spécifiques : est trop lourd, mais pas p(z) n orde loi a posteriori en apprentissage bayésien p(«modèle» «données») p(«données» «modèle») p(«modèle») probabilités p(z x) de modèles plus riche qu un mélange 22

43 MÉTHODE DE REJET méthode de rejet, proposal distribution Supposons qu on ait une loi q(z) telle que pour une certaine valuer de k kq(z) p(z) nction and is ill kq(z 0 ) kq(z) q(z) est appelée loi instrumentale (proposal distribution) Méthode de rejet 1. échantillonner z 0 de q(z) 2. échantillonner u 0 uniformément entre 0 et kq(z 0 ) z 0 u 0 p(z) z 3. si u 0 < p(z), alors retourner z 0 d is ill 4. sinon, revenir à l étape 1. 23

44 MÉTHODE DE REJET méthode de rejet La loi q(z) doit être non nulle pour chaque valeur de z telle que p(z) est non nulle Si q(z) ne donne pas une borne serrée, cette méthode peut être très inefficace Trouver q(z) qui satisfait la condition pas toujours facile kq(z) p(z) nction and is ill il est parfois possible de construire q(z) de façon automatique (voir section ) n est 24

45 Apprentissage automatique Méthodes d échantillonnage - échantillonnage préférentiel

46 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage RAPPEL d une variable aléatoire discrète scalaire d une variable aléatoire continue scalaire Quoi faire lorsque ces méthodes d une variable aléatoire gaussienne vectorielle ne sont pas applicables? On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 26

47 MÉTHODE DE REJET méthode de rejet, proposal distribution Supposons qu on ait une loi q(z) telle que pour une certaine valuer de k kq(z) p(z) nction and is ill q(z) est appelée loi instrumentale (proposal distribution) kq(z 0 ) RAPPEL kq(z) Méthode de rejet 1. échantillonner z 0 de q(z) 2. échantillonner u 0 uniformément entre 0 et kq(z 0 ) z 0 u 0 p(z) z 3. si u 0 < p(z), alors retourner z 0 d is ill 4. sinon, revenir à l étape 1. 27

48 ÉCHANTILLONNAGE estimation d espérance, estimation Monte Carlo Pourquoi échantillonner d un modèle? pour estimer une espérance E[f] = f(z)p(z) dz 1 L L f(z (l) ) l=1 RAPPEL z (l) échantillonnés de p(z) Un tel calcul d une espérance ainsi est appelé une estimation Monte Carlo 28

49 ÉCHANTILLONNAGE PRÉFÉRENTIEL échantillonnage préférentiel, importance weights Pourquoi échantillonner d un modèle? pour estimer une espérance E[f] = f(z)p(z) dz = f(z) p(z) q(z) q(z) dz 29 1 L L l=1 p(z (l) ) q(z (l) ) f(z(l) ).

50 ÉCHANTILLONNAGE PRÉFÉRENTIEL échantillonnage préférentiel, importance weights Pourquoi échantillonner d un modèle? pour estimer une espérance E[f] = = f(z)p(z) dz f(z) p(z) q(z) q(z) dz Importance weights : w l r l = p(z (l) )/q(z (l) ) ntroduced by samplin L 1 L p(z (l) ) 29 l=1 w l q(z (l) ) f(z(l) ).

51 ÉCHANTILLONNAGE PRÉFÉRENTIEL échantillonnage préférentiel, importance sampling Supposons qu on ait une loi q(z) (proposal distribution) Échantillonnage préférentiel 1. échantillonner L fois de q(z), pour obtenir z (1),..., z (L) 2. calculer les L poids w 1,..., w L retourner w l r l = p(z (l) )/q(z (l) ) ntroduced by samplin LX 1 w l f(z l ) L l=1

52 ÉCHANTILLONNAGE PRÉFÉRENTIEL échantillonnage préférentiel, importance sampling Comme pour la méthode de rejet, le succès de cette méthode dépend de la proximité entre q(z) et p(z) Dans le cas où suivants : p(z) = 1 Z p ep(z), on peut utiliser les poids w l = L p(z (l) )/q(z (l) ) m p(z(m) )/q(z (m) ). 31

53 Apprentissage automatique Méthodes d échantillonnage - Metropolis-Hastings

54 MÉTHODE DE REJET méthode de rejet, proposal distribution Supposons qu on ait une loi q(z) telle que pour une certaine valuer de k kq(z) p(z) nction and is ill q(z) est appelée loi instrumentale (proposal distribution) kq(z 0 ) RAPPEL kq(z) Méthode de rejet 1. échantillonner z 0 de q(z) 2. échantillonner u 0 uniformément entre 0 et kq(z 0 ) z 0 u 0 p(z) z 3. si u 0 < p(z), alors retourner z 0 d is ill 4. sinon, revenir à l étape 1. 33

55 MÉTHODE DE REJET méthode de rejet, proposal distribution Supposons qu on ait une loi q(z) telle que pour une certaine valuer de k kq(z) p(z) nction and is ill kq(z 0 ) RAPPEL kq(z) q(z) est appelée loi instrumentale (proposal distribution) Fonctionne souvent mal en haute Méthode de rejet dimension, puisque passe son temps à 1. échantillonner z 0 de q(z) rejeter les propositions z 0 2. échantillonner u 0 uniformément entre 0 et kq(z 0 ) z 0 u 0 p(z) z 3. si u 0 < p(z), alors retourner z 0 d is ill 4. sinon, revenir à l étape 1. 33

56 MONTE CARLO PAR CHAÎNES DE MARKOV MCMC On aimerait que l algorithme tire profit de ses «bons coups» lorsqu il trouve un bon échantillon z 0, on pourrait l utiliser pour tirer notre prochain échantillon (p. ex. un échantillon «proche») Spécifiquement, on pourrait tirer les z (1),..., z (L) en chaîne z (1) z (2) z (3)... z (L) la séquence z (1),..., z (L) est donc définie par une chaîne de Markov C est ce qu on appelle une méthode Monte Carlo par Chaînes de Markov (MCMC) 34

57 METROPOLIS-HASTINGS Metropolis-Hastings, probabilité d acceptation Supposons qu on ait une loi q(z (l) z (l-1) ) dernier échantillon généré Metropolis-Hastings 1. échantillonner un proposition z * de q(z (l) z (l-1) ) 2. avec probabilité d acceptation A(z, z (l 1) ep(z )q(z (l 1) z ) )=min 1, ep(z (l 1) )q(z z (l 1) ) assigner z (l) z *, sinon z (l) z (l-1) 3. retourner z (l) 35

58 METROPOLIS-HASTINGS Metropolis-Hastings, probabilité d acceptation Supposons qu on ait une loi q(z (l) z (l-1) ) dernier échantillon généré Metropolis-Hastings 1. échantillonner un proposition z * de q(z (l) z (l-1) ) 2. avec probabilité d acceptation A(z, z (l 1) ep(z )q(z (l 1) z ) )=min 1, ep(z (l 1) )q(z z (l 1) ) Se simplifie s il y a symétrie : q(z (l) z (l-1) ) = q(z (l-1) z (l) ) assigner z (l) z *, sinon z (l) z (l-1) 3. retourner z (l) 35

59 METROPOLIS-HASTINGS Metropolis-Hastings, probabilité d acceptation Le choix de la loi de proposition q(z (l) z (l-1) ) est important une condition suffisante pour que l échantillonnage soit valide est que la probabilité de proposer toute valeur légale de z soit non nulle sous q(z (l) z (l-1) ) Un choix courant de q(z (l) z (l-1) ) est de prendre une gaussienne centrée en z (l-1) une petite covariance impliquera des déplacements lents une grande covariance impliquera des risques de ne pas accepter souvent 36

60 METROPOLIS-HASTINGS Metropolis-Hastings Exemple : propositions acceptées propositions rejetées

61 Apprentissage automatique Méthodes d échantillonnage - échantillonnage de Gibbs

62 MONTE CARLO PAR CHAÎNES DE MARKOV MCMC On aimerait que l algorithme tire profit de ses «bons coups» RAPPEL lorsqu il trouve un bon échantillon z 0, on pourrait l utiliser pour tirer notre prochain échantillon (p. ex. un échantillon «proche») Spécifiquement, on pourrait tirer les z (1),..., z (L) en chaîne z (1) z (2) z (3)... z (L) la séquence z (1),..., z (L) est donc définie par une chaîne de Markov C est ce qu on appelle une méthode Monte Carlo par Chaînes de Markov (MCMC) 39

63 METROPOLIS-HASTINGS Metropolis-Hastings, probabilité d acceptation Supposons qu on ait une loi q(z (l) z (l-1) ) dernier échantillon généré RAPPEL Metropolis-Hastings 1. échantillonner un proposition z * de q(z (l) z (l-1) ) 2. avec probabilité d acceptation A(z, z (l 1) ep(z )q(z (l 1) z ) )=min 1, ep(z (l 1) )q(z z (l 1) ) assigner z (l) z *, sinon z (l) z (l-1) 3. retourner z (l) 40

64 METROPOLIS-HASTINGS Metropolis-Hastings, probabilité d acceptation Supposons qu on ait une loi q(z (l) z (l-1) ) dernier échantillon généré RAPPEL Metropolis-Hastings 1. échantillonner un proposition z * de q(z (l) z (l-1) ) 2. avec probabilité d acceptation A(z, z (l 1) )=min 1, assigner z (l) z *, sinon z (l) z (l-1) 3. retourner z (l) Peut-on éviter d avoir à fournir une loi q(z l z l-1 )? ep(z )q(z (l 1) z ) ep(z (l 1) )q(z z (l 1) ) 40

65 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Échantillonnage de Gibbs 1. assigner z (l) z (l-1) 2. choisir k aléatoirement parmi {1,..., D} 3. remplacer z k (l) par un échantillon de p(z (l) k z(l) 1,...,z(l) k 1,z(l) k+1,...,z(l) D ) 4. retourner z (l) 41

66 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Échantillonnage de Gibbs 1. assigner z (l) z (l-1) 2. choisir k aléatoirement parmi {1,..., D} 3. remplacer z k (l) par un échantillon de 4. retourner z (l) p(z (l) k z \k (l) : tout le vecteur z (l) sans la k e composante { z(l) 1,...,z(l) k 1,z(l) k+1,...,z(l) D ) 41

67 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Équivaut au Metropolis-Hastings, mais dont la loi instrumentale est telle qu on accepte toujours p(z )q(z (l 1) z ) p(z p(z (l 1) )q(z z (l 1) ) = k z \k )p(z \k )p(z (l 1) z k \k ) (l 1) (l 1) (l 1) p(z z )p(z )p(z k \k \k k z(l 1) \k ) 42

68 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Équivaut au Metropolis-Hastings, mais dont la loi instrumentale est telle qu on accepte toujours p(z )q(z (l 1) z ) p(z p(z (l 1) )q(z z (l 1) ) = k z \k )p(z \k )p(z (l 1) z k \k ) (l 1) (l 1) (l 1) p(z z )p(z )p(z k \k \k k z(l 1) \k ) (l 1) z = z \k \k 42

69 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Équivaut au Metropolis-Hastings, mais dont la loi instrumentale est telle qu on accepte toujours p(z )q(z (l 1) z ) p(z p(z (l 1) )q(z z (l 1) ) = k z \k )p(z \k )p(z (l 1) z k \k ) (l 1) (l 1) (l 1) p(z z z )p(z k z )p(z \k \k \k k z \k \k z(l 1) \k ) (l 1) z = z \k \k 42

70 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Équivaut au Metropolis-Hastings, mais dont la loi instrumentale est telle qu on accepte toujours p(z )q(z (l 1) z ) p(z p(z (l 1) )q(z z (l 1) ) = k z \k )p(z \k )p(z (l 1) z k \k ) (l 1) (l 1) (l 1) p(z z z )p(z k z )p(z \k \k \k k z \k \k z(l 1) \k ) (l 1) z = z \k \k = 1 42

71 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Exemple : z 2 L l z 1 43

72 ÉCHANTILLONNAGE DE GIBBS version cyclique Échantillonnage de Gibbs cyclique 1. assigner z (l) z (l-1) 2. pour k de 1 à D - remplacer z k (l) par un échantillon de p(z (l) k z(l) 1,...,z(l) k 1,z(l) k+1,...,z(l) D ) 3. retourner z (l) Permet de réduire la corrélation entre les z (l) L ordre de remplacement des z k (l) n est pas important 44

73 Apprentissage automatique Méthodes d échantillonnage - résumé

74 ÉCHANTILLONNAGE estimation d espérance, estimation Monte Carlo Pourquoi échantillonner d un modèle? pour estimer une espérance E[f] = f(z)p(z) dz 1 L L f(z (l) ) l=1 RAPPEL z (l) échantillonnés de p(z) Un tel calcul d une espérance ainsi est appelé une estimation Monte Carlo 46

75 ÉCHANTILLONNAGE DE BASE méthodes de base Méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle Dans ces cas, on est garanti d obtenir des échantillons de qualité, en un temps bien déterminé 47

76 MÉTHODE DE REJET méthode de rejet Si les méthodes de base ne sont pas applicables à p(z) : Méthode de rejet : doit fournir une loi instrumentale (proposal distribution) q(z) si la loi q(z) n est pas proche de p(z), on peut attendre longtemps avant d avoir un échantillon (particulièrement en haute dimension) 48

77 ÉCHANTILLONNAGE PRÉFÉRENTIEL échantillonnage préférentiel Si les méthodes de base ne sont pas applicables à p(z) : Échantillonnage préférentiel doit fournir une loi instrumentale (proposal distribution) q(z) meilleur que la méthode de rejet pour l estimation Monte Carlo permet seulement d approximer une somme (ne donne pas des échantillons de p(z)) si la loi q(z) n est pas proche de p(z), l approximation peut être très mauvaise (particulièrement en haute dimension) 49

78 METROPOLIS-HASTINGS Metropolis-Hastings Si les méthodes de base ne sont pas applicables à p(z) : Métropolis-Hastings méthode MCMC nécessite seulement une loi instrumentale conditionnelle q(z (l) z (l-1) ) donne une séquence d échantillons qui sont corrélés (ne peut pas les traiter comme des échantillons indépendants) 50

79 ÉCHANTILLONNAGE DE GIBBS Échantillonnage de Gibbs Si les méthodes de base ne sont pas applicables à p(z) : Échantillonnage de Gibbs méthode MCMC ne nécessite pas de loi instrumentale nécessite que les conditionnelles soient calculables p(z (l) k z(l) 1,...,z(l) k 1,z(l) k+1,...,z(l) D ) donne une séquence d échantillons qui sont corrélés (ne peut pas les traiter comme des échantillons indépendants) 51

80 METROPOLIS-HASTINGS Metropolis-Hastings Toutes les méthodes MCMC génèrent des échantillons corrélés pour réduire la corrélation, on collecte seulement tous les M échantillons (p. ex. M=100) on ignore également les premiers échantillons générés (période de burn-in) Pour en savoir plus sur les propriétés que doivent satisfaire les méthodes MCMC : voir section

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

MCMC et approximations en champ moyen pour les modèles de Markov

MCMC et approximations en champ moyen pour les modèles de Markov MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Modélisation et simulation

Modélisation et simulation Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Raisonnement probabiliste

Raisonnement probabiliste Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte

Plus en détail

Cours de méthodes de scoring

Cours de méthodes de scoring UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses

6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses 6. Hachage Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses PLAN Définition Fonctions de Hachage Méthodes de résolution de collisions Estimation

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Modèles à Événements Discrets. Réseaux de Petri Stochastiques Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage Journées de Méthodologie Statistique Eric Lesage Crest-Ensai 25 janvier 2012 Introduction et contexte 2/27 1 Introduction

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Résolution de systèmes linéaires par des méthodes directes

Résolution de systèmes linéaires par des méthodes directes Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

ISAN System: 5 Œuvre à épisodes ou en plusieurs parties

ISAN System: 5 Œuvre à épisodes ou en plusieurs parties sm: 5 Œ à épsds pss ps Wb f B Rs s: E b W B bs d mdè Vs j www.sb. B ss Psfh B 7 T. +4 5 Fx +4 7 EM: f@sb. www.sb. B ss Psfh B 7 T. +4 5 Fx +4 7 EM: f@sb. wzd 5 Œ à épsds pss ps mm: TRODUTO DEMRE. OEXO.

Plus en détail

Soutenance de stage Laboratoire des Signaux et Systèmes

Soutenance de stage Laboratoire des Signaux et Systèmes Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Théorie de l estimation et de la décision statistique

Théorie de l estimation et de la décision statistique Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

Optimisation Discrète

Optimisation Discrète Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

ILT. Interfacultair Instituut voor Levende Talen. T@@lvaardig. Actes de communication. Serge Verlinde Evelyn Goris. Katholieke Universiteit Leuven

ILT. Interfacultair Instituut voor Levende Talen. T@@lvaardig. Actes de communication. Serge Verlinde Evelyn Goris. Katholieke Universiteit Leuven IL If I L S V Ey G Khk U L 13/02/02 pé? xp qé xp pz à pz p héhq pé p à q z p à p héhq fé à p à q pz xp q 'p (è) f, '-à- p. x. ' é ff. N xp à py qq' q z b ( f) P xp pô pp L p - pé pz ': z qq', q -? Bj,

Plus en détail

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m

= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m 1 épartement de Physique, Université Laval, Québec Pierre Amiot, 1. La fonction delta et certaines de ses utilisations. Clientèle Ce texte est destiné aux physiciens, ingénieurs et autres scientifiques.

Plus en détail

IFT3245. Simulation et modèles

IFT3245. Simulation et modèles IFT 3245 Simulation et modèles DIRO Université de Montréal Automne 2012 Tests statistiques L étude des propriétés théoriques d un générateur ne suffit; il estindispensable de recourir à des tests statistiques

Plus en détail

PRÉCIS DE SIMULATION

PRÉCIS DE SIMULATION PRÉCIS DE SIMULATION P. Del Moral Centre INRIA Bordeaux Sud-Ouest & Institut de Mathématiques de Bordeaux Université Bordeaux I, 351, cours de la Libération 33405 Talence, France Table des matières 1

Plus en détail

Techniques d interaction dans la visualisation de l information Séminaire DIVA

Techniques d interaction dans la visualisation de l information Séminaire DIVA Techniques d interaction dans la visualisation de l information Séminaire DIVA Zingg Luca, luca.zingg@unifr.ch 13 février 2007 Résumé Le but de cet article est d avoir une vision globale des techniques

Plus en détail

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION

TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun

Plus en détail

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur

Plus en détail

Guidance de Statistique : Epreuve de préparation à l examen

Guidance de Statistique : Epreuve de préparation à l examen Guidance de Statistique : Epreuve de préparation à l examen Durée totale : 90 min (1h30) 5 questions de pratique (12 pts) 20 décembre 2011 Matériel Feuilles de papier De quoi écrire Calculatrice Latte

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction

Chapitre 3. Algorithmes stochastiques. 3.1 Introduction Chapitre 3 Algorithmes stochastiques 3.1 Introduction Les algorithmes stochastiques sont des techniques de simulation numériques de chaînes de Markov, visant à résoudre des problèmes d optimisation ou

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Pourquoi l apprentissage?

Pourquoi l apprentissage? Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

MODELES DE DUREE DE VIE

MODELES DE DUREE DE VIE MODELES DE DUREE DE VIE Cours 1 : Introduction I- Contexte et définitions II- Les données III- Caractéristiques d intérêt IV- Evènements non renouvelables/renouvelables (unique/répété) I- Contexte et définitions

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Principe de symétrisation pour la construction d un test adaptatif

Principe de symétrisation pour la construction d un test adaptatif Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R

Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R Yves Aragon, David Haziza & Anne Ruiz-Gazen GREMAQ, UMR CNRS 5604, Université des Sciences

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

CRYPTOGRAPHIE. Signature électronique. E. Bresson. Emmanuel.Bresson@sgdn.gouv.fr. SGDN/DCSSI Laboratoire de cryptographie

CRYPTOGRAPHIE. Signature électronique. E. Bresson. Emmanuel.Bresson@sgdn.gouv.fr. SGDN/DCSSI Laboratoire de cryptographie CRYPTOGRAPHIE Signature électronique E. Bresson SGDN/DCSSI Laboratoire de cryptographie Emmanuel.Bresson@sgdn.gouv.fr I. SIGNATURE ÉLECTRONIQUE I.1. GÉNÉRALITÉS Organisation de la section «GÉNÉRALITÉS»

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :

L analyse d images regroupe plusieurs disciplines que l on classe en deux catégories : La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.

Plus en détail

VARIABLES LATENTES ET MODÉLISATION STATISTIQUE EN ASSURANCE

VARIABLES LATENTES ET MODÉLISATION STATISTIQUE EN ASSURANCE VARIABLES LATENTES ET MODÉLISATION STATISTIQUE EN ASSURANCE A. MONFORT CNAM et CREST-INSEE 1 1. INTRODUCTION. Les variables latentes, ou inobservables, jouent un rôle de plus en plus important dans la

Plus en détail

OM 1 Outils mathématiques : fonction de plusieurs variables

OM 1 Outils mathématiques : fonction de plusieurs variables Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.

Plus en détail

Produits de crédit en portefeuille

Produits de crédit en portefeuille Chapitre 6 Produits de crédit en portefeuille et défauts corrélés Dans ce chapitre, on étudie des produits financiers de crédit en portfeuille, notamment k th -to-default swap et CDOs (voir 1.2 pour une

Plus en détail

Simulation : application au système bonus-malus en responsabilité civile automobile

Simulation : application au système bonus-malus en responsabilité civile automobile Simulation : application au système bonus-malus en responsabilité civile automobile Robert Langmeier Travail de séminaire réalisé sous la supervision du professeur François Dufresne Ecole des HEC Université

Plus en détail

Probabilités avancées. Florin Avram

Probabilités avancées. Florin Avram Probabilités avancées Florin Avram 24 janvier 2014 Table des matières 1 Mise en scène discrète 3 1.1 Espace des épreuves/résultats possibles, événements, espace probabilisé, mesure de probabilités, variables

Plus en détail

L E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun

L E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun 9 L E Ç O N Marches aléatoires Niveau : Terminale S Prérequis : aucun 1 Chaînes de Markov Définition 9.1 Chaîne de Markov I Une chaîne de Markov est une suite de variables aléatoires (X n, n N) qui permet

Plus en détail

La simulation probabiliste avec Excel

La simulation probabiliste avec Excel La simulation probabiliste avec Ecel (2 e version) Emmanuel Grenier emmanuel.grenier@isab.fr Relu par Kathy Chapelain et Henry P. Aubert Incontournable lorsqu il s agit de gérer des phénomènes aléatoires

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

LES TYPES DE DONNÉES DU LANGAGE PASCAL

LES TYPES DE DONNÉES DU LANGAGE PASCAL LES TYPES DE DONNÉES DU LANGAGE PASCAL 75 LES TYPES DE DONNÉES DU LANGAGE PASCAL CHAPITRE 4 OBJECTIFS PRÉSENTER LES NOTIONS D ÉTIQUETTE, DE CONS- TANTE ET DE IABLE DANS LE CONTEXTE DU LAN- GAGE PASCAL.

Plus en détail

Cours de mathématiques

Cours de mathématiques DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................

Plus en détail

Les travaux doivent être remis sous forme papier.

Les travaux doivent être remis sous forme papier. Physique mathématique II Calendrier: Date Pondération/note nale Matériel couvert ExercicesSérie 1 : 25 septembre 2014 5% RH&B: Ch. 3 ExercicesSérie 2 : 23 octobre 2014 5% RH&B: Ch. 12-13 Examen 1 : 24

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Echantillonnage Non uniforme

Echantillonnage Non uniforme Echantillonnage Non uniforme Marie CHABERT IRIT/INP-ENSEEIHT/ ENSEEIHT/TéSASA Patrice MICHEL et Bernard LACAZE TéSA 1 Plan Introduction Echantillonnage uniforme Echantillonnage irrégulier Comparaison Cas

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

I Stabilité, Commandabilité et Observabilité 11. 1 Introduction 13 1.1 Un exemple emprunté à la robotique... 13 1.2 Le plan... 18 1.3 Problème...

I Stabilité, Commandabilité et Observabilité 11. 1 Introduction 13 1.1 Un exemple emprunté à la robotique... 13 1.2 Le plan... 18 1.3 Problème... TABLE DES MATIÈRES 5 Table des matières I Stabilité, Commandabilité et Observabilité 11 1 Introduction 13 1.1 Un exemple emprunté à la robotique................... 13 1.2 Le plan...................................

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

TABLE DES MATIÈRES. PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats. Pierre Dagnelie

TABLE DES MATIÈRES. PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats. Pierre Dagnelie PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats Pierre Dagnelie TABLE DES MATIÈRES 2012 Presses agronomiques de Gembloux pressesagro.gembloux@ulg.ac.be www.pressesagro.be

Plus en détail

IFT3355: Infographie Sujet 6: shading 7 (illumination globale 4)

IFT3355: Infographie Sujet 6: shading 7 (illumination globale 4) IFT3355: Infographie Sujet 6: shading 7 (illumination globale 4) Derek Nowrouzezahrai Département d informatique et de recherche opérationelle Université de Montréal Ambient Occlusion expériment numérique

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Introduction : Les modes de fonctionnement du transistor bipolaire. Dans tous les cas, le transistor bipolaire est commandé par le courant I B.

Introduction : Les modes de fonctionnement du transistor bipolaire. Dans tous les cas, le transistor bipolaire est commandé par le courant I B. Introduction : Les modes de fonctionnement du transistor bipolaire. Dans tous les cas, le transistor bipolaire est commandé par le courant. - Le régime linéaire. Le courant collecteur est proportionnel

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien

Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien Denis Cousineau Sous la direction de Roberto di Cosmo Juin 2005 1 Table des matières 1 Présentation

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Equation LIDAR : exp 2 Equation RADAR :

Equation LIDAR : exp 2 Equation RADAR : Contexte scientifique Systèmes LIDAR/RADAR Equation LIDAR : exp Equation RADAR : p (r) : puissance rétrodiffusée r : altitude ou profondeur. C : constante instrumentale. β : coefficient de rétrodiffusion

Plus en détail

Chapitre 2. Eléments pour comprendre un énoncé

Chapitre 2. Eléments pour comprendre un énoncé Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

CALCUL DES PROBABILITES

CALCUL DES PROBABILITES CALCUL DES PROBABILITES Exemple On lance une pièce de monnaie une fois. Ensemble des événements élémentaires: E = pile, face. La chance pour obtenir pile vaut 50 %, pour obtenir face vaut aussi 50 %. Les

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

Introduction au maillage pour le calcul scientifique

Introduction au maillage pour le calcul scientifique Introduction au maillage pour le calcul scientifique CEA DAM Île-de-France, Bruyères-le-Châtel franck.ledoux@cea.fr Présentation adaptée du tutorial de Steve Owen, Sandia National Laboratories, Albuquerque,

Plus en détail

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos olivier.bos@u-paris2.fr

Plus en détail

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette Compression et Transmission des Signaux Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette 1 De Shannon à Mac Donalds Mac Donalds 1955 Claude Elwood Shannon 1916 2001 Monsieur X 1951 2 Où

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

Probabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1

Probabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1 Introduction Probabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1 L auteur remercie Mme Sylvie Gervais, Ph.D., maître

Plus en détail

BAREME sur 40 points. Informatique - session 2 - Master de psychologie 2006/2007

BAREME sur 40 points. Informatique - session 2 - Master de psychologie 2006/2007 BAREME ur 40 point Informatique - eion 2 - Mater de pychologie 2006/2007 Bae de donnée PRET de MATERIEL AUDIO VISUEL. Remarque : Le ujet comporte 7 page. Vérifier qu il et complet avant de commencer. Une

Plus en détail

Quantification des Risques

Quantification des Risques Quantification des Risques Comment considérer les aléas dans une projection financière? PragmaRisk met à disposition des solutions et des méthodes permettant de considérer les aléas dans vos projections

Plus en détail

Big Data et Graphes : Quelques pistes de recherche

Big Data et Graphes : Quelques pistes de recherche Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci http://liris.cnrs.fr/hamamache.kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de

Plus en détail

Circuits RL et RC. Chapitre 5. 5.1 Inductance

Circuits RL et RC. Chapitre 5. 5.1 Inductance Chapitre 5 Circuits RL et RC Ce chapitre présente les deux autres éléments linéaires des circuits électriques : l inductance et la capacitance. On verra le comportement de ces deux éléments, et ensuite

Plus en détail

Big Data et Graphes : Quelques pistes de recherche

Big Data et Graphes : Quelques pistes de recherche Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université

Plus en détail

Encryptions, compression et partitionnement des données

Encryptions, compression et partitionnement des données Encryptions, compression et partitionnement des données Version 1.0 Grégory CASANOVA 2 Compression, encryption et partitionnement des données Sommaire 1 Introduction... 3 2 Encryption transparente des

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Cours 7 : Utilisation de modules sous python

Cours 7 : Utilisation de modules sous python Cours 7 : Utilisation de modules sous python 2013/2014 Utilisation d un module Importer un module Exemple : le module random Importer un module Exemple : le module random Importer un module Un module est

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. david.madore@enst.fr. 29 mai 2015

Journées Télécom-UPS «Le numérique pour tous» David A. Madore. david.madore@enst.fr. 29 mai 2015 et et Journées Télécom-UPS «Le numérique pour tous» David A. Madore Télécom ParisTech david.madore@enst.fr 29 mai 2015 1/31 et 2/31 : définition Un réseau de R m est un sous-groupe (additif) discret L

Plus en détail

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples, Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très

Plus en détail