Apprentissage automatique Méthodes d échantillonnage - motivation
|
|
- Théodore Dumont
- il y a 6 ans
- Total affichages :
Transcription
1 Apprentissage automatique Méthodes d échantillonnage - motivation
2 ÉCHANTILLONNAGE échantillonnage La plupart des algorithmes d apprentissage vus sont basés sur un modèle probabiliste un modèle probabiliste exprime comment on suppose que nos données ont été générées Comment simule-t-on ce processus de génération? on utilise un algorithme d échantillonnage tel que : probabilité de générer une donnée = probabilité assignée par le modèle 2
3 ÉCHANTILLONNAGE visualisation Pourquoi échantillonner? pour visualiser ce qui a été appris Salakhutdinov et Murray, 2008 Ensemble d entraînement Mélange de produits de Bernoulli 3
4 ÉCHANTILLONNAGE estimation d espérance, estimation Monte Carlo Pourquoi échantillonner? pour estimer une espérance E[f] = f(z)p(z) dz Un tel calcul d une espérance ainsi est appelé une estimation Monte Carlo 4
5 ÉCHANTILLONNAGE estimation d espérance, estimation Monte Carlo Pourquoi échantillonner? pour estimer une espérance L 1 E[f] = f(z)p(z) dz f(z (l) ) L l=1 z (l) échantillonnés de p(z) Un tel calcul d une espérance ainsi est appelé une estimation Monte Carlo 4
6 ÉCHANTILLONNAGE estimation de la loi prédictive a posteriori Pourquoi échantillonner? pour estimer la loi prédictive a posteriori p(t t, α, β) = p(t w, β)p(w t, α, β) dw 5
7 ÉCHANTILLONNAGE estimation de la loi prédictive a posteriori Pourquoi échantillonner? pour estimer la loi prédictive a posteriori p(t t, α, β) = p(t w, β)p(w t, α, β) dw LX 1 L p(t w (l), ) l=1 5 w (l) échantillonnés de p(w t,, )
8 ÉCHANTILLONNAGE estimation de la loi prédictive a posteriori Pourquoi échantillonner? pour approximer l étape M de l algorithme EM Q(θ, θ old ) = p(z X, θ old ) ln p(z, X θ) dz. 6
9 ÉCHANTILLONNAGE estimation de la loi prédictive a posteriori Pourquoi échantillonner? pour approximer l étape M de l algorithme EM Q(θ, θ old ) = p(z X, θ old ) ln p(z, X θ) dz. L ) 1 L ln p(z (l), X θ). l=1 {Z } Z (l) échantillonnés de 6 p(z X, θ old )
10 Apprentissage automatique Méthodes d échantillonnage - variable aléatoire discrète scalaire
11 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 8
12 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 8
13 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire Variable : Z {1,2,...,M} Algorithme 1. séparer l intervalle (0,1) en M intervalles, où le i e intervalle est de longueur p(z=i) et est associé à la valeur i 2. échantillonner un nombre x uniformément dans (0,1) 9 3. retourner l étiquette de l intervalle dans lequel x se trouve
14 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) =
15 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z=
16 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z= x =
17 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z= x =
18 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z=4 p(0.7 <x<0.8) x =
19 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z=4 retourne { p(0.7 <x<0.8) x =
20 ÉCHANTILLONNAGE DE BASE variable aléatoire discrète scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire p(z=1) = 0.4 p(z=2) = 0.3 p(z=3) = 0.1 p(z=4) = 0.2 Z=1 Z=2 Z=3 Z=4 retourne { p(0.7 <x<0.8) = x = Z dx =0.1 10
21 Apprentissage automatique Méthodes d échantillonnage - variable aléatoire continue scalaire
22 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire RAPPEL d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 12
23 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire RAPPEL d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 12
24 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire Variable : Z I, fonction de densité p(z) et fonction de répartition Algorithme P (z) = Z z min(i) 1. échantillonner un nombre x uniformément dans (0,1) p(x)dx 2. retourner P -1 (x) 13
25 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire Variable : Z I, fonction de densité p(z) et fonction de répartition Algorithme P (z) = Z z min(i) 1. échantillonner un nombre x uniformément dans (0,1) p(x)dx 2. retourner P -1 (x) fonction réciproque de P(z) (inverse function) 13
26 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 h(y) P(z) p(z) p(y) 14 0 y z
27 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 x h(y) P(z) p(z) p(y) 14 0 y z
28 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 x h(y) P(z) p(z) p(y) 14 0 y z P -1 (x)
29 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 x h(y) P(z) p(z) p(y) 14 0 y z P -1 (x)
30 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 p(p 1 (X) apple z) x h(y) P(z) p(z) p(y) 14 0 y z P -1 (x)
31 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire 1 p(p 1 (X) apple z) = p(x apple P (z)) x h(y) P(z) p(z) p(y) 14 0 y z P -1 (x)
32 ÉCHANTILLONNAGE DE BASE variable aléatoire continue scalaire Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire continue scalaire x 1 p(z) p(y) h(y) P(z) p(p 1 (X) apple z) = p(x apple P (z)) = P (z) puisque X est uniforme dans (0,1) 14 0 y z P -1 (x)
33 Apprentissage automatique Méthodes d échantillonnage - vecteur aléatoire gaussien
34 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire RAPPEL d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 16
35 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire RAPPEL d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 16
36 ÉCHANTILLONNAGE DE BASE variable aléatoire gaussienne vectorielle Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire gaussienne vectorielle Variable : Z gaussienne, fonction de densité N (z µ, ) Algorithme 1. générer vecteur gaussien x de moyenne 0 et covariance I 2. calculer L telle que = LL T 3. retourner Lx + µ 17
37 ÉCHANTILLONNAGE DE BASE variable aléatoire gaussienne vectorielle Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire gaussienne vectorielle Génère de N (z µ, ) puisque transformation linéaire de variables gaussiennes est aussi gaussienne E[Lx + µ] =LE[x]+µ = µ cov[lx + µ] =Lcov[x]L T = LL T = 18
38 ÉCHANTILLONNAGE DE BASE variable aléatoire gaussienne vectorielle Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire gaussienne vectorielle Comment calculer L? décomposition de Cholesky (L est alors triangulaire inférieure) à partir de la décomposition en valeurs/vecteurs propres de : L = U 1 2 U T 19
39 Apprentissage automatique Méthodes d échantillonnage - méthode de rejet
40 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire RAPPEL d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 21
41 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage RAPPEL d une variable aléatoire discrète scalaire d une variable aléatoire continue scalaire Quoi faire lorsque ces méthodes d une variable aléatoire gaussienne vectorielle ne sont pas applicables? On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 21
42 EXEMPLE exemple de cas problématique Considérons le cas d une loi p(z) = 1 Z p p(z) où calculer Z p Cas spécifiques : est trop lourd, mais pas p(z) n orde loi a posteriori en apprentissage bayésien p(«modèle» «données») p(«données» «modèle») p(«modèle») probabilités p(z x) de modèles plus riche qu un mélange 22
43 MÉTHODE DE REJET méthode de rejet, proposal distribution Supposons qu on ait une loi q(z) telle que pour une certaine valuer de k kq(z) p(z) nction and is ill kq(z 0 ) kq(z) q(z) est appelée loi instrumentale (proposal distribution) Méthode de rejet 1. échantillonner z 0 de q(z) 2. échantillonner u 0 uniformément entre 0 et kq(z 0 ) z 0 u 0 p(z) z 3. si u 0 < p(z), alors retourner z 0 d is ill 4. sinon, revenir à l étape 1. 23
44 MÉTHODE DE REJET méthode de rejet La loi q(z) doit être non nulle pour chaque valeur de z telle que p(z) est non nulle Si q(z) ne donne pas une borne serrée, cette méthode peut être très inefficace Trouver q(z) qui satisfait la condition pas toujours facile kq(z) p(z) nction and is ill il est parfois possible de construire q(z) de façon automatique (voir section ) n est 24
45 Apprentissage automatique Méthodes d échantillonnage - échantillonnage préférentiel
46 ÉCHANTILLONNAGE DE BASE méthodes de base Débutons par les méthodes de base pour l échantillonnage RAPPEL d une variable aléatoire discrète scalaire d une variable aléatoire continue scalaire Quoi faire lorsque ces méthodes d une variable aléatoire gaussienne vectorielle ne sont pas applicables? On va supposer qu on a accès à un générateur pour une variable aléatoire uniformément distribuée entre 0 et 1 les méthodes de base vont utiliser les nombres aléatoires qu il génère 26
47 MÉTHODE DE REJET méthode de rejet, proposal distribution Supposons qu on ait une loi q(z) telle que pour une certaine valuer de k kq(z) p(z) nction and is ill q(z) est appelée loi instrumentale (proposal distribution) kq(z 0 ) RAPPEL kq(z) Méthode de rejet 1. échantillonner z 0 de q(z) 2. échantillonner u 0 uniformément entre 0 et kq(z 0 ) z 0 u 0 p(z) z 3. si u 0 < p(z), alors retourner z 0 d is ill 4. sinon, revenir à l étape 1. 27
48 ÉCHANTILLONNAGE estimation d espérance, estimation Monte Carlo Pourquoi échantillonner d un modèle? pour estimer une espérance E[f] = f(z)p(z) dz 1 L L f(z (l) ) l=1 RAPPEL z (l) échantillonnés de p(z) Un tel calcul d une espérance ainsi est appelé une estimation Monte Carlo 28
49 ÉCHANTILLONNAGE PRÉFÉRENTIEL échantillonnage préférentiel, importance weights Pourquoi échantillonner d un modèle? pour estimer une espérance E[f] = f(z)p(z) dz = f(z) p(z) q(z) q(z) dz 29 1 L L l=1 p(z (l) ) q(z (l) ) f(z(l) ).
50 ÉCHANTILLONNAGE PRÉFÉRENTIEL échantillonnage préférentiel, importance weights Pourquoi échantillonner d un modèle? pour estimer une espérance E[f] = = f(z)p(z) dz f(z) p(z) q(z) q(z) dz Importance weights : w l r l = p(z (l) )/q(z (l) ) ntroduced by samplin L 1 L p(z (l) ) 29 l=1 w l q(z (l) ) f(z(l) ).
51 ÉCHANTILLONNAGE PRÉFÉRENTIEL échantillonnage préférentiel, importance sampling Supposons qu on ait une loi q(z) (proposal distribution) Échantillonnage préférentiel 1. échantillonner L fois de q(z), pour obtenir z (1),..., z (L) 2. calculer les L poids w 1,..., w L retourner w l r l = p(z (l) )/q(z (l) ) ntroduced by samplin LX 1 w l f(z l ) L l=1
52 ÉCHANTILLONNAGE PRÉFÉRENTIEL échantillonnage préférentiel, importance sampling Comme pour la méthode de rejet, le succès de cette méthode dépend de la proximité entre q(z) et p(z) Dans le cas où suivants : p(z) = 1 Z p ep(z), on peut utiliser les poids w l = L p(z (l) )/q(z (l) ) m p(z(m) )/q(z (m) ). 31
53 Apprentissage automatique Méthodes d échantillonnage - Metropolis-Hastings
54 MÉTHODE DE REJET méthode de rejet, proposal distribution Supposons qu on ait une loi q(z) telle que pour une certaine valuer de k kq(z) p(z) nction and is ill q(z) est appelée loi instrumentale (proposal distribution) kq(z 0 ) RAPPEL kq(z) Méthode de rejet 1. échantillonner z 0 de q(z) 2. échantillonner u 0 uniformément entre 0 et kq(z 0 ) z 0 u 0 p(z) z 3. si u 0 < p(z), alors retourner z 0 d is ill 4. sinon, revenir à l étape 1. 33
55 MÉTHODE DE REJET méthode de rejet, proposal distribution Supposons qu on ait une loi q(z) telle que pour une certaine valuer de k kq(z) p(z) nction and is ill kq(z 0 ) RAPPEL kq(z) q(z) est appelée loi instrumentale (proposal distribution) Fonctionne souvent mal en haute Méthode de rejet dimension, puisque passe son temps à 1. échantillonner z 0 de q(z) rejeter les propositions z 0 2. échantillonner u 0 uniformément entre 0 et kq(z 0 ) z 0 u 0 p(z) z 3. si u 0 < p(z), alors retourner z 0 d is ill 4. sinon, revenir à l étape 1. 33
56 MONTE CARLO PAR CHAÎNES DE MARKOV MCMC On aimerait que l algorithme tire profit de ses «bons coups» lorsqu il trouve un bon échantillon z 0, on pourrait l utiliser pour tirer notre prochain échantillon (p. ex. un échantillon «proche») Spécifiquement, on pourrait tirer les z (1),..., z (L) en chaîne z (1) z (2) z (3)... z (L) la séquence z (1),..., z (L) est donc définie par une chaîne de Markov C est ce qu on appelle une méthode Monte Carlo par Chaînes de Markov (MCMC) 34
57 METROPOLIS-HASTINGS Metropolis-Hastings, probabilité d acceptation Supposons qu on ait une loi q(z (l) z (l-1) ) dernier échantillon généré Metropolis-Hastings 1. échantillonner un proposition z * de q(z (l) z (l-1) ) 2. avec probabilité d acceptation A(z, z (l 1) ep(z )q(z (l 1) z ) )=min 1, ep(z (l 1) )q(z z (l 1) ) assigner z (l) z *, sinon z (l) z (l-1) 3. retourner z (l) 35
58 METROPOLIS-HASTINGS Metropolis-Hastings, probabilité d acceptation Supposons qu on ait une loi q(z (l) z (l-1) ) dernier échantillon généré Metropolis-Hastings 1. échantillonner un proposition z * de q(z (l) z (l-1) ) 2. avec probabilité d acceptation A(z, z (l 1) ep(z )q(z (l 1) z ) )=min 1, ep(z (l 1) )q(z z (l 1) ) Se simplifie s il y a symétrie : q(z (l) z (l-1) ) = q(z (l-1) z (l) ) assigner z (l) z *, sinon z (l) z (l-1) 3. retourner z (l) 35
59 METROPOLIS-HASTINGS Metropolis-Hastings, probabilité d acceptation Le choix de la loi de proposition q(z (l) z (l-1) ) est important une condition suffisante pour que l échantillonnage soit valide est que la probabilité de proposer toute valeur légale de z soit non nulle sous q(z (l) z (l-1) ) Un choix courant de q(z (l) z (l-1) ) est de prendre une gaussienne centrée en z (l-1) une petite covariance impliquera des déplacements lents une grande covariance impliquera des risques de ne pas accepter souvent 36
60 METROPOLIS-HASTINGS Metropolis-Hastings Exemple : propositions acceptées propositions rejetées
61 Apprentissage automatique Méthodes d échantillonnage - échantillonnage de Gibbs
62 MONTE CARLO PAR CHAÎNES DE MARKOV MCMC On aimerait que l algorithme tire profit de ses «bons coups» RAPPEL lorsqu il trouve un bon échantillon z 0, on pourrait l utiliser pour tirer notre prochain échantillon (p. ex. un échantillon «proche») Spécifiquement, on pourrait tirer les z (1),..., z (L) en chaîne z (1) z (2) z (3)... z (L) la séquence z (1),..., z (L) est donc définie par une chaîne de Markov C est ce qu on appelle une méthode Monte Carlo par Chaînes de Markov (MCMC) 39
63 METROPOLIS-HASTINGS Metropolis-Hastings, probabilité d acceptation Supposons qu on ait une loi q(z (l) z (l-1) ) dernier échantillon généré RAPPEL Metropolis-Hastings 1. échantillonner un proposition z * de q(z (l) z (l-1) ) 2. avec probabilité d acceptation A(z, z (l 1) ep(z )q(z (l 1) z ) )=min 1, ep(z (l 1) )q(z z (l 1) ) assigner z (l) z *, sinon z (l) z (l-1) 3. retourner z (l) 40
64 METROPOLIS-HASTINGS Metropolis-Hastings, probabilité d acceptation Supposons qu on ait une loi q(z (l) z (l-1) ) dernier échantillon généré RAPPEL Metropolis-Hastings 1. échantillonner un proposition z * de q(z (l) z (l-1) ) 2. avec probabilité d acceptation A(z, z (l 1) )=min 1, assigner z (l) z *, sinon z (l) z (l-1) 3. retourner z (l) Peut-on éviter d avoir à fournir une loi q(z l z l-1 )? ep(z )q(z (l 1) z ) ep(z (l 1) )q(z z (l 1) ) 40
65 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Échantillonnage de Gibbs 1. assigner z (l) z (l-1) 2. choisir k aléatoirement parmi {1,..., D} 3. remplacer z k (l) par un échantillon de p(z (l) k z(l) 1,...,z(l) k 1,z(l) k+1,...,z(l) D ) 4. retourner z (l) 41
66 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Échantillonnage de Gibbs 1. assigner z (l) z (l-1) 2. choisir k aléatoirement parmi {1,..., D} 3. remplacer z k (l) par un échantillon de 4. retourner z (l) p(z (l) k z \k (l) : tout le vecteur z (l) sans la k e composante { z(l) 1,...,z(l) k 1,z(l) k+1,...,z(l) D ) 41
67 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Équivaut au Metropolis-Hastings, mais dont la loi instrumentale est telle qu on accepte toujours p(z )q(z (l 1) z ) p(z p(z (l 1) )q(z z (l 1) ) = k z \k )p(z \k )p(z (l 1) z k \k ) (l 1) (l 1) (l 1) p(z z )p(z )p(z k \k \k k z(l 1) \k ) 42
68 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Équivaut au Metropolis-Hastings, mais dont la loi instrumentale est telle qu on accepte toujours p(z )q(z (l 1) z ) p(z p(z (l 1) )q(z z (l 1) ) = k z \k )p(z \k )p(z (l 1) z k \k ) (l 1) (l 1) (l 1) p(z z )p(z )p(z k \k \k k z(l 1) \k ) (l 1) z = z \k \k 42
69 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Équivaut au Metropolis-Hastings, mais dont la loi instrumentale est telle qu on accepte toujours p(z )q(z (l 1) z ) p(z p(z (l 1) )q(z z (l 1) ) = k z \k )p(z \k )p(z (l 1) z k \k ) (l 1) (l 1) (l 1) p(z z z )p(z k z )p(z \k \k \k k z \k \k z(l 1) \k ) (l 1) z = z \k \k 42
70 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Équivaut au Metropolis-Hastings, mais dont la loi instrumentale est telle qu on accepte toujours p(z )q(z (l 1) z ) p(z p(z (l 1) )q(z z (l 1) ) = k z \k )p(z \k )p(z (l 1) z k \k ) (l 1) (l 1) (l 1) p(z z z )p(z k z )p(z \k \k \k k z \k \k z(l 1) \k ) (l 1) z = z \k \k = 1 42
71 ÉCHANTILLONNAGE DE GIBBS Metropolis-Hastings, probabilité d acceptation Exemple : z 2 L l z 1 43
72 ÉCHANTILLONNAGE DE GIBBS version cyclique Échantillonnage de Gibbs cyclique 1. assigner z (l) z (l-1) 2. pour k de 1 à D - remplacer z k (l) par un échantillon de p(z (l) k z(l) 1,...,z(l) k 1,z(l) k+1,...,z(l) D ) 3. retourner z (l) Permet de réduire la corrélation entre les z (l) L ordre de remplacement des z k (l) n est pas important 44
73 Apprentissage automatique Méthodes d échantillonnage - résumé
74 ÉCHANTILLONNAGE estimation d espérance, estimation Monte Carlo Pourquoi échantillonner d un modèle? pour estimer une espérance E[f] = f(z)p(z) dz 1 L L f(z (l) ) l=1 RAPPEL z (l) échantillonnés de p(z) Un tel calcul d une espérance ainsi est appelé une estimation Monte Carlo 46
75 ÉCHANTILLONNAGE DE BASE méthodes de base Méthodes de base pour l échantillonnage d une variable aléatoire discrète scalaire d une variable aléatoire continue scalaire d une variable aléatoire gaussienne vectorielle Dans ces cas, on est garanti d obtenir des échantillons de qualité, en un temps bien déterminé 47
76 MÉTHODE DE REJET méthode de rejet Si les méthodes de base ne sont pas applicables à p(z) : Méthode de rejet : doit fournir une loi instrumentale (proposal distribution) q(z) si la loi q(z) n est pas proche de p(z), on peut attendre longtemps avant d avoir un échantillon (particulièrement en haute dimension) 48
77 ÉCHANTILLONNAGE PRÉFÉRENTIEL échantillonnage préférentiel Si les méthodes de base ne sont pas applicables à p(z) : Échantillonnage préférentiel doit fournir une loi instrumentale (proposal distribution) q(z) meilleur que la méthode de rejet pour l estimation Monte Carlo permet seulement d approximer une somme (ne donne pas des échantillons de p(z)) si la loi q(z) n est pas proche de p(z), l approximation peut être très mauvaise (particulièrement en haute dimension) 49
78 METROPOLIS-HASTINGS Metropolis-Hastings Si les méthodes de base ne sont pas applicables à p(z) : Métropolis-Hastings méthode MCMC nécessite seulement une loi instrumentale conditionnelle q(z (l) z (l-1) ) donne une séquence d échantillons qui sont corrélés (ne peut pas les traiter comme des échantillons indépendants) 50
79 ÉCHANTILLONNAGE DE GIBBS Échantillonnage de Gibbs Si les méthodes de base ne sont pas applicables à p(z) : Échantillonnage de Gibbs méthode MCMC ne nécessite pas de loi instrumentale nécessite que les conditionnelles soient calculables p(z (l) k z(l) 1,...,z(l) k 1,z(l) k+1,...,z(l) D ) donne une séquence d échantillons qui sont corrélés (ne peut pas les traiter comme des échantillons indépendants) 51
80 METROPOLIS-HASTINGS Metropolis-Hastings Toutes les méthodes MCMC génèrent des échantillons corrélés pour réduire la corrélation, on collecte seulement tous les M échantillons (p. ex. M=100) on ignore également les premiers échantillons générés (période de burn-in) Pour en savoir plus sur les propriétés que doivent satisfaire les méthodes MCMC : voir section
Simulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailMCMC et approximations en champ moyen pour les modèles de Markov
MCMC et approximations en champ moyen pour les modèles de Markov Gersende FORT LTCI CNRS - TELECOM ParisTech En collaboration avec Florence FORBES (Projet MISTIS, INRIA Rhône-Alpes). Basé sur l article:
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailModélisation et simulation
Modélisation et simulation p. 1/36 Modélisation et simulation INFO-F-305 Gianluca Bontempi Département d Informatique Boulevard de Triomphe - CP 212 http://www.ulb.ac.be/di Modélisation et simulation p.
Plus en détailMÉTHODE DE MONTE CARLO.
MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental
Plus en détailRaisonnement probabiliste
Plan Raisonnement probabiliste IFT-17587 Concepts avancés pour systèmes intelligents Luc Lamontagne Réseaux bayésiens Inférence dans les réseaux bayésiens Inférence exacte Inférence approximative 1 2 Contexte
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détailAmphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
Plus en détail6. Hachage. Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses
6. Hachage Accès aux données d'une table avec un temps constant Utilisation d'une fonction pour le calcul d'adresses PLAN Définition Fonctions de Hachage Méthodes de résolution de collisions Estimation
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailModèles à Événements Discrets. Réseaux de Petri Stochastiques
Modèles à Événements Discrets Réseaux de Petri Stochastiques Table des matières 1 Chaînes de Markov Définition formelle Idée générale Discrete Time Markov Chains Continuous Time Markov Chains Propriétés
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailApproche modèle pour l estimation en présence de non-réponse non-ignorable en sondage
Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage Journées de Méthodologie Statistique Eric Lesage Crest-Ensai 25 janvier 2012 Introduction et contexte 2/27 1 Introduction
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailRésolution de systèmes linéaires par des méthodes directes
Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailISAN System: 5 Œuvre à épisodes ou en plusieurs parties
sm: 5 Œ à épsds pss ps Wb f B Rs s: E b W B bs d mdè Vs j www.sb. B ss Psfh B 7 T. +4 5 Fx +4 7 EM: f@sb. www.sb. B ss Psfh B 7 T. +4 5 Fx +4 7 EM: f@sb. wzd 5 Œ à épsds pss ps mm: TRODUTO DEMRE. OEXO.
Plus en détailSoutenance de stage Laboratoire des Signaux et Systèmes
Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud
Plus en détailTP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options
Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détailThéorie de l estimation et de la décision statistique
Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory
Plus en détailIntroduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
Plus en détailOptimisation Discrète
Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailModélisation aléatoire en fiabilité des logiciels
collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.
Plus en détailILT. Interfacultair Instituut voor Levende Talen. T@@lvaardig. Actes de communication. Serge Verlinde Evelyn Goris. Katholieke Universiteit Leuven
IL If I L S V Ey G Khk U L 13/02/02 pé? xp qé xp pz à pz p héhq pé p à q z p à p héhq fé à p à q pz xp q 'p (è) f, '-à- p. x. ' é ff. N xp à py qq' q z b ( f) P xp pô pp L p - pé pz ': z qq', q -? Bj,
Plus en détail= 1 si n = m& où n et m sont souvent des indices entiers, par exemple, n, m = 0, 1, 2, 3, 4... En fait,! n m
1 épartement de Physique, Université Laval, Québec Pierre Amiot, 1. La fonction delta et certaines de ses utilisations. Clientèle Ce texte est destiné aux physiciens, ingénieurs et autres scientifiques.
Plus en détailIFT3245. Simulation et modèles
IFT 3245 Simulation et modèles DIRO Université de Montréal Automne 2012 Tests statistiques L étude des propriétés théoriques d un générateur ne suffit; il estindispensable de recourir à des tests statistiques
Plus en détailPRÉCIS DE SIMULATION
PRÉCIS DE SIMULATION P. Del Moral Centre INRIA Bordeaux Sud-Ouest & Institut de Mathématiques de Bordeaux Université Bordeaux I, 351, cours de la Libération 33405 Talence, France Table des matières 1
Plus en détailTechniques d interaction dans la visualisation de l information Séminaire DIVA
Techniques d interaction dans la visualisation de l information Séminaire DIVA Zingg Luca, luca.zingg@unifr.ch 13 février 2007 Résumé Le but de cet article est d avoir une vision globale des techniques
Plus en détailTESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION
TESTS PORTMANTEAU D ADÉQUATION DE MODÈLES ARMA FAIBLES : UNE APPROCHE BASÉE SUR L AUTO-NORMALISATION Bruno Saussereau Laboratoire de Mathématiques de Besançon Université de Franche-Comté Travail en commun
Plus en détailLa problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites
La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur
Plus en détailGuidance de Statistique : Epreuve de préparation à l examen
Guidance de Statistique : Epreuve de préparation à l examen Durée totale : 90 min (1h30) 5 questions de pratique (12 pts) 20 décembre 2011 Matériel Feuilles de papier De quoi écrire Calculatrice Latte
Plus en détailLimites finies en un point
8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,
Plus en détailProbabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailChapitre 3. Algorithmes stochastiques. 3.1 Introduction
Chapitre 3 Algorithmes stochastiques 3.1 Introduction Les algorithmes stochastiques sont des techniques de simulation numériques de chaînes de Markov, visant à résoudre des problèmes d optimisation ou
Plus en détailTests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA
Plus en détailPourquoi l apprentissage?
Pourquoi l apprentissage? Les SE sont basés sur la possibilité d extraire la connaissance d un expert sous forme de règles. Dépend fortement de la capacité à extraire et formaliser ces connaissances. Apprentissage
Plus en détailCorrection du baccalauréat ES/L Métropole 20 juin 2014
Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)
Plus en détailMODELES DE DUREE DE VIE
MODELES DE DUREE DE VIE Cours 1 : Introduction I- Contexte et définitions II- Les données III- Caractéristiques d intérêt IV- Evènements non renouvelables/renouvelables (unique/répété) I- Contexte et définitions
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailCalcul fonctionnel holomorphe dans les algèbres de Banach
Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte
Plus en détailPrincipe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détailLes simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R
Les simulations dans l enseignement des sondages Avec le logiciel GENESIS sous SAS et la bibliothèque Sondages sous R Yves Aragon, David Haziza & Anne Ruiz-Gazen GREMAQ, UMR CNRS 5604, Université des Sciences
Plus en détailDifférentiabilité ; Fonctions de plusieurs variables réelles
Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2
Plus en détailCRYPTOGRAPHIE. Signature électronique. E. Bresson. Emmanuel.Bresson@sgdn.gouv.fr. SGDN/DCSSI Laboratoire de cryptographie
CRYPTOGRAPHIE Signature électronique E. Bresson SGDN/DCSSI Laboratoire de cryptographie Emmanuel.Bresson@sgdn.gouv.fr I. SIGNATURE ÉLECTRONIQUE I.1. GÉNÉRALITÉS Organisation de la section «GÉNÉRALITÉS»
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailL analyse d images regroupe plusieurs disciplines que l on classe en deux catégories :
La vision nous permet de percevoir et d interpreter le monde qui nous entoure. La vision artificielle a pour but de reproduire certaines fonctionnalités de la vision humaine au travers de l analyse d images.
Plus en détailVARIABLES LATENTES ET MODÉLISATION STATISTIQUE EN ASSURANCE
VARIABLES LATENTES ET MODÉLISATION STATISTIQUE EN ASSURANCE A. MONFORT CNAM et CREST-INSEE 1 1. INTRODUCTION. Les variables latentes, ou inobservables, jouent un rôle de plus en plus important dans la
Plus en détailOM 1 Outils mathématiques : fonction de plusieurs variables
Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.
Plus en détailProduits de crédit en portefeuille
Chapitre 6 Produits de crédit en portefeuille et défauts corrélés Dans ce chapitre, on étudie des produits financiers de crédit en portfeuille, notamment k th -to-default swap et CDOs (voir 1.2 pour une
Plus en détailSimulation : application au système bonus-malus en responsabilité civile automobile
Simulation : application au système bonus-malus en responsabilité civile automobile Robert Langmeier Travail de séminaire réalisé sous la supervision du professeur François Dufresne Ecole des HEC Université
Plus en détailProbabilités avancées. Florin Avram
Probabilités avancées Florin Avram 24 janvier 2014 Table des matières 1 Mise en scène discrète 3 1.1 Espace des épreuves/résultats possibles, événements, espace probabilisé, mesure de probabilités, variables
Plus en détailL E Ç O N. Marches aléatoires. Niveau : Terminale S Prérequis : aucun
9 L E Ç O N Marches aléatoires Niveau : Terminale S Prérequis : aucun 1 Chaînes de Markov Définition 9.1 Chaîne de Markov I Une chaîne de Markov est une suite de variables aléatoires (X n, n N) qui permet
Plus en détailLa simulation probabiliste avec Excel
La simulation probabiliste avec Ecel (2 e version) Emmanuel Grenier emmanuel.grenier@isab.fr Relu par Kathy Chapelain et Henry P. Aubert Incontournable lorsqu il s agit de gérer des phénomènes aléatoires
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailLES TYPES DE DONNÉES DU LANGAGE PASCAL
LES TYPES DE DONNÉES DU LANGAGE PASCAL 75 LES TYPES DE DONNÉES DU LANGAGE PASCAL CHAPITRE 4 OBJECTIFS PRÉSENTER LES NOTIONS D ÉTIQUETTE, DE CONS- TANTE ET DE IABLE DANS LE CONTEXTE DU LAN- GAGE PASCAL.
Plus en détailCours de mathématiques
DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................
Plus en détailLes travaux doivent être remis sous forme papier.
Physique mathématique II Calendrier: Date Pondération/note nale Matériel couvert ExercicesSérie 1 : 25 septembre 2014 5% RH&B: Ch. 3 ExercicesSérie 2 : 23 octobre 2014 5% RH&B: Ch. 12-13 Examen 1 : 24
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailEchantillonnage Non uniforme
Echantillonnage Non uniforme Marie CHABERT IRIT/INP-ENSEEIHT/ ENSEEIHT/TéSASA Patrice MICHEL et Bernard LACAZE TéSA 1 Plan Introduction Echantillonnage uniforme Echantillonnage irrégulier Comparaison Cas
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailI Stabilité, Commandabilité et Observabilité 11. 1 Introduction 13 1.1 Un exemple emprunté à la robotique... 13 1.2 Le plan... 18 1.3 Problème...
TABLE DES MATIÈRES 5 Table des matières I Stabilité, Commandabilité et Observabilité 11 1 Introduction 13 1.1 Un exemple emprunté à la robotique................... 13 1.2 Le plan...................................
Plus en détailI. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Plus en détailTABLE DES MATIÈRES. PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats. Pierre Dagnelie
PRINCIPES D EXPÉRIMENTATION Planification des expériences et analyse de leurs résultats Pierre Dagnelie TABLE DES MATIÈRES 2012 Presses agronomiques de Gembloux pressesagro.gembloux@ulg.ac.be www.pressesagro.be
Plus en détailIFT3355: Infographie Sujet 6: shading 7 (illumination globale 4)
IFT3355: Infographie Sujet 6: shading 7 (illumination globale 4) Derek Nowrouzezahrai Département d informatique et de recherche opérationelle Université de Montréal Ambient Occlusion expériment numérique
Plus en détailDe même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
Plus en détailIntroduction : Les modes de fonctionnement du transistor bipolaire. Dans tous les cas, le transistor bipolaire est commandé par le courant I B.
Introduction : Les modes de fonctionnement du transistor bipolaire. Dans tous les cas, le transistor bipolaire est commandé par le courant. - Le régime linéaire. Le courant collecteur est proportionnel
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailMaster d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien
Master d Informatique M1 Université Paris 7 - Denis Diderot Travail de Recherche Encadré Surf Bayesien Denis Cousineau Sous la direction de Roberto di Cosmo Juin 2005 1 Table des matières 1 Présentation
Plus en détailLe théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
Plus en détailIntégration et probabilités TD1 Espaces mesurés Corrigé
Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.
Plus en détailEquation LIDAR : exp 2 Equation RADAR :
Contexte scientifique Systèmes LIDAR/RADAR Equation LIDAR : exp Equation RADAR : p (r) : puissance rétrodiffusée r : altitude ou profondeur. C : constante instrumentale. β : coefficient de rétrodiffusion
Plus en détailChapitre 2. Eléments pour comprendre un énoncé
Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données
Plus en détailThéorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Plus en détailCALCUL DES PROBABILITES
CALCUL DES PROBABILITES Exemple On lance une pièce de monnaie une fois. Ensemble des événements élémentaires: E = pile, face. La chance pour obtenir pile vaut 50 %, pour obtenir face vaut aussi 50 %. Les
Plus en détailLe modèle de Black et Scholes
Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un
Plus en détailIntroduction au maillage pour le calcul scientifique
Introduction au maillage pour le calcul scientifique CEA DAM Île-de-France, Bruyères-le-Châtel franck.ledoux@cea.fr Présentation adaptée du tutorial de Steve Owen, Sandia National Laboratories, Albuquerque,
Plus en détailEconomie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de
Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos olivier.bos@u-paris2.fr
Plus en détailCompression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette
Compression et Transmission des Signaux Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette 1 De Shannon à Mac Donalds Mac Donalds 1955 Claude Elwood Shannon 1916 2001 Monsieur X 1951 2 Où
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailContinuité en un point
DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à
Plus en détailProbabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1
Introduction Probabilités stationnaires d une chaîne de Markov sur TI-nspire Louis Parent, ing., MBA École de technologie supérieure, Montréal, Québec 1 L auteur remercie Mme Sylvie Gervais, Ph.D., maître
Plus en détailBAREME sur 40 points. Informatique - session 2 - Master de psychologie 2006/2007
BAREME ur 40 point Informatique - eion 2 - Mater de pychologie 2006/2007 Bae de donnée PRET de MATERIEL AUDIO VISUEL. Remarque : Le ujet comporte 7 page. Vérifier qu il et complet avant de commencer. Une
Plus en détailQuantification des Risques
Quantification des Risques Comment considérer les aléas dans une projection financière? PragmaRisk met à disposition des solutions et des méthodes permettant de considérer les aléas dans vos projections
Plus en détailBig Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci http://liris.cnrs.fr/hamamache.kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de
Plus en détailCircuits RL et RC. Chapitre 5. 5.1 Inductance
Chapitre 5 Circuits RL et RC Ce chapitre présente les deux autres éléments linéaires des circuits électriques : l inductance et la capacitance. On verra le comportement de ces deux éléments, et ensuite
Plus en détailBig Data et Graphes : Quelques pistes de recherche
Big Data et Graphes : Quelques pistes de recherche Hamamache Kheddouci Laboratoire d'informatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université
Plus en détailEncryptions, compression et partitionnement des données
Encryptions, compression et partitionnement des données Version 1.0 Grégory CASANOVA 2 Compression, encryption et partitionnement des données Sommaire 1 Introduction... 3 2 Encryption transparente des
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailCours 7 : Utilisation de modules sous python
Cours 7 : Utilisation de modules sous python 2013/2014 Utilisation d un module Importer un module Exemple : le module random Importer un module Exemple : le module random Importer un module Un module est
Plus en détailTexte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
Plus en détailExercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Plus en détailJournées Télécom-UPS «Le numérique pour tous» David A. Madore. david.madore@enst.fr. 29 mai 2015
et et Journées Télécom-UPS «Le numérique pour tous» David A. Madore Télécom ParisTech david.madore@enst.fr 29 mai 2015 1/31 et 2/31 : définition Un réseau de R m est un sous-groupe (additif) discret L
Plus en détailContexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,
Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très
Plus en détail