Probabilités & statistiques quelques brefs rappels
|
|
- Sévérine Danielle Larochelle
- il y a 8 ans
- Total affichages :
Transcription
1 Probabilités & statistiques quelques brefs rappels Arthur Charpentier, 2008/2009 Master 1 Ingénierie économique et financière Master 1 Statistique & économétrie http ://blogperso.univ-rennes1.fr/arthur.charpentier/index.php/category/rappels-stat-m
2 Plan du cours Introduction, la modélation statistique Rappels de probabilité Fonctions usuelles, P, F, f, E, V ar Lois uselles, discètes et continues Conditionnement, espérance conditionnelle et mélanges Convergence, approximations et théorèmes limites Loi(s) des grands nombres Théorème central limite Rappels de statistique (mathématique) De la statistique descriptive à la statistique mathématique Inférence et estimation ponctuelle Estimateur du maximum de vraisemblance, propriétés Estimateur des moments, propriétés Comparaison d estimateurs, quelques exemples Intervalle de confiance Théorie des tests 2
3 La modélisation statistique Les actions rapportent-elles plus - en moyenne - que les obligations détat, i.e. E(X) > r? Il est possible qu une banque perde la trace de transactions électroniques, i.e. P(perte) > 0.01%? Les actions en France sont plus risquées qu en Allemagne, i.e. V ar(y X = France) V ar(y X = Allemagne)? Un portefeuille d actions, de pondérations a = (a 1,, a k ) est-il efficient, i.e. V ar(a X) σ sachant que E(a X) µ? Les jeunes hommes ont-ils plus d accident que les jeunes femmes, i.e. E(Y X = homme) E(Y X = femme)? Le risque perte d exploitation est-il assurable, i.e. E(X) <? 3
4 La modélisation statistique Question oui/non formalisée sous forme probabiliste/statistique échantillon estimation test statistique {x 1,, x n } θ n = ϕ(x 1,, x n ) H 0 : θ 0 = κ modèle propriétés loi sous H 0 de T n probabiliste de l estimateur intervalle de confiance X i i.i.d. E( θ n ) T n [a, b] de loi F θ0 V ar( θ n ) θn [α, β] où F θ0 {F θ, θ Θ} (asymptotiques ou κ [α, β] : accepte H 0 distance finie) κ / [α, β] : rejette H 0 4
5 L espace de probabilité On suppose être dans un espace de probabilité (Ω, A, P). Ω est l espace fondamental, Ω = {ω i, i I} est l ensemble de tous les résultats possible d une expérience aléatoire. A est la tribu des évènements, ou l ensemble des parties de Ω, i.e. l ensemble des évènements. P est une mesure de probabilité sur Ω, i.e. P(Ω) = 1 pour tout évènement A de Ω, 0 P(A) 1, pour tous A 1,, A n disjoints (A i A j = ), P( A i ) = P(A i ). Rappelons qu une variable aléatoire X est une fonction Ω R. 5
6 Quelques rappels sur les fonctions usuelles Definition 1. Soit X une variable aléatoire. La fonction de répartition, cumulative distribution function (cdf) de X est F (x) = P(X x), pour tout x R. Formellement, F (x) = P({ω Ω X(ω) x}). Notons que F est une fonction croissante sur R, lim F (x) = 0 et lim x F (x) = 1. x + On dira que X et Y sont égales en loi, X L = Y si pour tout x F X (x) = P(X x) = P(Y x) = F Y (x). On appelle fonction de survie F (x) = 1 F (x) = P(X > x). 6
7 Sous R, pexp() ou ppois() renvoient les fonctions de répartition des lois exponentielle (E(1)) et de Poisson. Fonction de répartition Fonction de répartition Fig. 1 Fonction de répartition F (x) = P(X x). 7
8 Quelques rappels sur les fonctions usuelles Definition 2. Soit X une variable aléatoire. La fonction quantile de X est Q(p) = F 1 (p) = inf{x R tel que F (x) > p}, pour tout p [0, 1]. Probabilité p Valeur x Valeur x Probabilité p 8
9 Sous R, qexp() ou qpois() renvoient quantiles des lois exponentielle (E(1)) et de Poisson. Fonction quantile Fonction quantile Fig. 2 Fonction quantile Q(p) = F 1 (p). 9
10 Quelques rappels sur les fonctions usuelles Definition 3. Soit X une variable aléatoire. La fonction de densité ou la fonction de probablité de X est df (x) = F (x) dans le cas continu, x R f(x) = dx P(X = x) dans le cas discret, x N F étant croissante, une densité est toujours positive. Dans le cas continu, il est possible d avoir f(x) > 1. x x Aussi, F (x) = f(s)ds dans le cas continu, F (x) = f(s) dans le cas discret. s=0 10
11 Sous R, dexp() ou dpois() renvoient les densités des lois exponentielle (E(1)) et de Poisson. Fonction de densité Fonction de densité Fig. 3 Fonction de densité f(x) = F (x) ou f(x) = P(X = x). 11
12 P(X [a, b]) = b a f(s)ds ou b f(s). s=a Fonction de densité Fonction de densité Fig. 4 Probabilité P(X [1, 3[). 12
13 Quelques rappels sur les vecteurs aléatoires Definition 4. Soit Z = (X, Y ) un vecteur aléatoire. La fonction de répartition de Z est F (z) = F (x, y) = P(X x, Y y), pour tout z = (x, y) R R. Definition 5. Soit Z = (X, Y ) un vecteur aléatoire. La fonction de densité de Z est F (x, y) dans le cas continu, z = (x, y) R R f(z) = f(x, y) = x y P(X = x, Y = y) dans le cas discret, z = (x, y) N N 13
14 Quelques concepts sur les vecteurs aléatoires Etant donné un vecteur aléatoire Z = (X, Y ) de fonction de répartition F et de densité f, on peut en déduire les lois marginales de X (ou de Y ) en notant simplement que F X (x) = P(X x) = P(X x, Y + ) = lim F (x, y), y f X (x) = P(X = x) = f X (x) = P(X = x, Y = y) = y=0 f(x, y), dans le cas discret y=0 f(x, y)dy dans le cas continu 14
15 La loi conditionnelle Y X De plus, on peut définir loi conditionnelle de Y sachant X = x, dont la fonction de densité est donnée par la formule de Bayes P(Y = y X = x) = P(X = x, Y = y) P(X = x) dans le cas discret, f Y X=x (y) = f(x, y), dans le cas continu. f X (x) On peut également considérer la fonction de répartition P(Y y X = x) = y P(Y = t X = x) = t=0 y t=0 P(X = x, Y = t) P(X = x) dans le cas discret, F Y X=x (y) = x f Y X=x (t)dt = 1 f X (x) x f(x, t)dt, dans le cas continu. 15
16 Quelques concepts sur les vecteurs aléatoires Definition 6. Soient X et Y deux variables aléatoires. On dira que X et Y sont indépendantes si une des conditions suivantes est satisfaite F (x, y) = F X (x)f Y (y) pour tout x, y, ou P(X x, Y y) = P(X x) P(Y y), f(x, y) = f X (x)f Y (y) pour tout x, y, ou P(X = x, Y = y) = P(X = x) P(Y = y), F Y X=x (y) = F Y (y) pour tout x, y, ou f Y X=x (y) = f Y (y), F X Y =y (y) = F X (x) pour tout x, y, ou f X Y =y (y) = f X (x). On notera X Y pour signifier l indépendance. 16
17 Etude de l indépendance Les tableaux suivants donnent les valeurs de P(X =, Y = ) X = 0 X = 1 Y = Y = ooo X = 0 X = 1 Y = Y = Dans les deux cas, P(X = 0) = P(X = 0, Y = 0) + P(X = 0, Y = 1) = = 0.6, i.e. X B(0.4) Dans le premier cas, X et Y ne sont pas indépendantes, mais le sont dans le second. 17
18 Notion d indépendance conditionnelle On dira que X et Y sont conditionnellement indépendantes sachant Z si pour tout z tel que P(Z z) > 0, P(X x, Y y Z = z) = P(X x Z = z) P(Y y Z = z) 18
19 Quelques rappels sur les moments Definition 7. Soit X une variable aléatoire. L espérance (expected value) de X est E(X) = x f(x)dx ou x P(X = x) Definition 8. Soit Z = (X, Y ) un vecteur aléatoire. L espérance de Z est E(Z) = E(X) E(Y ) x=0 Proposition 9. L espérance de Y = g(x), où X a pour densité f, est E(g(X)) = + g(x) f(x)dx. Notons que si g n est pas linéaire, E(g(X)) g(e(x)). 19
20 Quelques rappels sur l espérance Proposition 10. Soient X et Y deux variables aléatoires d espérance finie, E(αX + βy ) = αe(x) + βe(y ), pour tout α, β, i.e. l espérance est linéaire, E(XY ) E(X) E(Y ) de manière générale, mais l égalité est vérifié si X Y. L espérance d une variable aléatoire une un nombre réel. Exemple Considérons une loi uniforme sur [a, b], de densité f(x) = 1 1(x [a, b]), b a E(X) = xf(x)dx = 1 b xdx = 1 [ x 2 b a b a 2 = R 1 b a b 2 a 2 2 = 1 b a a (b a)(a + b) 2 ] b a = a + b 2. 20
21 Il existe des variables aléatoires dont l espérance n existe pas (ou est infinie). Example 11 (Paradoxe de Saint Peterbrourg). Considérons un jeu de pile ou face où les gains sont doublés à chaque lancer, et le jeu est arrêté au 1er pile. E(X) = 1 P(pile au 1er lancer) +1 2 P(1er pile au 2ème lancer) +2 2 P(1er pile au 3ème lancer) +4 2 P(1er pile au 4ème lancer) +8 2 P(1er pile au 5ème lancer) P(1er pile au 6ème lancer) P(1er pile au 7ème lancer) + = =. 21
22 L espérance conditionnelle Definition 12. Soient X et Y deux variables aléatoires. L espérance conditionnelle (conditional expectation) de Y sachant X = x est l espérance associée à la loi conditionnelle Y X = x, E(Y X = x) = y f Y X=x (y)dy ou y P(Y = y X = x). x=0 E(Y X = x) est donc fonction de x, E(Y X = x) = ϕ(x). Par abus de notation, on appellera E(Y X) la variable aléatoire ϕ(x). Proposition 13. E(Y X) étant une variable aléatoire, notons que E[E(Y X)] = E(Y ). 22
23 Démonstration. E (E(X Y )) = y = y = y = x = x = x E(X Y = y) P(Y = y) ( ) x P(X = x Y = y) P(Y = y) x x P(X = x Y = y) P(Y = y) x x P(Y = y X = x) P(X = x) y x P(X = x) x P(X = x) = E(X). ( ) P(Y = y X = x) y 23
24 Quelques rappels sur les moments Pour travailler sur le moment d ordre 2, rappelons que E(g(X)) = + g(x) f(x)dx E(g(X, Y )) = + + g(x, y) f(x, y)dxdy. Definition 14. Soit X une variable aléatoire. La variance (variance) de X est V ar(x) = E[(X E(X)) 2 ] = (x E(X)) 2 f(x)dx ou (x E(X)) 2 P(X = x). x=0 Une écriture équivalente est V ar(x) = E[X 2 ] (E[X]) 2 La variance mesure la dispersion des valeurs prises par X autour de E(X), c est un nombre réel. V ar(x) est appelé écart-type (standard deviation), ou volatilité. 24
25 Quelques rappels sur les moments Definition 15. Soit Z = (X, Y ) un vecteur aléatoire. La matrice de variance-covariance (variance-covariance matrix) de Z est V ar(x) Cov(X, Y ) V ar(z) = Cov(Y, X) V ar(y ) où V ar(x) = E[(X E(X)) 2 ] et Cov(X, Y ) = E[(X E(X)) (Y E(Y ))] = Cov(Y, X). Definition 16. Soit Z = (X, Y ) un vecteur aléatoire. La corrélation entre X et Y est corr(x, Y ) = cov(x, Y ) V ar(x) V ar(y ) = E[(X E(X)) (Y E(Y ))] E[(X E(X))]2 E[(Y E(Y ))] 2. 25
26 Quelques rappels sur la variance Proposition 17. La variance est toujours positive, et V ar(x) = 0 si et seulement si X est une constante. Proposition 18. La variance n est pas linéaire, mais V ar(αx + βy ) = α 2 V ar(x) + 2αβCov(X, Y ) + β 2 V ar(y ). Une conséquence est que V ar ( n ) X i = n Cov(X i, X j ) = n Cov(X i, X j ). i=1 i=1 V ar (X i )+ j i i=1 V ar (X i )+2 j>i Proposition 19. La variance n est pas linéaire, mais V ar(α + βx) = β 2 V ar(x). 26
27 Quelques rappels sur la covariance Proposition 20. Pour toutes variables aléatoires X, X 1, X 2 et Y, Cov(X, Y ) = E(XY ) E(X)E(Y ), Cov(αX 1 + βx 2, Y ) = αcov(x 1, Y ) + βcov(x 2, Y ). Cov(X, Y ) = ω Ω[X(ω) E(X)] [Y (ω) E(Y )] P(ω) Un interprétation heuristique d une covariance positive est qu il doit y avoir une majorité d évènements ω pour lesquels [X(ω) E(X)] [Y (ω) E(Y )] 0 X(ω) E(X) et Y (ω) E(Y ), i.e. X et Y prennent ensemble des grandes valeurs, X(ω) E(X) et Y (ω) E(Y ), i.e. X et Y prennent ensemble des petites valeurs. Proposition 21. Si X et Y sont indépendantes (X Y ), alors Cov(X, Y ) = 0, mais la réciproque n est généralement pas vraie. 27
28 La variance conditionnelle Definition 22. Soient X et Y deux variables aléatoires. La variance conditionnelle (conditional variance) de Y sachant X = x est la variance associée à la loi conditionnelle Y X = x, V ar(y X = x) = [y E(Y X = x)] 2 f Y X=x (y)dy. V ar(y X = x) est donc fonction de x, E(Y X = x) = ψ(x). Par abus de notation, on appellera V ar(y X) la variable aléatoire ψ(x). 28
29 Proposition 23. V ar(y X) étant une variable aléatoire, notons que V ar(y ) = V ar[e(y X)] + E[V ar(y X)], formule dite de décomposition de la variance (ou théorème de Pythagore). Démonstration. L idée est de faire un développement de la forme suivante V ar(y ) = E[(Y E(Y )) 2 ] = E[(Y E(Y X) + E(Y X) E(Y )) 2 ] = E[([Y E(Y X)] + [E(Y X) E(Y )]) 2 ] = E[([Y E(Y X)]) 2 ] + E[([E(Y X) E(Y )]) 2 ] +2E[[Y E(Y X)] [E(Y X) E(Y )]] On note alors que E[([Y E(Y X)]) 2 ] = E ( E((Y E(Y X)) 2 X) ) = E[V ar(y X)], E[([E(Y X) E(Y )]) 2 ] = E[([E(Y X) E(E(Y X))]) 2 ] = V ar[e(y X)]. Et l espérance du produit croisé est nulle (en conditionnant par X). 29
30 Un tout petit peu de géométrie Si L 2 désigne l ensemble des variables aléatoires de variance finie, < X, Y >= E(XY ) est un produit scalaire, X = E(X 2 ) est une norme (parfois notée 2 ). E(X) est la projection orthogonale de X sur l ensemble des constante, E(X) = argmin a R { X a 2 = E([X a] 2 )}. La corrélation est le cosinus de l angle entre X E(X) et Y E(Y ) : si corr(x, Y ) = 0 on dira que les variables sont orthogonales, X Y (et non pas indépendantes, X Y ). Si L 2 X désigne l ensemble des variables aléatoires engendrées par X (de la forme ϕ(x)) de variance finie, E(Y X) est la projection orthogonale de Y sur l ensemble L 2 X E(Y X) = argmin ϕ { Y ϕ(x) 2 = E([Y ϕ(x)] 2 )}. E(Y X) est la meilleure approximation de Y par une fonction de X. 30
31 L espérance conditionnelle De manière générale, E(Y X) = ϕ(x). En économétrie, on cherche à expliquer Y par X. économétrie linéaire, EL(Y X) = β 0 + β 1 X. économétrie nonlinéaire, E(Y X) = ϕ(x). ou plus gééralement on cherche à expliquer Y par X. économétrie linéaire, EL(Y X) = β 0 + β 1 X β k X k. économétrie nonlinéaire, E(Y X) = ϕ(x) = ϕ(x 1,, X k ). En séries temporelle, on cherche à expliquer X t par X t 1, X t 2,. séries temporelles linéaires, EL(X t X t 1, X t 2, ) = β 0 + β 1 X t β k X t k (forme autorégressive). séries temporelles nonlinéaires, E(X t X t 1, X t 2, ) = ϕ(x t 1, X t 2, ). 31
32 Un petit complément sur l espérance conditionnelle L espérance conditionnelle n est pas un réel, mais une variable aléatoire. Formellement, on ne conditionne pas par rapport à une variable aléatoire X, mais la tribu engendrée par X, E(Y X) = E(Y σ(x)). Plus généralement, on peut conditionner par une tribu quelconque F, qui sera interpr tée comme de l information disponible pour expliquer Y. En finance ou en séries temporelles, on dispose d une suite de variables aléatoires X 1, X 2,, X n,. On note F n l information disponible à la date n, i.e. F n = σ(x 1,, X n ), et on cherchera E(X n+1 F n ). Si E(X n+1 F n ) = X n 1, on parlera de martingale. 32
33 Additionner des variables aléatoires Proposition 24. Soient X et Y sont deux variables discrètes indépendantes. Alors la loi de S = X + Y est P(S = s) = P(X = k) P(Y = s k). k=0 Soient X et Y sont deux variables continues indépendantes. Alors la loi de S = X + Y est f S (s) = f X (x) f Y (s x)dx. On notera f S = f X f Y où est l opérateur de convolution. 33
34 Montrer que pour X positive et dans L 1 Un petit exercice E (X) = = = 0 0 P (X > x) dx (1 F (x)) dx pour une variable continue, P (X > k) pour une variable discrète. k=0 En effet, dans le cas continue, 0 (1 F (x)) dx = = 0 0 { x { f (t) } f (t) dt dx = t 0 } dx dt = 0 0 { t 0 } f (t) dx dt f (t) tdt = E (X), 34
35 en intervertissant les signes sommes (théorème de Tonelli). Et dans le cas discret, { } { i } P (X > k) = P (X = i) = P (X = i) k=0 = k=0 i=k+1 { P (X = i) i=1 } i 1 = k=1 en utilisant le même argument que précédemment. i=1 k=1 ip (X = i) = E (X), En fait, l intégration par partie ne peut pas être utilisé pour la raison suivante : on aurait souhaité écrire, dans le cas continue, E (X) = 0 xf (x) dx = [x (F (x) 1)] 0 i=1 (F (x) 1) dx, en dérivant x, et en prenant comme primite de f (x) F (x) 1 (afin d avoir au moins la nullité en +, sinon l intégrale de droite n aurait aucune chance de converger). Le problème est que rien ne garantie, a priori, que x (F (x) 1) 0 quand x. 0 35
36 Quelques rappels sur les moments On définit le moment d ordre n d une variable aléatoire X comme µ n = E[X n ], si cette valeur est finie. On notera également µ n les moments centrés (et éventuellement réduits). Certains moments sont utiles pour caractériser une variable aléatoire : Le moment d ordre un de la variable : µ = E[X] correspond à l espérance Le moment d ordre deux de la variable centrée : µ 2 = E [(X µ) 2] correspond à la variance. Le moment [ d ordre trois de la variable centrée-réduite : (X ) ] 3 µ µ 3 = E correspond au coefficient d asymétrie, la skewness. σ Le moment [ d ordre quatre de la variable centrée-réduite : (X ) ] 4 µ µ 4 = E correspond à la kurtosis. σ 36
37 Quelques rappels sur les lois de probabilité La loi de Bernoulli B(p), p (0, 1) P(X = 0) = 1 p et P(X = 1) = p. Alors E(X) = p et V ar(x) = p(1 p). 37
38 Quelques rappels sur les lois de probabilité La loi Binomiale B(n, p), p (0, 1) et n N ( n P(X = k) = k ) p k (1 p) n k où k = 0, 1,, n, ( ) n k = n! k!(n k)! Alors E(X) = np et V ar(x) = np(1 p). Notons que si X 1,, X n B(p) sont indépendantes, alors X = X X n B(n, p). 38
39 Sous R, dbinom(x, size, prob), qbinom() et pbinom() désigne respectivement la fonction de répartition, la fonction quantile et la loi de probabilité. Fonction de densité Fig. 5 Loi binomiale, B(n, p). 39
40 Quelques rappels sur les lois de probabilité La loi de Poisson P(λ), λ > 0 Alors E(X) = λ et V ar(x) = λ. P(X = k) = exp( λ) λk k! où k = 0, 1, De plus, si X 1 P(λ 1 ) et X 2 P(λ 2 ) sont deux variables indépendantes, alors X 1 + X 2 P(λ 1 + λ 2 ) On peut noter que cette loi vérifie une relation de récurence de la forme P (X = k + 1) P (X = k) = λ k + 1 pour k 1 40
41 Sous R, dpois(x, lambda), qpois() et ppois() désigne respectivement la fonction de répartition, la fonction quantile et la loi de probabilité. Fonction de densité Fig. 6 Loi de Poisson, P(λ). 41
42 Quelques rappels sur les lois de probabilité La loi de géométrique a G(p), p ]0, 1[ P (X = k) = p (1 p) k 1 pour k = 1, 2, dont la fonction de répartition est P (N k) = 1 p k. On peut noter que cette loi vérifie une relation de récurence de la forme P (X = k + 1) P (X = k) = 1 p (= constante) pour k 1 Les premiers moments sont alors E (X) = 1 p et V ar (X) = 1 p p 2. a Il est également possible de définir cette loi sur N, et non pas comme ici sur N\ {0}. 42
43 Quelques rappels sur les lois de probabilité La loi exponentielle E(λ), λ > 0 F (x) = P(X x) = e λx où x 0, f(x) = λe λx. Alors E(X) = 1/λ et V ar(x) = 1/λ 2. Cette loi est parfois dite sans mémoire, i.e. P(X > x + t X > x) = P(X > t). 43
44 Sous R, dexp(x, rate), qexp() et pexp() désigne respectivement la fonction de répartition, la fonction quantile et la densité. Fonction de densité Fig. 7 Loi exponentielle, E(λ). 44
45 Quelques rappels sur les lois de probabilité La loi Gaussienne (ou normale) N (µ, σ 2 ), µ R et σ > 0 ( ) 1 f(x) = exp (x µ)2 2πσ 2 2σ 2, pour x R. Alors E(X) = µ et V ar(x) = σ 2. Notons que si Z N (0, 1), X = µ + σz N (µ, σ 2 ). 45
46 Sous R, dnorm(x, mean, sd), qnorm() et pnorm() désigne respectivement la fonction de répartition, la fonction quantile et la densité. Fonction de densité Fig. 8 Loi normale, N (0, 1). 46
47 Sous R, dnorm(x,mean=a,sd=b) (N (a, b)). densité µ X = 0, σ X = 1 µ Y = 2, σ Y = Fig. 9 Densités de lois normales X N (0, 1) et X N (2, 0.5). 47
48 Quelques rappels sur les lois de probabilité Le vecteur Gaussien N (µ, Σ), X = (X 1,..., X n ) est un vecteur gaussien de moyenne E (X) = µ et de matrice de variance covariance Σ = E ( (X µ) (X µ) ) non dégénéré (Σ est inversible) si et seulement si sa densité s écrit f (x) = 1 (2π) n/2 det Σ exp ( 1 ) 2 (x µ) Σ 1 (x µ), x R d, ou de façon équivalente, si sa fonction caractéristique φ (t) = exp (it X), s écrit ( φ (t) = exp it µ 1 ) 2 t Σt, t R d. Proposition 25. Soit X = (X 1,..., X n ) un vecteur aléatoire à valeurs dans R d, alors X sera dit être un vecteur gaussien si et seulement si, pour tout a = (a 1,..., a n ) R d, a X = a 1 X a n X n est une variable gaussienne. 48
49 Quelques rappels sur les lois de probabilité Soit X un vecteur gaussien, alors pour tout i, X i suit une loi Gaussienne. Mais la réciproque est fausse : si les X i sont des variables gaussiennes, alors X = (X 1,..., X n ) n est pas nécessairement un vecteur gaussien. Proposition 26. Si X = (X 1,..., X n ) est un vecteur gaussien de moyenne E (X) = µ et de matrice de variance covariance Σ, et A est une matrice k n, et b R k, alors Y = AX + b est un vecteur gaussien de R k, de loi N (Aµ, AΣA ). Notons que si (X 1, X 2 ) est un vecteur gaussien, alors X 1 et X 2 sont des variables indépendantes si et seulement si cov (X 1, X 2 ) = E ((X 1 E (X 1 )) (X 2 E (X 2 ))) = 0, cette équivalence étant en général fausse dans un cadre non-gaussien. 49
50 Quelques rappels sur les lois de probabilité Soit X un vecteur gaussien, alors pour tout i, X i suit une loi Gaussienne. Mais la réciproque est fausse : si les X i sont des variables gaussiennes, alors X = (X 1,..., X n ) n est pas nécessairement un vecteur gaussien. Proposition 27. Si X = (X 1, X 2 ) est un vecteur gaussien de moyenne E (X) = µ = µ 1 et de matrice de variance covariance Σ = Σ 11 Σ 12, alors µ 2 Σ 21 Σ 22 X 2 X 1 = x 1 N ( µ 1 + Σ 12 Σ 1 22 (x 1 µ 2 ), Σ 11 Σ 12 Σ 1 22 Σ 21). Considérons une série temporelle définie par X t = ρx t 1 + ε t, avec X 0 = 0, ε 1,, ε n i.i.d. N (0, σ 2 ), i.e. ε = (ε 1,, ε n ) N (0, σ 2 I). Alors X = (X 1,, X n ) N (0, Σ), Σ = [Σ i,j ] = [Cov(X i, X j )] = [ρ i j ]. 50
51 Quelques rappels sur les lois de probabilité En dimension 2, pour un vecteur (X, Y ) centré (i.e. µ = 0) ( ( 1 f(x, y) = 2πσ x σ exp 1 x 2 y 1 ρ 2 2(1 ρ 2 ) σx 2 + y2 σy 2 2ρxy )) (σ x σ y ) où la matrice de variance-covariance Σ est Σ = σ2 x ρσ x σ y ρσ x σ y σ 2 y. 51
52 Densité du vecteur Gaussien, r=0.7 Densité du vecteur Gaussien, r=0.0 Densité du vecteur Gaussien, r= 0.7 Courbes de niveau du vecteur Gaussien, r= 0.7 Courbes de niveau du vecteur Gaussien, r=0.0 Courbes de niveau du vecteur Gaussien, r=0.7 Fig. 10 Les courbes de niveau du vecteur Gaussien. 52
53 Quelques rappels sur les lois de probabilité La loi du chi-deux χ 2 (ν), ν N admet pour densité Notons que E(X) = ν et V ar(x) = 2ν. (1/2) k/2 Γ(k/2) xk/2 1 e x/2, x [0; + [. Si X 1,, X ν N (0, 1) sont indépendantes, alors Y = ν i=1 X2 i χ2 (ν). 53
54 Sous R, dchisq(x, df), qchisq() et pchisq() désigne respectivement la fonction de répartition, la fonction quantile et la densité. Fonction de densité Fig. 11 Loi du chi-deux, χ 2 (ν). 54
55 Quelques rappels sur les lois de probabilité La loi de Student St(ν), de densité f(t) = Γ( ν+1 2 ) νπ Γ( ν 2 ) ( 1 + t2 ν ) ( ν+1 2 ), où Γ désigne la fonction Gamma (Γ(n + 1) = n!). Notons que ν E(X) = 0 et V ar(x) ν 2 pour ν > 2. Si X N (0, 1) et Y χ 2 (ν) sont indépendantes, alors T = X Y/ν St(ν). 55
56 Quelques rappels sur les lois de probabilité Soient X 1,, X n des variables N (µ, σ 2 ) indépendantes. Posons X n = (X X n )/n et S n 2 = 1 n 1 n ( ) 2 Xi X n. i=1 Alors (n 1)S 2 n/σ 2 suit une loi χ 2 (n 1), et on peut montrer que T = X n µ S n / n St(n 1). 56
57 Sous R, dt(x, df), qt() et pt() désigne respectivement la fonction de répartition, la fonction quantile et la densité. Fonction de densité Fig. 12 Loi de Student, St(ν). 57
58 Quelques rappels sur les lois de probabilité La loi de Fischer F(d 1, d 2 ), admet pour densité f(x) = ( ) d1 /2 ( d 1 x d 1 x+d 2 1 d 1 x x B(d 1 /2, d 2 /2) d 1 x+d 2 ) d2 /2 for x 0 pour d 1, d 2 N et où B désigne la fonction beta. Notons que E(X) = d 2 d 2 2 pour d 2 > 2 et V ar(x) = 2 d2 2 (d 1 + d 2 2) d 1 (d 2 2) 2 (d 2 4) pour d 2 > 4. Si X F(ν 1, ν 2 ), alors 1 X F (ν 2, ν 1 ). Si X 1 χ 2 (ν 1 ) et X 2 χ 2 (ν 2 ) sont indépendantes, alors Y = X 1/ν 1 X 2 /ν 2 F(ν 1, ν 2 ). 58
59 Sous R, df(x, df1, df2), qf() et pf() désigne respectivement la fonction de répartition, la fonction quantile et la densité. Fonction de densité Fig. 13 Loi de Fisher, F(d 1, d 2 ). 59
60 Les lois conditionnelles Mélange de deux lois de Bernoulli B(Θ) Soit Θ une variable aléatoire pouvent prendre deux valeurs, θ 1, θ 2 [0, 1] avec probabilité p 1 et p 2 (p 1 + p 2 = 1). Supposons que La loi non-conditionnelle de X est alors X Θ = θ 1 B(θ 1 ) et X Θ = θ 2 B(θ 2 ). P(X = x) = θ P(X = x, Θ = θ) = θ P(X = x Θ = θ) P(Θ = θ) = P(X = x Θ = θ 1 ) p P(X = 0) = P(X = 0 Θ = θ 1 ) p 1 +P(X = 0 Θ = θ 2 ) p 2 = (1 θ 1 )p 1 +(1 θ 2 )p 2 = 1 θ 1 p 1 P(X = 1) = P(X = 1 Θ = θ 1 ) p 1 + P(X = 1 Θ = θ 2 ) p 2 = θ 1 p 1 + θ 2 p 2 i.e. X B(θ 1 p 1 + θ 2 p 2 ). 60
61 Notons que E(X) = θ 1 p 1 + θ 2 p 2 = E(X Θ = θ 1 )P(Θ = θ 1 ) + E(X Θ = θ 2 )P(Θ = θ 2 ) = E(E(X Θ)) V ar(x) = [θ 1 p 1 + θ 2 p 2 ][1 θ 1 p 1 θ 2 p 2 ] = θ 2 1p 1 + θ 2 2p 2 [θ 1 p 1 + θ 2 p 2 ] 2 + [θ 1 (1 θ 1 )]p 1 + [θ 2 (1 θ 2 )]p 2 = E(X Θ = θ 1 ) 2 P(Θ = θ 1 ) + E(X Θ = θ 2 ) 2 P(Θ = θ 2 ) [E(X Θ = θ 1 )P(Θ = θ 1 ) + E(X Θ = θ 2 )P(Θ = θ 2 )] 2 + V ar(x Θ = θ 1 )P(Θ = θ 1 ) + V ar(x Θ = θ 2 )P(Θ = θ 2 ) = E([E(X Θ)] 2 ) [E(E(X Θ))] 2 +E(V ar(x Θ) } {{ } V ar(e(x Θ)) 61
62 Les lois conditionnelles Mélange de deux lois de Poisson P(Θ) Soit Θ une variable aléatoire pouvent prendre deux valeurs, θ 1, θ 2 [0, 1] avec probabilité p 1 et p 2 (p 1 + p 2 = 1). Supposons que X Θ = θ 1 P(θ 1 ) et X Θ = θ 2 P(θ 2 ). Alors P(X = x) = e θ 1 θ1 x x! Il ne s agit pas d une loi connue. p 1 + e θ 2 θ x 2 x! p 2, 62
63 Les lois conditionnelles Mélange continu de lois de Poisson P(Θ) Soit Θ une variable aléatoire à valeurs dans ]0, [, de densité u. Supposons que X Θ = θ P(θ) pour tout θ > 0 Alors De plus, P(X = x) = 0 P(X = x Θ = θ)u(θ)dθ. E(X) = E(E(X Θ)) = E(Θ) V ar(x) = V ar(e(x Θ)) + E(V ar(x Θ)) = V ar(θ) + E(Θ) > E(Θ). Remarque Les lois mélanges sont la base de la statistique bayésienne. 63
64 Les lois conditionnelles, mélange et hétérogénité f(x) = f(x Θ = θ 1 ) P(Θ = θ 1 ) + f(x Θ = θ 2 ) P(Θ = θ 2 ) Fig. 14 Mélange de lois normales. 64
65 Les lois conditionnelles et l hétérogénéité La prise en compte de l hétérogénéité est la base des méthodes économétriques. On suppose en économétrie que Y suit une loi f θ où θ est fonction de X. économétrie linéaire, Y X = x N (β x, σ 2 ). économétrie des variables qualitatives (logit/probit), Y X = x B(ϕ[β x]). régression Poissonienne, Y X = x P(exp[β x]). E.g. Y X 1 = homme B(p h ) et Y X 1 = femme B(p f ). 65
66 Un peu de convergence La suite (X n ) converge presque sûrement vers X, noté X n p.s. X, si lim X n (ω) = X (ω) pour tout ω A, n où P (A) = 1. On dit aussi que (X n ) converge vers X avec probabilité 1 - on parle p.s. également de convergence trajectorielle. Notons que X n X si et seulement si ε > 0, P (lim sup { X n X > ε}) = 0. Il est aussi possible de contrôler les accroissements de la suite (X n ) : soit (ε n ) telle que n 0 P ( X n X > ε n ) < où n 0 ε n <, alors (X n ) converge presque sûrement vers X. 66
67 Un peu de convergence La suite (X n ) converge dans L p vers X, ou en moyenne d ordre p, noté X n L p X, si lim E ( X n X p ) = 0. n Pour p = 1 on parle de convergence en moyenne, et pour p = 2, on parle de convergence en moyenne quadratique. p.s. Supposons que X n X et qu il existe une variable aléatoire Y telle que pour n 0, X n Y P-presque sûrement, avec Y L p, alors X n L p L et X p n X (théorème dit de la convergence dominé). 67
68 Un peu de convergence La suite (X n ) converge en probabilité vers X, noté X n P X, si ε > 0, lim P ( X n X > ε) = 0. n Soit f : R R (ce résultat reste toutefois vrai pour des fonctions f : R p R q ) P une application continue, si X n X alors f (Xn ) P f (X). De plus, si X n p.s. X ou si X n L 1 X alors X n P X. Enfin, si Xn P X, il existe une sous-suite (X nk ) qui converge vers X presque sûrement. Attention X n P c n implique pas forcément E(Xn ) c Une condition suffisante pour que X n P a est que lim EX n = a et n lim V ar(x n) = 0 n 68
69 Un peu de convergence Loi forte des grands nombres On suppose que les variables X i sont i.i.d. et qu elles admettent une moyenne p.s. µ = E(X i ). Alors S n µ lorsque n. Loi faible des grands nombres On suppose que les variables X i sont i.i.d. et qu elles admettent une moyenne µ = E(X i ) finie. Alors S n = (1/n) n i=1 X i, alors S n P µ quand n +. 69
70 Un peu de convergence (iv) La suite (X n ) converge en loi vers X, noté X n continue bornée, lim E (f (X n)) = E (f (X)). n L X, si pour toute font f La convergence en loi est équivalente à la convergence (simple) des fonctions de L répartition : X n X si et seulement si pour tout t R où FX est continue lim F X n (t) = F X (t). n 70
71 Un peu de convergence Soit f : R R (ce résultat reste toutefois vrai pour des fonctions f : R p R q ) L une application continue, si X n X alors f (Xn ) L P f (X). De plus, si X n X L alors X n X (la réciproque n étant vraie que si (Xn ) converge en loi vers une constante). Théorème central limite Soient X 1, X 2... i.i.d. de moyenne µ et de variance σ 2, alors : S n E(S n ) = ( ) Sn µ L n X où X N (0, 1) V ar(sn) σ 71
72 Illustration de la convergence Fréquence des pile Nombre de lancers de pile/face Fig. 15 Convergence de la moyenne empirique. 72
73 Illustration de la convergence Fréquence des pile Nombre de lancers de pile/face Fig. 16 Convergence de la moyenne empirique. 73
74 Illustration de la convergence Fréquence des pile Nombre de lancers de pile/face Fig. 17 Convergence en loi. 74
75 Illustration de la convergence Fréquence des pile Nombre de lancers de pile/face Fig. 18 Convergence en loi. 75
76 Illustration de la convergence Fréquence des pile Nombre de lancers de pile/face Fig. 19 Convergence en loi. 76
77 Cas de la variance infinie? Dans le cas où les X i sont variance infinie, il est possible de généraliser le théorème central limite. On cherche une normalisation (a n ) et (b n ) telles que S n a n bn L Z de loi non-dégénérée. Les lois limites sont appelées lois α-stables. 77
78 Convergence? Moyenne empirique Taille de l'échantillon Fig. 20 Convergence de la moyenne x, cas espérance et variance finies. 78
79 Convergence? Moyenne empirique Taille de l'échantillon Fig. 21 Convergence de la moyenne x, cas espérance finie et variance infinie. 79
80 Convergence? Variance empirique Taille de l'échantillon Fig. 22 Convergence de la variance empirique s 2, cas variance finie. 80
81 Convergence? Variance empirique Taille de l'échantillon Fig. 23 Convergence de la variance empirique s 2, cas variance infinie. 81
82 Convergence? Variance empirique Taille de l'échantillon Fig. 24 Convergence de la variance empirique s 2, cas variance infinie. 82
83 De la convergence aux approximations Proposition 28. Soit (X n ) une suite i.i.d. de variables B(n, p). Alors si L np, X n X où X P(λ), et λ = np Démonstration. Ce résultat découle de l approximation suivante, ( n )p k [1 p] n k exp[ np] [np]k k k! La loi de Poisson P(np) est une approximation de la loi Binomiale B(n, p) pour n suffisement grand, avec np (et donc p petit). En pratique l approximation est valide pour n > 30 et np < 5. 83
84 De la convergence aux approximations Proposition 29. Soit (X n ) une suite i.i.d. de variables B(n, p). Alors si np, [X n np]/ np(1 p) L X où X N (0, 1). En pratique l approximation est valide pour n > 30 et np > 5 et n(1 p) > 5. La loi de Normale N (np, np(1 p)) est une approximation de la loi Binomiale B(n, p) pour n suffisement grand, avec np, n(1 p). 84
85 De la convergence aux approximations P(X = x) P(X = x) x x Fig. 25 Approximation de la de Poisson par une loi normale. 85
86 Lois de transformations de variables aléatoires Soit X une v.a. absolument continue de densité f(x), on cherche à connaître la densité de probabilité de Y = φ(x). Proposition 30. si la fonction φ est dérivable et bijective : La variable Y admet une densité g telle que g(y) = f(φ 1 (y)) φ (φ 1 (y)) Démonstration. 86
87 Exemple de transformation de variables aléatoires Proposition 31. Soit X une variable aléatoire continue de fonction de répartition F, i.e. F (x) = P(X x). Alors Y = F (X) suit une loi uniforme sur [0, 1]. Démonstration. Proposition 32. Soit X une variable aléatoire uniforme sur [0, 1] et F une fonction de répartition. Alors Y = F 1 (X) admet pour fonction de répartition F. Démonstration. Remarque Cette propriété est la base des méthodes de Monte Carlo. 87
88 Lois de transformations de variables aléatoires Soit (X, Y ) un couple de variables aléatoires continues, la loi du couple admet une densité de probabilité f(x, y). Soit (U, V ) = φ (X, Y ). Si on note J φ le Jacobien associé, i.e. J φ = det U/ X V/ X U/ Y V/ Y alors la loi de (U, V ) est donnée par la densité : g (u, v) = 1 J φ f ( φ 1 (u, v) ) 88
89 Quelques exercices? Soit (U, V ) un couple de variables aléatoires indépendantes, uniformément distribuées sur [0, 1] respectivement. Montrer que les variables X = 2 log U cos (2πV ) Y = 2 log U sin (2πV ) sont indépendantes et de même loi N (0, 1). si h est une fonction borélienne, si l on peut écrire E (h (X)) = h (x) f (x) dx = yg (y) dy alors g sera la densité de h (X). Soit h une application borélienne de R 2 dans R. ( ( )) E (h (X, Y )) = E h 2 log U cos (2πV ), 2 log U sin (2πV ) Considérons le changement de variable 89
90 T : (u, v) (x, y) = ( ) 2 log u cos (2πv), 2 log u sin (2πv), s inversant en ( T 1 (x, y) = (u, v) = exp [ x2 + y 2 ] 1, 2 2π arctan y ) x dont le Jabobien est x exp J = 1 2π ( x2 +y 2 2 ) y exp y x 2 +y 2 1 2π ( x2 +y 2 x x 2 +y 2 2 ) = 1 ( 2π exp x2 + y 2 ) 2 ( 0). (ce calcul permet de vérifier que le changement de variable correspond effectivement à un C 1 -difféomorphisme de [0, 1] dans R 2 ). D où finallement, ( ( )) E (h (X, Y )) = E h 2 log U cos (2πV ), 2 log U sin (2πV ) = h (x, y) 1 ( R 2π exp x2 + y 2 ) dxdy
91 Aussi, (X, Y ) admet pour densité f (x, y) = 1 ( 2π exp x2 + y 2 ) 2 = 1 ) exp ( x2 2π 2 1 ) exp ( y2. 2π 2 Aussi, les variables X et Y sont indépendantes, et de même loi N (0, 1). 91
92 Lois de transformations de variables aléatoires Nous avions noté que E(g(X)) g(e(x)), ormis dans le cas où g est une application linéaire. L inégalité de Jensen permet d avoir des résultats dans certains cas, Proposition 33. Soit g une fonction convexe, alors E(g(X)) g(e(x)). Considérons le cas où X prend deux valeurs avec probabilité 1/ Fig. 26 L inégalité de Jensen, g(e(x)) versus E(g(X)). 92
93 L estimateur comme variable aléatoire En statistique descriptive, on construit des estimateurs comme des fonctions des valeurs de l échantillon, e.g. X = x x n n En statistique mathématique, on suppose que x i = X i (ω), i.e. la réalisation d un variable aléatoire sous-jacente X = X X n n X 1,..., X n étant des variables aléatoires, X devient une variable aléatoire. Exemple : supposons que nous disposons d un échantillon de n = 20 valeurs tirées suivant une loi uniforme sur [0, 1]. 93
94 Distribution de la moyenne d'un échantillon U([0,1]) Fréquence Fig. 27 Distribution de la moyenne de {X 1,, X 10 }, X i U([0, 1]). 94
95 Distribution de la moyenne d'un échantillon U([0,1]) Fréquence Fig. 28 Distribution de la moyenne de {X 1,, X 10 }, X i U([0, 1]). 95
96 L estimateur comme variable aléatoire Si l échantillon change, l estimateur n est pas le même. Constituons 1000 échantillons de manière aléatoire. En moyenne, l estimateur vaut 1/2. Aussi, la moyenne empirique est un estimateur sans biais de 1/2, l espérance mathématique de la loi uniforme sur [0, 1]. Cet estimateur a une variance, et aussi une loi (en l occurence une densité). Ici, la moyenne empirique suit (presque) une loi normale. 96
97 Modèle paramétrique On dispose d un échantillon {x 1,, x n }, de n observations indépendantes. On suppose que les x i sont des réalisations d une variable aléatoire X dont la loi F est inconnue. Le but est de déterminer F. En statistique paramétrique, on suppose que F appartient nécessairement à une famille caractérisée par un paramètre θ Θ. X suit une loi de Bernoulli, X B(p), θ = p (0, 1), X suit une loi de Poisson, X P(λ), θ = λ R +, X suit une loi normale, X N (µ, σ), θ = (µ, σ) R R +, On cherche donc une valeur de θ, notée θ, telle que l on supposera que X suit une loi F θ. Remarque On supposera souvent que Θ est un ouvert, il est délicat d estimer sur les bords. 97
98 On dispose d un échantillon Exemple : jeu de pile ou face {pile, pile, face, pile, face, pile, face, face, pile, face, pile, f ace} que l on interprêtera en posant X = 1 si pile 0 si face. On dispose de l échantillon {1, 1, 0, 1, 0, 1, 0, 0, 1, 0, 1, 0} On peut supposer ici que X suite une loi binomiale, X B(p), de paramètre p inconnu (mais que l on va chercher à estimer). 98
99 Inférence statistique Quelle est la vraie valeur de p, que l on ne connaît pas? Quelle est la valeur de p la plus vraisemblable? Sur n lancers, la probabilité d obtenir précisément l échantillon {x 1,, x n } est P(X 1 = x 1,, X n = x n ), où X 1,, X n sont n versions indépendentes de X, supposées suivre la loi B(p). Aussi, P(X 1 = x 1,, X n = x n ) = car p x i (1 p) 1 x i = n P(X i = x i ) = i=1 p si x i vaut 1 1 p si x i vaut 0 n p x i (1 p) 1 x i, i=1 99
100 Inférence statistique Aussi, P(X 1 = x 1,, X n = x n ) = p n i=1 x i (1 p) n i=1 1 x i. Cette fonction, qui dépend de p mais aussi de {x 1,, x n } est appelée vraisemblance de l échantillon, et sera notée L (likelihood), L(p; x 1,, x n ) = p n i=1 x i (1 p) n i=1 1 x i. Ici, nous avons obtenu 5 valeurs de 1 et 6 fois 0. On en déduit les vraisemblances suivante en fonction de l échantillon. 100
101 Valeur de p L(p; x 1,, x n ) e e e e e e e-04 Vraisemblance L 0e+00 1e 04 2e 04 3e 04 4e 04 5e e e Probabilité p La valeur la plus vraisemblance pour p est obtenue au maximum de la vraisemblance, i.e
102 Inférence statistique Peut-on utiliser la moyenne empirique? Rappelons que l on dispose de l échantillon {1, 1, 0, 1, 0, 1, 0, 0, 1, 0, 1, 0} Rappelons que pour une loi binomiale, E(X) = p. Aussi, il pourrait être légitime de considérer comme estimateur de p la version empirique de E(X), i.e. x. Un estimateur naturel de p serait donc x 5/11 =
103 Le maximum de vraisemblance Formellement, si f θ désigne la vraie loi (inconnue) de X, df (x) la densité de X si X est continue, i.e. f θ (x) = = F (x), dx la loi de probabilité de X si X n est pas continue, i.e. f θ (x) = P(X = x), La vraisemblance s écrit, comme les X i sont i.i.d. L(θ; x 1,, x n ) = P(X 1 = x 1,, X n = x n ) = n f θ (x i ) Un estimateur naturel pour θ est obtenu au maximum de la vraisemblance, θ argmax{l(θ; x 1,, x n ), θ Θ}. i=1 Petite remarque pratique : pour toute fonction croissante h, θ argmax{h (L(θ; x 1,, x n )), θ Θ}. 103
104 Le maximum de vraisemblance Fig. 29 Invariance de la position du maximum par transformation croissante. 104
105 Le maximum de vraisemblance Prenons le cas particulier de la fonction h = log θ argmax{log (L(θ; x 1,, x n )), θ Θ}. i.e. on cherche le maximum de la log-vraisemblance, qui s écrit simplement log L(θ; x 1,, x n ) = n log f θ (x i ) i=1 et pour chercher le maximum, la condition du 1er ordre impose de calculer des dérivées (et la dérivée d une somme est plus simple à calculer que la probabilité d un produit), si θl(θ; x) est dérivable. 105
106 Vraisemblance L 0e+00 1e 04 2e 04 3e 04 4e 04 5e 04 Log vraisemblance L Probabilité p Probabilité p Fig. 30 Fonction de vraisemblance et de log-vraisemblance. 106
107 Le maximum de vraisemblance Les quations de vraisemblance sont alors condition du premier ordre si θ R k, log (L(θ; x 1,, x n )) θ = 0 θ= θ si θ R, log (L(θ; x 1,, x n )) θ = 0 θ= θ condition du second ordre si θ R k, 2 log (L(θ; x 1,, x n )) θ θ θ= θ si θ R, 2 log (L(θ; x 1,, x n )) θ est définie négative < 0 θ= θ La fonction log (L(θ; x 1,, x n )) θ vraisemblance, le score est nul. est appelé fonction score : au maximum de 107
108 La notion d information de Fisher Un estimateur θ de θ sera dit exhaustif s il fournit autant d information sur θ que l ensemble des observations {x 1,, x n }. L information de Fisher associée à une densité f θ, θr est ( ) 2 d I(θ) = E dθ log f θ(x) où X a pour loi f θ, I(θ) = V ar ( ) d dθ log f θ(x) ( ) d 2 = E dθ 2 log f θ(x). Notons que l information de Fisher est simplement la variance du score. Pour parle aussi d information de Fisher pour un observation unique. Dans le cas d un échantillon X 1,, X n de densité f θ, l information est I n (θ) = n I(θ). 108
109 Notions d efficacité et d optimalité Si θ est une estimateur sans biais de θ, alors V ar( θ) 1. Un estimateur qui ni(θ) atteint cette borne sera dit efficace. Mais la borne n est pas toujours atteignable. Un estimateur θ sans biais sera dit optimal s il est de variance minimale parmi tous les estimateurs sans biais. La notion d information de Fisher en dimension plus grande L information de Fisher est la matrice k k I = [I i,j ] où ( I i,j = E ln f θ (X) ) ln f θ (X). θ i θ j 109
110 Exemple de calcul d information de Fisher Soit X suivant une loi P(θ), log f θ (x) = θ + x log θ log(x!) et d2 dθ 2 log f θ(x) = x θ 2 ( ) d 2 I(θ) = E dθ 2 log f θ(x) = E ( Xθ ) 2 = 1 θ Pour une loi B(n, θ), I(θ) = n θ(1 θ) Pour une loi BN (θ, σ 2 ), I(θ) = 1 σ 2 Pour une loi BN (µ, θ), I(θ) = 1 2θ 2 110
111 Le maximum de vraisemblance Definition 34. Soit {x 1,, x n } un échantillon de loi f θ, où θ Θ. On appelle estimateur du maximum de vraisemblance θ n de θ θ n argmax{l(θ; x 1,, x n ), θ Θ}. Proposition 35. Sous quelques conditions techniques, θ n converge presque sûrement vers θ, θ p.s. n θ. Proposition 36. Sous quelques conditions techniques, θ n est un estimateur asymptotiquement efficace de θ, n( θn θ) L N (0, I 1 (θ)). L estimateur du maximum de vraisemblance n a aucune raison d être sans biais. 111
112 Le maximum de vraisemblance, cas N (µ, σ 2 ) Soit {x 1,, x n } un échantillon indépendant, distribué suivant la loi N (µ, σ 2 ), de densité ) f(x µ, σ 2 1 (x µ)2 ) = exp ( 2π σ 2σ 2. La vraisemblance est alors n f(x 1,..., x n µ, σ 2 ) = f(x i µ, σ 2 ) = ou encore i=1 f(x 1,..., x n µ, σ 2 ) = ( ) n/2 ( n 1 i=1 2πσ 2 exp (x i µ) 2 ) 2σ 2, ( ) n/2 ( n 1 i=1 2πσ 2 exp (x i x) 2 + n( x µ) 2 ) 2σ
113 Le maximum de vraisemblance, cas N (µ, σ 2 ) Le maximum de vraisemblance en µ est obtenu à l aide de la condition du premier ordre, ( ( ) n/2 ( n 1 µ log i=1 2πσ 2 exp (x i x) 2 + n( x µ) 2 ) ) 2σ 2 ( ) = µ = 0 log ( 1 2πσ 2 2n( x µ) 2σ 2 = 0. qui donne µ = x = n i=1 x i/n. ) n/2 n i=1 (x i x) 2 + n( x µ) 2 2σ 2 113
114 La seconde condition du premier ordre s écrit ( ( 1 σ log 2πσ 2 = σ ( ( n 1 2 log 2πσ 2 ) n/2 ( n i=1 exp (x i x) 2 + n( x µ) 2 2σ 2 ) n i=1 (x i x) 2 + n( x µ) 2 ) 2σ 2 = n σ + n i=1 (x i x) 2 + n( x µ) 2 σ 3 = 0. Le maximum est alors obtenu pour σ 2 = n i=1 (x i µ) 2 /n. Par substitution de µ, on peut écrire σ 2 = 1 n n (x i x) 2 = 1 n i=1 n x 2 i 1 n 2 i=1 n i=1 ] On peut noter facilement que E [ µ] = µ, mais aussi E [ σ2 n x i x j. j=1 = n 1 n σ2. ) ) 114
115 Le maximum de vraisemblance, cas uniforme sur [0, θ] La densité des X i est ici f θ (x) = 1 1(0 x θ). θ La vraisemblance s écrit alors L(θ; x 1,, x n ) = 1 n θ n i=1 1(0 x i θ) = 1 θ n 1(0 inf{x i} sup{x i } θ). Cette fonction n est pas dérivable en θ, mais on note que L est maximale pour θ le plus petit possible, i.e. θ = sup{x i }
116 Le maximum de vraisemblance Notons que l estimateur du maximum de vraisemblance n est par nécessairement unique. Supposons que {x 1,, x n } soient uniformént distribuées sur [θ, θ + 1]. Si θ = sup{x i } 1 < inf{x i } = θ + Alors tout estimateur θ [ θ, θ + ] est un estimateur du maximum de vraisemblance de θ. Enfin l estimateur du maximum de vraisemblance n est pas forcément sans biais. Dans le cas de la loi exponentielle θ = 1/x. En utilisant des propriétés de la loi inverse-gamma, onm peut montrer que E( θ) = n n 1 θ > θ. 116
117 Le maximum de vraisemblance, aspects numériques Pour les lois usuelles, sous R, library(mass) permet de calculer le maximum de vraisemblance pour les lois usuelles, e.g. fitdistr(x.norm,"normal") pour estimer les paramètres d une loi normale pour un échantillon x. Si on souhaite utiliser des méthodes numériques sous R, LV <- function(theta){-sum(log(dexp(x,theta)))} puis optim(2,lv) permet de calculer numériquement le maximum de la fonction de log-vraisemblance. Parfois, obtenir le maximum de la vraisemblance peut être difficile, ou impossible. On peut alors utiliser des méthodes de type Newton-Rahpson ou la méthode du score pour approcher numériquement le maximum. Soit S(x, θ) = θ log f(x, θ) la fonction score. On pose S n (θ) = n S(X i, θ). i=1 117
118 En faisant un développement de Taylor, de S n au voisinage de θ 0, En x = θ n, S n (x) = S n (θ 0 ) + (x θ 0 )S n(y) pour y [x, θ 0 ] S n ( θ n ) = 0 = +( θ n θ 0 )S n(y) pour y [θ 0, θ n ] Aussi, θ n = θ 0 S n(θ 0 ) S n(y) pour y [θ 0, θ n ] 118
119 Le maximum de vraisemblance, aspects numériques Construisons la suite (Newton-Raphson) θ (i+1) n = θ (i) n S n( θ n (i) ) S n( θ n (i) ), à partir d une valeur initiale θ (0) n bien choisie. Construisons la suite (méthode du score) θ (i+1) n = θ (i) n S n( θ n (i) ) ni( θ n (i) ), à partir d une valeur initiale θ (0) n bien choisie. 119
120 La méthode des moments La méthode des moments est la méthode la plus simple et la plus intuitive pour estimer un paramètre θ. Si E(X) = g(θ), on cherche θ tel que x = g( θ). Exemple Dans le cas d une loi exponentielle sur E(θ), P(X x) = 1 e θx, E(X) = 1/θ, donc θ = 1/x. Exemple Dans le cas d une loi uniforme sur [0, θ], E(X) = θ/2, donc θ = 2x. Si θ R 2, on utilise également soit V ar(x), soit E(X 2 ). 120
121 Quelques propri tés de l estimateur de la moyenne Proposition 37. Pour un échantillon i.i.d. de variance finie, E(X) = E(X i ) et V ar(x) = V ar(x i). n Par exemple, pour un échantillon i.i.d. suivant une loi B(p) E(X) = p et V ar(x) = p(1 p). n Proposition 38. Pour un échantillon i.i.d.suivant une loi N (µ, σ) n X µ σ N (0, 1) Démonstration. Car la somme de variables gaussiennes indépendantes est encore gaussienne. 121
122 Proposition 39. Pour un échantillon i.i.d. de variance finie n X µ σ N (0, 1) Démonstration. Théorème central limite. De manière générale, pour un paramètre θ R, on utilise l estimateur suivant Definition 40. Si E(X) = g(θ) avec g bijective, alors l estimateur des moments de θ est θ = g 1 (X) Dans ce cas, notons que l estimateur n est - en général - pas sans biais, E( θ) = E(g 1 (X)) g 1 (E(X)) = g 1 (E(X)) = g 1 (g(θ)) = θ. 122
123 Si g est linéaire, l estimateur est sans biais. Si g est convexe, l estimateur a un biais positif et si g est concave, l estimateur a un biais négatif. Néanmoins, la normalité asymptotique reste valide ( method), Proposition 41. Si un estimateur α de α est asymptotiquement normal, n( α α) N (0, σ 2 ), alors θ = ϕ( α) est un estimateur asymptotiquement normal de θ = ϕ(α), i.e. n( θ θ) = n(ϕ( α) ϕ(α)) N (0, ϕ (α)σ 2 ), Exemple : Considérons un échantillon i.i.d. {x 1,, x n } de loi exponentielle, i.e. E(X) = 1/λ. Alors θ = 1/x n. θ est un estimateur biaisé de θ, E( θ) = n θ, mais n 1 P 1 X n θ et ( n X n 1 ) L N (0, 1θ ) θ
124 Soit g(x) = 1/x sur ]0, [, alors g(x n ) P g ( ) 1 θ et n ( g(x n ) g ( )) 1 θ L N ( 0, 1 ( ) ) 2 1 θ 2 g, θ aussi, θ P θ et n ( θ θ ) L N ( 0, θ 2 ). De manière encore plus générale, pour un paramètre θ R 2, on utilise l estimateur suivant Proposition 42. Si (E(X), V ar(x)) = g(θ) avec g un C 1 difféomorphisme, alors l estimateur des moments de θ est θ = g 1 (X, S 2 X) 124
125 Moments empiriques pour un échantillon N (µ, σ 2 ) Soit {x 1,, x n } un échantillon i.i.d. de loi N (µ, σ 2 ). la moyenne (empirique) X = 1 n X i n E(X) = µ et V ar(x) = σ2 n la variance (empirique) S 2 = 1 n E(S 2 ) = n 1 n σ2 et V ar(s 2 ) = E( S 2 ) = σ 2 et V ar( S 2 ) = i=1 n (X i X) 2 et S 2 = 1 n 1 i=1 2σ4 (n 1) 2 2(n 1) n 2 σ 4 n (X i X) 2 i=1 125
126 Estimateur des moments Supposons que {x 1,..., x n } soit un échantillon i.i.d. de loi Gamma, de densité f(x; α, β) = xα 1 e x/β β α Γ(α) pour x 0. On cherche à estimer θ = (α, β). Rappelons que E(X) = αβ et E(X 2 ) = β 2 α(α + 1). Aussi αβ = m 1 β 2 α(α + 1) = m 2 soit α = m 2 1 m 2 m 2 1 et β = m 2 m 2 1 m 1. Aussi, α = ˆm 2 1 ˆm 2 ˆm 2 1 ˆm 1 = X X n n et β = ˆm 2 ˆm 2 1 ˆm 1 où et ˆm 2 = X X 2 n n. 126
127 Comparer des estimateurs Parmi les propriétés usuelles des estimateurs, sans biais, E( θ n ) = θ, convergent, θ P n θ, quand n asymptotiquement normal, n( θ θ) L N (0, σ 2 ) quand n, efficace optimal Soient T 1 et T 2 deux estimateurs sans biais, alors T 1 sera dit plus efficace que T 2 s il est de variance plus faible. Pour comparer deux estimateurs sans biais, on compare souvent leur variance. Le meilleur estimateur aura la variance la plus faible. 127
128 Comparer des estimateurs, biais vs. variance Fig. 31 Choisir un estimateur, θ 1 versus θ
129 Comparer des estimateurs, biais vs. variance θ 1 estime avec biais θ (E( θ 1 ) E(θ)), θ 2 estime sans biais θ (E( θ 2 ) = E(θ)), V ar( θ 1 ) V ar( θ 2 ). L estimateur θ 1 peut être intéressant dès lors que l on peut estimer correctement le biais. Mais le biais est souvent une fonction de θ (qui est inconnu), le biais est souvent une fonction compliquée de θ. 129
130 Estimation de l écart-type et de la variance Considérons le cas o u X N (µ, σ 2 ). Un estimateur naturel de σ est σ = σ 2 = 1 n (x i x) n 1 2 On peut alors montrer que i=1 E( σ) = 2 n 1 Γ(n/2) Γ([n 1]/2) σ σ Notons toutefois que σ p.s. σ et n( σ σ) L N ( 0, σ ) 2 130
131 Estimation de l écart-type et de la variance Biais (multiplicatif) Taille de l'échantillon (n) Fig. 32 Biais lors de l estimation de l écart-type. 131
Moments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailExercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Plus en détailQue faire lorsqu on considère plusieurs variables en même temps?
Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites
Plus en détailMA6.06 : Mesure et Probabilités
Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................
Plus en détailLoi d une variable discrète
MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailDifférentiabilité ; Fonctions de plusieurs variables réelles
Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2
Plus en détailI. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détail4. Martingales à temps discret
Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détailLicence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7
Feuilles de 1 à 7 Ces feuilles avec 25 exercices et quelques rappels historiques furent distribuées à des étudiants de troisième année, dans le cadre d un cours intensif sur deux semaines, en début d année,
Plus en détailThéorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailTests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA
Plus en détailVariables Aléatoires. Chapitre 2
Chapitre 2 Variables Aléatoires Après avoir réalisé une expérience, on ne s intéresse bien souvent à une certaine fonction du résultat et non au résultat en lui-même. Lorsqu on regarde une portion d ADN,
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailCorrection du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Plus en détailLe modèle de Black et Scholes
Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un
Plus en détailM2 IAD UE MODE Notes de cours (3)
M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de
Plus en détailIntégration et probabilités TD1 Espaces mesurés Corrigé
Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.
Plus en détailTexte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailProbabilités et Statistiques. Feuille 2 : variables aléatoires discrètes
IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailFonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Plus en détailMaster IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1
Master IMEA Calcul Stochastique et Finance Feuille de T.D. n o Corrigé exercices8et9 8. On considère un modèle Cox-Ross-Rubinstein de marché (B,S) à trois étapes. On suppose que S = C et que les facteurs
Plus en détailCouples de variables aléatoires discrètes
Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude
Plus en détail3. Caractéristiques et fonctions d une v.a.
3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions
Plus en détailPROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390
PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas
Plus en détailCalcul différentiel. Chapitre 1. 1.1 Différentiabilité
Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace
Plus en détail4 Distributions particulières de probabilités
4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli
Plus en détailLoi binomiale Lois normales
Loi binomiale Lois normales Christophe ROSSIGNOL Année scolaire 204/205 Table des matières Rappels sur la loi binomiale 2. Loi de Bernoulli............................................ 2.2 Schéma de Bernoulli
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détailCorrection de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailCours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel
Cours de gestion des risques d assurances et de théorie de la ruine Stéphane Loisel ISFA, 2005-2006 Table des matières I Modélisation de la charge sinistre : du modèle individuel au modèle collectif 5
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailCorrection du baccalauréat ES/L Métropole 20 juin 2014
Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)
Plus en détailMÉTHODE DE MONTE CARLO.
MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental
Plus en détailThéorie de l estimation et de la décision statistique
Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory
Plus en détailCalcul fonctionnel holomorphe dans les algèbres de Banach
Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte
Plus en détailTests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision
Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous
Plus en détailI3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300
I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,
Plus en détailSéminaire TEST. 1 Présentation du sujet. October 18th, 2013
Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de
Plus en détailLEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,
Plus en détailFonctions de plusieurs variables
Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les
Plus en détailExercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailModèles et Méthodes de Réservation
Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E
Plus en détailAmphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailFonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples
45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et
Plus en détailFonctions de plusieurs variables. Sébastien Tordeux
Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................
Plus en détailLimites finies en un point
8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,
Plus en détail1 TD1 : rappels sur les ensembles et notion de probabilité
1 TD1 : rappels sur les ensembles et notion de probabilité 1.1 Ensembles et dénombrement Exercice 1 Soit Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(p(ω)) = 2 4. Soit k n (
Plus en détailPrécision d un résultat et calculs d incertitudes
Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................
Plus en détailActuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.
Actuariat I ACT2121 septième séance Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement
Plus en détailTP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options
Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce
Plus en détailENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N
ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement
Plus en détailModèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes
de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes Zohra Guessoum 1 & Farida Hamrani 2 1 Lab. MSTD, Faculté de mathématique, USTHB, BP n 32, El Alia, Alger, Algérie,zguessoum@usthb.dz
Plus en détailCapes 2002 - Première épreuve
Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série
Plus en détailImage d un intervalle par une fonction continue
DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction
Plus en détailEconomie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de
Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos olivier.bos@u-paris2.fr
Plus en détailPierre Thérond pierre@therond.fr. Année universitaire 2013-2014
http://www.therond.fr pierre@therond.fr Institut de Science Financière et d Assurances - Université Lyon 1 Année universitaire 2013-2014 Plan du cours 1 Chapitre 1 - Introduction 2 3 4 Bibliographie principale
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détailThéorie des probabilités
Théorie des probabilités LAVOISIER, 2008 LAVOISIER 11, rue Lavoisier 75008 Paris www.hermes-science.com www.lavoisier.fr ISBN 978-2-7462-1720-1 ISSN 1952 2401 Le Code de la propriété intellectuelle n'autorisant,
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Plus en détailLois de probabilité. Anita Burgun
Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage
Plus en détailChapitre VI Fonctions de plusieurs variables
Chapitre VI Fonctions de plusieurs variables 6. 1 Fonctions différentiables de R 2 dans R. 6. 1. 1 Définition de la différentiabilité Nous introduisons la différentiabilité sous l angle des développements
Plus en détailÉconometrie non paramétrique I. Estimation d une densité
Économetrie non paramétrique I. Estimation d une densité Stéphane Adjemian Université d Évry Janvier 2004 1 1 Introduction 1.1 Pourquoi estimer une densité? Étudier la distribution des richesses... Proposer
Plus en détailProbabilités et statistique. Benjamin JOURDAIN
Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech
Plus en détailProcessus aléatoires avec application en finance
Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et
Plus en détailTABLE DES MATIERES. C Exercices complémentaires 42
TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence
Plus en détailIntroduction à l approche bootstrap
Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?
Plus en détailFIMA, 7 juillet 2005
F. Corset 1 S. 2 1 LabSAD Université Pierre Mendes France 2 Département de Mathématiques Université de Franche-Comté FIMA, 7 juillet 2005 Plan de l exposé plus court chemin Origine du problème Modélisation
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailModélisation aléatoire en fiabilité des logiciels
collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.
Plus en détailFonctions de plusieurs variables et applications pour l ingénieur
Service Commun de Formation Continue Année Universitaire 2006-2007 Fonctions de plusieurs variables et applications pour l ingénieur Polycopié de cours Rédigé par Yannick Privat Bureau 321 - Institut Élie
Plus en détailBaccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailChapitre 7 : Intégration sur un intervalle quelconque
Universités Paris 6 et Paris 7 M1 MEEF Analyse (UE 3) 2013-2014 Chapitre 7 : Intégration sur un intervalle quelconque 1 Fonctions intégrables Définition 1 Soit I R un intervalle et soit f : I R + une fonction
Plus en détailBaccalauréat ES/L Amérique du Sud 21 novembre 2013
Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur
Plus en détailUniversité Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications
Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au
Plus en détailIntégration sur des espaces produits
Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailProbabilités avancées. Florin Avram
Probabilités avancées Florin Avram 24 janvier 2014 Table des matières 1 Mise en scène discrète 3 1.1 Espace des épreuves/résultats possibles, événements, espace probabilisé, mesure de probabilités, variables
Plus en détail