Probabilités & statistiques quelques brefs rappels

Dimension: px
Commencer à balayer dès la page:

Download "Probabilités & statistiques quelques brefs rappels"

Transcription

1 Probabilités & statistiques quelques brefs rappels Arthur Charpentier, 2008/2009 Master 1 Ingénierie économique et financière Master 1 Statistique & économétrie http ://blogperso.univ-rennes1.fr/arthur.charpentier/index.php/category/rappels-stat-m

2 Plan du cours Introduction, la modélation statistique Rappels de probabilité Fonctions usuelles, P, F, f, E, V ar Lois uselles, discètes et continues Conditionnement, espérance conditionnelle et mélanges Convergence, approximations et théorèmes limites Loi(s) des grands nombres Théorème central limite Rappels de statistique (mathématique) De la statistique descriptive à la statistique mathématique Inférence et estimation ponctuelle Estimateur du maximum de vraisemblance, propriétés Estimateur des moments, propriétés Comparaison d estimateurs, quelques exemples Intervalle de confiance Théorie des tests 2

3 La modélisation statistique Les actions rapportent-elles plus - en moyenne - que les obligations détat, i.e. E(X) > r? Il est possible qu une banque perde la trace de transactions électroniques, i.e. P(perte) > 0.01%? Les actions en France sont plus risquées qu en Allemagne, i.e. V ar(y X = France) V ar(y X = Allemagne)? Un portefeuille d actions, de pondérations a = (a 1,, a k ) est-il efficient, i.e. V ar(a X) σ sachant que E(a X) µ? Les jeunes hommes ont-ils plus d accident que les jeunes femmes, i.e. E(Y X = homme) E(Y X = femme)? Le risque perte d exploitation est-il assurable, i.e. E(X) <? 3

4 La modélisation statistique Question oui/non formalisée sous forme probabiliste/statistique échantillon estimation test statistique {x 1,, x n } θ n = ϕ(x 1,, x n ) H 0 : θ 0 = κ modèle propriétés loi sous H 0 de T n probabiliste de l estimateur intervalle de confiance X i i.i.d. E( θ n ) T n [a, b] de loi F θ0 V ar( θ n ) θn [α, β] où F θ0 {F θ, θ Θ} (asymptotiques ou κ [α, β] : accepte H 0 distance finie) κ / [α, β] : rejette H 0 4

5 L espace de probabilité On suppose être dans un espace de probabilité (Ω, A, P). Ω est l espace fondamental, Ω = {ω i, i I} est l ensemble de tous les résultats possible d une expérience aléatoire. A est la tribu des évènements, ou l ensemble des parties de Ω, i.e. l ensemble des évènements. P est une mesure de probabilité sur Ω, i.e. P(Ω) = 1 pour tout évènement A de Ω, 0 P(A) 1, pour tous A 1,, A n disjoints (A i A j = ), P( A i ) = P(A i ). Rappelons qu une variable aléatoire X est une fonction Ω R. 5

6 Quelques rappels sur les fonctions usuelles Definition 1. Soit X une variable aléatoire. La fonction de répartition, cumulative distribution function (cdf) de X est F (x) = P(X x), pour tout x R. Formellement, F (x) = P({ω Ω X(ω) x}). Notons que F est une fonction croissante sur R, lim F (x) = 0 et lim x F (x) = 1. x + On dira que X et Y sont égales en loi, X L = Y si pour tout x F X (x) = P(X x) = P(Y x) = F Y (x). On appelle fonction de survie F (x) = 1 F (x) = P(X > x). 6

7 Sous R, pexp() ou ppois() renvoient les fonctions de répartition des lois exponentielle (E(1)) et de Poisson. Fonction de répartition Fonction de répartition Fig. 1 Fonction de répartition F (x) = P(X x). 7

8 Quelques rappels sur les fonctions usuelles Definition 2. Soit X une variable aléatoire. La fonction quantile de X est Q(p) = F 1 (p) = inf{x R tel que F (x) > p}, pour tout p [0, 1]. Probabilité p Valeur x Valeur x Probabilité p 8

9 Sous R, qexp() ou qpois() renvoient quantiles des lois exponentielle (E(1)) et de Poisson. Fonction quantile Fonction quantile Fig. 2 Fonction quantile Q(p) = F 1 (p). 9

10 Quelques rappels sur les fonctions usuelles Definition 3. Soit X une variable aléatoire. La fonction de densité ou la fonction de probablité de X est df (x) = F (x) dans le cas continu, x R f(x) = dx P(X = x) dans le cas discret, x N F étant croissante, une densité est toujours positive. Dans le cas continu, il est possible d avoir f(x) > 1. x x Aussi, F (x) = f(s)ds dans le cas continu, F (x) = f(s) dans le cas discret. s=0 10

11 Sous R, dexp() ou dpois() renvoient les densités des lois exponentielle (E(1)) et de Poisson. Fonction de densité Fonction de densité Fig. 3 Fonction de densité f(x) = F (x) ou f(x) = P(X = x). 11

12 P(X [a, b]) = b a f(s)ds ou b f(s). s=a Fonction de densité Fonction de densité Fig. 4 Probabilité P(X [1, 3[). 12

13 Quelques rappels sur les vecteurs aléatoires Definition 4. Soit Z = (X, Y ) un vecteur aléatoire. La fonction de répartition de Z est F (z) = F (x, y) = P(X x, Y y), pour tout z = (x, y) R R. Definition 5. Soit Z = (X, Y ) un vecteur aléatoire. La fonction de densité de Z est F (x, y) dans le cas continu, z = (x, y) R R f(z) = f(x, y) = x y P(X = x, Y = y) dans le cas discret, z = (x, y) N N 13

14 Quelques concepts sur les vecteurs aléatoires Etant donné un vecteur aléatoire Z = (X, Y ) de fonction de répartition F et de densité f, on peut en déduire les lois marginales de X (ou de Y ) en notant simplement que F X (x) = P(X x) = P(X x, Y + ) = lim F (x, y), y f X (x) = P(X = x) = f X (x) = P(X = x, Y = y) = y=0 f(x, y), dans le cas discret y=0 f(x, y)dy dans le cas continu 14

15 La loi conditionnelle Y X De plus, on peut définir loi conditionnelle de Y sachant X = x, dont la fonction de densité est donnée par la formule de Bayes P(Y = y X = x) = P(X = x, Y = y) P(X = x) dans le cas discret, f Y X=x (y) = f(x, y), dans le cas continu. f X (x) On peut également considérer la fonction de répartition P(Y y X = x) = y P(Y = t X = x) = t=0 y t=0 P(X = x, Y = t) P(X = x) dans le cas discret, F Y X=x (y) = x f Y X=x (t)dt = 1 f X (x) x f(x, t)dt, dans le cas continu. 15

16 Quelques concepts sur les vecteurs aléatoires Definition 6. Soient X et Y deux variables aléatoires. On dira que X et Y sont indépendantes si une des conditions suivantes est satisfaite F (x, y) = F X (x)f Y (y) pour tout x, y, ou P(X x, Y y) = P(X x) P(Y y), f(x, y) = f X (x)f Y (y) pour tout x, y, ou P(X = x, Y = y) = P(X = x) P(Y = y), F Y X=x (y) = F Y (y) pour tout x, y, ou f Y X=x (y) = f Y (y), F X Y =y (y) = F X (x) pour tout x, y, ou f X Y =y (y) = f X (x). On notera X Y pour signifier l indépendance. 16

17 Etude de l indépendance Les tableaux suivants donnent les valeurs de P(X =, Y = ) X = 0 X = 1 Y = Y = ooo X = 0 X = 1 Y = Y = Dans les deux cas, P(X = 0) = P(X = 0, Y = 0) + P(X = 0, Y = 1) = = 0.6, i.e. X B(0.4) Dans le premier cas, X et Y ne sont pas indépendantes, mais le sont dans le second. 17

18 Notion d indépendance conditionnelle On dira que X et Y sont conditionnellement indépendantes sachant Z si pour tout z tel que P(Z z) > 0, P(X x, Y y Z = z) = P(X x Z = z) P(Y y Z = z) 18

19 Quelques rappels sur les moments Definition 7. Soit X une variable aléatoire. L espérance (expected value) de X est E(X) = x f(x)dx ou x P(X = x) Definition 8. Soit Z = (X, Y ) un vecteur aléatoire. L espérance de Z est E(Z) = E(X) E(Y ) x=0 Proposition 9. L espérance de Y = g(x), où X a pour densité f, est E(g(X)) = + g(x) f(x)dx. Notons que si g n est pas linéaire, E(g(X)) g(e(x)). 19

20 Quelques rappels sur l espérance Proposition 10. Soient X et Y deux variables aléatoires d espérance finie, E(αX + βy ) = αe(x) + βe(y ), pour tout α, β, i.e. l espérance est linéaire, E(XY ) E(X) E(Y ) de manière générale, mais l égalité est vérifié si X Y. L espérance d une variable aléatoire une un nombre réel. Exemple Considérons une loi uniforme sur [a, b], de densité f(x) = 1 1(x [a, b]), b a E(X) = xf(x)dx = 1 b xdx = 1 [ x 2 b a b a 2 = R 1 b a b 2 a 2 2 = 1 b a a (b a)(a + b) 2 ] b a = a + b 2. 20

21 Il existe des variables aléatoires dont l espérance n existe pas (ou est infinie). Example 11 (Paradoxe de Saint Peterbrourg). Considérons un jeu de pile ou face où les gains sont doublés à chaque lancer, et le jeu est arrêté au 1er pile. E(X) = 1 P(pile au 1er lancer) +1 2 P(1er pile au 2ème lancer) +2 2 P(1er pile au 3ème lancer) +4 2 P(1er pile au 4ème lancer) +8 2 P(1er pile au 5ème lancer) P(1er pile au 6ème lancer) P(1er pile au 7ème lancer) + = =. 21

22 L espérance conditionnelle Definition 12. Soient X et Y deux variables aléatoires. L espérance conditionnelle (conditional expectation) de Y sachant X = x est l espérance associée à la loi conditionnelle Y X = x, E(Y X = x) = y f Y X=x (y)dy ou y P(Y = y X = x). x=0 E(Y X = x) est donc fonction de x, E(Y X = x) = ϕ(x). Par abus de notation, on appellera E(Y X) la variable aléatoire ϕ(x). Proposition 13. E(Y X) étant une variable aléatoire, notons que E[E(Y X)] = E(Y ). 22

23 Démonstration. E (E(X Y )) = y = y = y = x = x = x E(X Y = y) P(Y = y) ( ) x P(X = x Y = y) P(Y = y) x x P(X = x Y = y) P(Y = y) x x P(Y = y X = x) P(X = x) y x P(X = x) x P(X = x) = E(X). ( ) P(Y = y X = x) y 23

24 Quelques rappels sur les moments Pour travailler sur le moment d ordre 2, rappelons que E(g(X)) = + g(x) f(x)dx E(g(X, Y )) = + + g(x, y) f(x, y)dxdy. Definition 14. Soit X une variable aléatoire. La variance (variance) de X est V ar(x) = E[(X E(X)) 2 ] = (x E(X)) 2 f(x)dx ou (x E(X)) 2 P(X = x). x=0 Une écriture équivalente est V ar(x) = E[X 2 ] (E[X]) 2 La variance mesure la dispersion des valeurs prises par X autour de E(X), c est un nombre réel. V ar(x) est appelé écart-type (standard deviation), ou volatilité. 24

25 Quelques rappels sur les moments Definition 15. Soit Z = (X, Y ) un vecteur aléatoire. La matrice de variance-covariance (variance-covariance matrix) de Z est V ar(x) Cov(X, Y ) V ar(z) = Cov(Y, X) V ar(y ) où V ar(x) = E[(X E(X)) 2 ] et Cov(X, Y ) = E[(X E(X)) (Y E(Y ))] = Cov(Y, X). Definition 16. Soit Z = (X, Y ) un vecteur aléatoire. La corrélation entre X et Y est corr(x, Y ) = cov(x, Y ) V ar(x) V ar(y ) = E[(X E(X)) (Y E(Y ))] E[(X E(X))]2 E[(Y E(Y ))] 2. 25

26 Quelques rappels sur la variance Proposition 17. La variance est toujours positive, et V ar(x) = 0 si et seulement si X est une constante. Proposition 18. La variance n est pas linéaire, mais V ar(αx + βy ) = α 2 V ar(x) + 2αβCov(X, Y ) + β 2 V ar(y ). Une conséquence est que V ar ( n ) X i = n Cov(X i, X j ) = n Cov(X i, X j ). i=1 i=1 V ar (X i )+ j i i=1 V ar (X i )+2 j>i Proposition 19. La variance n est pas linéaire, mais V ar(α + βx) = β 2 V ar(x). 26

27 Quelques rappels sur la covariance Proposition 20. Pour toutes variables aléatoires X, X 1, X 2 et Y, Cov(X, Y ) = E(XY ) E(X)E(Y ), Cov(αX 1 + βx 2, Y ) = αcov(x 1, Y ) + βcov(x 2, Y ). Cov(X, Y ) = ω Ω[X(ω) E(X)] [Y (ω) E(Y )] P(ω) Un interprétation heuristique d une covariance positive est qu il doit y avoir une majorité d évènements ω pour lesquels [X(ω) E(X)] [Y (ω) E(Y )] 0 X(ω) E(X) et Y (ω) E(Y ), i.e. X et Y prennent ensemble des grandes valeurs, X(ω) E(X) et Y (ω) E(Y ), i.e. X et Y prennent ensemble des petites valeurs. Proposition 21. Si X et Y sont indépendantes (X Y ), alors Cov(X, Y ) = 0, mais la réciproque n est généralement pas vraie. 27

28 La variance conditionnelle Definition 22. Soient X et Y deux variables aléatoires. La variance conditionnelle (conditional variance) de Y sachant X = x est la variance associée à la loi conditionnelle Y X = x, V ar(y X = x) = [y E(Y X = x)] 2 f Y X=x (y)dy. V ar(y X = x) est donc fonction de x, E(Y X = x) = ψ(x). Par abus de notation, on appellera V ar(y X) la variable aléatoire ψ(x). 28

29 Proposition 23. V ar(y X) étant une variable aléatoire, notons que V ar(y ) = V ar[e(y X)] + E[V ar(y X)], formule dite de décomposition de la variance (ou théorème de Pythagore). Démonstration. L idée est de faire un développement de la forme suivante V ar(y ) = E[(Y E(Y )) 2 ] = E[(Y E(Y X) + E(Y X) E(Y )) 2 ] = E[([Y E(Y X)] + [E(Y X) E(Y )]) 2 ] = E[([Y E(Y X)]) 2 ] + E[([E(Y X) E(Y )]) 2 ] +2E[[Y E(Y X)] [E(Y X) E(Y )]] On note alors que E[([Y E(Y X)]) 2 ] = E ( E((Y E(Y X)) 2 X) ) = E[V ar(y X)], E[([E(Y X) E(Y )]) 2 ] = E[([E(Y X) E(E(Y X))]) 2 ] = V ar[e(y X)]. Et l espérance du produit croisé est nulle (en conditionnant par X). 29

30 Un tout petit peu de géométrie Si L 2 désigne l ensemble des variables aléatoires de variance finie, < X, Y >= E(XY ) est un produit scalaire, X = E(X 2 ) est une norme (parfois notée 2 ). E(X) est la projection orthogonale de X sur l ensemble des constante, E(X) = argmin a R { X a 2 = E([X a] 2 )}. La corrélation est le cosinus de l angle entre X E(X) et Y E(Y ) : si corr(x, Y ) = 0 on dira que les variables sont orthogonales, X Y (et non pas indépendantes, X Y ). Si L 2 X désigne l ensemble des variables aléatoires engendrées par X (de la forme ϕ(x)) de variance finie, E(Y X) est la projection orthogonale de Y sur l ensemble L 2 X E(Y X) = argmin ϕ { Y ϕ(x) 2 = E([Y ϕ(x)] 2 )}. E(Y X) est la meilleure approximation de Y par une fonction de X. 30

31 L espérance conditionnelle De manière générale, E(Y X) = ϕ(x). En économétrie, on cherche à expliquer Y par X. économétrie linéaire, EL(Y X) = β 0 + β 1 X. économétrie nonlinéaire, E(Y X) = ϕ(x). ou plus gééralement on cherche à expliquer Y par X. économétrie linéaire, EL(Y X) = β 0 + β 1 X β k X k. économétrie nonlinéaire, E(Y X) = ϕ(x) = ϕ(x 1,, X k ). En séries temporelle, on cherche à expliquer X t par X t 1, X t 2,. séries temporelles linéaires, EL(X t X t 1, X t 2, ) = β 0 + β 1 X t β k X t k (forme autorégressive). séries temporelles nonlinéaires, E(X t X t 1, X t 2, ) = ϕ(x t 1, X t 2, ). 31

32 Un petit complément sur l espérance conditionnelle L espérance conditionnelle n est pas un réel, mais une variable aléatoire. Formellement, on ne conditionne pas par rapport à une variable aléatoire X, mais la tribu engendrée par X, E(Y X) = E(Y σ(x)). Plus généralement, on peut conditionner par une tribu quelconque F, qui sera interpr tée comme de l information disponible pour expliquer Y. En finance ou en séries temporelles, on dispose d une suite de variables aléatoires X 1, X 2,, X n,. On note F n l information disponible à la date n, i.e. F n = σ(x 1,, X n ), et on cherchera E(X n+1 F n ). Si E(X n+1 F n ) = X n 1, on parlera de martingale. 32

33 Additionner des variables aléatoires Proposition 24. Soient X et Y sont deux variables discrètes indépendantes. Alors la loi de S = X + Y est P(S = s) = P(X = k) P(Y = s k). k=0 Soient X et Y sont deux variables continues indépendantes. Alors la loi de S = X + Y est f S (s) = f X (x) f Y (s x)dx. On notera f S = f X f Y où est l opérateur de convolution. 33

34 Montrer que pour X positive et dans L 1 Un petit exercice E (X) = = = 0 0 P (X > x) dx (1 F (x)) dx pour une variable continue, P (X > k) pour une variable discrète. k=0 En effet, dans le cas continue, 0 (1 F (x)) dx = = 0 0 { x { f (t) } f (t) dt dx = t 0 } dx dt = 0 0 { t 0 } f (t) dx dt f (t) tdt = E (X), 34

35 en intervertissant les signes sommes (théorème de Tonelli). Et dans le cas discret, { } { i } P (X > k) = P (X = i) = P (X = i) k=0 = k=0 i=k+1 { P (X = i) i=1 } i 1 = k=1 en utilisant le même argument que précédemment. i=1 k=1 ip (X = i) = E (X), En fait, l intégration par partie ne peut pas être utilisé pour la raison suivante : on aurait souhaité écrire, dans le cas continue, E (X) = 0 xf (x) dx = [x (F (x) 1)] 0 i=1 (F (x) 1) dx, en dérivant x, et en prenant comme primite de f (x) F (x) 1 (afin d avoir au moins la nullité en +, sinon l intégrale de droite n aurait aucune chance de converger). Le problème est que rien ne garantie, a priori, que x (F (x) 1) 0 quand x. 0 35

36 Quelques rappels sur les moments On définit le moment d ordre n d une variable aléatoire X comme µ n = E[X n ], si cette valeur est finie. On notera également µ n les moments centrés (et éventuellement réduits). Certains moments sont utiles pour caractériser une variable aléatoire : Le moment d ordre un de la variable : µ = E[X] correspond à l espérance Le moment d ordre deux de la variable centrée : µ 2 = E [(X µ) 2] correspond à la variance. Le moment [ d ordre trois de la variable centrée-réduite : (X ) ] 3 µ µ 3 = E correspond au coefficient d asymétrie, la skewness. σ Le moment [ d ordre quatre de la variable centrée-réduite : (X ) ] 4 µ µ 4 = E correspond à la kurtosis. σ 36

37 Quelques rappels sur les lois de probabilité La loi de Bernoulli B(p), p (0, 1) P(X = 0) = 1 p et P(X = 1) = p. Alors E(X) = p et V ar(x) = p(1 p). 37

38 Quelques rappels sur les lois de probabilité La loi Binomiale B(n, p), p (0, 1) et n N ( n P(X = k) = k ) p k (1 p) n k où k = 0, 1,, n, ( ) n k = n! k!(n k)! Alors E(X) = np et V ar(x) = np(1 p). Notons que si X 1,, X n B(p) sont indépendantes, alors X = X X n B(n, p). 38

39 Sous R, dbinom(x, size, prob), qbinom() et pbinom() désigne respectivement la fonction de répartition, la fonction quantile et la loi de probabilité. Fonction de densité Fig. 5 Loi binomiale, B(n, p). 39

40 Quelques rappels sur les lois de probabilité La loi de Poisson P(λ), λ > 0 Alors E(X) = λ et V ar(x) = λ. P(X = k) = exp( λ) λk k! où k = 0, 1, De plus, si X 1 P(λ 1 ) et X 2 P(λ 2 ) sont deux variables indépendantes, alors X 1 + X 2 P(λ 1 + λ 2 ) On peut noter que cette loi vérifie une relation de récurence de la forme P (X = k + 1) P (X = k) = λ k + 1 pour k 1 40

41 Sous R, dpois(x, lambda), qpois() et ppois() désigne respectivement la fonction de répartition, la fonction quantile et la loi de probabilité. Fonction de densité Fig. 6 Loi de Poisson, P(λ). 41

42 Quelques rappels sur les lois de probabilité La loi de géométrique a G(p), p ]0, 1[ P (X = k) = p (1 p) k 1 pour k = 1, 2, dont la fonction de répartition est P (N k) = 1 p k. On peut noter que cette loi vérifie une relation de récurence de la forme P (X = k + 1) P (X = k) = 1 p (= constante) pour k 1 Les premiers moments sont alors E (X) = 1 p et V ar (X) = 1 p p 2. a Il est également possible de définir cette loi sur N, et non pas comme ici sur N\ {0}. 42

43 Quelques rappels sur les lois de probabilité La loi exponentielle E(λ), λ > 0 F (x) = P(X x) = e λx où x 0, f(x) = λe λx. Alors E(X) = 1/λ et V ar(x) = 1/λ 2. Cette loi est parfois dite sans mémoire, i.e. P(X > x + t X > x) = P(X > t). 43

44 Sous R, dexp(x, rate), qexp() et pexp() désigne respectivement la fonction de répartition, la fonction quantile et la densité. Fonction de densité Fig. 7 Loi exponentielle, E(λ). 44

45 Quelques rappels sur les lois de probabilité La loi Gaussienne (ou normale) N (µ, σ 2 ), µ R et σ > 0 ( ) 1 f(x) = exp (x µ)2 2πσ 2 2σ 2, pour x R. Alors E(X) = µ et V ar(x) = σ 2. Notons que si Z N (0, 1), X = µ + σz N (µ, σ 2 ). 45

46 Sous R, dnorm(x, mean, sd), qnorm() et pnorm() désigne respectivement la fonction de répartition, la fonction quantile et la densité. Fonction de densité Fig. 8 Loi normale, N (0, 1). 46

47 Sous R, dnorm(x,mean=a,sd=b) (N (a, b)). densité µ X = 0, σ X = 1 µ Y = 2, σ Y = Fig. 9 Densités de lois normales X N (0, 1) et X N (2, 0.5). 47

48 Quelques rappels sur les lois de probabilité Le vecteur Gaussien N (µ, Σ), X = (X 1,..., X n ) est un vecteur gaussien de moyenne E (X) = µ et de matrice de variance covariance Σ = E ( (X µ) (X µ) ) non dégénéré (Σ est inversible) si et seulement si sa densité s écrit f (x) = 1 (2π) n/2 det Σ exp ( 1 ) 2 (x µ) Σ 1 (x µ), x R d, ou de façon équivalente, si sa fonction caractéristique φ (t) = exp (it X), s écrit ( φ (t) = exp it µ 1 ) 2 t Σt, t R d. Proposition 25. Soit X = (X 1,..., X n ) un vecteur aléatoire à valeurs dans R d, alors X sera dit être un vecteur gaussien si et seulement si, pour tout a = (a 1,..., a n ) R d, a X = a 1 X a n X n est une variable gaussienne. 48

49 Quelques rappels sur les lois de probabilité Soit X un vecteur gaussien, alors pour tout i, X i suit une loi Gaussienne. Mais la réciproque est fausse : si les X i sont des variables gaussiennes, alors X = (X 1,..., X n ) n est pas nécessairement un vecteur gaussien. Proposition 26. Si X = (X 1,..., X n ) est un vecteur gaussien de moyenne E (X) = µ et de matrice de variance covariance Σ, et A est une matrice k n, et b R k, alors Y = AX + b est un vecteur gaussien de R k, de loi N (Aµ, AΣA ). Notons que si (X 1, X 2 ) est un vecteur gaussien, alors X 1 et X 2 sont des variables indépendantes si et seulement si cov (X 1, X 2 ) = E ((X 1 E (X 1 )) (X 2 E (X 2 ))) = 0, cette équivalence étant en général fausse dans un cadre non-gaussien. 49

50 Quelques rappels sur les lois de probabilité Soit X un vecteur gaussien, alors pour tout i, X i suit une loi Gaussienne. Mais la réciproque est fausse : si les X i sont des variables gaussiennes, alors X = (X 1,..., X n ) n est pas nécessairement un vecteur gaussien. Proposition 27. Si X = (X 1, X 2 ) est un vecteur gaussien de moyenne E (X) = µ = µ 1 et de matrice de variance covariance Σ = Σ 11 Σ 12, alors µ 2 Σ 21 Σ 22 X 2 X 1 = x 1 N ( µ 1 + Σ 12 Σ 1 22 (x 1 µ 2 ), Σ 11 Σ 12 Σ 1 22 Σ 21). Considérons une série temporelle définie par X t = ρx t 1 + ε t, avec X 0 = 0, ε 1,, ε n i.i.d. N (0, σ 2 ), i.e. ε = (ε 1,, ε n ) N (0, σ 2 I). Alors X = (X 1,, X n ) N (0, Σ), Σ = [Σ i,j ] = [Cov(X i, X j )] = [ρ i j ]. 50

51 Quelques rappels sur les lois de probabilité En dimension 2, pour un vecteur (X, Y ) centré (i.e. µ = 0) ( ( 1 f(x, y) = 2πσ x σ exp 1 x 2 y 1 ρ 2 2(1 ρ 2 ) σx 2 + y2 σy 2 2ρxy )) (σ x σ y ) où la matrice de variance-covariance Σ est Σ = σ2 x ρσ x σ y ρσ x σ y σ 2 y. 51

52 Densité du vecteur Gaussien, r=0.7 Densité du vecteur Gaussien, r=0.0 Densité du vecteur Gaussien, r= 0.7 Courbes de niveau du vecteur Gaussien, r= 0.7 Courbes de niveau du vecteur Gaussien, r=0.0 Courbes de niveau du vecteur Gaussien, r=0.7 Fig. 10 Les courbes de niveau du vecteur Gaussien. 52

53 Quelques rappels sur les lois de probabilité La loi du chi-deux χ 2 (ν), ν N admet pour densité Notons que E(X) = ν et V ar(x) = 2ν. (1/2) k/2 Γ(k/2) xk/2 1 e x/2, x [0; + [. Si X 1,, X ν N (0, 1) sont indépendantes, alors Y = ν i=1 X2 i χ2 (ν). 53

54 Sous R, dchisq(x, df), qchisq() et pchisq() désigne respectivement la fonction de répartition, la fonction quantile et la densité. Fonction de densité Fig. 11 Loi du chi-deux, χ 2 (ν). 54

55 Quelques rappels sur les lois de probabilité La loi de Student St(ν), de densité f(t) = Γ( ν+1 2 ) νπ Γ( ν 2 ) ( 1 + t2 ν ) ( ν+1 2 ), où Γ désigne la fonction Gamma (Γ(n + 1) = n!). Notons que ν E(X) = 0 et V ar(x) ν 2 pour ν > 2. Si X N (0, 1) et Y χ 2 (ν) sont indépendantes, alors T = X Y/ν St(ν). 55

56 Quelques rappels sur les lois de probabilité Soient X 1,, X n des variables N (µ, σ 2 ) indépendantes. Posons X n = (X X n )/n et S n 2 = 1 n 1 n ( ) 2 Xi X n. i=1 Alors (n 1)S 2 n/σ 2 suit une loi χ 2 (n 1), et on peut montrer que T = X n µ S n / n St(n 1). 56

57 Sous R, dt(x, df), qt() et pt() désigne respectivement la fonction de répartition, la fonction quantile et la densité. Fonction de densité Fig. 12 Loi de Student, St(ν). 57

58 Quelques rappels sur les lois de probabilité La loi de Fischer F(d 1, d 2 ), admet pour densité f(x) = ( ) d1 /2 ( d 1 x d 1 x+d 2 1 d 1 x x B(d 1 /2, d 2 /2) d 1 x+d 2 ) d2 /2 for x 0 pour d 1, d 2 N et où B désigne la fonction beta. Notons que E(X) = d 2 d 2 2 pour d 2 > 2 et V ar(x) = 2 d2 2 (d 1 + d 2 2) d 1 (d 2 2) 2 (d 2 4) pour d 2 > 4. Si X F(ν 1, ν 2 ), alors 1 X F (ν 2, ν 1 ). Si X 1 χ 2 (ν 1 ) et X 2 χ 2 (ν 2 ) sont indépendantes, alors Y = X 1/ν 1 X 2 /ν 2 F(ν 1, ν 2 ). 58

59 Sous R, df(x, df1, df2), qf() et pf() désigne respectivement la fonction de répartition, la fonction quantile et la densité. Fonction de densité Fig. 13 Loi de Fisher, F(d 1, d 2 ). 59

60 Les lois conditionnelles Mélange de deux lois de Bernoulli B(Θ) Soit Θ une variable aléatoire pouvent prendre deux valeurs, θ 1, θ 2 [0, 1] avec probabilité p 1 et p 2 (p 1 + p 2 = 1). Supposons que La loi non-conditionnelle de X est alors X Θ = θ 1 B(θ 1 ) et X Θ = θ 2 B(θ 2 ). P(X = x) = θ P(X = x, Θ = θ) = θ P(X = x Θ = θ) P(Θ = θ) = P(X = x Θ = θ 1 ) p P(X = 0) = P(X = 0 Θ = θ 1 ) p 1 +P(X = 0 Θ = θ 2 ) p 2 = (1 θ 1 )p 1 +(1 θ 2 )p 2 = 1 θ 1 p 1 P(X = 1) = P(X = 1 Θ = θ 1 ) p 1 + P(X = 1 Θ = θ 2 ) p 2 = θ 1 p 1 + θ 2 p 2 i.e. X B(θ 1 p 1 + θ 2 p 2 ). 60

61 Notons que E(X) = θ 1 p 1 + θ 2 p 2 = E(X Θ = θ 1 )P(Θ = θ 1 ) + E(X Θ = θ 2 )P(Θ = θ 2 ) = E(E(X Θ)) V ar(x) = [θ 1 p 1 + θ 2 p 2 ][1 θ 1 p 1 θ 2 p 2 ] = θ 2 1p 1 + θ 2 2p 2 [θ 1 p 1 + θ 2 p 2 ] 2 + [θ 1 (1 θ 1 )]p 1 + [θ 2 (1 θ 2 )]p 2 = E(X Θ = θ 1 ) 2 P(Θ = θ 1 ) + E(X Θ = θ 2 ) 2 P(Θ = θ 2 ) [E(X Θ = θ 1 )P(Θ = θ 1 ) + E(X Θ = θ 2 )P(Θ = θ 2 )] 2 + V ar(x Θ = θ 1 )P(Θ = θ 1 ) + V ar(x Θ = θ 2 )P(Θ = θ 2 ) = E([E(X Θ)] 2 ) [E(E(X Θ))] 2 +E(V ar(x Θ) } {{ } V ar(e(x Θ)) 61

62 Les lois conditionnelles Mélange de deux lois de Poisson P(Θ) Soit Θ une variable aléatoire pouvent prendre deux valeurs, θ 1, θ 2 [0, 1] avec probabilité p 1 et p 2 (p 1 + p 2 = 1). Supposons que X Θ = θ 1 P(θ 1 ) et X Θ = θ 2 P(θ 2 ). Alors P(X = x) = e θ 1 θ1 x x! Il ne s agit pas d une loi connue. p 1 + e θ 2 θ x 2 x! p 2, 62

63 Les lois conditionnelles Mélange continu de lois de Poisson P(Θ) Soit Θ une variable aléatoire à valeurs dans ]0, [, de densité u. Supposons que X Θ = θ P(θ) pour tout θ > 0 Alors De plus, P(X = x) = 0 P(X = x Θ = θ)u(θ)dθ. E(X) = E(E(X Θ)) = E(Θ) V ar(x) = V ar(e(x Θ)) + E(V ar(x Θ)) = V ar(θ) + E(Θ) > E(Θ). Remarque Les lois mélanges sont la base de la statistique bayésienne. 63

64 Les lois conditionnelles, mélange et hétérogénité f(x) = f(x Θ = θ 1 ) P(Θ = θ 1 ) + f(x Θ = θ 2 ) P(Θ = θ 2 ) Fig. 14 Mélange de lois normales. 64

65 Les lois conditionnelles et l hétérogénéité La prise en compte de l hétérogénéité est la base des méthodes économétriques. On suppose en économétrie que Y suit une loi f θ où θ est fonction de X. économétrie linéaire, Y X = x N (β x, σ 2 ). économétrie des variables qualitatives (logit/probit), Y X = x B(ϕ[β x]). régression Poissonienne, Y X = x P(exp[β x]). E.g. Y X 1 = homme B(p h ) et Y X 1 = femme B(p f ). 65

66 Un peu de convergence La suite (X n ) converge presque sûrement vers X, noté X n p.s. X, si lim X n (ω) = X (ω) pour tout ω A, n où P (A) = 1. On dit aussi que (X n ) converge vers X avec probabilité 1 - on parle p.s. également de convergence trajectorielle. Notons que X n X si et seulement si ε > 0, P (lim sup { X n X > ε}) = 0. Il est aussi possible de contrôler les accroissements de la suite (X n ) : soit (ε n ) telle que n 0 P ( X n X > ε n ) < où n 0 ε n <, alors (X n ) converge presque sûrement vers X. 66

67 Un peu de convergence La suite (X n ) converge dans L p vers X, ou en moyenne d ordre p, noté X n L p X, si lim E ( X n X p ) = 0. n Pour p = 1 on parle de convergence en moyenne, et pour p = 2, on parle de convergence en moyenne quadratique. p.s. Supposons que X n X et qu il existe une variable aléatoire Y telle que pour n 0, X n Y P-presque sûrement, avec Y L p, alors X n L p L et X p n X (théorème dit de la convergence dominé). 67

68 Un peu de convergence La suite (X n ) converge en probabilité vers X, noté X n P X, si ε > 0, lim P ( X n X > ε) = 0. n Soit f : R R (ce résultat reste toutefois vrai pour des fonctions f : R p R q ) P une application continue, si X n X alors f (Xn ) P f (X). De plus, si X n p.s. X ou si X n L 1 X alors X n P X. Enfin, si Xn P X, il existe une sous-suite (X nk ) qui converge vers X presque sûrement. Attention X n P c n implique pas forcément E(Xn ) c Une condition suffisante pour que X n P a est que lim EX n = a et n lim V ar(x n) = 0 n 68

69 Un peu de convergence Loi forte des grands nombres On suppose que les variables X i sont i.i.d. et qu elles admettent une moyenne p.s. µ = E(X i ). Alors S n µ lorsque n. Loi faible des grands nombres On suppose que les variables X i sont i.i.d. et qu elles admettent une moyenne µ = E(X i ) finie. Alors S n = (1/n) n i=1 X i, alors S n P µ quand n +. 69

70 Un peu de convergence (iv) La suite (X n ) converge en loi vers X, noté X n continue bornée, lim E (f (X n)) = E (f (X)). n L X, si pour toute font f La convergence en loi est équivalente à la convergence (simple) des fonctions de L répartition : X n X si et seulement si pour tout t R où FX est continue lim F X n (t) = F X (t). n 70

71 Un peu de convergence Soit f : R R (ce résultat reste toutefois vrai pour des fonctions f : R p R q ) L une application continue, si X n X alors f (Xn ) L P f (X). De plus, si X n X L alors X n X (la réciproque n étant vraie que si (Xn ) converge en loi vers une constante). Théorème central limite Soient X 1, X 2... i.i.d. de moyenne µ et de variance σ 2, alors : S n E(S n ) = ( ) Sn µ L n X où X N (0, 1) V ar(sn) σ 71

72 Illustration de la convergence Fréquence des pile Nombre de lancers de pile/face Fig. 15 Convergence de la moyenne empirique. 72

73 Illustration de la convergence Fréquence des pile Nombre de lancers de pile/face Fig. 16 Convergence de la moyenne empirique. 73

74 Illustration de la convergence Fréquence des pile Nombre de lancers de pile/face Fig. 17 Convergence en loi. 74

75 Illustration de la convergence Fréquence des pile Nombre de lancers de pile/face Fig. 18 Convergence en loi. 75

76 Illustration de la convergence Fréquence des pile Nombre de lancers de pile/face Fig. 19 Convergence en loi. 76

77 Cas de la variance infinie? Dans le cas où les X i sont variance infinie, il est possible de généraliser le théorème central limite. On cherche une normalisation (a n ) et (b n ) telles que S n a n bn L Z de loi non-dégénérée. Les lois limites sont appelées lois α-stables. 77

78 Convergence? Moyenne empirique Taille de l'échantillon Fig. 20 Convergence de la moyenne x, cas espérance et variance finies. 78

79 Convergence? Moyenne empirique Taille de l'échantillon Fig. 21 Convergence de la moyenne x, cas espérance finie et variance infinie. 79

80 Convergence? Variance empirique Taille de l'échantillon Fig. 22 Convergence de la variance empirique s 2, cas variance finie. 80

81 Convergence? Variance empirique Taille de l'échantillon Fig. 23 Convergence de la variance empirique s 2, cas variance infinie. 81

82 Convergence? Variance empirique Taille de l'échantillon Fig. 24 Convergence de la variance empirique s 2, cas variance infinie. 82

83 De la convergence aux approximations Proposition 28. Soit (X n ) une suite i.i.d. de variables B(n, p). Alors si L np, X n X où X P(λ), et λ = np Démonstration. Ce résultat découle de l approximation suivante, ( n )p k [1 p] n k exp[ np] [np]k k k! La loi de Poisson P(np) est une approximation de la loi Binomiale B(n, p) pour n suffisement grand, avec np (et donc p petit). En pratique l approximation est valide pour n > 30 et np < 5. 83

84 De la convergence aux approximations Proposition 29. Soit (X n ) une suite i.i.d. de variables B(n, p). Alors si np, [X n np]/ np(1 p) L X où X N (0, 1). En pratique l approximation est valide pour n > 30 et np > 5 et n(1 p) > 5. La loi de Normale N (np, np(1 p)) est une approximation de la loi Binomiale B(n, p) pour n suffisement grand, avec np, n(1 p). 84

85 De la convergence aux approximations P(X = x) P(X = x) x x Fig. 25 Approximation de la de Poisson par une loi normale. 85

86 Lois de transformations de variables aléatoires Soit X une v.a. absolument continue de densité f(x), on cherche à connaître la densité de probabilité de Y = φ(x). Proposition 30. si la fonction φ est dérivable et bijective : La variable Y admet une densité g telle que g(y) = f(φ 1 (y)) φ (φ 1 (y)) Démonstration. 86

87 Exemple de transformation de variables aléatoires Proposition 31. Soit X une variable aléatoire continue de fonction de répartition F, i.e. F (x) = P(X x). Alors Y = F (X) suit une loi uniforme sur [0, 1]. Démonstration. Proposition 32. Soit X une variable aléatoire uniforme sur [0, 1] et F une fonction de répartition. Alors Y = F 1 (X) admet pour fonction de répartition F. Démonstration. Remarque Cette propriété est la base des méthodes de Monte Carlo. 87

88 Lois de transformations de variables aléatoires Soit (X, Y ) un couple de variables aléatoires continues, la loi du couple admet une densité de probabilité f(x, y). Soit (U, V ) = φ (X, Y ). Si on note J φ le Jacobien associé, i.e. J φ = det U/ X V/ X U/ Y V/ Y alors la loi de (U, V ) est donnée par la densité : g (u, v) = 1 J φ f ( φ 1 (u, v) ) 88

89 Quelques exercices? Soit (U, V ) un couple de variables aléatoires indépendantes, uniformément distribuées sur [0, 1] respectivement. Montrer que les variables X = 2 log U cos (2πV ) Y = 2 log U sin (2πV ) sont indépendantes et de même loi N (0, 1). si h est une fonction borélienne, si l on peut écrire E (h (X)) = h (x) f (x) dx = yg (y) dy alors g sera la densité de h (X). Soit h une application borélienne de R 2 dans R. ( ( )) E (h (X, Y )) = E h 2 log U cos (2πV ), 2 log U sin (2πV ) Considérons le changement de variable 89

90 T : (u, v) (x, y) = ( ) 2 log u cos (2πv), 2 log u sin (2πv), s inversant en ( T 1 (x, y) = (u, v) = exp [ x2 + y 2 ] 1, 2 2π arctan y ) x dont le Jabobien est x exp J = 1 2π ( x2 +y 2 2 ) y exp y x 2 +y 2 1 2π ( x2 +y 2 x x 2 +y 2 2 ) = 1 ( 2π exp x2 + y 2 ) 2 ( 0). (ce calcul permet de vérifier que le changement de variable correspond effectivement à un C 1 -difféomorphisme de [0, 1] dans R 2 ). D où finallement, ( ( )) E (h (X, Y )) = E h 2 log U cos (2πV ), 2 log U sin (2πV ) = h (x, y) 1 ( R 2π exp x2 + y 2 ) dxdy

91 Aussi, (X, Y ) admet pour densité f (x, y) = 1 ( 2π exp x2 + y 2 ) 2 = 1 ) exp ( x2 2π 2 1 ) exp ( y2. 2π 2 Aussi, les variables X et Y sont indépendantes, et de même loi N (0, 1). 91

92 Lois de transformations de variables aléatoires Nous avions noté que E(g(X)) g(e(x)), ormis dans le cas où g est une application linéaire. L inégalité de Jensen permet d avoir des résultats dans certains cas, Proposition 33. Soit g une fonction convexe, alors E(g(X)) g(e(x)). Considérons le cas où X prend deux valeurs avec probabilité 1/ Fig. 26 L inégalité de Jensen, g(e(x)) versus E(g(X)). 92

93 L estimateur comme variable aléatoire En statistique descriptive, on construit des estimateurs comme des fonctions des valeurs de l échantillon, e.g. X = x x n n En statistique mathématique, on suppose que x i = X i (ω), i.e. la réalisation d un variable aléatoire sous-jacente X = X X n n X 1,..., X n étant des variables aléatoires, X devient une variable aléatoire. Exemple : supposons que nous disposons d un échantillon de n = 20 valeurs tirées suivant une loi uniforme sur [0, 1]. 93

94 Distribution de la moyenne d'un échantillon U([0,1]) Fréquence Fig. 27 Distribution de la moyenne de {X 1,, X 10 }, X i U([0, 1]). 94

95 Distribution de la moyenne d'un échantillon U([0,1]) Fréquence Fig. 28 Distribution de la moyenne de {X 1,, X 10 }, X i U([0, 1]). 95

96 L estimateur comme variable aléatoire Si l échantillon change, l estimateur n est pas le même. Constituons 1000 échantillons de manière aléatoire. En moyenne, l estimateur vaut 1/2. Aussi, la moyenne empirique est un estimateur sans biais de 1/2, l espérance mathématique de la loi uniforme sur [0, 1]. Cet estimateur a une variance, et aussi une loi (en l occurence une densité). Ici, la moyenne empirique suit (presque) une loi normale. 96

97 Modèle paramétrique On dispose d un échantillon {x 1,, x n }, de n observations indépendantes. On suppose que les x i sont des réalisations d une variable aléatoire X dont la loi F est inconnue. Le but est de déterminer F. En statistique paramétrique, on suppose que F appartient nécessairement à une famille caractérisée par un paramètre θ Θ. X suit une loi de Bernoulli, X B(p), θ = p (0, 1), X suit une loi de Poisson, X P(λ), θ = λ R +, X suit une loi normale, X N (µ, σ), θ = (µ, σ) R R +, On cherche donc une valeur de θ, notée θ, telle que l on supposera que X suit une loi F θ. Remarque On supposera souvent que Θ est un ouvert, il est délicat d estimer sur les bords. 97

98 On dispose d un échantillon Exemple : jeu de pile ou face {pile, pile, face, pile, face, pile, face, face, pile, face, pile, f ace} que l on interprêtera en posant X = 1 si pile 0 si face. On dispose de l échantillon {1, 1, 0, 1, 0, 1, 0, 0, 1, 0, 1, 0} On peut supposer ici que X suite une loi binomiale, X B(p), de paramètre p inconnu (mais que l on va chercher à estimer). 98

99 Inférence statistique Quelle est la vraie valeur de p, que l on ne connaît pas? Quelle est la valeur de p la plus vraisemblable? Sur n lancers, la probabilité d obtenir précisément l échantillon {x 1,, x n } est P(X 1 = x 1,, X n = x n ), où X 1,, X n sont n versions indépendentes de X, supposées suivre la loi B(p). Aussi, P(X 1 = x 1,, X n = x n ) = car p x i (1 p) 1 x i = n P(X i = x i ) = i=1 p si x i vaut 1 1 p si x i vaut 0 n p x i (1 p) 1 x i, i=1 99

100 Inférence statistique Aussi, P(X 1 = x 1,, X n = x n ) = p n i=1 x i (1 p) n i=1 1 x i. Cette fonction, qui dépend de p mais aussi de {x 1,, x n } est appelée vraisemblance de l échantillon, et sera notée L (likelihood), L(p; x 1,, x n ) = p n i=1 x i (1 p) n i=1 1 x i. Ici, nous avons obtenu 5 valeurs de 1 et 6 fois 0. On en déduit les vraisemblances suivante en fonction de l échantillon. 100

101 Valeur de p L(p; x 1,, x n ) e e e e e e e-04 Vraisemblance L 0e+00 1e 04 2e 04 3e 04 4e 04 5e e e Probabilité p La valeur la plus vraisemblance pour p est obtenue au maximum de la vraisemblance, i.e

102 Inférence statistique Peut-on utiliser la moyenne empirique? Rappelons que l on dispose de l échantillon {1, 1, 0, 1, 0, 1, 0, 0, 1, 0, 1, 0} Rappelons que pour une loi binomiale, E(X) = p. Aussi, il pourrait être légitime de considérer comme estimateur de p la version empirique de E(X), i.e. x. Un estimateur naturel de p serait donc x 5/11 =

103 Le maximum de vraisemblance Formellement, si f θ désigne la vraie loi (inconnue) de X, df (x) la densité de X si X est continue, i.e. f θ (x) = = F (x), dx la loi de probabilité de X si X n est pas continue, i.e. f θ (x) = P(X = x), La vraisemblance s écrit, comme les X i sont i.i.d. L(θ; x 1,, x n ) = P(X 1 = x 1,, X n = x n ) = n f θ (x i ) Un estimateur naturel pour θ est obtenu au maximum de la vraisemblance, θ argmax{l(θ; x 1,, x n ), θ Θ}. i=1 Petite remarque pratique : pour toute fonction croissante h, θ argmax{h (L(θ; x 1,, x n )), θ Θ}. 103

104 Le maximum de vraisemblance Fig. 29 Invariance de la position du maximum par transformation croissante. 104

105 Le maximum de vraisemblance Prenons le cas particulier de la fonction h = log θ argmax{log (L(θ; x 1,, x n )), θ Θ}. i.e. on cherche le maximum de la log-vraisemblance, qui s écrit simplement log L(θ; x 1,, x n ) = n log f θ (x i ) i=1 et pour chercher le maximum, la condition du 1er ordre impose de calculer des dérivées (et la dérivée d une somme est plus simple à calculer que la probabilité d un produit), si θl(θ; x) est dérivable. 105

106 Vraisemblance L 0e+00 1e 04 2e 04 3e 04 4e 04 5e 04 Log vraisemblance L Probabilité p Probabilité p Fig. 30 Fonction de vraisemblance et de log-vraisemblance. 106

107 Le maximum de vraisemblance Les quations de vraisemblance sont alors condition du premier ordre si θ R k, log (L(θ; x 1,, x n )) θ = 0 θ= θ si θ R, log (L(θ; x 1,, x n )) θ = 0 θ= θ condition du second ordre si θ R k, 2 log (L(θ; x 1,, x n )) θ θ θ= θ si θ R, 2 log (L(θ; x 1,, x n )) θ est définie négative < 0 θ= θ La fonction log (L(θ; x 1,, x n )) θ vraisemblance, le score est nul. est appelé fonction score : au maximum de 107

108 La notion d information de Fisher Un estimateur θ de θ sera dit exhaustif s il fournit autant d information sur θ que l ensemble des observations {x 1,, x n }. L information de Fisher associée à une densité f θ, θr est ( ) 2 d I(θ) = E dθ log f θ(x) où X a pour loi f θ, I(θ) = V ar ( ) d dθ log f θ(x) ( ) d 2 = E dθ 2 log f θ(x). Notons que l information de Fisher est simplement la variance du score. Pour parle aussi d information de Fisher pour un observation unique. Dans le cas d un échantillon X 1,, X n de densité f θ, l information est I n (θ) = n I(θ). 108

109 Notions d efficacité et d optimalité Si θ est une estimateur sans biais de θ, alors V ar( θ) 1. Un estimateur qui ni(θ) atteint cette borne sera dit efficace. Mais la borne n est pas toujours atteignable. Un estimateur θ sans biais sera dit optimal s il est de variance minimale parmi tous les estimateurs sans biais. La notion d information de Fisher en dimension plus grande L information de Fisher est la matrice k k I = [I i,j ] où ( I i,j = E ln f θ (X) ) ln f θ (X). θ i θ j 109

110 Exemple de calcul d information de Fisher Soit X suivant une loi P(θ), log f θ (x) = θ + x log θ log(x!) et d2 dθ 2 log f θ(x) = x θ 2 ( ) d 2 I(θ) = E dθ 2 log f θ(x) = E ( Xθ ) 2 = 1 θ Pour une loi B(n, θ), I(θ) = n θ(1 θ) Pour une loi BN (θ, σ 2 ), I(θ) = 1 σ 2 Pour une loi BN (µ, θ), I(θ) = 1 2θ 2 110

111 Le maximum de vraisemblance Definition 34. Soit {x 1,, x n } un échantillon de loi f θ, où θ Θ. On appelle estimateur du maximum de vraisemblance θ n de θ θ n argmax{l(θ; x 1,, x n ), θ Θ}. Proposition 35. Sous quelques conditions techniques, θ n converge presque sûrement vers θ, θ p.s. n θ. Proposition 36. Sous quelques conditions techniques, θ n est un estimateur asymptotiquement efficace de θ, n( θn θ) L N (0, I 1 (θ)). L estimateur du maximum de vraisemblance n a aucune raison d être sans biais. 111

112 Le maximum de vraisemblance, cas N (µ, σ 2 ) Soit {x 1,, x n } un échantillon indépendant, distribué suivant la loi N (µ, σ 2 ), de densité ) f(x µ, σ 2 1 (x µ)2 ) = exp ( 2π σ 2σ 2. La vraisemblance est alors n f(x 1,..., x n µ, σ 2 ) = f(x i µ, σ 2 ) = ou encore i=1 f(x 1,..., x n µ, σ 2 ) = ( ) n/2 ( n 1 i=1 2πσ 2 exp (x i µ) 2 ) 2σ 2, ( ) n/2 ( n 1 i=1 2πσ 2 exp (x i x) 2 + n( x µ) 2 ) 2σ

113 Le maximum de vraisemblance, cas N (µ, σ 2 ) Le maximum de vraisemblance en µ est obtenu à l aide de la condition du premier ordre, ( ( ) n/2 ( n 1 µ log i=1 2πσ 2 exp (x i x) 2 + n( x µ) 2 ) ) 2σ 2 ( ) = µ = 0 log ( 1 2πσ 2 2n( x µ) 2σ 2 = 0. qui donne µ = x = n i=1 x i/n. ) n/2 n i=1 (x i x) 2 + n( x µ) 2 2σ 2 113

114 La seconde condition du premier ordre s écrit ( ( 1 σ log 2πσ 2 = σ ( ( n 1 2 log 2πσ 2 ) n/2 ( n i=1 exp (x i x) 2 + n( x µ) 2 2σ 2 ) n i=1 (x i x) 2 + n( x µ) 2 ) 2σ 2 = n σ + n i=1 (x i x) 2 + n( x µ) 2 σ 3 = 0. Le maximum est alors obtenu pour σ 2 = n i=1 (x i µ) 2 /n. Par substitution de µ, on peut écrire σ 2 = 1 n n (x i x) 2 = 1 n i=1 n x 2 i 1 n 2 i=1 n i=1 ] On peut noter facilement que E [ µ] = µ, mais aussi E [ σ2 n x i x j. j=1 = n 1 n σ2. ) ) 114

115 Le maximum de vraisemblance, cas uniforme sur [0, θ] La densité des X i est ici f θ (x) = 1 1(0 x θ). θ La vraisemblance s écrit alors L(θ; x 1,, x n ) = 1 n θ n i=1 1(0 x i θ) = 1 θ n 1(0 inf{x i} sup{x i } θ). Cette fonction n est pas dérivable en θ, mais on note que L est maximale pour θ le plus petit possible, i.e. θ = sup{x i }

116 Le maximum de vraisemblance Notons que l estimateur du maximum de vraisemblance n est par nécessairement unique. Supposons que {x 1,, x n } soient uniformént distribuées sur [θ, θ + 1]. Si θ = sup{x i } 1 < inf{x i } = θ + Alors tout estimateur θ [ θ, θ + ] est un estimateur du maximum de vraisemblance de θ. Enfin l estimateur du maximum de vraisemblance n est pas forcément sans biais. Dans le cas de la loi exponentielle θ = 1/x. En utilisant des propriétés de la loi inverse-gamma, onm peut montrer que E( θ) = n n 1 θ > θ. 116

117 Le maximum de vraisemblance, aspects numériques Pour les lois usuelles, sous R, library(mass) permet de calculer le maximum de vraisemblance pour les lois usuelles, e.g. fitdistr(x.norm,"normal") pour estimer les paramètres d une loi normale pour un échantillon x. Si on souhaite utiliser des méthodes numériques sous R, LV <- function(theta){-sum(log(dexp(x,theta)))} puis optim(2,lv) permet de calculer numériquement le maximum de la fonction de log-vraisemblance. Parfois, obtenir le maximum de la vraisemblance peut être difficile, ou impossible. On peut alors utiliser des méthodes de type Newton-Rahpson ou la méthode du score pour approcher numériquement le maximum. Soit S(x, θ) = θ log f(x, θ) la fonction score. On pose S n (θ) = n S(X i, θ). i=1 117

118 En faisant un développement de Taylor, de S n au voisinage de θ 0, En x = θ n, S n (x) = S n (θ 0 ) + (x θ 0 )S n(y) pour y [x, θ 0 ] S n ( θ n ) = 0 = +( θ n θ 0 )S n(y) pour y [θ 0, θ n ] Aussi, θ n = θ 0 S n(θ 0 ) S n(y) pour y [θ 0, θ n ] 118

119 Le maximum de vraisemblance, aspects numériques Construisons la suite (Newton-Raphson) θ (i+1) n = θ (i) n S n( θ n (i) ) S n( θ n (i) ), à partir d une valeur initiale θ (0) n bien choisie. Construisons la suite (méthode du score) θ (i+1) n = θ (i) n S n( θ n (i) ) ni( θ n (i) ), à partir d une valeur initiale θ (0) n bien choisie. 119

120 La méthode des moments La méthode des moments est la méthode la plus simple et la plus intuitive pour estimer un paramètre θ. Si E(X) = g(θ), on cherche θ tel que x = g( θ). Exemple Dans le cas d une loi exponentielle sur E(θ), P(X x) = 1 e θx, E(X) = 1/θ, donc θ = 1/x. Exemple Dans le cas d une loi uniforme sur [0, θ], E(X) = θ/2, donc θ = 2x. Si θ R 2, on utilise également soit V ar(x), soit E(X 2 ). 120

121 Quelques propri tés de l estimateur de la moyenne Proposition 37. Pour un échantillon i.i.d. de variance finie, E(X) = E(X i ) et V ar(x) = V ar(x i). n Par exemple, pour un échantillon i.i.d. suivant une loi B(p) E(X) = p et V ar(x) = p(1 p). n Proposition 38. Pour un échantillon i.i.d.suivant une loi N (µ, σ) n X µ σ N (0, 1) Démonstration. Car la somme de variables gaussiennes indépendantes est encore gaussienne. 121

122 Proposition 39. Pour un échantillon i.i.d. de variance finie n X µ σ N (0, 1) Démonstration. Théorème central limite. De manière générale, pour un paramètre θ R, on utilise l estimateur suivant Definition 40. Si E(X) = g(θ) avec g bijective, alors l estimateur des moments de θ est θ = g 1 (X) Dans ce cas, notons que l estimateur n est - en général - pas sans biais, E( θ) = E(g 1 (X)) g 1 (E(X)) = g 1 (E(X)) = g 1 (g(θ)) = θ. 122

123 Si g est linéaire, l estimateur est sans biais. Si g est convexe, l estimateur a un biais positif et si g est concave, l estimateur a un biais négatif. Néanmoins, la normalité asymptotique reste valide ( method), Proposition 41. Si un estimateur α de α est asymptotiquement normal, n( α α) N (0, σ 2 ), alors θ = ϕ( α) est un estimateur asymptotiquement normal de θ = ϕ(α), i.e. n( θ θ) = n(ϕ( α) ϕ(α)) N (0, ϕ (α)σ 2 ), Exemple : Considérons un échantillon i.i.d. {x 1,, x n } de loi exponentielle, i.e. E(X) = 1/λ. Alors θ = 1/x n. θ est un estimateur biaisé de θ, E( θ) = n θ, mais n 1 P 1 X n θ et ( n X n 1 ) L N (0, 1θ ) θ

124 Soit g(x) = 1/x sur ]0, [, alors g(x n ) P g ( ) 1 θ et n ( g(x n ) g ( )) 1 θ L N ( 0, 1 ( ) ) 2 1 θ 2 g, θ aussi, θ P θ et n ( θ θ ) L N ( 0, θ 2 ). De manière encore plus générale, pour un paramètre θ R 2, on utilise l estimateur suivant Proposition 42. Si (E(X), V ar(x)) = g(θ) avec g un C 1 difféomorphisme, alors l estimateur des moments de θ est θ = g 1 (X, S 2 X) 124

125 Moments empiriques pour un échantillon N (µ, σ 2 ) Soit {x 1,, x n } un échantillon i.i.d. de loi N (µ, σ 2 ). la moyenne (empirique) X = 1 n X i n E(X) = µ et V ar(x) = σ2 n la variance (empirique) S 2 = 1 n E(S 2 ) = n 1 n σ2 et V ar(s 2 ) = E( S 2 ) = σ 2 et V ar( S 2 ) = i=1 n (X i X) 2 et S 2 = 1 n 1 i=1 2σ4 (n 1) 2 2(n 1) n 2 σ 4 n (X i X) 2 i=1 125

126 Estimateur des moments Supposons que {x 1,..., x n } soit un échantillon i.i.d. de loi Gamma, de densité f(x; α, β) = xα 1 e x/β β α Γ(α) pour x 0. On cherche à estimer θ = (α, β). Rappelons que E(X) = αβ et E(X 2 ) = β 2 α(α + 1). Aussi αβ = m 1 β 2 α(α + 1) = m 2 soit α = m 2 1 m 2 m 2 1 et β = m 2 m 2 1 m 1. Aussi, α = ˆm 2 1 ˆm 2 ˆm 2 1 ˆm 1 = X X n n et β = ˆm 2 ˆm 2 1 ˆm 1 où et ˆm 2 = X X 2 n n. 126

127 Comparer des estimateurs Parmi les propriétés usuelles des estimateurs, sans biais, E( θ n ) = θ, convergent, θ P n θ, quand n asymptotiquement normal, n( θ θ) L N (0, σ 2 ) quand n, efficace optimal Soient T 1 et T 2 deux estimateurs sans biais, alors T 1 sera dit plus efficace que T 2 s il est de variance plus faible. Pour comparer deux estimateurs sans biais, on compare souvent leur variance. Le meilleur estimateur aura la variance la plus faible. 127

128 Comparer des estimateurs, biais vs. variance Fig. 31 Choisir un estimateur, θ 1 versus θ

129 Comparer des estimateurs, biais vs. variance θ 1 estime avec biais θ (E( θ 1 ) E(θ)), θ 2 estime sans biais θ (E( θ 2 ) = E(θ)), V ar( θ 1 ) V ar( θ 2 ). L estimateur θ 1 peut être intéressant dès lors que l on peut estimer correctement le biais. Mais le biais est souvent une fonction de θ (qui est inconnu), le biais est souvent une fonction compliquée de θ. 129

130 Estimation de l écart-type et de la variance Considérons le cas o u X N (µ, σ 2 ). Un estimateur naturel de σ est σ = σ 2 = 1 n (x i x) n 1 2 On peut alors montrer que i=1 E( σ) = 2 n 1 Γ(n/2) Γ([n 1]/2) σ σ Notons toutefois que σ p.s. σ et n( σ σ) L N ( 0, σ ) 2 130

131 Estimation de l écart-type et de la variance Biais (multiplicatif) Taille de l'échantillon (n) Fig. 32 Biais lors de l estimation de l écart-type. 131

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Que faire lorsqu on considère plusieurs variables en même temps?

Que faire lorsqu on considère plusieurs variables en même temps? Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

Loi d une variable discrète

Loi d une variable discrète MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7 Feuilles de 1 à 7 Ces feuilles avec 25 exercices et quelques rappels historiques furent distribuées à des étudiants de troisième année, dans le cadre d un cours intensif sur deux semaines, en début d année,

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Variables Aléatoires. Chapitre 2

Variables Aléatoires. Chapitre 2 Chapitre 2 Variables Aléatoires Après avoir réalisé une expérience, on ne s intéresse bien souvent à une certaine fonction du résultat et non au résultat en lui-même. Lorsqu on regarde une portion d ADN,

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Le modèle de Black et Scholes

Le modèle de Black et Scholes Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes IUT HSE Probabilités et Statistiques Feuille : variables aléatoires discrètes 1 Exercices Dénombrements Exercice 1. On souhaite ranger sur une étagère 4 livres de mathématiques (distincts), 6 livres de

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1 Master IMEA Calcul Stochastique et Finance Feuille de T.D. n o Corrigé exercices8et9 8. On considère un modèle Cox-Ross-Rubinstein de marché (B,S) à trois étapes. On suppose que S = C et que les facteurs

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

4 Distributions particulières de probabilités

4 Distributions particulières de probabilités 4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli

Plus en détail

Loi binomiale Lois normales

Loi binomiale Lois normales Loi binomiale Lois normales Christophe ROSSIGNOL Année scolaire 204/205 Table des matières Rappels sur la loi binomiale 2. Loi de Bernoulli............................................ 2.2 Schéma de Bernoulli

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel Cours de gestion des risques d assurances et de théorie de la ruine Stéphane Loisel ISFA, 2005-2006 Table des matières I Modélisation de la charge sinistre : du modèle individuel au modèle collectif 5

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Théorie de l estimation et de la décision statistique

Théorie de l estimation et de la décision statistique Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous

Plus en détail

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300 I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples 45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et

Plus en détail

Fonctions de plusieurs variables. Sébastien Tordeux

Fonctions de plusieurs variables. Sébastien Tordeux Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

1 TD1 : rappels sur les ensembles et notion de probabilité

1 TD1 : rappels sur les ensembles et notion de probabilité 1 TD1 : rappels sur les ensembles et notion de probabilité 1.1 Ensembles et dénombrement Exercice 1 Soit Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(p(ω)) = 2 4. Soit k n (

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne 2012. charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free. Actuariat I ACT2121 septième séance Arthur Charpentier charpentier.arthur@uqam.ca http ://freakonometrics.blog.free.fr/ Automne 2012 1 Exercice 1 En analysant le temps d attente X avant un certain événement

Plus en détail

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options

TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options Université de Lorraine Modélisation Stochastique Master 2 IMOI 2014-2015 TP1 Méthodes de Monte Carlo et techniques de réduction de variance, application au pricing d options 1 Les options Le but de ce

Plus en détail

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement

Plus en détail

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes

Modèle de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes de troncature gauche : Comparaison par simulation sur données indépendantes et dépendantes Zohra Guessoum 1 & Farida Hamrani 2 1 Lab. MSTD, Faculté de mathématique, USTHB, BP n 32, El Alia, Alger, Algérie,zguessoum@usthb.dz

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos olivier.bos@u-paris2.fr

Plus en détail

Pierre Thérond pierre@therond.fr. Année universitaire 2013-2014

Pierre Thérond pierre@therond.fr. Année universitaire 2013-2014 http://www.therond.fr pierre@therond.fr Institut de Science Financière et d Assurances - Université Lyon 1 Année universitaire 2013-2014 Plan du cours 1 Chapitre 1 - Introduction 2 3 4 Bibliographie principale

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Théorie des probabilités

Théorie des probabilités Théorie des probabilités LAVOISIER, 2008 LAVOISIER 11, rue Lavoisier 75008 Paris www.hermes-science.com www.lavoisier.fr ISBN 978-2-7462-1720-1 ISSN 1952 2401 Le Code de la propriété intellectuelle n'autorisant,

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Lois de probabilité. Anita Burgun

Lois de probabilité. Anita Burgun Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage

Plus en détail

Chapitre VI Fonctions de plusieurs variables

Chapitre VI Fonctions de plusieurs variables Chapitre VI Fonctions de plusieurs variables 6. 1 Fonctions différentiables de R 2 dans R. 6. 1. 1 Définition de la différentiabilité Nous introduisons la différentiabilité sous l angle des développements

Plus en détail

Économetrie non paramétrique I. Estimation d une densité

Économetrie non paramétrique I. Estimation d une densité Économetrie non paramétrique I. Estimation d une densité Stéphane Adjemian Université d Évry Janvier 2004 1 1 Introduction 1.1 Pourquoi estimer une densité? Étudier la distribution des richesses... Proposer

Plus en détail

Probabilités et statistique. Benjamin JOURDAIN

Probabilités et statistique. Benjamin JOURDAIN Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech

Plus en détail

Processus aléatoires avec application en finance

Processus aléatoires avec application en finance Genève, le 16 juin 2007. Processus aléatoires avec application en finance La durée de l examen est de deux heures. N oubliez pas d indiquer votre nom et prénom sur chaque feuille. Toute documentation et

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

Introduction à l approche bootstrap

Introduction à l approche bootstrap Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?

Plus en détail

FIMA, 7 juillet 2005

FIMA, 7 juillet 2005 F. Corset 1 S. 2 1 LabSAD Université Pierre Mendes France 2 Département de Mathématiques Université de Franche-Comté FIMA, 7 juillet 2005 Plan de l exposé plus court chemin Origine du problème Modélisation

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Modélisation aléatoire en fiabilité des logiciels

Modélisation aléatoire en fiabilité des logiciels collection Méthodes stochastiques appliquées dirigée par Nikolaos Limnios et Jacques Janssen La sûreté de fonctionnement des systèmes informatiques est aujourd hui un enjeu économique et sociétal majeur.

Plus en détail

Fonctions de plusieurs variables et applications pour l ingénieur

Fonctions de plusieurs variables et applications pour l ingénieur Service Commun de Formation Continue Année Universitaire 2006-2007 Fonctions de plusieurs variables et applications pour l ingénieur Polycopié de cours Rédigé par Yannick Privat Bureau 321 - Institut Élie

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et

Plus en détail

Chapitre 7 : Intégration sur un intervalle quelconque

Chapitre 7 : Intégration sur un intervalle quelconque Universités Paris 6 et Paris 7 M1 MEEF Analyse (UE 3) 2013-2014 Chapitre 7 : Intégration sur un intervalle quelconque 1 Fonctions intégrables Définition 1 Soit I R un intervalle et soit f : I R + une fonction

Plus en détail

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

Intégration sur des espaces produits

Intégration sur des espaces produits Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Probabilités avancées. Florin Avram

Probabilités avancées. Florin Avram Probabilités avancées Florin Avram 24 janvier 2014 Table des matières 1 Mise en scène discrète 3 1.1 Espace des épreuves/résultats possibles, événements, espace probabilisé, mesure de probabilités, variables

Plus en détail