Seconde Partie. Cours de Mathématiques. Semestre

Dimension: px
Commencer à balayer dès la page:

Download "Seconde Partie. Cours de Mathématiques. Semestre"

Transcription

1 Année ntégration et Probabilités Seconde Partie Cours de Mathématiques Takéo Takahashi Première Année FICM Semestre

2

3 Table des matières 5 Indépendance et Convolution Indépendance Définitions Caractérisations Cadre des lois discrètes et des lois absolument continues Covariance et corrélation Convolution Mesure convolée Addition de variables aléatoires discrètes indépendantes Addition de deux variables aléatoires indépendantes absolument continues Annexe : Preuve de la proposition Espaces de Hilbert Définition d un espace de Hilbert Formes sesquilinéaires et formes hermitiennes Espaces de Hilbert Distance et projection Distance à un ensemble Projection orthogonale sur un sous-espace vectoriel fermé Bases hilbertiennes Systèmes orthonormaux Espaces séparables Application à l étude des séries de Fourier Annexes Preuve de la proposition Preuve de la proposition Transformation de Fourier et Fonctions Caractéristiques Transformation de Fourier de fonctions Définition et premières propriétés Transformée de Fourier et dérivation Identité de Parseval Transformée de Fourier et inversion Transformée de Fourier d une mesure bornée Fonction caractéristique d une variable aléatoire Définition, exemples et premières propriétés Moments d une variable aléatoire Indépendance Annexe : Preuve du théorème

4 8 Suites de variables aléatoires Convergence presque sûre Définition et propriétés Lemme de Borel-Cantelli Convergence en probabilité Convergence L p Convergence en loi Définition et premières propriétés Caractérisations Somme de variables aléatoires indépendantes Loi des grands nombres Théorème central limite A Lois classiques 79 A.1 Lois discrètes A.2 Lois absolument continues B Comparaison des divers modes de convergences 81 2

5 Chapitre 5 Indépendance et Convolution Dans la suite, (Ω P) désigne un espace de probabilité et λ d est la mesure de Lebesgue sur R d B R d. Nous pouvons supposer, sans perte de généralités, que l espace (Ω P) est complet. Dans ce chapitre, les variables aléatoires considérées sont toutes définies sur le même espace (Ω P) à valeurs dans R d où d peut varier. La notion d indépendance est importante en probabilités. Elle permet de modéliser des expériences dont les résultats n influent pas intuitivement les uns des autres. Par exemple, lorsque l on jette un dé bleu et un dé rouge, le résultat obtenu avec le dé bleu ne dépend pas de celui obtenu avec le dé rouge. Cette notion d indépendance est reliée à la notion de mesure produit, notion introduite au chapitre 1. Dans ce chapitre, nous introduisons la notion de variables aléatoires indépendantes mais aussi la notion, plus faible, de variables aléatoires corrélées. Enfin, l étude de la loi de la somme de deux variables aléatoires indépendantes conduit à introduire la notion de mesure convolée. 5.1 Indépendance Définitions Nous introduisons maintenant l indépendance stochastique de deux évènements, c est-à-dire de deux éléments de la tribu. Définition 5.1 Indépendance de deux événements) Deux éléments A et B de la tribu sont indépendants par rapport à la probabilité P) si P(A B) = P(A) P(B). Remarque 5.1 Soient A B. Supposons P(A) = 0 ou P(B) = 0. Alors P(A B) = 0 car 0 P(A B) min (P(A) P(B)) = 0. En particulier, P(A B) = P(A) P(B). Par conséquent, si P(A) = 0 ou si P(B) = 0, alors les évènements A et B sont indépendants. La notion d événements indépendants non négligeables peut être reliée à la notion de probabilité conditionnelle, définie ci-après. 3

6 Définition 5.2 Probabilité conditionnelle) Soit A tel que P(A) > 0. L application P( A) définie sur par B P(B A) = P(B A) P(A) (5.1) est une probabilité sur (Ω ) et est appelée probabilité conditionnelle à A. Remarque 5.2 Soit A tel que P(A) > 0. Alors, P(A A) = 1 c est-à-dire que A est un événement certain pour la probabilité conditionnelle P( A). Remarque 5.3 Soient A B. Supposons que P(A) > 0. Alors A et B sont indépendants P(B A) = P(B). Ainsi, A et B sont indépendants si et seulement si la connaissance de A ne donne aucune information sur la réalisation ou non de B. Définissons maintenant l indépendance de deux variables aléatoires. Définition 5.3 Indépendance de deux variables aléatoires) Soient X une variable aléatoire à valeurs dans R d et Y une variable aléatoire à valeurs dans R p. Les deux variables aléatoires X et Y sont indépendantes si P(X B 1 Y B 2 ) = P(X B 1 ) P(Y B 2 ) pour tous boréliens B 1 B R d et B 2 B(R p ), c est-à-dire si avec P Z la loi de Z. P XY ) = P X P Y Exemple 5.1 Soient a R d et b R p. Alors, les variables constantes X = a et Y = b sont indépendantes car P XY ) = δ ab) = δ a δ b = P X P Y. La notion d indépendance se généralise à n évènements ou n variables. Deux types d indépendance peuvent être introduites : l indépendance deux à deux et l indépendance mutuelle. 4

7 Définition 5.4 Indépendance deux à deux / Indépendance mutuelle) Soient n N, A 1... A n et X 1... X n des variables aléatoires définies sur l espace (Ω P). Pour 1 i n, supposons que X i est à valeurs dans R d i. 1. a) Les évènements A 1... A n sont deux à deux indépendants si A i est indépendant de A j pour tout i = j, c est-à-dire si 1 i < j n P(A i A j ) = P(A i ) P(A j ). b) Les variables aléatoires X 1... X n sont deux à deux indépendantes si pour tout i = j, les variables aléatoires X i et X j sont indépendantes. 2. a) Les évènements A 1... A n sont mutuellement indépendants ou indépendants) si pour tous A 1 σ(a 1)... A n σ(a n ). P(A 1 A n) = n P(A i ) b) Les variables X 1... X n sont mutuellement indépendantes ou indépendantes) si P(X 1 B 1... X n B n ) = i=1 n P(X i B i ) pour tous boréliens B 1 B R d 1... B n B R dn, c est-à-dire si i=1 avec P Z la loi de Z. P X1...X n) = P X1 P Xn Remarque Si les variables aléatoires X 1... X n sont mutuellement indépendantes, alors elles sont aussi deux à deux indépendantes. Il suffit en effet de remarquer que P(X i B i X j B j ) = P(X 1 B 1... X n B n ) avec pour k / {i j}, B k = R d k si X k est à valeurs dans R d k. 2. De même si les évènements A 1... A n sont mutuellement indépendants, ils sont aussi deux à deux indépendants. Le résultat suivant lie l indépendance d évènements et de variables aléatoires. Proposition 5.5 Soient A 1... A n. Posons X 1 = 1 A1... X n = 1 An. Alors, les évènements A 1... A n sont mutuellement indépendants si et seulement si les variables aléatoires X 1... X n sont mutuellement indépendantes. 5

8 Terminons cette section en définissant la notion d indépendance pour n importe quelle famille d évènements ou de variables aléatoires. Définition 5.6 Indépendance d une famille quelconque) 1. Les évènements (A i ) i I I sont mutuellement indépendants ou indépendants) si pour tout n N et pour tout (i 1... i n ) I n, les évènements A i1... A in sont mutuellement indépendants. 2. Les variables aléatoires (X i ) i I sont mutuellement indépendantes ou indépendantes) si pour tout n N et pour tout (i 1... i n ) I n, les variables aléatoires X i1... X in sont mutuellement indépendantes Caractérisations Commençons par caractériser l indépendance de variables aléatoires réelles. Proposition 5.7 Indépendance de variables aléatoires réelles) Considérons X 1... X n des variables aléatoires réelles. 1. Les variables aléatoires X 1... X n sont indépendantes si et seulement si P(X 1 I 1... X n I n ) = pour tous I 1... I n intervalles. n P(X i I i ) 2. Les variables aléatoires X 1... X n sont indépendantes si et seulement si n (t 1... t n ) R n P(X 1 t 1... X n t n ) = P(X i t i ) c est-à-dire si et seulement si F X1...X n) = F X1 F Xn avec F Z la fonction de répartition de Z et h 1 h n la fonction définie par n h 1 h n (t 1... t n ) = h i (t i ). i=1 i=1 i=1 Preuve de la proposition 5.7. Supposons pour simplifier que n = 2. La démonstration de l assertion 2. est laissée en exercice. Si les variables aléatoires X 1... X n sont indépendantes alors pour tous les intervalles I 1... I n, car les intervalles sont des boréliens de R. P(X 1 I 1... X n I n ) = 6 n P(X i I i ) i=1

9 Supposons que pour tous intervalles I 1... I n. P(X 1 I 1... X n I n ) = Considérons A 2 un intervalle. Pour tout A B(R), posons n P(X i I i ) µ(a) = P(X 1 A X 2 A 2 ) et ν(a) = P(X 1 A) P(X 2 A 2 ). Alors, µ et ν sont deux mesures positives sur (R B(R)) (vérification laissée en exercice). Par hypothèse, ces deux mesures coïncident sur l ensemble des intervalles. Par ailleurs, i=1 µ(r) = ν(r) = P(X 2 A 2 ) < +. Alors, d après l annexe sur les classes monotones (voir premier polycopié, corollaire A.6 page 95), µ et ν coïncident sur B(R), c est-à-dire que pour tout A 1 B(R) P(X 1 A 1 X 2 A 2 ) = P(X 1 A 1 ) P(X 2 A 2 ). L égalité précédente est vraie pour tout intervalle A 2 et tout borélien A 1 de R. Soit A 1 B(R). Pour tout A B(R), posons µ(a) = P(X 1 A 1 X 2 A) et ν(a) = P(X 1 A) P(X 2 A). Comme µ et ν, µ et ν sont deux mesures positives bornées sur (R B(R)). Nous avons précédemment établi que ces mesures coïncident sur l ensemble des intervalles. Alors, elles coïncident sur B(R). Par conséquent, pour tout A 1 B(R) et tout A 2 B(R), P(X 1 A 1 X 2 A 2 ) = P(X 1 A 1 ) P(X 2 A 2 ) c est-à-dire que les variables X 1 et X 2 sont indépendantes. Le corollaire suivant montre que les images de variables aléatoires indépendantes sont indépendantes. Corollaire 5.8 Indépendance et images de variables aléatoires) Pour tout 1 i n, considérons X i une variable aléatoire à valeurs dans R d i. Si les variables aléatoires X 1... X n sont mutuellement indépendantes, alors pour toutes fonctions boréliennes f i : R d i R p i, 1 i n, les variables aléatoires f 1 (X 1 )... f n (X n ) sont mutuellement indépendantes. Preuve du corollaire 5.8. Soient B 1... B n des boréliens. Alors, P(f 1 (X 1 ) B 1... f n (X n ) B n ) = P X 1 f 1 1 (B 1)... f 1 n (B n). Étant donné que f i est borélienne et que B i est un borélien, fi 1 (B i ) est un borélien. Alors, par indépendance mutuelle des variables aléatoires X 1... X n, P(f 1 (X 1 ) B 1... f n (X n ) B n ) = n i=1 P X i f 1 i (B i ) = n P(f i (X i ) B i ). i=1 Par conséquent, les variables aléatoires f 1 (X 1 )... f n (X n ) sont mutuellement indépendantes. 7

10 La propriété d indépendance permet de simplifier le calcul de certaines espérances. Proposition 5.9 Soient X 1... X n des variables aléatoires. Pour 1 i n, supposons que X i est à valeurs dans R d i. Les variables aléatoires X 1... X n sont mutuellement indépendantes si et seulement si n n E h i (X i ) = E(h i (X i )) i=1 i=1 pour toutes fonctions h i : R d i R boréliennes positives ou boréliennes bornées) avec 1 i n. Remarque 5.5 En particulier, si les variables aléatoires X 1... X n sont à valeurs dans R, intégrables et mutuellement indépendantes, alors n n E X i = E(X i ). i=1 i=1 Preuve de la proposition Supposons X 1... X n mutuellement indépendantes. (a) Soient h 1... h n des fonctions boréliennes positives (h i : R d i R). Considérons la fonction h définie par n h(x 1... x n ) = h i (x i ). La fonction h est alors borélienne positive. Par définition, n E h i (X i ) = E(h(X 1... X n )) = h(x 1... x n ) dp X1...X n)(x 1... x n ). i=1 i=1 Les variables aléatoires X 1... X n étant indépendantes, P X1...X n) = P X1 P Xn d après le théorème de Fubini-Tonelli (pour les fonctions boréliennes positives), n n E h i (X i ) = h i (x i )dp X1 (x 1 ) dp X2 (x 2 ) dp Xn (x n ) i=1 = = i=1 n h i (x i ) dp Xi (x i ) i=1 n E(h i (X i )). i=1 et (b) Supposons maintenant que h 1... h n sont boréliennes bornées (a priori non positives). Nous définissons la fonction h comme précédemment. Étant donné que P Xi est une probabilité, la fonction borélienne bornée h i est P Xi -intégrable. De même, la fonction borélienne bornée h est P X1...X n)-intégrable. Alors, en appliquant le théorème de Fubini (pour les fonctions P-intégrables), on montre comme précédemment que n n E h i (X i ) = E(h i (X i )). i=1 8 i=1

11 2. Réciproquement, supposons que n E h i (X i ) = i=1 n E(h i (X i )). (5.2) pour toutes fonctions h i, 1 i n, boréliennes positives (ou boréliennes bornées). Pour tout 1 i n, soit A i B R d i. Les fonctions i=1 h i = 1 Ai 1 i n sont alors boréliennes positives et bornées. Remarquons que n P(X 1 A 1... X n A n ) = E 1 Ai (X i ). Alors, d après (5.2), P(X 1 A 1... X n A n ) = i=1 n E(1 Ai (X i )) = i=1 n P(X i A i ). L égalité précédente étant vraie pour tout A i B R d i 1 i n, les variables aléatoires X 1... X n sont mutuellement indépendantes. i= Cadre des lois discrètes et des lois absolument continues Nous examinons le cas où toutes les variables sont discrètes. Proposition 5.10 Indépendance et lois discrètes) 1. Soit (X Y ) un vecteur aléatoire discret. Supposons que X est à valeurs dans {x i / i I} avec I fini ou dénombrable et que Y est à valeurs dans {y j / j J} avec J fini ou dénombrable. Pour tout i I et tout j J, posons p ij = P(X = x i Y = y j ) p i = k J p ik = P(X = x i ) et p j = k I p kj = P(Y = y j ). Alors les variables aléatoires X et Y sont mutuellement indépendantes si et seulement si i I j J p ij = p i p j c est-à-dire si et seulement si i I j J P(X = x i Y = y j ) = P(X = x i ) P(Y = y j ). 2. Plus généralement, soient X 1... X n des variables aléatoires discrètes. Supposons que X k est à valeurs dans {x ik / i I k } avec I k fini ou dénombrable. Alors, les variables aléatoires X 1... X n sont mutuellement indépendantes si et seulement si pour tous i 1 I 1... i n I n. P X 1 = x... X i11 n = x inn = n k=1 P X k = x ik k 9

12 Nous nous intéressons à présent au cas d un vecteur aléatoire dont la loi est absolument continue. Proposition 5.11 Indépendance des marginales d un vecteur de loi absolument continue) Soit X = (X 1... X n ) un vecteur aléatoire à valeurs dans R n de loi absolument continue de densité f : R n [0 + ]. Alors, les variables aléatoires X 1... X n sont indépendantes si et seulement si il existe n fonctions boréliennes positives g 1... g n telles que avec g 1 g n (x 1... x n ) = n i=1 g i(x i ). f = g 1 g n λ n -presque partout (5.3) Preuve de la proposition Voir annexe du chapitre page 20. Remarque 5.6 La décomposition (5.3) n est pas unique, il suffit de changer g 1 en g 1 /λ et g 2 en λg 2, où λ > 0. Cependant, il y a unicité si l on impose que l intégrale de chaque fonction g i est égale à 1. Lorsqu il est ainsi g i est une densité de X i. Plus généralement, nous pouvons énoncer le résultat suivant. Proposition 5.12 Indépendance des marginales d un vecteur de loi absolument continue) Pour tout 1 i n, considérons X i une variable aléatoire à valeurs dans R d i. Supposons que le vecteur aléatoire X = (X 1... X n ) à valeurs dans R d, avec d = d d n, est de loi absolument continue de densité f : R d [0 + ]. Alors, les variables aléatoires X 1... X n sont indépendantes si et seulement si il existe n fonctions boréliennes positives g 1... g n telles que f = g 1 g n λ d -presque partout avec pour tout (x 1... x n ) R d 1 R dn, g 1 g n (x 1... x n ) = n i=1 g i(x i ). Nous savons que si la loi d un vecteur X est absolument continue, alors la loi de chacune de ses marginales l est aussi (voir le chapitre 3 du premier polycopié page 71). La réciproque est en général fausse. Cependant, si les marginales d un vecteur X sont indépendantes et de loi absolument continue, alors le vecteur X est aussi de loi absolument continu. Proposition 5.13 Indépendance et marginales de loi absolument continue) Pour tout 1 i n, considérons X i une variable aléatoire à valeurs dans R d i de loi absolument continue de densité f i : R d i [0 + ]. Alors, les variables X 1... X n sont mutuellement indépendantes si et seulement si la loi du vecteur X = (X 1... X n ) est absolument continue de densité f = f 1 f n avec pour tout (x 1... x n ) R d 1 R dn, f 1 f n (x 1... x n ) = n i=1 f i(x i ). 10

13 Preuve de la proposition Supposons que les variables aléatoires X 1... X n sont mutuellement indépendantes. Considérons (A 1... A n ) B R d 1 B R dn. Chaque X i étant de densité f i, P X1 P Xn (A 1 A n ) = n P(X i A i ) = i=1 n Par suite, d après le théorème de Fubini-Tonelli, P X1 P Xn (A 1 A n ) = f dλ d A 1 A n avec f = f 1 f n et d = n i=1 d i. i=1 A i f i dλ di Nous venons de montrer que pour tout A = A 1 A n B R d 1 B R d n, avec P X1 P Xn (A 1 A n ) = µ(a) B B R d µ(b) = f dλ d. B Remarquons que µ est bien définie sur B R d car f est borélienne positive. Par ailleurs, µ est une mesure positive sur R d B R d (mesure dont la dérivée de Radon-Nycodym par rapport à λ d est la fonction f). Alors, par définition d une mesure produit, B B R d P X1 P Xn (B) = µ(b) ce qui se réécrit sous la forme B B R d P X1...X n)(b) = µ(b) = par indépendance des variables X 1... X n. Par conséquent, la loi de X = (X 1... X n ) est absolument continue de densité f. B f dλ d La réciproque est une simple conséquence de la proposition Covariance et corrélation Dans le cas où les variables aléatoires sont de carré intégrable, nous pouvons définir les notions de corrélations et de covariance. Définition 5.14 Covariance) Soient X et Y deux variables aléatoires réelles possédant chacune un moment d ordre deux. La covariance de X et Y est le réel Cov(X Y ) = E[(X E(X))(Y E(Y ))]. Remarque 5.7 Soient X et Y deux variables aléatoires réelles possédant chacune un moment d ordre deux. 1. Étant donné que xy 1 2 (x2 + y 2 ) la variable aléatoire XY est intégrable. L ensemble des fonctions P-intégrables étant un espace vectoriel contenant les constantes (car P est une probabilité), la covariance 11

14 de X et Y est bien définie car la variable aléatoire est intégrable. 2. Si X = Y, alors Cov(X X) = Var X. 3. Remarquons que Cov(X Y ) = Cov(Y X). (X E(X))(Y E(Y )) = XY E(X) Y E(Y ) X + E(X)E(Y ) 4. Notons P XY ) la loi du couple (X Y ). Alors, Cov(X Y ) = (x E(X))(y E(Y )) dp XY ) (x y). R 2 Par ailleurs, E(X) = R x dp X (x) = x dp XY ) (x y) et E(Y ) = R 2 R y dp Y (y) = y dp XY ) (x y) R 2 avec P X (respectivement P Y ) la loi de X (respectivement Y ). Par conséquent, l expression de la covariance est déterminée par la loi du couple (X Y ). Proposition 5.15 Soient X et Y deux variables aléatoires réelles possédant chacune un moment d ordre deux. Alors, Cov(X Y ) = E(XY ) E(X) E(Y ). Preuve de la proposition D après la remarque précédente, (X E(X))(Y E(Y )) = XY E(Y ) X E(Y ) X + E(X)E(Y ). Alors par linéarité de l espérance sur l espace vectoriel L 1 (Ω P), Cov(X Y ) = E[(X E(X))(Y E(Y ))] = E(XY ) E(X)E(Y ) E(Y )E(X) + E(X)E(Y ) = E(XY ) E(X)E(Y ). Remarque 5.8 Soient X et Y deux variables aléatoires réelles possédant chacune un moment d ordre deux. Notons P XY ) la loi du couple (X Y ). Alors, E(XY ) = xy dp XY ) (x y). R 2 Exemple 5.2 Soient (X Y ) un couple prenant ses valeurs dans l ensemble {(x i y j ) /(i j) I J} R 2 avec I J fini ou dénombrable. Supposons x i = x k si i = k (i k I)et y j = y l si j = l (j l J). Supposons que X et Y admettent un moment d ordre 2, c est-à-dire que E X 2 = x 2 i P(X = x i ) < + et que E Y 2 = yj 2 P(Y = y j ) < +. i I j J Alors, Cov(X Y ) = x i y j P(X = x i Y = y j ) x i P(X = x i ) y j P(Y = y j ). i I j J i I j J 12

15 Il est classique de regrouper les variances de X et Y avec leur covariance dans une matrice appelée matrice de covariance. Définition 5.16 Matrice de covariance) Soient X et Y deux variables aléatoires réelles possédant chacune un moment d ordre 2. La matrice de covariance du vecteur aléatoire X Y ) est la matrice symétrique Var X Cov(X Y ) Γ XY = Cov(X Y ) Var Y Remarque 5.9 La définition précédente se généralise à tout vecteur aléatoire X = (X 1... X n ) à valeurs dans R n dont toutes les composantes sont de carré intégrable en posant Γ X = (Cov(X i X j )) 1in. 1jn Définition 5.17 Variables non corrélées) Deux variables aléatoires réelles X et Y qui possèdent un moment d ordre deux sont dites non corrélées si Cov(X Y ) = 0. Remarque 5.10 Soient X et Y deux variables aléatoires réelles de carré intégrable. Si X ou Y est presque sûrement constante, alors X et Y ne sont pas corrélées. Nous donnons maintenant le lien entre la variance de la somme de deux variables aléatoires réelles et la notion de covariance. Proposition 5.18 Variance d une somme) 1. Soient X et Y deux variables aléatoires réelles de carré intégrable. Alors, De plus, si X et Y sont indépendantes, alors, Var (X + Y ) = Var (X) + Var (Y ) + 2 Cov (X Y ). Cov(X Y ) = 0 et Var (X + Y ) = Var (X) + Var (Y ). 2. Soient X 1... X n des variables aléatoires réelles de carré intégrable. Alors, n n Var X i = Cov (X i X j ) i=1 Var (X i ) + i=1 i=j = n Var (X i ) + 2 Cov (X i X j ). i=1 1i<jn De plus, si X 1... X n sont deux à deux indépendantes c est-à-dire que X i et X j sont deux variables indépendantes pour tout i = j), alors n n Var X i = Var (X i ). i=1 i=1 13

16 Remarque Soient X et Y deux variables aléatoires réelles de carré intégrable. D après la proposition précédente, X et Y indépendantes = X et Y non corrélées. La réciproque est fausse : en général, la condition Cov(X Y ) = 0 n implique pas que X et Y sont indépendantes. 2. Si les variables aléatoires X 1... X n sont mutuellement indépendantes, alors elles sont deux à deux indépendantes et la proposition précédente s applique dès qu elles sont de carré intégrable. Preuve de la proposition Démontrons la première assertion de la proposition Les variables X et Y étant intégrables, E(X + Y ) = E(X) + E(Y ). Par suite, Var (X + Y ) = E (X + Y E(X + Y )) 2 = E (X E(X)) 2 + (Y E(Y )) 2 + 2(X E(X))(Y E(Y )). Alors, par linéarité de l espérance sur l ensemble des fonctions P-intégrables, Var (X + Y ) = Var (X) + Var (Y ) + 2 Cov (X Y ). Supposons que les variables X et Y sont indépendantes. Les applications f 1 : R R et f 2 : R R x x E(X) y y E(Y ) étant boréliennes, les variables aléatoires X E(X) et Y E(Y ) sont également indépendantes. Par ailleurs, elles sont de carré intégrable (car L 2 (Ω P) est un espace vectoriel contenant X, Y et les constantes). D où, Cov (X Y ) = E[(X E(X))(Y E(Y ))] = E[X E(X)] E[Y E(Y )] = 0. Alors, d après la première partie, Var(X + Y ) = Var X + Var Y. 2. La seconde assertion se démontre de manière analogue. Terminons cette partie en introduisant le cœfficient de corrélation linéaire entre deux variables. Définition 5.19 Cœfficient de corrélation linéaire) Soient X et Y deux variables aléatoires réelles qui possèdent un moment d ordre deux et ne sont pas presque sûrement constantes, c est-à-dire deux variables aléatoires réelles telles que E X 2 < + E Y 2 < + Var (X) > 0 et Var (Y ) > 0. Le cœfficient de corrélation linéaire entre X et Y est le réel ρ XY = Cov(X Y ) = Cov(X Y ) Var (X) Var (Y ) σ(x)σ(y ). 14

17 La proposition suivante justifie la terminologie corrélation linéaire. Proposition 5.20 Soient X et Y deux variables aléatoires réelles qui possèdent un moment d ordre deux et ne sont pas presque sûrement constantes, c est-à-dire deux variables aléatoires réelles telles que E X 2 < + E Y 2 < + Var (X) > 0 et Var (Y ) > 0. Notons ρ XY le cœfficient de corrélation linéaire entre les variables X et Y. 1. Alors, ρ XY De plus ρ XY = 1 respectivement ρ XY = 1) si et seulement si Y = ax + b respectivement Y = ax + b). Preuve de la proposition D après l inégalité de Cauchy-Schwarz (c est-à-dire l inégalité de Hölder avec p = q = 2), Cov(X Y ) Par conséquent, ρ XY 1. E (X E(X)) 2 1/2 E (Y E(Y )) 2 1/2 = Var(X) Var(Y). 2. Supposons Y = ax + b avec a R + et b R. Alors, Var(Y ) = a 2 Var(X), E(Y ) = ae(x) + b et Étant donné que a > 0, Cov(X Y ) = E[(X E(X))(aX + b ae(x) b)] = avar(x). ρ XY = a a = 1 On montre de même que si Y = ax + b alors ρ XY = a a = Supposons ρ XY = 1. Posons a = Var Y/Var X R + et b = E(Y ) ae(x) R. Alors, E (Y ax b) 2 = Var(Y ax b) car E(Y ax b) = 0. Par conséquent, E (Y ax b) 2 = Var(Y ) + 2Cov(Y ax b) + Var( ax b). En utilisant Var( ax b) = a 2 VarX = VarY et en calculant la covariance Cov(Y ax b), on obtient : E (Y ax b) 2 = 0. D où, Y ax b = 0 presque sûrement, c est-à-dire Y = ax + b presque sûrement. Si ρ XY = 1, on pose a = Var Y/Var X R + et b = E(Y ) + ae(x) R. Alors, on montre de même que précédemment : E (Y + ax b) 2 = 0. On en déduit que Y = ax + b presque sûrement. 15

18 5.3 Addition des variables aléatoires indépendantes et Convolution Mesure convolée Avant de donner la loi de la somme de deux variables aléatoires indépendantes, nous définissons la mesure convolée de µ et ν. Définition 5.21 Convolée de deux mesures) Soient µ et ν deux mesures positives σ-finies sur R d B(R d ). La convolée µ ν de µ et ν est la mesure image de µ ν par l application h : R d R d R d (x y) x + y. Ainsi, d après le théorème du transport, pour toute fonction ϕ : R d [0 + ] borélienne, ϕ(t) d(µ ν)(t) = ϕ(x + y) dµ(x)dν(y). (5.4) R d R d R d Remarque 5.12 Soient µ et ν sont deux mesures positives σ-finies sur R d B(R d ). 1. La formule (5.4) reste vraie pour toute fonction (µ ν)-intégrable. 2. Le produit de convolution de deux mesures σ-finies est commutatif. Ainsi, µ ν = ν µ. 3. Remarquons que µ ν R d = µ(dx)ν(dx) = µ R d ν R d. R d R d Par suite, si µ et ν sont bornées, alors µ ν est aussi bornée. De plus, si µ et ν sont deux probabilités, alors µ ν est aussi une probabilité. Exemple 5.3 Soit µ = δ a et ν = δ b avec a b R. Alors, δ a δ b = δ a+b La loi de la somme de variables aléatoires indépendantes est donnée une convolée de probabilités. Proposition 5.22 Loi d une somme de variables indépendantes) Si X et Y sont deux variables aléatoires indépendantes à valeurs dans R d de lois respectives P X et P Y, alors la loi de X + Y est P X+Y = P X P Y. Preuve de la proposition Les variables X et Y étant indépendantes, P XY ) = P X P Y. Alors, pour toute fonction f : R d R borélienne positive, d après le théorème du transport, E(f(X + Y )) = f(x + y) P X (dx)p Y (dy). R d R d Par conséquent, par définition de P X P Y, pour toute fonction f : R d R borélienne positive, E(f(X + Y )) = f(z) (P X P Y )(dz). R d Ainsi, la loi de X + Y est la mesure convolée P X P Y. 16

19 5.3.2 Addition de variables aléatoires discrètes indépendantes Nous contentons d étudier le cas de la convolution de deux probabilités discrètes. Proposition 5.23 Loi d une somme de variables discrètes) Soient X et Y deux variables aléatoires à valeurs dans R d. Supposons que X est une variable aléatoire discrète de loi P X = p i δ xi i I avec I fini ou dénombrable. De même, supposons que Y est une variable aléatoire discrète de loi P Y = j J p j δ yj avec J fini ou dénombrable. Si X et Y sont indépendantes, alors la variable aléatoire X + Y est discrète de loi P X+Y = p i p j δ xi +y j. ij) I J Remarque 5.13 Sous les hypothèses de la proposition précédente, P X+Y (X + Y = z) = ij) I z p i p j avec I z = {(i j) I J / x i + y j = z}. Preuve de la proposition La variable aléatoire X +Y prend ses valeurs dans l ensemble fini ou dénombrable A = {x i + y j / i I j J} Nous devons donc déterminer P(X + Y = z) pour tout z A. Remarquons que pour z A, P(X + Y = z) = P(X = x i Y = y j ) ij) I z avec I z = {(i j) I J / x i + y j = z}. Alors, par indépendance de X et Y, z A P(X + Y = z) = p i p j. ij) I z Par conséquent, P X+Y = p i p j δ xi +y j = z A ij) I z p i p j δ xi +y j. ij) I J Exemple 5.4 Soient X et Y deux variables aléatoires discrètes à valeurs dans N. Si X et Y sont indépendantes, alors X + Y est à valeurs dans N et n N P(X + Y = n) = n P(X = i) P(Y = n i). i=0 Nous donnons à présent des exemples de convolutions pour des lois classiques. 17

20 Proposition 5.24 Soient X et Y deux variables aléatoires réelles indépendantes. 1. Si X suit la loi binomiale B(n p) et si Y suit la loi B(m p), alors X + Y suit la loi B(n + m p). 2. Si X suit la loi de Poisson P(λ) et si Y suit la loi de Poisson P(µ), alors la loi de X + Y est la loi de Poisson P(λ + µ). Remarque 5.14 Cette proposition se généralise à la somme de n variables aléatoires mutuellement indépendantes. En particulier, si X 1... X n sont n variables aléatoires mutuellement indépendantes de loi de Bernoulli de paramètre p, alors n X = i=1 est une variable aléatoire de loi binomiale B(n p) (car B(p) = B(1 p)). Ceci explique pourquoi le nombre de piles obtenus lors de n lancers indépendants d une pièce truquée est modélisé par une loi binomiale B(n p) où p est la probabilité d obtenir pile lors d un lancer. Preuve de la proposition X i 1. Supposons que X et Y sont indépendantes, que X suit la loi B(n p) et que Y suit la loi B(m p). Alors, presque sûrement X + Y {k N / 0 k n + m}. De plus, pour tout entier k tel que 0 k n + m, P(X + Y = k) = = k P(X = i) P(Y = k i) i=0 k i=0 C i n C k i m p k (1 p) n+m k. Or k i=0 Ci n Cm k i est le cœfficient de t k du polynôme (1 + t) n (1 + t) m = (1 + t) m+n donc est égal à Cn+m. k Alors, pour tout entier k tel que 0 k n + m, P(X + Y = k) = C k n+m p k (1 p) n+m k. Par conséquent, X + Y suit une loi binomiale B(n + m p). 2. Supposons que X et Y sont indépendantes, que X suit la loi P(λ) et que Y suit la loi P(µ). Alors, X + Y N presque sûrement. De plus, pour tout n N, P(X + Y = n) = = n P(X = i) P(Y = n i) i=0 n λ i i e λ i=0 µn i (n i) e µ = 1 n e λ+µ) n i=0 C i n λi µ n i = 1 n e λ+µ) (λ + µ) n. Par conséquent, X + Y a pour loi P(λ + µ). 18

21 5.3.3 Addition de deux variables aléatoires indépendantes absolument continues Si µ et ν sont deux probabilités sur R d ayant chacune une densité, alors leur convolée µ ν admet une densité qui est donnée par une convolée de fonctions. Définition 5.25 Convolée de fonctions) Soient f et g deux fonctions boréliennes positives définies sur R d. La convolée de f et g est la fonction f g définie sur R d par x R d f g(x) = f(x t)g(t)λ 1 (dt) = g(x t)f(t)λ 1 (dt) = g f(x). R d R d Remarque La convolution est une opération associative, c est-à-dire que (f g) h = f (g h) pour toutes fonctions f, g et h boréliennes positives. 2. La convolution est une application régularisante. Si f et g sont deux densités sur R (par rapport à λ 1 ) bornées, alors la fonction f g est une densité et est une fonction continue. Donnons à présent la loi de la somme de deux variables aléatoires réelles de loi absolument continue. Proposition 5.26 Loi d une somme de variables indépendantes de loi absolument continue) Soient X et Y des variables aléatoires réelles indépendantes. Si la loi de X respectivement Y ) est absolument continue de densité f X respectivement f Y ), alors la loi de X + Y est absolument continue de densité f X f Y. Preuve de la proposition Soit ϕ : R 2 [0 + ] une fonction borélienne positive. Les variables X et Y étant indépendantes, la loi de (X Y ) est absolument continue de densité f XY ) définie par (x y) R 2 f XY ) (x y) = f X (x)f Y (y). Par conséquent, E(ϕ(X + Y )) = R R ϕ(x + y)f X (x)f Y (y)λ 1 (dx)λ 1 (dy). D après le théorème de Fubini-Tonelli, E(ϕ(X + Y )) = ϕ(x + y)f X (x)λ 1 (dx) f Y (y)λ 1 (dy). R R En effectuant le changement de variable z = x + y (y étant fixé), on constate que E(ϕ(X + Y )) = ϕ(z)f X (z y)λ 1 (dz) f Y (y)λ 1 (dy). R R R Ainsi, d après le théorème de Fubini-Tonelli, E(ϕ(X + Y )) = ϕ(z) f X (z y)f Y (y)λ 1 (dy) λ 1 (dz) = ϕ(z)(f X f Y )(z)λ 1 (dz). R R L égalité précédente étant vraie pour toute fonction ϕ : R 2 [0 + ] borélienne positive, la loi de X + Y est la loi absolument continue de densité f X f Y. Pour terminer, nous montrons la stabilité des lois gaussiennes pour la convolution. 19

22 Théorème 5.27 Somme de variables gaussiennes indépendantes) Soit X respectivement Y ) une variable aléatoire réelle de loi gaussienne N m σ 2 respectivement N m τ 2 ). Si X et Y sont indépendantes, alors X +Y est une variable aléatoire réelle de loi gaussienne N m + m σ 2 + τ 2, c est-à-dire de moyenne m + m et de variance σ 2 + τ 2. Preuve du théorème Nous supposons σ = 0 et τ = 0 (le cas σ = 0 ou τ = 0 est laissé en exercice). Posons U = X m σ et V = Y m τ. Les variables aléatoires X et Y étant indépendantes, U et V le sont aussi. Par ailleurs, U et V suivent des lois gaussiennes centrées réduites. Remarquons que σu suit une loi N 0 σ 2 donc a pour densité la fonction f 0σ 2 définie par x R f 0σ 2(x) = 1 σ /2σ2 e x2. 2π De même la τv a pour densité la fonction f 0τ 2.D après la proposition 5.26, σu + τv a pour densité ϕ = f 0σ 2 f 0τ 2 (par indépendance de σu et de τv ). Par définition, En posant ρ 2 = σ 2 + τ 2, nous obtenons : ϕ(x) = 1 (x y)2 exp 2πστ R 2σ 2 y2 2τ 2 λ 1 (dy). ϕ(x) = 1 ρ 2π f zu 2(y)λ 1 (dy) R e x2 /2ρ 2 avec z = xτ 2 /ρ 2, u = σ 2 τ 2 /ρ 2 et f zu 2 densité de la loi N z u 2. Alors, pour tout x R ϕ(x) = 1 ρ /2ρ2 e x2 = f 0ρ 2(x) 2π car l intégrale de f zu 2 est égale à 1. D où σu + τv est une variable gaussienne de moyenne nulle et de variance ρ 2. Dès lors, X + Y = σu + τv + m + m suit une loi gaussienne de moyenne m + m et de variance σ 2 + τ Annexe : Preuve de la proposition 5.11 voir énoncé page 10 Nous supposons pour simplifier n = Supposons les deux variables aléatoires X et Y indépendantes. D après la proposition 3.44, X (respectivement Y ) admet une densité f 1 (respectivement f 2 ). Soient A et B deux boréliens. Les variables aléatoires X et Y étant indépendantes, P((X Y ) A B) = P(X A Y B) = P(X A) P(Y B) = 1 A (x)f 1 (x)dx 1 B (x)f 2 (x)dx Alors, d après le théorème de Fubini-Tonelli, P((X Y ) A B) = P XY ) (A B) = 1 A B (x y)f 1 (x)f 2 (y)dxdy où P XY ) désigne la loi de (X Y ). 20

23 Pour tout borélien C, posons Q (C) = 1 C (x y)f 1 (x)f 2 (y)dxdy. Alors, Q est une probabilité et vu ce qui précède, elle coïncide avec P XY ) sur les pavés A B. Par suite, P XY ) = Q sur B R 2 = B(R) 2. Ainsi, D après l unicité de la densité, P((X Y ) C) = 1 C (x y)f 1 (x)f 2 (y)dxdy pour tout borélien C. f(x y) = f 1 (x)f 2 (y) presque partout. 2. Réciproquement, supposons la relation (5.3) réalisée. Soient A et B deux boréliens. P(X A Y B) = P((X Y ) A B) = 1 A B (x y)g 1 (x)g 2 (y)dxdy. D après le théorème de Fubini-Tonelli, P(X A Y B) = 1 A (x)g 1 (x)dx 1 B (y)g 2 (y)dy. (5.5) En particulier si A = B = R, l égalité précédente devient 1 = λ 1 λ 2, où nous avons posé, λ 1 = g 1 (x)dx et λ 2 = g 2 (y)dy. R Posons f 1 = g 1 /λ 1 et f 2 = g 2 /λ 2. Alors, en divisant (5.5) par le facteur 1 = λ 1 λ 2, P(X A Y B) = 1 A (x)f 1 (x)dx 1 B (y)f 2 (y)dy R En particulier si B = R, De même, P(Y B) = P(X A) = 1 A (x)f 1 (x)dx. 1 B (y)f 2 (y)dy. Alors, pour tous boréliens A et B, P(X A Y B) = P(X A)P(Y B) ce qui signifie que les variables aléatoires X et Y sont indépendantes. 21

24 22

25 Chapitre 6 Espaces de Hilbert. Un espace de Hilbert est un espace de Banach dont la norme découle d un produit scalaire et est une généralisation en dimension quelconque de la notion d espace hermitien ou euclidien. Ce chapitre pourra sembler au premier abord sans rapport avec la théorie de la mesure et les probabilités. Cependant, un exemple particulier d espace de Hilbert est l espace des fonctions de carré intégrable. Tout ce chapitre s applique donc à cet espace qui joue un rôle important en probabilités comme en intégration. Dans la suite, K est égal à R ou et E désigne un K-espace vectoriel. 6.1 Définition d un espace de Hilbert Formes sesquilinéaires et formes hermitiennes Définition 6.1 Forme sesquilinéaire) Une application ϕ : E E K est une forme sesquilinéaire sur E si i) pour tout y E l application x ϕ(x y) est une forme linéaire sur E, ii) pour tout x E et pour tout y E, ϕ(y x) = ϕ(x y). Lorsque K = R, une forme sesquilinéaire ϕ est encore appelée une forme bilinéaire symétrique. Remarque 6.1 Si ϕ est une forme sesquilinéaire sur E, alors pour tout (x y z) E 3 et tout λ K, ϕ(x x) R ϕ(x y + λz) = ϕ(x y) + λϕ(x z). Définition 6.2 Forme hermitienne) Soit ϕ une forme sesquilinéaire sur E. L application Φ : E R x ϕ(x x) est appelée forme hermitienne associée à ϕ. Lorsque K = R, la forme hermitienne Φ est encore appelée forme quadratique associée à ϕ. Enfin, la forme sesquilinéaire ϕ est appelée forme polaire de la forme hermitienne Φ. 23

26 Nous donnons les propriétés générales des formes hermitiennes, propriétés qui découlent immédiatement de la définition. Proposition 6.3 Soit ϕ une forme sesquilinéaire et Φ la forme hermitienne associée à ϕ. 1. Alors, pour tout x E et pour tout λ K, Φ(λx) = λ 2 Φ(x). 2. De plus, pour tout x E et tout y E, Φ(x + y) = Φ(x) + Φ(y) + 2 Re ϕ(x y). 3. Si K =, alors pour tout x E et tout y E, Φ(x + iy) = Φ(x) + Φ(y) + 2 Im ϕ(x y). Preuve de la proposition 6.3. Laissée en exercice. Par définition, Φ s exprime en fonction de ϕ. Mais, une expression de ϕ à l aide de Φ peut aussi être donnée. Proposition 6.4 Soit ϕ une forme sesquilinéaire et Φ la forme hermitienne associée à ϕ. 1. Si K = R, alors pour tout (x y) E 2, ϕ(x y) = 1 (Φ(x + y) Φ(x y)) Si K =, alors pour tout (x y) E 2, Re ϕ(x y) = 1 4 (Φ(x + y) Φ(x y)) et Im ϕ(x y) = 1 (Φ(x + iy) Φ(x iy)). 4 Preuve de la proposition 6.3. Laissée en exercice. Énonçons à présent l égalité du parallélogramme, égalité qui découle de la deuxième assertion de la proposition 6.3. Proposition 6.5 Égalité du parallélogramme) Si ϕ une forme sesquilinéaire et Φ la forme hermitienne associée à ϕ, alors pour tout (x y) E 2, Φ(x + y) + Φ(x y) = 2Φ(x) + 2Φ(y). Preuve de la proposition 6.5. Laissée en exercice. Définissons à présent la notion de forme positive, de forme définie positive et d orthogonalité. 24

27 Définition 6.6 Formes positives, définies/orthogonalité) Soient ϕ une forme sesquilinéaire et Φ sa forme hermitienne associée. 1. La forme hermitienne Φ est dite positive si 2. La forme hermitienne Φ est dite définie si x E Φ(x) 0. Φ(x) = 0 = x = Deux vecteurs x et y de E sont orthogonaux par rapport à ϕ ou Φ) si ϕ(x y) = Si U est un sous-ensemble non vide E, l espace orthogonal U à U est le sous-espace vectoriel de E défini par U = {x E / ϕ(x y) = 0 y U}. 5. La forme sesquilinéaire ϕ est dite non dégénérée si E = {0} c est-à-dire si ( y E ϕ(x y) = 0) = x = 0. Remarque 6.2 Si x et y sont deux vecteurs orthogonaux pour ϕ, alors d après la proposition 6.3, où Φ est la forme hermitienne associée à ϕ. Φ(x + y) = Φ(x) + Φ(y) Exemple Soient E = n et A = (a kl ) 1kn une matrice hermitienne (c est-à-dire que pour tous k l, a kl = a lk ). 1ln Considérons la fonction ϕ : E E définie par ϕ(x y) = a kl x k y l 1kln L application ϕ est alors une forme sesquilinéaire sur n. En fait, toute forme sesquilinéaire sur n est de ce type. La forme hermitienne Φ associée à ϕ est définie par Φ(x) = n a kk x k k=1 1k<ln a kl Re(x k x l ). La forme ϕ est non dégénérée si et seulement si le déterminant de A est non nul. La forme ϕ est définie positive si et seulement si les valeurs propres de A sont strictement positives. 2. L 2 R (Ω µ) est l ensemble des fonctions définies sur Ω, à valeurs dans R, -mesurable et de carré µ- intégrable. L 2 (Ω µ) est l ensemble des fonctions -mesurables, à valeurs complexes et telles que f L 2 R(Ω µ). Posons E = L 2 (Ω µ) ou L2 R (Ω µ). L application ϕ définie sur E E par ϕ(f g) = fgdµ 25 Ω

28 est une forme sesquilinéaire sur E. De plus, la forme hermitienne Φ associée à ϕ, donnée par Φ(f) = f 2 dµ (6.1) est positive. Nous pouvons définir ϕ sur L 2 K (Ω µ) avec K = R ou. Alors, la forme hermitienne Φ est définie par (6.1) et est définie positive sur L 2 K (Ω µ). Ω Terminons cette section en donnant quelques propriétés des formes hermitiennes positives. Proposition 6.7 Soit Φ une forme hermitienne positive de forme polaire ϕ. 1. Pour tout x et y de E, ϕ(x y) 2 Φ(x)Φ(y). Cette inégalité est l inégalité de Cauchy-Schwarz. 2. La forme ϕ est non dégénérée si et seulement si Φ est définie, c est-à-dire si et seulement si Φ(x) = 0 = x = L application x Φ(x) est une semi-norme sur E, c est-à-dire que pour tout (x y) E et tout λ K, Φ(x + y) Φ(x) + Φ(y) et Φ(λx) = λ Φ(x) Preuve de la proposition Soit (x y) E 2. Alors, λ K 0 Φ(λx + y) = λ 2 Φ(x) + 2 Re(λ ϕ(x y)) + Φ(y). (6.2) Commençons par le cas où Φ(x) = 0 ou Φ(y) = 0. Par symétrie, nous pouvons supposer Φ(x) = 0. Posons ϕ(x y) = ϕ(x y) e iα et λ = ρe iα avec ρ R. Alors, λϕ(x y) = ρ ϕ(x y) et (6.2) se réécrit sous la forme Alors, le trinôme (en ρ) du second degré a un discriminant négatif ou nul, c est-à-dire que 0 ρ 2 Φ(x) 2ρ ϕ(x y) + Φ(y) ρ R. ρ 2 Φ(x) 2ρ ϕ(x y) + Φ(y) 4 ϕ(x y) 2 4Φ(x)Φ(y) 0 soit ϕ(x y) 2 Φ(x)Φ(y) Si Φ(x) = Φ(y) = 0, le changement de λ en -λ dans (6.2) donne D où ϕ(x y) = 0 et ϕ(x y) 2 Φ(x)Φ(y). Re(λϕ(x y)) = 0 λ K. 26

29 2. Supposons ϕ non dégénérée. D après l inégalité de Cauchy-Schwarz, Alors, par définition d une forme non dégénérée, Réciproquement, supposons que Φ(x) = 0 = y E ϕ(x y) = 0. Φ(x) = 0 = x = 0. Φ(x) = 0 = x = 0. Soit x E tel que pour tout y E, ϕ(x y) = 0. Alors, Φ(x) = ϕ(x x) = 0 et donc par hypothèse x = 0. Par conséquent, φ est non dégénérée. 3. Soient x y E. D après la proposition 6.3 Φ(x + y) = Φ(x) + Φ(y) + 2Re ϕ(x y). Par conséquent, Φ(x + y) Φ(x) + Φ(y) + 2 ϕ(x y). En appliquant l inégalité de Cauchy-Schwarz, nous obtenons : Φ(x + y) Φ(x) + Φ(y) + 2 Φ(x) Φ(y) = Φ(x) + Φ(y) 2. D où, Φ(x + y) Φ(x) + Φ(y). D après la proposition 6.3, pour tout λ K, Φ(λx) = λ 2 Φ(x) et donc Φ(λx) = λ Φ(x). Vu ce qui précède, Φ est une semi-norme sur E Espaces de Hilbert Nous définissons à présent les notions de produit scalaire et d espace de Hilbert. Définition 6.8 Espaces préhilbertiens et espaces de Hilbert) Soit Φ une forme hermitienne. 1. La forme polaire ϕ associée à Φ est un produit scalaire si la forme hermitienne Φ est définie positive. Dans ce cas, Φ est une norme et l espace E muni de cette norme ou du produit scalaire ϕ) est dit préhilbertien. 2. Un espace de Hilbert est un espace préhilbertien complet. Notation Dans la suite, H est un espace préhilbertien muni du produit scalaire < > associé à la norme. Ainsi, pour tout x H, x 2 =< x x >. Remarquons que 2 est en fait la forme hermitienne Φ associée à la forme sesquilinéaire < >. Si p 1, l espace L p (Ω µ) est un espace de Banach. Lorsque p = 2, cet espace possède de plus une structure hermitienne ou euclidienne, ce qui en fait son intérêt. 27

30 Théorème 6.9 Théorème de Riesz-Fisher) L espace L 2 K (Ω µ) K = R ou ) est un espace de Hilbert pour le produit scalaire défini par < f g >= f g dµ. Ω Preuve du théorème 6.9. Admise. Nous terminons cette section en énonçant la continuité d applications simples liées au produit scalaire. Proposition 6.10 Soit H un espace préhilbertien et x H. Alors y < x y >, y < y x > et y y sont des applications continues sur E. Preuve de la proposition Pour montrer la continuité des deux premières applications, il suffit d utiliser l inégalité de Cauchy-Schwarz. La continuité de l application y y repose sur (y 1 y 2 ) H 2 y 1 y 2 y 1 y 2 inégalité qui se déduit de l inégalité triangulaire. 6.2 Distance et projection Distance à un ensemble Définition 6.11 Distance à un ensemble) Soit Γ un sous-ensemble non vide de l espace préhilbertien H et soit x H. La distance de x à Γ est le réel positif d(x Γ) = inf x y. y Γ Remarque 6.3 La notion de distance à un ensemble peut être définie dès que H est un espace métrique. Lorsque le sous-espace Γ est un sous-espace convexe complet, la distance de x à Γ est atteinte en un unique point. Avant d énoncer ce résultat, définissons la notion de sous-espace convexe et de sous-espace complet. Définition 6.12 Ensemble convexe/ensemble complet) 1. Un sous-ensemble Γ de H est convexe si pour tout x et y de Γ, le segment [x y] est inclus dans Γ, c est-à-dire si (x y) Γ 2 t [0 1] tx + (1 t)y Γ. 2. Un sous-ensemble Γ d un espace préhilbertien H est complet si toute suite (x n ) n N d éléments de Γ qui est de Cauchy dans H converge dans Γ, c est-à-dire vers un élément x Γ. Remarque Tout sous-espace complet d un espace préhilbertien est fermé. 2. Tout sous-espace fermé d un espace de Hilbert est complet. 28

31 La proposition suivante permet d établir que la distance d un point x à un convexe complet est atteinte en un unique point y (voir corollaire 6.14). Proposition 6.13 Élément de norme minimale) Si Γ est un sous-ensemble convexe complet et non vide de l espace préhilbertien H, alors Γ admet un unique élément de norme minimale, c est-à-dire Preuve de la proposition Soit α = inf y Γ y. x Γ x = inf y Γ y. Soient a b Γ. Étant donné que Γ est convexe, 1 2 (a + b) Γ. Alors, par définition de α, α 2 1 (a + b) 2 De plus, d après l égalité du parallélogramme (voir proposition 6.5 page 24), a b 2 = 2a 2 + 2b 2 a + b 2. 2 = 1 4 a + b2. (6.3) Par suite, d après (6.3), a b 2 2 a 2 + b 2 2α 2. (6.4) Par définition de α, il existe une suite (x n ) n N d éléments de Γ telle que lim x n 2 = α 2. (6.5) n + D après l inégalité (6.4) appliquée avec a = x n et b = x m, n m N x n x m 2 2 x n 2 + x m 2 2α 2. (6.6) D après (6.5) et (6.6), la suite (x n ) n N est une suite de Cauchy de Γ. L ensemble Γ étant complet, la suite (x n ) n N converge dans Γ (donc dans H) vers un élément noté x Γ. Par continuité de l application y y 2 sur H (voir lemme 6.10 page 28), α 2 = lim x n 2 = x 2. n + Par conséquent x = α car par définition α 0 et x 0. Nous venons d établir l existence d un élément x de Γ de norme α. Établissons à présent l unicité. Soit y Γ tel que y = α = x. D après l inégalité (6.4) appliquée pour a = x et b = y, 0 x y 2 2 x 2 + y 2 2α 2 = 2 α 2 + α 2 2α 2 = 0. D où x y 2 = 0, ce qui signifie que x = y (car est une norme). Par conséquent, x est l unique élément de Γ de norme α. 29

32 Comme annoncé, nous pouvons maintenant établir que la distance à un sous-espace convexe complet non vide est atteinte en un unique point. En particulier, la distance à un sous-espace convexe fermé non vide d un espace de Hilbert est atteinte en un unique point. Corollaire 6.14 Distance à un sous-espace convexe complet) Si Γ est un sous-ensemble convexe complet et non vide de l espace préhilbertien H, alors pour tout x H, y Γ x y = inf x z = d(x Γ). z Γ Preuve du corollaire Il suffit d appliquer la proposition 6.13 au sous-ensemble x Γ qui est bien convexe complet et non vide Projection orthogonale sur un sous-espace vectoriel fermé Nous introduisons à présent la projection orthogonale sur un sous-espace vectoriel d un espace de Hilbert et en donner des caractérisations. Théorème 6.15 Projection orthogonale) Soient H un espace de Hilbert et F un sous-espace vectoriel fermé de H. Alors, pour tout x H, il existe un unique y F, noté P F (x), tel que x y = d(x F ) = inf x z. z F De plus, pour tout x H, P F (x) est l unique élément y F tel que x y F c est-à-dire tel que pour tout z F, < x y z >= 0. Pour tout x H, P F (x) est appelé projeté orthogonal de x sur F. L application P F appelée projection orthogonale sur F ou projecteur orthogonal sur F. : H F est Remarque 6.5 Sous les hypothèses du théorème précédent, il existe une unique application P F que (Id P F )(H) F. : H F telle Remarque 6.6 Soit F est un sous-espace vectoriel fermé d un espace de Hilbert H. 1. F est aussi un sous-espace vectoriel fermé de H. Par ailleurs, H = F F. 2. Q F = Id P F est la projection orthogonale sur F. Preuve du théorème Soit x H. F étant un sous-espace vectoriel fermé de l espace de Hilbert H, F est un sous-espace convexe complet et non vide de l espace de Hilbert H. Alors, d après le corollaire 6.14, Posons P F (x) = y. y F x y = d(x F ) = inf x z. z F 30

33 Montrons que x P F (x) F. Si F = {0}, F = H et x P F (x) H = F. Supposons maintenant que F = {0}. Soit z F tel que z = 0. Étant donné que z F, que P F (x) F et que F est un sous-espace vectoriel de H, Alors, par définition de P F (x), c est-à-dire que pour tout λ K, D où, pour tout λ K, λ K P F (x) λz F. λ K x P F (x) 2 x P F (x) + λz 2 λ K x P F (x) 2 x P F (x) 2 + 2Re (λ < x P F (x) z >) + λ 2 z 2. λ 2 z 2 + 2Re λ < x P F (x) z > 0. En prenant λ = α n avec α K et n N puis en multipliant par n, nous avons : Alors, n montre que α K α 2 z 2 + 2Re(α < x P F (x) z >) 0. n α K Re(α < x P F (x) z >) 0. L inégalité précédente étant vraie pour α K et α, α K Re(α < x P F (x) z >) = 0. Par conséquent, < x P F (x) z >= 0 (prendre α =< x P F (x) z >). Nous venons de montrer que z F \{0} < x P F (x) z >= 0. Bien sûr si z = 0, nous avons aussi < x P F (x) z >= 0. Par conséquent, x P F (x) F. Soit w F tel que x w F. Il nous reste à montrer que w = P F (x). F étant un sous-espace vectoriel contenant w, z F w z F. De plus, x w F. Donc, pour z F, les vecteurs w z et x w sont orthogonaux. D où Par conséquent, z F x z 2 = (w z) + (x w) 2 = w z 2 + x w 2 x w 2. x w inf x z = d(x F ). z F Comme w F, l inégalité précédente est en fait une égalité. Alors, par définition de P F (x), nous avons donc w = P F (x). Donnons à présent quelques propriétés de la projection orthogonale définie dans le théorème précédent. 31

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Que faire lorsqu on considère plusieurs variables en même temps?

Que faire lorsqu on considère plusieurs variables en même temps? Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

Mesures gaussiennes et espaces de Fock

Mesures gaussiennes et espaces de Fock Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

Loi d une variable discrète

Loi d une variable discrète MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Approximations variationelles des EDP Notes du Cours de M2

Approximations variationelles des EDP Notes du Cours de M2 Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation

Plus en détail

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours MSUR T INTÉGRATION N UN DIMNSION Notes de cours André Giroux Département de Mathématiques et Statistique Université de Montréal Mai 2004 Table des matières 1 INTRODUCTION 2 1.1 xercices.............................

Plus en détail

Structures algébriques

Structures algébriques Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Ecole Nationale de la Statistique et de l Administration Economique Théorie de la Mesure et Intégration Xavier MARY 2 Table des matières I Théorie de la mesure 11 1 Algèbres et tribus de parties d un ensemble

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples 45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et

Plus en détail

La mesure de Lebesgue sur la droite réelle

La mesure de Lebesgue sur la droite réelle Chapitre 1 La mesure de Lebesgue sur la droite réelle 1.1 Ensemble mesurable au sens de Lebesgue 1.1.1 Mesure extérieure Définition 1.1.1. Un intervalle est une partie convexe de R. L ensemble vide et

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Calcul fonctionnel holomorphe dans les algèbres de Banach

Calcul fonctionnel holomorphe dans les algèbres de Banach Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

Intégration et probabilités TD1 Espaces mesurés

Intégration et probabilités TD1 Espaces mesurés Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1

Master IMEA 1 Calcul Stochastique et Finance Feuille de T.D. n o 1 Master IMEA Calcul Stochastique et Finance Feuille de T.D. n o Corrigé exercices8et9 8. On considère un modèle Cox-Ross-Rubinstein de marché (B,S) à trois étapes. On suppose que S = C et que les facteurs

Plus en détail

Le produit semi-direct

Le produit semi-direct Le produit semi-direct Préparation à l agrégation de mathématiques Université de Nice - Sophia Antipolis Antoine Ducros Octobre 2007 Ce texte est consacré, comme son titre l indique, au produit semi-direct.

Plus en détail

www.h-k.fr/publications/objectif-agregation

www.h-k.fr/publications/objectif-agregation «Sur C, tout est connexe!» www.h-k.fr/publications/objectif-agregation L idée de cette note est de montrer que, contrairement à ce qui se passe sur R, «sur C, tout est connexe». Cet abus de langage se

Plus en détail

Intégration sur des espaces produits

Intégration sur des espaces produits Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure

Plus en détail

Produits d espaces mesurés

Produits d espaces mesurés Chapitre 7 Produits d espaces mesurés 7.1 Motivation Au chapitre 2, on a introduit la mesure de Lebesgue sur la tribu des boréliens de R (notée B(R)), ce qui nous a permis d exprimer la notion de longueur

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Problème 1 : applications du plan affine

Problème 1 : applications du plan affine Problème 1 : applications du plan affine Notations On désigne par GL 2 (R) l ensemble des matrices 2 2 inversibles à coefficients réels. Soit un plan affine P muni d un repère (O, I, J). Les coordonnées

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

Chapitre 7 : Intégration sur un intervalle quelconque

Chapitre 7 : Intégration sur un intervalle quelconque Universités Paris 6 et Paris 7 M1 MEEF Analyse (UE 3) 2013-2014 Chapitre 7 : Intégration sur un intervalle quelconque 1 Fonctions intégrables Définition 1 Soit I R un intervalle et soit f : I R + une fonction

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

Cours d analyse numérique SMI-S4

Cours d analyse numérique SMI-S4 ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,

Plus en détail

Construction de l'intégrale de Lebesgue

Construction de l'intégrale de Lebesgue Université d'artois Faculté des ciences Jean Perrin Mesure et Intégration (Licence 3 Mathématiques-Informatique) Daniel Li Construction de l'intégrale de Lebesgue 10 février 2011 La construction de l'intégrale

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

THÉORIE DE LA MESURE ET DE L INTÉGRATION.

THÉORIE DE LA MESURE ET DE L INTÉGRATION. THÉORIE DE LA MESURE ET DE L INTÉGRATION. THIERRY GALLAY Transcrit par Tancrède LEPOINT 29 UNIVERSITÉ JOSEPH FOURIER, GRENOBLE TABLE DES MATIÈRES Avant-propos Biographie sommaire...........................................

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

EXERCICE 4 (7 points ) (Commun à tous les candidats)

EXERCICE 4 (7 points ) (Commun à tous les candidats) EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E Exo7 Espaces vectoriels Vidéo partie 1. Espace vectoriel (début Vidéo partie 2. Espace vectoriel (fin Vidéo partie 3. Sous-espace vectoriel (début Vidéo partie 4. Sous-espace vectoriel (milieu Vidéo partie

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Théorie de la mesure. S. Nicolay

Théorie de la mesure. S. Nicolay Théorie de la mesure S. Nicolay Année académique 2011 2012 ii Table des matières Introduction v 1 Mesures 1 1.1 Sigma-algèbres................................. 1 1.2 Mesures.....................................

Plus en détail

Chapitre VI Fonctions de plusieurs variables

Chapitre VI Fonctions de plusieurs variables Chapitre VI Fonctions de plusieurs variables 6. 1 Fonctions différentiables de R 2 dans R. 6. 1. 1 Définition de la différentiabilité Nous introduisons la différentiabilité sous l angle des développements

Plus en détail

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2 Chapitre 8 Fonctions de plusieurs variables 8.1 Généralités sur les fonctions de plusieurs variables réelles Définition. Une fonction réelle de n variables réelles est une application d une partie de R

Plus en détail

Fonctions de plusieurs variables. Sébastien Tordeux

Fonctions de plusieurs variables. Sébastien Tordeux Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................

Plus en détail

Intégrales doubles et triples - M

Intégrales doubles et triples - M Intégrales s et - fournie@mip.ups-tlse.fr 1/27 - Intégrales (rappel) Rappels Approximation éfinition : Intégrale définie Soit f définie continue sur I = [a, b] telle que f (x) > 3 2.5 2 1.5 1.5.5 1 1.5

Plus en détail

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers

Plus en détail

Théorie de la Mesure et Intégration

Théorie de la Mesure et Intégration Université Pierre & Marie Curie (Paris 6) Licence de Mathématiques L3 UE LM364 Intégration 1 & UE LM365 Intégration 2 Année 2010 11 Théorie de la Mesure et Intégration Responsable des cours : Amaury LAMBERT

Plus en détail

Chapitre 2. Eléments pour comprendre un énoncé

Chapitre 2. Eléments pour comprendre un énoncé Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

TIQUE DE FRANCE NILSYSTÈMES D ORDRE 2 ET PARALLÉLÉPIPÈDES

TIQUE DE FRANCE NILSYSTÈMES D ORDRE 2 ET PARALLÉLÉPIPÈDES Bulletin de la SOCIÉTÉ MATHÉMATIQUE DE FRANCE NILSYSTÈMES D ORDRE 2 ET PARALLÉLÉPIPÈDES Bernard Host & Alejandro Maass Tome 135 Fascicule 3 2007 SOCIÉTÉ MATHÉMATIQUE DE FRANCE Publié avec le concours du

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

Dualité dans les espaces de Lebesgue et mesures de Radon finies

Dualité dans les espaces de Lebesgue et mesures de Radon finies Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Probabilités et statistique. Benjamin JOURDAIN

Probabilités et statistique. Benjamin JOURDAIN Probabilités et statistique Benjamin JOURDAIN 11 septembre 2013 2 i ii À Anne Préface Ce livre est issu du polycopié du cours de probabilités et statistique de première année de l École des Ponts ParisTech

Plus en détail

Apprentissage non paramétrique en régression

Apprentissage non paramétrique en régression 1 Apprentissage non paramétrique en régression Apprentissage non paramétrique en régression Résumé Différentes méthodes d estimation non paramétriques en régression sont présentées. Tout d abord les plus

Plus en détail

Cours de mathématiques

Cours de mathématiques DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................

Plus en détail

Probabilités avancées. Florin Avram

Probabilités avancées. Florin Avram Probabilités avancées Florin Avram 24 janvier 2014 Table des matières 1 Mise en scène discrète 3 1.1 Espace des épreuves/résultats possibles, événements, espace probabilisé, mesure de probabilités, variables

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

Développement décimal d un réel

Développement décimal d un réel 4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce

Plus en détail

1 TD1 : rappels sur les ensembles et notion de probabilité

1 TD1 : rappels sur les ensembles et notion de probabilité 1 TD1 : rappels sur les ensembles et notion de probabilité 1.1 Ensembles et dénombrement Exercice 1 Soit Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(p(ω)) = 2 4. Soit k n (

Plus en détail

Exercice : la frontière des portefeuilles optimaux sans actif certain

Exercice : la frontière des portefeuilles optimaux sans actif certain Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué

Plus en détail