Seconde Partie. Cours de Mathématiques. Semestre

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "Seconde Partie. Cours de Mathématiques. Semestre"

Transcription

1 Année ntégration et Probabilités Seconde Partie Cours de Mathématiques Takéo Takahashi Première Année FICM Semestre

2

3 Table des matières 5 Indépendance et Convolution Indépendance Définitions Caractérisations Cadre des lois discrètes et des lois absolument continues Covariance et corrélation Convolution Mesure convolée Addition de variables aléatoires discrètes indépendantes Addition de deux variables aléatoires indépendantes absolument continues Annexe : Preuve de la proposition Espaces de Hilbert Définition d un espace de Hilbert Formes sesquilinéaires et formes hermitiennes Espaces de Hilbert Distance et projection Distance à un ensemble Projection orthogonale sur un sous-espace vectoriel fermé Bases hilbertiennes Systèmes orthonormaux Espaces séparables Application à l étude des séries de Fourier Annexes Preuve de la proposition Preuve de la proposition Transformation de Fourier et Fonctions Caractéristiques Transformation de Fourier de fonctions Définition et premières propriétés Transformée de Fourier et dérivation Identité de Parseval Transformée de Fourier et inversion Transformée de Fourier d une mesure bornée Fonction caractéristique d une variable aléatoire Définition, exemples et premières propriétés Moments d une variable aléatoire Indépendance Annexe : Preuve du théorème

4 8 Suites de variables aléatoires Convergence presque sûre Définition et propriétés Lemme de Borel-Cantelli Convergence en probabilité Convergence L p Convergence en loi Définition et premières propriétés Caractérisations Somme de variables aléatoires indépendantes Loi des grands nombres Théorème central limite A Lois classiques 79 A.1 Lois discrètes A.2 Lois absolument continues B Comparaison des divers modes de convergences 81 2

5 Chapitre 5 Indépendance et Convolution Dans la suite, (Ω P) désigne un espace de probabilité et λ d est la mesure de Lebesgue sur R d B R d. Nous pouvons supposer, sans perte de généralités, que l espace (Ω P) est complet. Dans ce chapitre, les variables aléatoires considérées sont toutes définies sur le même espace (Ω P) à valeurs dans R d où d peut varier. La notion d indépendance est importante en probabilités. Elle permet de modéliser des expériences dont les résultats n influent pas intuitivement les uns des autres. Par exemple, lorsque l on jette un dé bleu et un dé rouge, le résultat obtenu avec le dé bleu ne dépend pas de celui obtenu avec le dé rouge. Cette notion d indépendance est reliée à la notion de mesure produit, notion introduite au chapitre 1. Dans ce chapitre, nous introduisons la notion de variables aléatoires indépendantes mais aussi la notion, plus faible, de variables aléatoires corrélées. Enfin, l étude de la loi de la somme de deux variables aléatoires indépendantes conduit à introduire la notion de mesure convolée. 5.1 Indépendance Définitions Nous introduisons maintenant l indépendance stochastique de deux évènements, c est-à-dire de deux éléments de la tribu. Définition 5.1 Indépendance de deux événements) Deux éléments A et B de la tribu sont indépendants par rapport à la probabilité P) si P(A B) = P(A) P(B). Remarque 5.1 Soient A B. Supposons P(A) = 0 ou P(B) = 0. Alors P(A B) = 0 car 0 P(A B) min (P(A) P(B)) = 0. En particulier, P(A B) = P(A) P(B). Par conséquent, si P(A) = 0 ou si P(B) = 0, alors les évènements A et B sont indépendants. La notion d événements indépendants non négligeables peut être reliée à la notion de probabilité conditionnelle, définie ci-après. 3

6 Définition 5.2 Probabilité conditionnelle) Soit A tel que P(A) > 0. L application P( A) définie sur par B P(B A) = P(B A) P(A) (5.1) est une probabilité sur (Ω ) et est appelée probabilité conditionnelle à A. Remarque 5.2 Soit A tel que P(A) > 0. Alors, P(A A) = 1 c est-à-dire que A est un événement certain pour la probabilité conditionnelle P( A). Remarque 5.3 Soient A B. Supposons que P(A) > 0. Alors A et B sont indépendants P(B A) = P(B). Ainsi, A et B sont indépendants si et seulement si la connaissance de A ne donne aucune information sur la réalisation ou non de B. Définissons maintenant l indépendance de deux variables aléatoires. Définition 5.3 Indépendance de deux variables aléatoires) Soient X une variable aléatoire à valeurs dans R d et Y une variable aléatoire à valeurs dans R p. Les deux variables aléatoires X et Y sont indépendantes si P(X B 1 Y B 2 ) = P(X B 1 ) P(Y B 2 ) pour tous boréliens B 1 B R d et B 2 B(R p ), c est-à-dire si avec P Z la loi de Z. P XY ) = P X P Y Exemple 5.1 Soient a R d et b R p. Alors, les variables constantes X = a et Y = b sont indépendantes car P XY ) = δ ab) = δ a δ b = P X P Y. La notion d indépendance se généralise à n évènements ou n variables. Deux types d indépendance peuvent être introduites : l indépendance deux à deux et l indépendance mutuelle. 4

7 Définition 5.4 Indépendance deux à deux / Indépendance mutuelle) Soient n N, A 1... A n et X 1... X n des variables aléatoires définies sur l espace (Ω P). Pour 1 i n, supposons que X i est à valeurs dans R d i. 1. a) Les évènements A 1... A n sont deux à deux indépendants si A i est indépendant de A j pour tout i = j, c est-à-dire si 1 i < j n P(A i A j ) = P(A i ) P(A j ). b) Les variables aléatoires X 1... X n sont deux à deux indépendantes si pour tout i = j, les variables aléatoires X i et X j sont indépendantes. 2. a) Les évènements A 1... A n sont mutuellement indépendants ou indépendants) si pour tous A 1 σ(a 1)... A n σ(a n ). P(A 1 A n) = n P(A i ) b) Les variables X 1... X n sont mutuellement indépendantes ou indépendantes) si P(X 1 B 1... X n B n ) = i=1 n P(X i B i ) pour tous boréliens B 1 B R d 1... B n B R dn, c est-à-dire si i=1 avec P Z la loi de Z. P X1...X n) = P X1 P Xn Remarque Si les variables aléatoires X 1... X n sont mutuellement indépendantes, alors elles sont aussi deux à deux indépendantes. Il suffit en effet de remarquer que P(X i B i X j B j ) = P(X 1 B 1... X n B n ) avec pour k / {i j}, B k = R d k si X k est à valeurs dans R d k. 2. De même si les évènements A 1... A n sont mutuellement indépendants, ils sont aussi deux à deux indépendants. Le résultat suivant lie l indépendance d évènements et de variables aléatoires. Proposition 5.5 Soient A 1... A n. Posons X 1 = 1 A1... X n = 1 An. Alors, les évènements A 1... A n sont mutuellement indépendants si et seulement si les variables aléatoires X 1... X n sont mutuellement indépendantes. 5

8 Terminons cette section en définissant la notion d indépendance pour n importe quelle famille d évènements ou de variables aléatoires. Définition 5.6 Indépendance d une famille quelconque) 1. Les évènements (A i ) i I I sont mutuellement indépendants ou indépendants) si pour tout n N et pour tout (i 1... i n ) I n, les évènements A i1... A in sont mutuellement indépendants. 2. Les variables aléatoires (X i ) i I sont mutuellement indépendantes ou indépendantes) si pour tout n N et pour tout (i 1... i n ) I n, les variables aléatoires X i1... X in sont mutuellement indépendantes Caractérisations Commençons par caractériser l indépendance de variables aléatoires réelles. Proposition 5.7 Indépendance de variables aléatoires réelles) Considérons X 1... X n des variables aléatoires réelles. 1. Les variables aléatoires X 1... X n sont indépendantes si et seulement si P(X 1 I 1... X n I n ) = pour tous I 1... I n intervalles. n P(X i I i ) 2. Les variables aléatoires X 1... X n sont indépendantes si et seulement si n (t 1... t n ) R n P(X 1 t 1... X n t n ) = P(X i t i ) c est-à-dire si et seulement si F X1...X n) = F X1 F Xn avec F Z la fonction de répartition de Z et h 1 h n la fonction définie par n h 1 h n (t 1... t n ) = h i (t i ). i=1 i=1 i=1 Preuve de la proposition 5.7. Supposons pour simplifier que n = 2. La démonstration de l assertion 2. est laissée en exercice. Si les variables aléatoires X 1... X n sont indépendantes alors pour tous les intervalles I 1... I n, car les intervalles sont des boréliens de R. P(X 1 I 1... X n I n ) = 6 n P(X i I i ) i=1

9 Supposons que pour tous intervalles I 1... I n. P(X 1 I 1... X n I n ) = Considérons A 2 un intervalle. Pour tout A B(R), posons n P(X i I i ) µ(a) = P(X 1 A X 2 A 2 ) et ν(a) = P(X 1 A) P(X 2 A 2 ). Alors, µ et ν sont deux mesures positives sur (R B(R)) (vérification laissée en exercice). Par hypothèse, ces deux mesures coïncident sur l ensemble des intervalles. Par ailleurs, i=1 µ(r) = ν(r) = P(X 2 A 2 ) < +. Alors, d après l annexe sur les classes monotones (voir premier polycopié, corollaire A.6 page 95), µ et ν coïncident sur B(R), c est-à-dire que pour tout A 1 B(R) P(X 1 A 1 X 2 A 2 ) = P(X 1 A 1 ) P(X 2 A 2 ). L égalité précédente est vraie pour tout intervalle A 2 et tout borélien A 1 de R. Soit A 1 B(R). Pour tout A B(R), posons µ(a) = P(X 1 A 1 X 2 A) et ν(a) = P(X 1 A) P(X 2 A). Comme µ et ν, µ et ν sont deux mesures positives bornées sur (R B(R)). Nous avons précédemment établi que ces mesures coïncident sur l ensemble des intervalles. Alors, elles coïncident sur B(R). Par conséquent, pour tout A 1 B(R) et tout A 2 B(R), P(X 1 A 1 X 2 A 2 ) = P(X 1 A 1 ) P(X 2 A 2 ) c est-à-dire que les variables X 1 et X 2 sont indépendantes. Le corollaire suivant montre que les images de variables aléatoires indépendantes sont indépendantes. Corollaire 5.8 Indépendance et images de variables aléatoires) Pour tout 1 i n, considérons X i une variable aléatoire à valeurs dans R d i. Si les variables aléatoires X 1... X n sont mutuellement indépendantes, alors pour toutes fonctions boréliennes f i : R d i R p i, 1 i n, les variables aléatoires f 1 (X 1 )... f n (X n ) sont mutuellement indépendantes. Preuve du corollaire 5.8. Soient B 1... B n des boréliens. Alors, P(f 1 (X 1 ) B 1... f n (X n ) B n ) = P X 1 f 1 1 (B 1)... f 1 n (B n). Étant donné que f i est borélienne et que B i est un borélien, fi 1 (B i ) est un borélien. Alors, par indépendance mutuelle des variables aléatoires X 1... X n, P(f 1 (X 1 ) B 1... f n (X n ) B n ) = n i=1 P X i f 1 i (B i ) = n P(f i (X i ) B i ). i=1 Par conséquent, les variables aléatoires f 1 (X 1 )... f n (X n ) sont mutuellement indépendantes. 7

10 La propriété d indépendance permet de simplifier le calcul de certaines espérances. Proposition 5.9 Soient X 1... X n des variables aléatoires. Pour 1 i n, supposons que X i est à valeurs dans R d i. Les variables aléatoires X 1... X n sont mutuellement indépendantes si et seulement si n n E h i (X i ) = E(h i (X i )) i=1 i=1 pour toutes fonctions h i : R d i R boréliennes positives ou boréliennes bornées) avec 1 i n. Remarque 5.5 En particulier, si les variables aléatoires X 1... X n sont à valeurs dans R, intégrables et mutuellement indépendantes, alors n n E X i = E(X i ). i=1 i=1 Preuve de la proposition Supposons X 1... X n mutuellement indépendantes. (a) Soient h 1... h n des fonctions boréliennes positives (h i : R d i R). Considérons la fonction h définie par n h(x 1... x n ) = h i (x i ). La fonction h est alors borélienne positive. Par définition, n E h i (X i ) = E(h(X 1... X n )) = h(x 1... x n ) dp X1...X n)(x 1... x n ). i=1 i=1 Les variables aléatoires X 1... X n étant indépendantes, P X1...X n) = P X1 P Xn d après le théorème de Fubini-Tonelli (pour les fonctions boréliennes positives), n n E h i (X i ) = h i (x i )dp X1 (x 1 ) dp X2 (x 2 ) dp Xn (x n ) i=1 = = i=1 n h i (x i ) dp Xi (x i ) i=1 n E(h i (X i )). i=1 et (b) Supposons maintenant que h 1... h n sont boréliennes bornées (a priori non positives). Nous définissons la fonction h comme précédemment. Étant donné que P Xi est une probabilité, la fonction borélienne bornée h i est P Xi -intégrable. De même, la fonction borélienne bornée h est P X1...X n)-intégrable. Alors, en appliquant le théorème de Fubini (pour les fonctions P-intégrables), on montre comme précédemment que n n E h i (X i ) = E(h i (X i )). i=1 8 i=1

11 2. Réciproquement, supposons que n E h i (X i ) = i=1 n E(h i (X i )). (5.2) pour toutes fonctions h i, 1 i n, boréliennes positives (ou boréliennes bornées). Pour tout 1 i n, soit A i B R d i. Les fonctions i=1 h i = 1 Ai 1 i n sont alors boréliennes positives et bornées. Remarquons que n P(X 1 A 1... X n A n ) = E 1 Ai (X i ). Alors, d après (5.2), P(X 1 A 1... X n A n ) = i=1 n E(1 Ai (X i )) = i=1 n P(X i A i ). L égalité précédente étant vraie pour tout A i B R d i 1 i n, les variables aléatoires X 1... X n sont mutuellement indépendantes. i= Cadre des lois discrètes et des lois absolument continues Nous examinons le cas où toutes les variables sont discrètes. Proposition 5.10 Indépendance et lois discrètes) 1. Soit (X Y ) un vecteur aléatoire discret. Supposons que X est à valeurs dans {x i / i I} avec I fini ou dénombrable et que Y est à valeurs dans {y j / j J} avec J fini ou dénombrable. Pour tout i I et tout j J, posons p ij = P(X = x i Y = y j ) p i = k J p ik = P(X = x i ) et p j = k I p kj = P(Y = y j ). Alors les variables aléatoires X et Y sont mutuellement indépendantes si et seulement si i I j J p ij = p i p j c est-à-dire si et seulement si i I j J P(X = x i Y = y j ) = P(X = x i ) P(Y = y j ). 2. Plus généralement, soient X 1... X n des variables aléatoires discrètes. Supposons que X k est à valeurs dans {x ik / i I k } avec I k fini ou dénombrable. Alors, les variables aléatoires X 1... X n sont mutuellement indépendantes si et seulement si pour tous i 1 I 1... i n I n. P X 1 = x... X i11 n = x inn = n k=1 P X k = x ik k 9

12 Nous nous intéressons à présent au cas d un vecteur aléatoire dont la loi est absolument continue. Proposition 5.11 Indépendance des marginales d un vecteur de loi absolument continue) Soit X = (X 1... X n ) un vecteur aléatoire à valeurs dans R n de loi absolument continue de densité f : R n [0 + ]. Alors, les variables aléatoires X 1... X n sont indépendantes si et seulement si il existe n fonctions boréliennes positives g 1... g n telles que avec g 1 g n (x 1... x n ) = n i=1 g i(x i ). f = g 1 g n λ n -presque partout (5.3) Preuve de la proposition Voir annexe du chapitre page 20. Remarque 5.6 La décomposition (5.3) n est pas unique, il suffit de changer g 1 en g 1 /λ et g 2 en λg 2, où λ > 0. Cependant, il y a unicité si l on impose que l intégrale de chaque fonction g i est égale à 1. Lorsqu il est ainsi g i est une densité de X i. Plus généralement, nous pouvons énoncer le résultat suivant. Proposition 5.12 Indépendance des marginales d un vecteur de loi absolument continue) Pour tout 1 i n, considérons X i une variable aléatoire à valeurs dans R d i. Supposons que le vecteur aléatoire X = (X 1... X n ) à valeurs dans R d, avec d = d d n, est de loi absolument continue de densité f : R d [0 + ]. Alors, les variables aléatoires X 1... X n sont indépendantes si et seulement si il existe n fonctions boréliennes positives g 1... g n telles que f = g 1 g n λ d -presque partout avec pour tout (x 1... x n ) R d 1 R dn, g 1 g n (x 1... x n ) = n i=1 g i(x i ). Nous savons que si la loi d un vecteur X est absolument continue, alors la loi de chacune de ses marginales l est aussi (voir le chapitre 3 du premier polycopié page 71). La réciproque est en général fausse. Cependant, si les marginales d un vecteur X sont indépendantes et de loi absolument continue, alors le vecteur X est aussi de loi absolument continu. Proposition 5.13 Indépendance et marginales de loi absolument continue) Pour tout 1 i n, considérons X i une variable aléatoire à valeurs dans R d i de loi absolument continue de densité f i : R d i [0 + ]. Alors, les variables X 1... X n sont mutuellement indépendantes si et seulement si la loi du vecteur X = (X 1... X n ) est absolument continue de densité f = f 1 f n avec pour tout (x 1... x n ) R d 1 R dn, f 1 f n (x 1... x n ) = n i=1 f i(x i ). 10

13 Preuve de la proposition Supposons que les variables aléatoires X 1... X n sont mutuellement indépendantes. Considérons (A 1... A n ) B R d 1 B R dn. Chaque X i étant de densité f i, P X1 P Xn (A 1 A n ) = n P(X i A i ) = i=1 n Par suite, d après le théorème de Fubini-Tonelli, P X1 P Xn (A 1 A n ) = f dλ d A 1 A n avec f = f 1 f n et d = n i=1 d i. i=1 A i f i dλ di Nous venons de montrer que pour tout A = A 1 A n B R d 1 B R d n, avec P X1 P Xn (A 1 A n ) = µ(a) B B R d µ(b) = f dλ d. B Remarquons que µ est bien définie sur B R d car f est borélienne positive. Par ailleurs, µ est une mesure positive sur R d B R d (mesure dont la dérivée de Radon-Nycodym par rapport à λ d est la fonction f). Alors, par définition d une mesure produit, B B R d P X1 P Xn (B) = µ(b) ce qui se réécrit sous la forme B B R d P X1...X n)(b) = µ(b) = par indépendance des variables X 1... X n. Par conséquent, la loi de X = (X 1... X n ) est absolument continue de densité f. B f dλ d La réciproque est une simple conséquence de la proposition Covariance et corrélation Dans le cas où les variables aléatoires sont de carré intégrable, nous pouvons définir les notions de corrélations et de covariance. Définition 5.14 Covariance) Soient X et Y deux variables aléatoires réelles possédant chacune un moment d ordre deux. La covariance de X et Y est le réel Cov(X Y ) = E[(X E(X))(Y E(Y ))]. Remarque 5.7 Soient X et Y deux variables aléatoires réelles possédant chacune un moment d ordre deux. 1. Étant donné que xy 1 2 (x2 + y 2 ) la variable aléatoire XY est intégrable. L ensemble des fonctions P-intégrables étant un espace vectoriel contenant les constantes (car P est une probabilité), la covariance 11

14 de X et Y est bien définie car la variable aléatoire est intégrable. 2. Si X = Y, alors Cov(X X) = Var X. 3. Remarquons que Cov(X Y ) = Cov(Y X). (X E(X))(Y E(Y )) = XY E(X) Y E(Y ) X + E(X)E(Y ) 4. Notons P XY ) la loi du couple (X Y ). Alors, Cov(X Y ) = (x E(X))(y E(Y )) dp XY ) (x y). R 2 Par ailleurs, E(X) = R x dp X (x) = x dp XY ) (x y) et E(Y ) = R 2 R y dp Y (y) = y dp XY ) (x y) R 2 avec P X (respectivement P Y ) la loi de X (respectivement Y ). Par conséquent, l expression de la covariance est déterminée par la loi du couple (X Y ). Proposition 5.15 Soient X et Y deux variables aléatoires réelles possédant chacune un moment d ordre deux. Alors, Cov(X Y ) = E(XY ) E(X) E(Y ). Preuve de la proposition D après la remarque précédente, (X E(X))(Y E(Y )) = XY E(Y ) X E(Y ) X + E(X)E(Y ). Alors par linéarité de l espérance sur l espace vectoriel L 1 (Ω P), Cov(X Y ) = E[(X E(X))(Y E(Y ))] = E(XY ) E(X)E(Y ) E(Y )E(X) + E(X)E(Y ) = E(XY ) E(X)E(Y ). Remarque 5.8 Soient X et Y deux variables aléatoires réelles possédant chacune un moment d ordre deux. Notons P XY ) la loi du couple (X Y ). Alors, E(XY ) = xy dp XY ) (x y). R 2 Exemple 5.2 Soient (X Y ) un couple prenant ses valeurs dans l ensemble {(x i y j ) /(i j) I J} R 2 avec I J fini ou dénombrable. Supposons x i = x k si i = k (i k I)et y j = y l si j = l (j l J). Supposons que X et Y admettent un moment d ordre 2, c est-à-dire que E X 2 = x 2 i P(X = x i ) < + et que E Y 2 = yj 2 P(Y = y j ) < +. i I j J Alors, Cov(X Y ) = x i y j P(X = x i Y = y j ) x i P(X = x i ) y j P(Y = y j ). i I j J i I j J 12

15 Il est classique de regrouper les variances de X et Y avec leur covariance dans une matrice appelée matrice de covariance. Définition 5.16 Matrice de covariance) Soient X et Y deux variables aléatoires réelles possédant chacune un moment d ordre 2. La matrice de covariance du vecteur aléatoire X Y ) est la matrice symétrique Var X Cov(X Y ) Γ XY = Cov(X Y ) Var Y Remarque 5.9 La définition précédente se généralise à tout vecteur aléatoire X = (X 1... X n ) à valeurs dans R n dont toutes les composantes sont de carré intégrable en posant Γ X = (Cov(X i X j )) 1in. 1jn Définition 5.17 Variables non corrélées) Deux variables aléatoires réelles X et Y qui possèdent un moment d ordre deux sont dites non corrélées si Cov(X Y ) = 0. Remarque 5.10 Soient X et Y deux variables aléatoires réelles de carré intégrable. Si X ou Y est presque sûrement constante, alors X et Y ne sont pas corrélées. Nous donnons maintenant le lien entre la variance de la somme de deux variables aléatoires réelles et la notion de covariance. Proposition 5.18 Variance d une somme) 1. Soient X et Y deux variables aléatoires réelles de carré intégrable. Alors, De plus, si X et Y sont indépendantes, alors, Var (X + Y ) = Var (X) + Var (Y ) + 2 Cov (X Y ). Cov(X Y ) = 0 et Var (X + Y ) = Var (X) + Var (Y ). 2. Soient X 1... X n des variables aléatoires réelles de carré intégrable. Alors, n n Var X i = Cov (X i X j ) i=1 Var (X i ) + i=1 i=j = n Var (X i ) + 2 Cov (X i X j ). i=1 1i<jn De plus, si X 1... X n sont deux à deux indépendantes c est-à-dire que X i et X j sont deux variables indépendantes pour tout i = j), alors n n Var X i = Var (X i ). i=1 i=1 13

16 Remarque Soient X et Y deux variables aléatoires réelles de carré intégrable. D après la proposition précédente, X et Y indépendantes = X et Y non corrélées. La réciproque est fausse : en général, la condition Cov(X Y ) = 0 n implique pas que X et Y sont indépendantes. 2. Si les variables aléatoires X 1... X n sont mutuellement indépendantes, alors elles sont deux à deux indépendantes et la proposition précédente s applique dès qu elles sont de carré intégrable. Preuve de la proposition Démontrons la première assertion de la proposition Les variables X et Y étant intégrables, E(X + Y ) = E(X) + E(Y ). Par suite, Var (X + Y ) = E (X + Y E(X + Y )) 2 = E (X E(X)) 2 + (Y E(Y )) 2 + 2(X E(X))(Y E(Y )). Alors, par linéarité de l espérance sur l ensemble des fonctions P-intégrables, Var (X + Y ) = Var (X) + Var (Y ) + 2 Cov (X Y ). Supposons que les variables X et Y sont indépendantes. Les applications f 1 : R R et f 2 : R R x x E(X) y y E(Y ) étant boréliennes, les variables aléatoires X E(X) et Y E(Y ) sont également indépendantes. Par ailleurs, elles sont de carré intégrable (car L 2 (Ω P) est un espace vectoriel contenant X, Y et les constantes). D où, Cov (X Y ) = E[(X E(X))(Y E(Y ))] = E[X E(X)] E[Y E(Y )] = 0. Alors, d après la première partie, Var(X + Y ) = Var X + Var Y. 2. La seconde assertion se démontre de manière analogue. Terminons cette partie en introduisant le cœfficient de corrélation linéaire entre deux variables. Définition 5.19 Cœfficient de corrélation linéaire) Soient X et Y deux variables aléatoires réelles qui possèdent un moment d ordre deux et ne sont pas presque sûrement constantes, c est-à-dire deux variables aléatoires réelles telles que E X 2 < + E Y 2 < + Var (X) > 0 et Var (Y ) > 0. Le cœfficient de corrélation linéaire entre X et Y est le réel ρ XY = Cov(X Y ) = Cov(X Y ) Var (X) Var (Y ) σ(x)σ(y ). 14

17 La proposition suivante justifie la terminologie corrélation linéaire. Proposition 5.20 Soient X et Y deux variables aléatoires réelles qui possèdent un moment d ordre deux et ne sont pas presque sûrement constantes, c est-à-dire deux variables aléatoires réelles telles que E X 2 < + E Y 2 < + Var (X) > 0 et Var (Y ) > 0. Notons ρ XY le cœfficient de corrélation linéaire entre les variables X et Y. 1. Alors, ρ XY De plus ρ XY = 1 respectivement ρ XY = 1) si et seulement si Y = ax + b respectivement Y = ax + b). Preuve de la proposition D après l inégalité de Cauchy-Schwarz (c est-à-dire l inégalité de Hölder avec p = q = 2), Cov(X Y ) Par conséquent, ρ XY 1. E (X E(X)) 2 1/2 E (Y E(Y )) 2 1/2 = Var(X) Var(Y). 2. Supposons Y = ax + b avec a R + et b R. Alors, Var(Y ) = a 2 Var(X), E(Y ) = ae(x) + b et Étant donné que a > 0, Cov(X Y ) = E[(X E(X))(aX + b ae(x) b)] = avar(x). ρ XY = a a = 1 On montre de même que si Y = ax + b alors ρ XY = a a = Supposons ρ XY = 1. Posons a = Var Y/Var X R + et b = E(Y ) ae(x) R. Alors, E (Y ax b) 2 = Var(Y ax b) car E(Y ax b) = 0. Par conséquent, E (Y ax b) 2 = Var(Y ) + 2Cov(Y ax b) + Var( ax b). En utilisant Var( ax b) = a 2 VarX = VarY et en calculant la covariance Cov(Y ax b), on obtient : E (Y ax b) 2 = 0. D où, Y ax b = 0 presque sûrement, c est-à-dire Y = ax + b presque sûrement. Si ρ XY = 1, on pose a = Var Y/Var X R + et b = E(Y ) + ae(x) R. Alors, on montre de même que précédemment : E (Y + ax b) 2 = 0. On en déduit que Y = ax + b presque sûrement. 15

18 5.3 Addition des variables aléatoires indépendantes et Convolution Mesure convolée Avant de donner la loi de la somme de deux variables aléatoires indépendantes, nous définissons la mesure convolée de µ et ν. Définition 5.21 Convolée de deux mesures) Soient µ et ν deux mesures positives σ-finies sur R d B(R d ). La convolée µ ν de µ et ν est la mesure image de µ ν par l application h : R d R d R d (x y) x + y. Ainsi, d après le théorème du transport, pour toute fonction ϕ : R d [0 + ] borélienne, ϕ(t) d(µ ν)(t) = ϕ(x + y) dµ(x)dν(y). (5.4) R d R d R d Remarque 5.12 Soient µ et ν sont deux mesures positives σ-finies sur R d B(R d ). 1. La formule (5.4) reste vraie pour toute fonction (µ ν)-intégrable. 2. Le produit de convolution de deux mesures σ-finies est commutatif. Ainsi, µ ν = ν µ. 3. Remarquons que µ ν R d = µ(dx)ν(dx) = µ R d ν R d. R d R d Par suite, si µ et ν sont bornées, alors µ ν est aussi bornée. De plus, si µ et ν sont deux probabilités, alors µ ν est aussi une probabilité. Exemple 5.3 Soit µ = δ a et ν = δ b avec a b R. Alors, δ a δ b = δ a+b La loi de la somme de variables aléatoires indépendantes est donnée une convolée de probabilités. Proposition 5.22 Loi d une somme de variables indépendantes) Si X et Y sont deux variables aléatoires indépendantes à valeurs dans R d de lois respectives P X et P Y, alors la loi de X + Y est P X+Y = P X P Y. Preuve de la proposition Les variables X et Y étant indépendantes, P XY ) = P X P Y. Alors, pour toute fonction f : R d R borélienne positive, d après le théorème du transport, E(f(X + Y )) = f(x + y) P X (dx)p Y (dy). R d R d Par conséquent, par définition de P X P Y, pour toute fonction f : R d R borélienne positive, E(f(X + Y )) = f(z) (P X P Y )(dz). R d Ainsi, la loi de X + Y est la mesure convolée P X P Y. 16

19 5.3.2 Addition de variables aléatoires discrètes indépendantes Nous contentons d étudier le cas de la convolution de deux probabilités discrètes. Proposition 5.23 Loi d une somme de variables discrètes) Soient X et Y deux variables aléatoires à valeurs dans R d. Supposons que X est une variable aléatoire discrète de loi P X = p i δ xi i I avec I fini ou dénombrable. De même, supposons que Y est une variable aléatoire discrète de loi P Y = j J p j δ yj avec J fini ou dénombrable. Si X et Y sont indépendantes, alors la variable aléatoire X + Y est discrète de loi P X+Y = p i p j δ xi +y j. ij) I J Remarque 5.13 Sous les hypothèses de la proposition précédente, P X+Y (X + Y = z) = ij) I z p i p j avec I z = {(i j) I J / x i + y j = z}. Preuve de la proposition La variable aléatoire X +Y prend ses valeurs dans l ensemble fini ou dénombrable A = {x i + y j / i I j J} Nous devons donc déterminer P(X + Y = z) pour tout z A. Remarquons que pour z A, P(X + Y = z) = P(X = x i Y = y j ) ij) I z avec I z = {(i j) I J / x i + y j = z}. Alors, par indépendance de X et Y, z A P(X + Y = z) = p i p j. ij) I z Par conséquent, P X+Y = p i p j δ xi +y j = z A ij) I z p i p j δ xi +y j. ij) I J Exemple 5.4 Soient X et Y deux variables aléatoires discrètes à valeurs dans N. Si X et Y sont indépendantes, alors X + Y est à valeurs dans N et n N P(X + Y = n) = n P(X = i) P(Y = n i). i=0 Nous donnons à présent des exemples de convolutions pour des lois classiques. 17

20 Proposition 5.24 Soient X et Y deux variables aléatoires réelles indépendantes. 1. Si X suit la loi binomiale B(n p) et si Y suit la loi B(m p), alors X + Y suit la loi B(n + m p). 2. Si X suit la loi de Poisson P(λ) et si Y suit la loi de Poisson P(µ), alors la loi de X + Y est la loi de Poisson P(λ + µ). Remarque 5.14 Cette proposition se généralise à la somme de n variables aléatoires mutuellement indépendantes. En particulier, si X 1... X n sont n variables aléatoires mutuellement indépendantes de loi de Bernoulli de paramètre p, alors n X = i=1 est une variable aléatoire de loi binomiale B(n p) (car B(p) = B(1 p)). Ceci explique pourquoi le nombre de piles obtenus lors de n lancers indépendants d une pièce truquée est modélisé par une loi binomiale B(n p) où p est la probabilité d obtenir pile lors d un lancer. Preuve de la proposition X i 1. Supposons que X et Y sont indépendantes, que X suit la loi B(n p) et que Y suit la loi B(m p). Alors, presque sûrement X + Y {k N / 0 k n + m}. De plus, pour tout entier k tel que 0 k n + m, P(X + Y = k) = = k P(X = i) P(Y = k i) i=0 k i=0 C i n C k i m p k (1 p) n+m k. Or k i=0 Ci n Cm k i est le cœfficient de t k du polynôme (1 + t) n (1 + t) m = (1 + t) m+n donc est égal à Cn+m. k Alors, pour tout entier k tel que 0 k n + m, P(X + Y = k) = C k n+m p k (1 p) n+m k. Par conséquent, X + Y suit une loi binomiale B(n + m p). 2. Supposons que X et Y sont indépendantes, que X suit la loi P(λ) et que Y suit la loi P(µ). Alors, X + Y N presque sûrement. De plus, pour tout n N, P(X + Y = n) = = n P(X = i) P(Y = n i) i=0 n λ i i e λ i=0 µn i (n i) e µ = 1 n e λ+µ) n i=0 C i n λi µ n i = 1 n e λ+µ) (λ + µ) n. Par conséquent, X + Y a pour loi P(λ + µ). 18

21 5.3.3 Addition de deux variables aléatoires indépendantes absolument continues Si µ et ν sont deux probabilités sur R d ayant chacune une densité, alors leur convolée µ ν admet une densité qui est donnée par une convolée de fonctions. Définition 5.25 Convolée de fonctions) Soient f et g deux fonctions boréliennes positives définies sur R d. La convolée de f et g est la fonction f g définie sur R d par x R d f g(x) = f(x t)g(t)λ 1 (dt) = g(x t)f(t)λ 1 (dt) = g f(x). R d R d Remarque La convolution est une opération associative, c est-à-dire que (f g) h = f (g h) pour toutes fonctions f, g et h boréliennes positives. 2. La convolution est une application régularisante. Si f et g sont deux densités sur R (par rapport à λ 1 ) bornées, alors la fonction f g est une densité et est une fonction continue. Donnons à présent la loi de la somme de deux variables aléatoires réelles de loi absolument continue. Proposition 5.26 Loi d une somme de variables indépendantes de loi absolument continue) Soient X et Y des variables aléatoires réelles indépendantes. Si la loi de X respectivement Y ) est absolument continue de densité f X respectivement f Y ), alors la loi de X + Y est absolument continue de densité f X f Y. Preuve de la proposition Soit ϕ : R 2 [0 + ] une fonction borélienne positive. Les variables X et Y étant indépendantes, la loi de (X Y ) est absolument continue de densité f XY ) définie par (x y) R 2 f XY ) (x y) = f X (x)f Y (y). Par conséquent, E(ϕ(X + Y )) = R R ϕ(x + y)f X (x)f Y (y)λ 1 (dx)λ 1 (dy). D après le théorème de Fubini-Tonelli, E(ϕ(X + Y )) = ϕ(x + y)f X (x)λ 1 (dx) f Y (y)λ 1 (dy). R R En effectuant le changement de variable z = x + y (y étant fixé), on constate que E(ϕ(X + Y )) = ϕ(z)f X (z y)λ 1 (dz) f Y (y)λ 1 (dy). R R R Ainsi, d après le théorème de Fubini-Tonelli, E(ϕ(X + Y )) = ϕ(z) f X (z y)f Y (y)λ 1 (dy) λ 1 (dz) = ϕ(z)(f X f Y )(z)λ 1 (dz). R R L égalité précédente étant vraie pour toute fonction ϕ : R 2 [0 + ] borélienne positive, la loi de X + Y est la loi absolument continue de densité f X f Y. Pour terminer, nous montrons la stabilité des lois gaussiennes pour la convolution. 19

22 Théorème 5.27 Somme de variables gaussiennes indépendantes) Soit X respectivement Y ) une variable aléatoire réelle de loi gaussienne N m σ 2 respectivement N m τ 2 ). Si X et Y sont indépendantes, alors X +Y est une variable aléatoire réelle de loi gaussienne N m + m σ 2 + τ 2, c est-à-dire de moyenne m + m et de variance σ 2 + τ 2. Preuve du théorème Nous supposons σ = 0 et τ = 0 (le cas σ = 0 ou τ = 0 est laissé en exercice). Posons U = X m σ et V = Y m τ. Les variables aléatoires X et Y étant indépendantes, U et V le sont aussi. Par ailleurs, U et V suivent des lois gaussiennes centrées réduites. Remarquons que σu suit une loi N 0 σ 2 donc a pour densité la fonction f 0σ 2 définie par x R f 0σ 2(x) = 1 σ /2σ2 e x2. 2π De même la τv a pour densité la fonction f 0τ 2.D après la proposition 5.26, σu + τv a pour densité ϕ = f 0σ 2 f 0τ 2 (par indépendance de σu et de τv ). Par définition, En posant ρ 2 = σ 2 + τ 2, nous obtenons : ϕ(x) = 1 (x y)2 exp 2πστ R 2σ 2 y2 2τ 2 λ 1 (dy). ϕ(x) = 1 ρ 2π f zu 2(y)λ 1 (dy) R e x2 /2ρ 2 avec z = xτ 2 /ρ 2, u = σ 2 τ 2 /ρ 2 et f zu 2 densité de la loi N z u 2. Alors, pour tout x R ϕ(x) = 1 ρ /2ρ2 e x2 = f 0ρ 2(x) 2π car l intégrale de f zu 2 est égale à 1. D où σu + τv est une variable gaussienne de moyenne nulle et de variance ρ 2. Dès lors, X + Y = σu + τv + m + m suit une loi gaussienne de moyenne m + m et de variance σ 2 + τ Annexe : Preuve de la proposition 5.11 voir énoncé page 10 Nous supposons pour simplifier n = Supposons les deux variables aléatoires X et Y indépendantes. D après la proposition 3.44, X (respectivement Y ) admet une densité f 1 (respectivement f 2 ). Soient A et B deux boréliens. Les variables aléatoires X et Y étant indépendantes, P((X Y ) A B) = P(X A Y B) = P(X A) P(Y B) = 1 A (x)f 1 (x)dx 1 B (x)f 2 (x)dx Alors, d après le théorème de Fubini-Tonelli, P((X Y ) A B) = P XY ) (A B) = 1 A B (x y)f 1 (x)f 2 (y)dxdy où P XY ) désigne la loi de (X Y ). 20

23 Pour tout borélien C, posons Q (C) = 1 C (x y)f 1 (x)f 2 (y)dxdy. Alors, Q est une probabilité et vu ce qui précède, elle coïncide avec P XY ) sur les pavés A B. Par suite, P XY ) = Q sur B R 2 = B(R) 2. Ainsi, D après l unicité de la densité, P((X Y ) C) = 1 C (x y)f 1 (x)f 2 (y)dxdy pour tout borélien C. f(x y) = f 1 (x)f 2 (y) presque partout. 2. Réciproquement, supposons la relation (5.3) réalisée. Soient A et B deux boréliens. P(X A Y B) = P((X Y ) A B) = 1 A B (x y)g 1 (x)g 2 (y)dxdy. D après le théorème de Fubini-Tonelli, P(X A Y B) = 1 A (x)g 1 (x)dx 1 B (y)g 2 (y)dy. (5.5) En particulier si A = B = R, l égalité précédente devient 1 = λ 1 λ 2, où nous avons posé, λ 1 = g 1 (x)dx et λ 2 = g 2 (y)dy. R Posons f 1 = g 1 /λ 1 et f 2 = g 2 /λ 2. Alors, en divisant (5.5) par le facteur 1 = λ 1 λ 2, P(X A Y B) = 1 A (x)f 1 (x)dx 1 B (y)f 2 (y)dy R En particulier si B = R, De même, P(Y B) = P(X A) = 1 A (x)f 1 (x)dx. 1 B (y)f 2 (y)dy. Alors, pour tous boréliens A et B, P(X A Y B) = P(X A)P(Y B) ce qui signifie que les variables aléatoires X et Y sont indépendantes. 21

24 22

25 Chapitre 6 Espaces de Hilbert. Un espace de Hilbert est un espace de Banach dont la norme découle d un produit scalaire et est une généralisation en dimension quelconque de la notion d espace hermitien ou euclidien. Ce chapitre pourra sembler au premier abord sans rapport avec la théorie de la mesure et les probabilités. Cependant, un exemple particulier d espace de Hilbert est l espace des fonctions de carré intégrable. Tout ce chapitre s applique donc à cet espace qui joue un rôle important en probabilités comme en intégration. Dans la suite, K est égal à R ou et E désigne un K-espace vectoriel. 6.1 Définition d un espace de Hilbert Formes sesquilinéaires et formes hermitiennes Définition 6.1 Forme sesquilinéaire) Une application ϕ : E E K est une forme sesquilinéaire sur E si i) pour tout y E l application x ϕ(x y) est une forme linéaire sur E, ii) pour tout x E et pour tout y E, ϕ(y x) = ϕ(x y). Lorsque K = R, une forme sesquilinéaire ϕ est encore appelée une forme bilinéaire symétrique. Remarque 6.1 Si ϕ est une forme sesquilinéaire sur E, alors pour tout (x y z) E 3 et tout λ K, ϕ(x x) R ϕ(x y + λz) = ϕ(x y) + λϕ(x z). Définition 6.2 Forme hermitienne) Soit ϕ une forme sesquilinéaire sur E. L application Φ : E R x ϕ(x x) est appelée forme hermitienne associée à ϕ. Lorsque K = R, la forme hermitienne Φ est encore appelée forme quadratique associée à ϕ. Enfin, la forme sesquilinéaire ϕ est appelée forme polaire de la forme hermitienne Φ. 23

26 Nous donnons les propriétés générales des formes hermitiennes, propriétés qui découlent immédiatement de la définition. Proposition 6.3 Soit ϕ une forme sesquilinéaire et Φ la forme hermitienne associée à ϕ. 1. Alors, pour tout x E et pour tout λ K, Φ(λx) = λ 2 Φ(x). 2. De plus, pour tout x E et tout y E, Φ(x + y) = Φ(x) + Φ(y) + 2 Re ϕ(x y). 3. Si K =, alors pour tout x E et tout y E, Φ(x + iy) = Φ(x) + Φ(y) + 2 Im ϕ(x y). Preuve de la proposition 6.3. Laissée en exercice. Par définition, Φ s exprime en fonction de ϕ. Mais, une expression de ϕ à l aide de Φ peut aussi être donnée. Proposition 6.4 Soit ϕ une forme sesquilinéaire et Φ la forme hermitienne associée à ϕ. 1. Si K = R, alors pour tout (x y) E 2, ϕ(x y) = 1 (Φ(x + y) Φ(x y)) Si K =, alors pour tout (x y) E 2, Re ϕ(x y) = 1 4 (Φ(x + y) Φ(x y)) et Im ϕ(x y) = 1 (Φ(x + iy) Φ(x iy)). 4 Preuve de la proposition 6.3. Laissée en exercice. Énonçons à présent l égalité du parallélogramme, égalité qui découle de la deuxième assertion de la proposition 6.3. Proposition 6.5 Égalité du parallélogramme) Si ϕ une forme sesquilinéaire et Φ la forme hermitienne associée à ϕ, alors pour tout (x y) E 2, Φ(x + y) + Φ(x y) = 2Φ(x) + 2Φ(y). Preuve de la proposition 6.5. Laissée en exercice. Définissons à présent la notion de forme positive, de forme définie positive et d orthogonalité. 24

27 Définition 6.6 Formes positives, définies/orthogonalité) Soient ϕ une forme sesquilinéaire et Φ sa forme hermitienne associée. 1. La forme hermitienne Φ est dite positive si 2. La forme hermitienne Φ est dite définie si x E Φ(x) 0. Φ(x) = 0 = x = Deux vecteurs x et y de E sont orthogonaux par rapport à ϕ ou Φ) si ϕ(x y) = Si U est un sous-ensemble non vide E, l espace orthogonal U à U est le sous-espace vectoriel de E défini par U = {x E / ϕ(x y) = 0 y U}. 5. La forme sesquilinéaire ϕ est dite non dégénérée si E = {0} c est-à-dire si ( y E ϕ(x y) = 0) = x = 0. Remarque 6.2 Si x et y sont deux vecteurs orthogonaux pour ϕ, alors d après la proposition 6.3, où Φ est la forme hermitienne associée à ϕ. Φ(x + y) = Φ(x) + Φ(y) Exemple Soient E = n et A = (a kl ) 1kn une matrice hermitienne (c est-à-dire que pour tous k l, a kl = a lk ). 1ln Considérons la fonction ϕ : E E définie par ϕ(x y) = a kl x k y l 1kln L application ϕ est alors une forme sesquilinéaire sur n. En fait, toute forme sesquilinéaire sur n est de ce type. La forme hermitienne Φ associée à ϕ est définie par Φ(x) = n a kk x k k=1 1k<ln a kl Re(x k x l ). La forme ϕ est non dégénérée si et seulement si le déterminant de A est non nul. La forme ϕ est définie positive si et seulement si les valeurs propres de A sont strictement positives. 2. L 2 R (Ω µ) est l ensemble des fonctions définies sur Ω, à valeurs dans R, -mesurable et de carré µ- intégrable. L 2 (Ω µ) est l ensemble des fonctions -mesurables, à valeurs complexes et telles que f L 2 R(Ω µ). Posons E = L 2 (Ω µ) ou L2 R (Ω µ). L application ϕ définie sur E E par ϕ(f g) = fgdµ 25 Ω

28 est une forme sesquilinéaire sur E. De plus, la forme hermitienne Φ associée à ϕ, donnée par Φ(f) = f 2 dµ (6.1) est positive. Nous pouvons définir ϕ sur L 2 K (Ω µ) avec K = R ou. Alors, la forme hermitienne Φ est définie par (6.1) et est définie positive sur L 2 K (Ω µ). Ω Terminons cette section en donnant quelques propriétés des formes hermitiennes positives. Proposition 6.7 Soit Φ une forme hermitienne positive de forme polaire ϕ. 1. Pour tout x et y de E, ϕ(x y) 2 Φ(x)Φ(y). Cette inégalité est l inégalité de Cauchy-Schwarz. 2. La forme ϕ est non dégénérée si et seulement si Φ est définie, c est-à-dire si et seulement si Φ(x) = 0 = x = L application x Φ(x) est une semi-norme sur E, c est-à-dire que pour tout (x y) E et tout λ K, Φ(x + y) Φ(x) + Φ(y) et Φ(λx) = λ Φ(x) Preuve de la proposition Soit (x y) E 2. Alors, λ K 0 Φ(λx + y) = λ 2 Φ(x) + 2 Re(λ ϕ(x y)) + Φ(y). (6.2) Commençons par le cas où Φ(x) = 0 ou Φ(y) = 0. Par symétrie, nous pouvons supposer Φ(x) = 0. Posons ϕ(x y) = ϕ(x y) e iα et λ = ρe iα avec ρ R. Alors, λϕ(x y) = ρ ϕ(x y) et (6.2) se réécrit sous la forme Alors, le trinôme (en ρ) du second degré a un discriminant négatif ou nul, c est-à-dire que 0 ρ 2 Φ(x) 2ρ ϕ(x y) + Φ(y) ρ R. ρ 2 Φ(x) 2ρ ϕ(x y) + Φ(y) 4 ϕ(x y) 2 4Φ(x)Φ(y) 0 soit ϕ(x y) 2 Φ(x)Φ(y) Si Φ(x) = Φ(y) = 0, le changement de λ en -λ dans (6.2) donne D où ϕ(x y) = 0 et ϕ(x y) 2 Φ(x)Φ(y). Re(λϕ(x y)) = 0 λ K. 26

29 2. Supposons ϕ non dégénérée. D après l inégalité de Cauchy-Schwarz, Alors, par définition d une forme non dégénérée, Réciproquement, supposons que Φ(x) = 0 = y E ϕ(x y) = 0. Φ(x) = 0 = x = 0. Φ(x) = 0 = x = 0. Soit x E tel que pour tout y E, ϕ(x y) = 0. Alors, Φ(x) = ϕ(x x) = 0 et donc par hypothèse x = 0. Par conséquent, φ est non dégénérée. 3. Soient x y E. D après la proposition 6.3 Φ(x + y) = Φ(x) + Φ(y) + 2Re ϕ(x y). Par conséquent, Φ(x + y) Φ(x) + Φ(y) + 2 ϕ(x y). En appliquant l inégalité de Cauchy-Schwarz, nous obtenons : Φ(x + y) Φ(x) + Φ(y) + 2 Φ(x) Φ(y) = Φ(x) + Φ(y) 2. D où, Φ(x + y) Φ(x) + Φ(y). D après la proposition 6.3, pour tout λ K, Φ(λx) = λ 2 Φ(x) et donc Φ(λx) = λ Φ(x). Vu ce qui précède, Φ est une semi-norme sur E Espaces de Hilbert Nous définissons à présent les notions de produit scalaire et d espace de Hilbert. Définition 6.8 Espaces préhilbertiens et espaces de Hilbert) Soit Φ une forme hermitienne. 1. La forme polaire ϕ associée à Φ est un produit scalaire si la forme hermitienne Φ est définie positive. Dans ce cas, Φ est une norme et l espace E muni de cette norme ou du produit scalaire ϕ) est dit préhilbertien. 2. Un espace de Hilbert est un espace préhilbertien complet. Notation Dans la suite, H est un espace préhilbertien muni du produit scalaire < > associé à la norme. Ainsi, pour tout x H, x 2 =< x x >. Remarquons que 2 est en fait la forme hermitienne Φ associée à la forme sesquilinéaire < >. Si p 1, l espace L p (Ω µ) est un espace de Banach. Lorsque p = 2, cet espace possède de plus une structure hermitienne ou euclidienne, ce qui en fait son intérêt. 27

30 Théorème 6.9 Théorème de Riesz-Fisher) L espace L 2 K (Ω µ) K = R ou ) est un espace de Hilbert pour le produit scalaire défini par < f g >= f g dµ. Ω Preuve du théorème 6.9. Admise. Nous terminons cette section en énonçant la continuité d applications simples liées au produit scalaire. Proposition 6.10 Soit H un espace préhilbertien et x H. Alors y < x y >, y < y x > et y y sont des applications continues sur E. Preuve de la proposition Pour montrer la continuité des deux premières applications, il suffit d utiliser l inégalité de Cauchy-Schwarz. La continuité de l application y y repose sur (y 1 y 2 ) H 2 y 1 y 2 y 1 y 2 inégalité qui se déduit de l inégalité triangulaire. 6.2 Distance et projection Distance à un ensemble Définition 6.11 Distance à un ensemble) Soit Γ un sous-ensemble non vide de l espace préhilbertien H et soit x H. La distance de x à Γ est le réel positif d(x Γ) = inf x y. y Γ Remarque 6.3 La notion de distance à un ensemble peut être définie dès que H est un espace métrique. Lorsque le sous-espace Γ est un sous-espace convexe complet, la distance de x à Γ est atteinte en un unique point. Avant d énoncer ce résultat, définissons la notion de sous-espace convexe et de sous-espace complet. Définition 6.12 Ensemble convexe/ensemble complet) 1. Un sous-ensemble Γ de H est convexe si pour tout x et y de Γ, le segment [x y] est inclus dans Γ, c est-à-dire si (x y) Γ 2 t [0 1] tx + (1 t)y Γ. 2. Un sous-ensemble Γ d un espace préhilbertien H est complet si toute suite (x n ) n N d éléments de Γ qui est de Cauchy dans H converge dans Γ, c est-à-dire vers un élément x Γ. Remarque Tout sous-espace complet d un espace préhilbertien est fermé. 2. Tout sous-espace fermé d un espace de Hilbert est complet. 28

31 La proposition suivante permet d établir que la distance d un point x à un convexe complet est atteinte en un unique point y (voir corollaire 6.14). Proposition 6.13 Élément de norme minimale) Si Γ est un sous-ensemble convexe complet et non vide de l espace préhilbertien H, alors Γ admet un unique élément de norme minimale, c est-à-dire Preuve de la proposition Soit α = inf y Γ y. x Γ x = inf y Γ y. Soient a b Γ. Étant donné que Γ est convexe, 1 2 (a + b) Γ. Alors, par définition de α, α 2 1 (a + b) 2 De plus, d après l égalité du parallélogramme (voir proposition 6.5 page 24), a b 2 = 2a 2 + 2b 2 a + b 2. 2 = 1 4 a + b2. (6.3) Par suite, d après (6.3), a b 2 2 a 2 + b 2 2α 2. (6.4) Par définition de α, il existe une suite (x n ) n N d éléments de Γ telle que lim x n 2 = α 2. (6.5) n + D après l inégalité (6.4) appliquée avec a = x n et b = x m, n m N x n x m 2 2 x n 2 + x m 2 2α 2. (6.6) D après (6.5) et (6.6), la suite (x n ) n N est une suite de Cauchy de Γ. L ensemble Γ étant complet, la suite (x n ) n N converge dans Γ (donc dans H) vers un élément noté x Γ. Par continuité de l application y y 2 sur H (voir lemme 6.10 page 28), α 2 = lim x n 2 = x 2. n + Par conséquent x = α car par définition α 0 et x 0. Nous venons d établir l existence d un élément x de Γ de norme α. Établissons à présent l unicité. Soit y Γ tel que y = α = x. D après l inégalité (6.4) appliquée pour a = x et b = y, 0 x y 2 2 x 2 + y 2 2α 2 = 2 α 2 + α 2 2α 2 = 0. D où x y 2 = 0, ce qui signifie que x = y (car est une norme). Par conséquent, x est l unique élément de Γ de norme α. 29

32 Comme annoncé, nous pouvons maintenant établir que la distance à un sous-espace convexe complet non vide est atteinte en un unique point. En particulier, la distance à un sous-espace convexe fermé non vide d un espace de Hilbert est atteinte en un unique point. Corollaire 6.14 Distance à un sous-espace convexe complet) Si Γ est un sous-ensemble convexe complet et non vide de l espace préhilbertien H, alors pour tout x H, y Γ x y = inf x z = d(x Γ). z Γ Preuve du corollaire Il suffit d appliquer la proposition 6.13 au sous-ensemble x Γ qui est bien convexe complet et non vide Projection orthogonale sur un sous-espace vectoriel fermé Nous introduisons à présent la projection orthogonale sur un sous-espace vectoriel d un espace de Hilbert et en donner des caractérisations. Théorème 6.15 Projection orthogonale) Soient H un espace de Hilbert et F un sous-espace vectoriel fermé de H. Alors, pour tout x H, il existe un unique y F, noté P F (x), tel que x y = d(x F ) = inf x z. z F De plus, pour tout x H, P F (x) est l unique élément y F tel que x y F c est-à-dire tel que pour tout z F, < x y z >= 0. Pour tout x H, P F (x) est appelé projeté orthogonal de x sur F. L application P F appelée projection orthogonale sur F ou projecteur orthogonal sur F. : H F est Remarque 6.5 Sous les hypothèses du théorème précédent, il existe une unique application P F que (Id P F )(H) F. : H F telle Remarque 6.6 Soit F est un sous-espace vectoriel fermé d un espace de Hilbert H. 1. F est aussi un sous-espace vectoriel fermé de H. Par ailleurs, H = F F. 2. Q F = Id P F est la projection orthogonale sur F. Preuve du théorème Soit x H. F étant un sous-espace vectoriel fermé de l espace de Hilbert H, F est un sous-espace convexe complet et non vide de l espace de Hilbert H. Alors, d après le corollaire 6.14, Posons P F (x) = y. y F x y = d(x F ) = inf x z. z F 30

33 Montrons que x P F (x) F. Si F = {0}, F = H et x P F (x) H = F. Supposons maintenant que F = {0}. Soit z F tel que z = 0. Étant donné que z F, que P F (x) F et que F est un sous-espace vectoriel de H, Alors, par définition de P F (x), c est-à-dire que pour tout λ K, D où, pour tout λ K, λ K P F (x) λz F. λ K x P F (x) 2 x P F (x) + λz 2 λ K x P F (x) 2 x P F (x) 2 + 2Re (λ < x P F (x) z >) + λ 2 z 2. λ 2 z 2 + 2Re λ < x P F (x) z > 0. En prenant λ = α n avec α K et n N puis en multipliant par n, nous avons : Alors, n montre que α K α 2 z 2 + 2Re(α < x P F (x) z >) 0. n α K Re(α < x P F (x) z >) 0. L inégalité précédente étant vraie pour α K et α, α K Re(α < x P F (x) z >) = 0. Par conséquent, < x P F (x) z >= 0 (prendre α =< x P F (x) z >). Nous venons de montrer que z F \{0} < x P F (x) z >= 0. Bien sûr si z = 0, nous avons aussi < x P F (x) z >= 0. Par conséquent, x P F (x) F. Soit w F tel que x w F. Il nous reste à montrer que w = P F (x). F étant un sous-espace vectoriel contenant w, z F w z F. De plus, x w F. Donc, pour z F, les vecteurs w z et x w sont orthogonaux. D où Par conséquent, z F x z 2 = (w z) + (x w) 2 = w z 2 + x w 2 x w 2. x w inf x z = d(x F ). z F Comme w F, l inégalité précédente est en fait une égalité. Alors, par définition de P F (x), nous avons donc w = P F (x). Donnons à présent quelques propriétés de la projection orthogonale définie dans le théorème précédent. 31

Définition d une norme

Définition d une norme Définition d une norme Définition E est un K-ev. L application N : E R + est une norme sur E ssi 1. x E, N(x) = 0 x = 0. 2. k K, x E, N(k.x) = k N(x). 3. x, y E, N(x + y) N(x) + N(y) Notation N,. Propriété

Plus en détail

Sujets HEC B/L 2013-36-

Sujets HEC B/L 2013-36- -36- -37- Sujet HEC 2012 B/L Exercice principal B/L1 1. Question de cours : Définition et propriétés de la fonction de répartition d une variable aléatoire à densité. Soit f la fonction définie par : f(x)

Plus en détail

IV. Espaces L p. + tx 1. (1 t)x 0

IV. Espaces L p. + tx 1. (1 t)x 0 cours 13, le lundi 7 mars 2011 IV. spaces L p IV.1. Convexité Quand deux points x 0, x 1 R sont donnés, on peut parcourir le segment [x 0, x 1 ] qui les joint en posant pour tout t [0, 1] x t = (1 t)x

Plus en détail

1 Définition, existence, unicité.

1 Définition, existence, unicité. Université Denis Diderot Paris 7 Espérance conditionnelle Ces rappels et compléments de cours sont inspirés de [1], [2], [3]. Il va de soi que pour une bonne connaissance des notions qui suivent, il est

Plus en détail

Les espaces vectoriels

Les espaces vectoriels Agrégation interne UFR MATHÉMATIQUES 1. Généralités Les espaces vectoriels Dans tout le chapitre, K représente un corps commutatif. 1.1. Notion d espace vectoriel On considère un ensemble E sur lequel

Plus en détail

Feuille d exercices n o 1. N(x i ). 4. On rappelle qu un espace normé est séparable s il contient une partie dénombrable dense.

Feuille d exercices n o 1. N(x i ). 4. On rappelle qu un espace normé est séparable s il contient une partie dénombrable dense. 1 Feuille d exercices n o 1 1. Deuxième forme géométrique du théorème de Hahn-Banach Soient A E et B E deux convexes, non vides, disjoints (E est une espace vectoriel normé). On suppose que A est fermé

Plus en détail

1 Topologies, distances, normes

1 Topologies, distances, normes Université Claude Bernard Lyon 1. Licence de mathématiques L3. Topologie Générale 29/1 1 1 Topologies, distances, normes 1.1 Topologie, distances, intérieur et adhérence Exercice 1. Montrer que dans un

Plus en détail

Intégration de polynômes Points de Gauss

Intégration de polynômes Points de Gauss Intégration de polynômes Points de Gauss Commençons par un exercice classique de premier cycle. Problème 1 Trouver trois réels α, β et γ tels que, pour tout polynôme P de degré au plus 2, on ait : ( )

Plus en détail

Espaces vectoriels normés

Espaces vectoriels normés Espaces vectoriels normés Essaidi Ali 19 octobre 2010 K = R ou C. E un K-espace vectoriel. 1 Normes et distances : 1.1 Normes et distances : Définition : On appelle semi-norme sur E toute application N

Plus en détail

Introduction aux processus de diffusion Pierre Priouret. Mode d emploi

Introduction aux processus de diffusion Pierre Priouret. Mode d emploi Université Pierre et Marie Curie Master de sciences et technologies Mathématiques et applications. Deuxième année Spécialité Probabilités et applications. Filière Probabilités et Finances Année 24/25 1

Plus en détail

Cours de probabilités, master 1. Yves Coudène

Cours de probabilités, master 1. Yves Coudène Cours de probabilités, master 1 Yves Coudène 19 janvier 2015 2 Table des matières Introduction 5 Notations 6 1 Formalisme de Kolmogorov 7 1.1 Le cas discret : Ω fini ou dénombrable................ 7 1.2

Plus en détail

Espaces de Sobolev. Résumé du cours de MEDP Maîtrise de mathématiques 2001 2002. medp-sobolev.tex (2001nov24)

Espaces de Sobolev. Résumé du cours de MEDP Maîtrise de mathématiques 2001 2002. medp-sobolev.tex (2001nov24) Espaces de Sobolev Résumé du cours de MEDP Maîtrise de mathématiques 2001 2002 medp-sobolevtex (2001nov24) Sauf mention explicite du contraire, toutes les fonctions considérées seront à valeurs réelles

Plus en détail

Formulaire de Probabilités et Statistiques

Formulaire de Probabilités et Statistiques Formulaire de Probabilités et Statistiques AD+JS 1 Rappels de combinatoire Arrangements avec répétitions Nombre d applications d un ensemble à k éléments dans un ensemble à n éléments : n k Arrangements

Plus en détail

Statistiques appliquées (L3 d'économie) - Cours de Patrick Sevestre - TD 2 - Corrigé

Statistiques appliquées (L3 d'économie) - Cours de Patrick Sevestre - TD 2 - Corrigé Statistiques appliquées (L3 d'économie) - Cours de Patrick Sevestre - TD 2 - Corrigé Marc Sangnier - marc.sangnier@ens-cachan.fr 29 octobre 2007 Exercice 1 - Lien entre salaire et formation Remarques préliminaires

Plus en détail

Les espaces L p. Chapitre 6. 6.1 Définitions et premières propriétés. 6.1.1 Les espaces L p, avec 1 p < +

Les espaces L p. Chapitre 6. 6.1 Définitions et premières propriétés. 6.1.1 Les espaces L p, avec 1 p < + Chapitre 6 Les espaces L p 6.1 Définitions et premières propriétés 6.1.1 Les espaces L p, avec 1 p < + Soient (E, T,m) un espace mesuré, 1 p < + et f M = M(E, T) (c est-à-dire f : E R, mesurable). On remarque

Plus en détail

PC* Espaces préhilbertiens réels

PC* Espaces préhilbertiens réels I. Espace préhilbertien réel................................... 3 I.1 Produit scalaire dans un espace vectoriel réel................... 3 I.2 Inégalités de Cauchy-Schwarz et de Minkowski..................

Plus en détail

3 Equations de Laplace et de Poisson

3 Equations de Laplace et de Poisson 3 Equations de Laplace et de Poisson 3. Formule d intégration par parties Soit un domaine borné à bord régulier de classe C. On note ν = ν(x) le vecteur normal extérieur au point x. Pour toutes fonctions

Plus en détail

Probabilités et Statistiques. Raphaël KRIKORIAN Université Paris 6

Probabilités et Statistiques. Raphaël KRIKORIAN Université Paris 6 Probabilités et Statistiques Raphaël KRIKORIAN Université Paris 6 Année 2005-2006 2 Table des matières 1 Rappels de théorie des ensembles 5 1.1 Opérations sur les ensembles................... 5 1.2 Applications

Plus en détail

Espaces euclidiens. 1 Définitions et exemples. 2 Orthogonalité, norme euclidienne 2. 3 Espaces euclidiens, bases orthonormées 2

Espaces euclidiens. 1 Définitions et exemples. 2 Orthogonalité, norme euclidienne 2. 3 Espaces euclidiens, bases orthonormées 2 Espaces euclidiens Table des matières 1 Définitions et exemples 1 Orthogonalité, norme euclidienne 3 Espaces euclidiens, bases orthonormées 4 Orthogonalisation de Schmidt 3 5 Sous-espaces orthogonaux 3

Plus en détail

Topologie des espaces vectoriels normés

Topologie des espaces vectoriels normés Topologie des espaces vectoriels normés Cédric Milliet Version préliminaire Cours de troisième année de licence Université Galatasaray Année 2011-2012 2 Chapitre 1 R-Espaces vectoriels normés 1.1 Vocabulaire

Plus en détail

Construction de la mesure de Lebesgue. 1 Mesure positive engendrée par une mesure extérieure.

Construction de la mesure de Lebesgue. 1 Mesure positive engendrée par une mesure extérieure. Université d Artois Faculté des Sciences Jean Perrin Analyse Fonctionnelle (Licence 3 Mathématiques-Informatique Daniel Li Construction de la mesure de Lebesgue 28 janvier 2008 Dans ce chapitre, nous allons

Plus en détail

Intégrale de Lebesgue

Intégrale de Lebesgue Intégrale de Lebesgue ÉCOLE POLYTECHNIQUE Cours 4 : intégrale de Lebesgue Bertrand Rémy 1 / 50 1. Motivations et points de vue ÉCOLE POLYTECHNIQUE Cours 4 : intégrale de Lebesgue Bertrand Rémy 2 / 50 Deux

Plus en détail

Intégration et probabilités ENS Paris, 2013-2014. TD 5 Théorèmes de Fubini, calculs Corrigé

Intégration et probabilités ENS Paris, 2013-2014. TD 5 Théorèmes de Fubini, calculs Corrigé Intégration et probabilités NS Paris, 23-24 TD 5 Théorèmes de Fubini, calculs Corrigé xercices à préparer du TD 4 xercice. (Partiel 27 Soit (,,µ un espace mesuré et f : + une fonction mesurable.. On suppose

Plus en détail

ALGÈBRE BILINÉAIRE 1

ALGÈBRE BILINÉAIRE 1 3-8- 213 J.F.C. Eve p. 1 ALGÈBRE BILINÉAIRE 1 P mentionne des résultats particulièrement utiles et souvent oubliés dans la pratique de l algèbre bilinéaire... mentionne des erreurs à ne pas faire où des

Plus en détail

Université de Pau et des Pays de l Adour Département de Mathématiques Année 2006-2007. Introduction aux probabilités

Université de Pau et des Pays de l Adour Département de Mathématiques Année 2006-2007. Introduction aux probabilités Université de Pau et des Pays de l Adour Département de Mathématiques Année 2006-2007 Introduction aux probabilités Série n 3 Exercice 1 Une urne contient neuf boules. Quatre de ces boules portent le numéro

Plus en détail

11. Espaces vectoriels, homomorphismes, bases

11. Espaces vectoriels, homomorphismes, bases 11. Espaces vectoriels, homomorphismes, bases 11.1. Espaces vectoriels, algèbres 11.1.1. Structure d espace vectoriel et d algèbre 11.1.2. Combinaisons linéaires 11.1.3. Espaces vectoriels et algèbres

Plus en détail

Espaces vectoriels normés MP

Espaces vectoriels normés MP Espaces vectoriels normés MP 27 décembre 2012 Faites des dessins Table des matières 1 Espaces vectoriels normés 3 1.1 Normes, espaces normés................................. 3 1.2 Normes dans les espaces

Plus en détail

Cours de Mathématiques II Chapitre 1. Algèbre linéaire

Cours de Mathématiques II Chapitre 1. Algèbre linéaire Université de Paris X Nanterre UFR Segmi Année 7-8 Licence Economie-Gestion première année Cours de Mathématiques II Chapitre Algèbre linéaire Table des matières Espaces vectoriels Espaces et sous-espaces

Plus en détail

TD3. Exercice 1 Un cas particulier du théorème de Cauchy-Lipschitz. f (s,y(s))ds.

TD3. Exercice 1 Un cas particulier du théorème de Cauchy-Lipschitz. f (s,y(s))ds. Analyse fonctionnelle A. Leclaire - L. Magnis ENS Cachan M1 Hadamard 2015-2016 TD3 Exercice 1 Un cas particulier du théorème de Cauchy-Lipschitz Soient I un intervalle de, E un espace de Banach et f :

Plus en détail

LICENCE DE MATHÉMATIQUES FONDAMENTALES. D. Azé

LICENCE DE MATHÉMATIQUES FONDAMENTALES. D. Azé LICENCE DE MATHÉMATIQUES FONDAMENTALES Calcul Différentiel et Équations Différentielles D. Azé Université Paul Sabatier Toulouse 2008 Table des matières 1 Généralités sur les espaces normés 3 1.1 Espaces

Plus en détail

LICENCE DE MATHÉMATIQUES PURES

LICENCE DE MATHÉMATIQUES PURES LICENCE DE MATHÉMATIQUES PURES Topologie Générale Philippe Charpentier Université Bordeaux I Année universitaire 2000-01 PHILIPPE CHARPENTIER UNIVERSITÉ BORDEAUX I LABORATOIRE DE MATHÉMATIQUES PURES 351,

Plus en détail

Rappels d Algèbre Linéaire de P.C.S.I

Rappels d Algèbre Linéaire de P.C.S.I Rappels d Algèbre Linéaire de PCSI Table des matières 1 Structure d espace vectoriel sur IK 3 11 Définition et règles de calcul 3 12 Exemples de référence 3 13 Espace vectoriel produit 4 14 Sous-espaces

Plus en détail

Planche n o 19. Applications linéaires continues, normes matricielles. Corrigé

Planche n o 19. Applications linéaires continues, normes matricielles. Corrigé Planche n o 19. Applications linéaires continues, normes matricielles. Corrigé n o 1 *I : 1 Soit P E. Si on pose P = + a k X k, il existe n N tel que k > n, a k =. Donc P = { k= P k } Sup k!, k N = Max{

Plus en détail

Support du cours de Probabilités et Statistiques. IUT d Orléans, Département Informatique

Support du cours de Probabilités et Statistiques. IUT d Orléans, Département Informatique Support du cours de Probabilités et Statistiques IUT d Orléans, Département informatique Pierre Andreoletti IUT d Orléans, Département Informatique Laboratoire MAPMO (Bât. de Mathématiques UFR Sciences)

Plus en détail

Statistiques - Notes de cours - M1. Elisabeth Gassiat

Statistiques - Notes de cours - M1. Elisabeth Gassiat Statistiques - Notes de cours - M1 Elisabeth Gassiat Table des matières 1 Introduction 5 1.1 Estimation et régions de confiance...................... 5 1.2 Tests.......................................

Plus en détail

et Transversalité par Pierre Vogel

et Transversalité par Pierre Vogel Université Paris 7 Denis Diderot Institut de Mathématiques de Jussieu Géométrie des Variétés et Transversalité par Pierre Vogel Introduction Ce cours est destiné à l étude des variétés différentiables

Plus en détail

Université Paris IX Dauphine UFR Mathématiques de la décision Notes de cours ALGEBRE 2. Guillaume CARLIER

Université Paris IX Dauphine UFR Mathématiques de la décision Notes de cours ALGEBRE 2. Guillaume CARLIER Université Paris IX Dauphine UFR Mathématiques de la décision Notes de cours ALGEBRE 2 Guillaume CARLIER L1, année 2006-2007 2 Ce support de cours est basé sur le poly de Tristan Tomala des années précédentes.

Plus en détail

Cours de Mathématiques. Travaux dirigés du cours. Intégrale de Lebesgue et Probabilités H. DOSS

Cours de Mathématiques. Travaux dirigés du cours. Intégrale de Lebesgue et Probabilités H. DOSS Université Paris Dauphine Département MIDO Cours de Mathématiques Travaux dirigés du cours Intégrale de Lebesgue et Probabilités H. DOSS Licence M D Table des matières Feuilles d exercices : n o 1 : variables

Plus en détail

Rapport de Recherche. 1 Estimation fonctionnelle en temps continu. 1.1 Vitesses de convergence pour l estimateur à noyau. (D. Blanke - Mars 2008)

Rapport de Recherche. 1 Estimation fonctionnelle en temps continu. 1.1 Vitesses de convergence pour l estimateur à noyau. (D. Blanke - Mars 2008) Rapport de Recherche (D. Blanke - Mars 2008) L essentiel de mes activités de recherche porte sur l estimation fonctionnelle ou paramétrique pour des processus. L ensemble de ces travaux peut se diviser

Plus en détail

Plan du cours. Espaces métriques. Espaces vectoriels normés

Plan du cours. Espaces métriques. Espaces vectoriels normés L3 Maths, 1 er semestre 20112012 Espaces métriques Plan du cours On suppose connues les propriétés élémentaires des nombres réels et des espaces vectoriels et, uniquement pour les exemples, quelques propriétés

Plus en détail

Université de Cergy-Pontoise 2008-2009 Calcul Diff S6 M. Topologie

Université de Cergy-Pontoise 2008-2009 Calcul Diff S6 M. Topologie Université de Cergy-Pontoise 2008-2009 Calcul Diff S6 M Topologie 1 Espaces métriques 1.1 Distance Dans toute cette partie E représente un ensemble qui n est pas forcément un espace vectoriel. Définition

Plus en détail

TD7. ENS Cachan M1 Hadamard 2015-2016. Exercice 1 Sous-espaces fermés de C ([0,1]) formé de fonctions régulières.

TD7. ENS Cachan M1 Hadamard 2015-2016. Exercice 1 Sous-espaces fermés de C ([0,1]) formé de fonctions régulières. Analyse fonctionnelle A. Leclaire ENS Cachan M Hadamard 25-26 TD7 Exercice Sous-espaces fermés de C ([,] formé de fonctions régulières. Soit F un sous-espace vectoriel fermé de C ([,] muni de la convergence

Plus en détail

202 - Exemples de parties denses et applications

202 - Exemples de parties denses et applications 202 - Exemples de parties denses et applications 1 Généralités et premiers exemples 1.1 Parties denses On xe un espace métrique (X, d). Dénition 1. Soit D X. On dit que D est dense dans X si D = X. Exemple.

Plus en détail

Le Déterminant. par Alain Prouté Université Denis Diderot Paris 7. 1 Permutations. 1. 2 Application transposée, base duale. 3. 3 Mesures de volume.

Le Déterminant. par Alain Prouté Université Denis Diderot Paris 7. 1 Permutations. 1. 2 Application transposée, base duale. 3. 3 Mesures de volume. Ce cours peut être librement copié et distribué. Il est recommandé d en télécharger la version la plus récente à partir de : http://www.math.jussieu.fr/~alp. Toute remarque, correction ou suggestion doit

Plus en détail

Calcul intégral et probabilités. Université de La Rochelle

Calcul intégral et probabilités. Université de La Rochelle Calcul intégral et probabilités Frédéric Testard Université de La ochelle Agrégation externe - Calcul intégral et probabilité On donne ci-dessous le planning de la partie de l enseignement de calcul intégral

Plus en détail

Avertissement! Dans tout ce chapître, C désigne une partie convexe de IR n, et f une fonction. 9.1 Fonctions affines, convexes, strictement convexes

Avertissement! Dans tout ce chapître, C désigne une partie convexe de IR n, et f une fonction. 9.1 Fonctions affines, convexes, strictement convexes Chp. 9. Convexité Avertissement! Dans tout ce chapître, C désigne une partie convexe de IR n, et f une fonction numérique partout définie sur C. 9.1 Fonctions affines, convexes, strictement convexes Définition

Plus en détail

Espérances et variances

Espérances et variances [http://mp.cpgedupuydelome.fr] édité le 29 décembre 201 Enoncés 1 Espérances et variances Exercice 1 [ 04018 ] [Correction] Soit X une variable aléatoire discrète à valeurs dans [a ; b]. a Montrer que

Plus en détail

1.1.1 Cas le plus général d espace topologique

1.1.1 Cas le plus général d espace topologique Chapitre 1 Topologie 1.1 Espaces topologiques 1.1.1 Cas le plus général d espace topologique Définition 1 (Topologie) Une topologie T sur l ensemble X est une partie T P (X) vérifiant : L ensemble vide

Plus en détail

Recueil d annales en Mathématiques. Terminale S Enseignement obligatoire. Intégrales

Recueil d annales en Mathématiques. Terminale S Enseignement obligatoire. Intégrales Recueil d annales en Mathématiques Terminale S Enseignement obligatoire Frédéric Demoulin Dernière révision : 3 juin 2 Document diffusé via le site www.bacamaths.net de Gilles Costantini 2. frederic.demoulin

Plus en détail

Série n 5 : Optimisation non linéaire

Série n 5 : Optimisation non linéaire Université Claude Bernard, Lyon I Licence Sciences & Technologies 43, boulevard 11 novembre 1918 Spécialité Mathématiques 69622 Villeurbanne cedex, France Option: M2AO 2007-2008 Série n 5 : Optimisation

Plus en détail

Mathieu Fauvel. 19 janvier 2007

Mathieu Fauvel. 19 janvier 2007 Méthodes à Noyaux pour L analyse de Données Mathieu Fauvel gipsa-lab 19 janvier 2007 Mathieu Fauvel (gipsa-lab) Méthodes à Noyaux 19 janvier 2007 1 / 39 Introduction 1 Présentation Générale Les Données

Plus en détail

Cours d Analyse Réelle 4M003

Cours d Analyse Réelle 4M003 Cours d Analyse Réelle 4M003 Jean SAINT RAYMOND Université Pierre et Marie Curie Avant-propos Ce texte a été rédigé pour servir de support écrit à un cours de Master 1 de l Université Pierre-et-Marie Curie.

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : économique et commerciale Option : Technologique (ECT) Discipline : Mathématiques- Informatique Seconde année Ministère de l enseignement

Plus en détail

MEÉF 1 - Mathématiques DS2-5 octobre 2015 Analyse - Géométrie

MEÉF 1 - Mathématiques DS2-5 octobre 2015 Analyse - Géométrie MEÉF - Mathématiques DS2-5 octobre 25 Analyse - Géométrie Eercice Soit E un K-espace vectoriel (K étant le corps R ou C). Deu normes N et N 2 sur E sont dites équivalentes s il eiste deu constantes réelles

Plus en détail

[http://mp.cpgedupuydelome.fr] édité le 29 décembre 2015 Enoncés 1. b) Soit (u n ) n N une suite d éléments de [0 ; 1]. Montrer

[http://mp.cpgedupuydelome.fr] édité le 29 décembre 2015 Enoncés 1. b) Soit (u n ) n N une suite d éléments de [0 ; 1]. Montrer [http://mp.cpgedupuydelome.fr] édité le 9 décembre 05 Enoncés Familles sommables Ensemble dénombrable a) Calculer n+ Exercice [ 03897 ] [Correction] Soit f : R R croissante. Montrer que l ensemble des

Plus en détail

2 Ensembles convexes. 2.1 Définition et premières propriétés

2 Ensembles convexes. 2.1 Définition et premières propriétés 2 Ensembles convexes Les chapitres 2 et 3 présentent les éléments d analyse convexe qui nous seront utiles pour étudier les problèmes d optimisation et les algorithmes qui les résolvent. Le chapitre 2

Plus en détail

1.1. Le moment cinétique en mécanique classique

1.1. Le moment cinétique en mécanique classique c M Dunseath-Terao - Master 1 de Physique UR1 2006 2007 1 Complément 1 Le moment cinétique 1.1. Le moment cinétique en mécanique classique L équation du mouvement d un corps en rotation en mécanique classique

Plus en détail

COURS OPTIMISATION. Cours en Master M1 SITN. Ionel Sorin CIUPERCA

COURS OPTIMISATION. Cours en Master M1 SITN. Ionel Sorin CIUPERCA COURS OPTIMISATION Cours en Master M1 SITN Ionel Sorin CIUPERCA 1 Table des matières 1 Introduction 4 2 Quelques rappels de calcul différentiel, analyse convexe et extremum 5 2.1 Rappel calcul différentiel............................

Plus en détail

Exercice 1. [Échauffement sur quelques inclusions] 2. Soient p, q [1, ]. Quelle inclusion y a-t-il entre L p et L q? Cette inclusion est-elle

Exercice 1. [Échauffement sur quelques inclusions] 2. Soient p, q [1, ]. Quelle inclusion y a-t-il entre L p et L q? Cette inclusion est-elle ENS de Lyon TD 1 21/09/2015 M1 - Analyse Avancée Exercice 1. [Échauffement sur quelques inclusions] 1. Soient p, q [1, ]. Quelle inclusion y a-t-il entre l p et l q? Cette inclusion est-elle continue?

Plus en détail

en dimension finie Table des matières

en dimension finie Table des matières Maths PCSI Cours Algèbre linéaire en dimension finie Table des matières 1 Rappels d algèbre linéaire 2 1.1 Applications linéaires......................................... 2 1.2 Familles libres, génératrices

Plus en détail

Réduction des endomorphismes et des matrices carrées

Réduction des endomorphismes et des matrices carrées 48 Chapitre 4 Réduction des endomorphismes et des matrices carrées La motivation de ce chapitre est la suivante. Étant donné un endomorphisme f d un espace E de dimension finie, déterminé par sa matrice

Plus en détail

Exo7. Espaces vectoriels. 1 Définition, sous-espaces. Fiche amendée par David Chataur et Arnaud Bodin.

Exo7. Espaces vectoriels. 1 Définition, sous-espaces. Fiche amendée par David Chataur et Arnaud Bodin. Exo7 Espaces vectoriels Fiche amendée par David Chataur et Arnaud Bodin. Définition, sous-espaces Exercice Montrer que les ensembles ci-dessous sont des espaces vectoriels (sur R) : E = { f : [,] R } :

Plus en détail

Mathématiques des modèles multi-échelles. Frédéric Legoll et Mathieu Lewin

Mathématiques des modèles multi-échelles. Frédéric Legoll et Mathieu Lewin Mathématiques des modèles multi-échelles Frédéric Legoll et Mathieu Lewin Mars 213 Table des matières Introduction v 1 Rappels et compléments d analyse 1 1.1 Applications linéaires...........................

Plus en détail

Algèbre linéaire avancée I Jeudi 8 Octobre 2015 Prof. A. Abdulle J =

Algèbre linéaire avancée I Jeudi 8 Octobre 2015 Prof. A. Abdulle J = Algèbre linéaire avancée I Jeudi 8 Octobre 205 Prof. A. Abdulle EPFL Série 4 (Corrigé) Exercice Soit J M 2n 2n (R) la matrice définie par J 0 In, I n 0 où I n est la matrice identité de M n n (R) et 0

Plus en détail

Probabilités. I- Expérience aléatoire, espace probabilisé : ShotGun. 1- Définitions :

Probabilités. I- Expérience aléatoire, espace probabilisé : ShotGun. 1- Définitions : Probabilités I- Expérience aléatoire, espace probabilisé : 1- Définitions : Ω : Ensemble dont les points w sont les résultats possibles de l expérience Des évènements A parties de Ω appartiennent à A une

Plus en détail

Courbes elliptiques, fonctions L et conjecture de Zagier

Courbes elliptiques, fonctions L et conjecture de Zagier Courbes elliptiques, fonctions L et conjecture de Zagier François Brunault Exposé au séminaire de mathématiques pures, Université de Clermont-Ferrand, mardi 15 novembre 25 Les courbes elliptiques sont

Plus en détail

Mathématique - Cours

Mathématique - Cours Mathématique - Cours Filière STAV 2014-2015 Centre de Formation aux Métier de la Montagne Marine Estorge Le programme se compose ainsi : partie seconde partie 1/3 partie 2/3 partie 3/3 Sommaire 1 Ensemble

Plus en détail

Laurent Garcin MPSI Lycée Jean-Baptiste Corot. (a, b) + (c, d) = (a + c, b + d) (a, b) (c, d) = (ac bd, ad + bc) (a, 0) (b, 0) = (ab, 0)

Laurent Garcin MPSI Lycée Jean-Baptiste Corot. (a, b) + (c, d) = (a + c, b + d) (a, b) (c, d) = (ac bd, ad + bc) (a, 0) (b, 0) = (ab, 0) NOMBRES COMPLEXES 1 Corps C des nombres complexes 1.1 Construction de C Construction de C On munit R de deux lois internes + et de la manière suivante. Pour (a, b, c, d) R 4, on pose (a, b) + (c, d) =

Plus en détail

EMLYON 2015 S. Éléments de correction

EMLYON 2015 S. Éléments de correction EMLYON 15 S Éléments de correction ECS Lycée La ruyère, Versailles Année 1/15 Premier problème Première partie 1. On peut vérifier le critère de sous-espace vectoriel E et, pour P 1, P E et λ R, λp 1 +

Plus en détail

Le théorème du point xe. Applications

Le théorème du point xe. Applications 49 Le théorème du point xe. Applications 1 Comme dans le titre de cette leçon, le mot théorème est au singulier, on va s'occuper du théorème du point xe de Picard qui a de nombreuses applications. Le cas

Plus en détail

Définitions Covariance Corrélation Meilleur prédicteur linéaire. Chapitre 5 Couple de variables aléatoires

Définitions Covariance Corrélation Meilleur prédicteur linéaire. Chapitre 5 Couple de variables aléatoires Chapitre 5 Couple de variables aléatoires Définitions 1 On appelle couple de variables aléatoires (discrètes) l application: Ω R ω (X (ω), Y (ω)) 2 La distribution d un couple de v.a. est définie par les

Plus en détail

2010/2011. Espaces vectoriels

2010/2011. Espaces vectoriels Université Paris-Est Marne-la-Vallée 010/011 M1 enseignement CD/Préparation au CAPES Espaces vectoriels Dans toute la suite on considèrera des espaces vectoriels sur un corps commutatif K de caractéristique

Plus en détail

Théorème de Rolle et égalité des accroissements finis. Applications

Théorème de Rolle et égalité des accroissements finis. Applications 0 Théorème de Rolle et égalité des accroissements finis. Applications 0. Le théorème de Rolle sur un espace vectoriel normé Pour ce paragraphe, on se donne un espace vectoriel normé (E, ). Le théorème

Plus en détail

Cours Statistiques L2 Université Nice Sophia-Antipolis. François Delarue

Cours Statistiques L2 Université Nice Sophia-Antipolis. François Delarue Cours Statistiques L2 Université Nice Sophia-Antipolis François Delarue Table des matières Chapitre 1. Rappels de Probabilités 5 1. Espaces de probabilité et Variables aléatoires 5 2. Espérances et variances

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

concours externe de recrutement de professeurs certifiés et concours d accès à des listes d aptitude (CAFEP)

concours externe de recrutement de professeurs certifiés et concours d accès à des listes d aptitude (CAFEP) SESSION DE 2005 concours externe de recrutement de professeurs certifiés et concours d accès à des listes d aptitude (CAFEP) section : mathématiques deuxième composition de mathématiques (épreuve de remplacement)

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Espaces euclidiens. 1 Produit scalaire 2 1.1 Définition... 2 1.2 Exemples fondamentaux... 2 1.3 Cauchy-Schwarz... 3 1.4 Norme associée...

Espaces euclidiens. 1 Produit scalaire 2 1.1 Définition... 2 1.2 Exemples fondamentaux... 2 1.3 Cauchy-Schwarz... 3 1.4 Norme associée... Maths PCSI Cours Table des matières Espaces euclidiens 1 Produit scalaire 2 1.1 Définition...................................... 2 1.2 Exemples fondamentaux.............................. 2 1.3 Cauchy-Schwarz..................................

Plus en détail

Cours de mathématiques

Cours de mathématiques Cours de mathématiques Ó Ø Ó Ö ¾¼½ PSI Aurélien Monteillet ii Ce document contient les notes d un cours de mathématiques pour la classe de PSI. Les démonstrations non exigibles ou hors programme sont explicitement

Plus en détail

Chapitre 2. Applications mesurables. 2.1 Topologie et tribus boréliennes de R et R +

Chapitre 2. Applications mesurables. 2.1 Topologie et tribus boréliennes de R et R + Chapitre 2 Applications mesurables 2.1 Topologie et tribus boréliennes de R et R + Dans la théorie de l intégration de Lebesgue, il est très commode de travailler avec des fonctions à valeurs dans la droite

Plus en détail

Algèbre linéaire 3 : produits scalaires, espaces euclidiens, formes quadratiques.

Algèbre linéaire 3 : produits scalaires, espaces euclidiens, formes quadratiques. Université Paris-Dauphine DU MI2E, 2ème année Algèbre linéaire 3 : produits scalaires, espaces euclidiens, formes quadratiques. Cours 2010/2011 Olivier Glass Le polycopié qui suit peut avoir des différences

Plus en détail

1. a) question de cours b) P(f) est un polynôme de l endomorphisme f donc commute avec f.

1. a) question de cours b) P(f) est un polynôme de l endomorphisme f donc commute avec f. escp-eap 2(Ecole de commerce) OPTION SCIENTIFIQUEMATHEMATIQUES I adapté en retirant certaines question qui sont du cours de PC et en ajoutant le dernier exemple.. a) question de cours b) P(f) est un polynôme

Plus en détail

Analyse fonctionnelle

Analyse fonctionnelle Analyse fonctionnelle Pierron Théo ENS Ker Lann 2 Table des matières 1 Espaces vectoriels normés 1 1.1 Rappels.............................. 1 1.2 Fonctions continues sur un compact............... 3 1.3

Plus en détail

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n = 2

Corrigé Problème. Partie I. I-A : Le sens direct et le cas n = 2 33 Corrigé Corrigé Problème Théorème de Motzkin-Taussky Partie I I-A : Le sens direct et le cas n = 2 1-a Stabilité des sous-espaces propres Soit λ une valeur propre de v et E λ (v) le sous-espace propre

Plus en détail

Espaces affines. 2 Applications affines 7. 2.2 Projections et symétries affines ; affinités... 8 2.3 Alignement et parallélisme...

Espaces affines. 2 Applications affines 7. 2.2 Projections et symétries affines ; affinités... 8 2.3 Alignement et parallélisme... Maths PCSI Cours Espaces affines Table des matières 1 Espaces et sous-espaces affines 2 1.1 Espaces affines et translations.................................... 2 1.2 Exemples d espaces affines......................................

Plus en détail

EXERCICE 1. Corrigé ECRICOME Eco 2012 par Pierre Veuillez

EXERCICE 1. Corrigé ECRICOME Eco 2012 par Pierre Veuillez Corrigé ECRICOME Eco par Pierre Veuillez EXERCICE (M 3 (R), +,.) désigne l espace vectoriel des matrices carrées d ordre 3 à coeffi cients réels. Deux matrices A et B de M 3 (R) étant données, on suppose

Plus en détail

Baccalauréat Série S Métropole, juin 2014

Baccalauréat Série S Métropole, juin 2014 Baccalauréat Série S Métropole, juin 4 Sujet et Corrigé Stéphane PASQUET Disponible sur http://www.mathweb.fr juin 4 Exercice (5 points) - Commun à tous les candidats Partie A Dans le plan muni d un repère

Plus en détail

208 - Espaces vectoriels normés, applications linéaires continues. Exemples

208 - Espaces vectoriels normés, applications linéaires continues. Exemples 208 - Espaces vectoriels normés, applications linéaires continues. Exemples On se xe un corps K = R ou C. Tous les espaces vectoriels considérés auront K comme corps de base. 1 Généralités Remarque. Tout

Plus en détail

ÉTUDE MATHÉMATIQUE DES PROBLÈMES ELLIPTIQUES

ÉTUDE MATHÉMATIQUE DES PROBLÈMES ELLIPTIQUES Chapitre 5 ÉTUDE MATHÉMATIQUE DES PROBLÈMES ELLIPTIQUES Exercice 5.2.1 A l aide de l approche variationnelle démontrer l existence et l unicité de la solution de { u + u = f dans (5.1) u = 0 sur où est

Plus en détail

Quelques éléments d algèbre pour l analyse de

Quelques éléments d algèbre pour l analyse de Fiche TD avec le logiciel : tdr80 Quelques éléments d algèbre pour l analyse de données A.B. Dufour, D. Chessel et M. Royer L algèbre matricielle est fondamentale dans la compréhension de la théorie liée

Plus en détail

Cours d analyse 1ère année. Rhodes Rémi

Cours d analyse 1ère année. Rhodes Rémi Cours d analyse 1ère année Rhodes Rémi 10 décembre 2008 2 Table des matières 1 Propriétés des nombres réels 5 1.1 Sous-ensembles remarquables de R........................ 5 1.2 Relations d ordre..................................

Plus en détail

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq»

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Guy Perrière Pôle Rhône-Alpes de Bioinformatique 14 novembre 2012 Guy Perrière (PRABI) Tests statistiques 14 novembre 2012 1 / 40 Plan

Plus en détail

Exercices de Khôlles de Mathématiques, premier trimestre

Exercices de Khôlles de Mathématiques, premier trimestre Exercices de Khôlles de Mathématiques, premier trimestre Lycée Louis le Grand, Paris, France Igor Kortchemski MP*2-2006/2007 Table des matières 1 Semaine 1 - Équivalents, développements asymptotiques,

Plus en détail

Formellement, un processus aléatoire est une succession de variables aléatoires (X n ) n 0

Formellement, un processus aléatoire est une succession de variables aléatoires (X n ) n 0 Chapitre 1 Modélisation markovienne 11 Introduction Un processus aléatoire est un phénomène dont une partie de l évolution temporelle est aléatoire On rencontre ces processus dans divers domaines de la

Plus en détail

Épreuve de Mathématiques 8

Épreuve de Mathématiques 8 Lycée La Prat s Vendredi 10 avril 2015 Classe de PT Épreuve de Mathématiques 8 Durée 4 h L usage des calculatrices est interdit. La présentation, la lisibilité, l orthographe, la qualité de la rédaction

Plus en détail

Indication Prendre une combinaison linéaire nulle et l évaluer par ϕ n 1.

Indication Prendre une combinaison linéaire nulle et l évaluer par ϕ n 1. 1 Définition Exercice 1 Déterminer si les applications f i suivantes (de E i dans F i ) sont linéaires : f 1 : (x, y) R 2 (2x + y, x y) R 2, f 2 : (x, y, z) R 3 (xy, x, y) R 3 f 3 : (x, y, z) R 3 (2x +

Plus en détail

COURS DE LICENCE 2 SCIENCES ECONOMIQUES COURS D ANNIE CLARET

COURS DE LICENCE 2 SCIENCES ECONOMIQUES COURS D ANNIE CLARET COURS DE LICENCE 2 SCIENCES ECONOMIQUES COURS D ANNIE CLARET MATHEMATIQUES 3 PRISE DE NOTE PAR : PLASMAN SYLVAIN SERIE 7 ANNEE 2010-2011 1 Sommaire et accès aux chapitres/sous-chapitres Cliquez sur le

Plus en détail

Les matrices. 1 Définitions. 1.1 Matrice

Les matrices. 1 Définitions. 1.1 Matrice Les matrices 2012-2013 1 Définitions 11 Matrice Définition 1 Une matrice m n est un tableau de nombres à m lignes et n colonnes Les nombres qui composent la matrice sont appelés les éléments de la matrice

Plus en détail

Mesures et analyses statistiques de données - Probabilités. Novembre 2012 - Contrôle Continu, Semestre 1 CORRECTION

Mesures et analyses statistiques de données - Probabilités. Novembre 2012 - Contrôle Continu, Semestre 1 CORRECTION MASTER 1 GSI- Mentions ACCIE et RIM La Citadelle - ULCO Mesures et analyses statistiques de données - Probabilités Novembre 2012 - Contrôle Continu, Semestre 1 CORRECTION Exercice 1 Partie I 12pts 1 Étude

Plus en détail

Mathématiques pour la Mécanique

Mathématiques pour la Mécanique Daniel Choï 1 LMNO Groupe Mécanique Modélisation Mathématique et Numérique Université de Caen, Bld Maréchal Juin, 14032 Caen Cedex, France Version Novembre 2008 1 choi@meca.unicaen.fr Avertissement Ce

Plus en détail