Espérances conditionnelles et martingales
|
|
- Jean-Charles Auger
- il y a 6 ans
- Total affichages :
Transcription
1 Université d Artois Faculté des Sciences Jean Perrin Probabilités (Master 1 Mathématiques-Informatique) Daniel Li Chapitre 4 Espérances conditionnelles et martingales 1 Espérances conditionnelles Cette notion sert à modéliser la réponse à la question suivante : si X est une v.a.r. liée à une certaine expérience, que sait-on d elle si l on n a pas toute l information (donnée par la tribu A des événements, mais seulement une information partielle (donnée par une sous-tribu? 1.1 Définition Soit (, A, P ) un espace de probabilité, et soit une sous-tribu de A ; on veut définir, à partir d une variable aléatoire réelle X L 1 (, A, P ), une autre v.a.r., qui va oublier tout se qui se passe en dehors de. Notons P la restriction à la sous-tribu de la probabilité P, et considérons l espace L 1 (,, P ). Pour tout, on pose : ν X () = E (X1I ) = X dp. (1.1) On obtient une mesure (réelle) sur (, ), qui est visiblement absolument continue par rapport à P : P () = P () = 0 = ν X () = 0. Le Théorème de Radon-Nikodym assure donc l existence d une variable aléatoire -mesurable unique Y X L 1 (,, P ) telle que ν X = Y X.P. On dit que Y X est l espérance conditionnelle de X par rapport à. Dans toute la suite, on écrira simplement P au lieu de P ; on a donc : 1
2 Définition 1.1 Soit (, A, P ) un espace de probabilité, et soit une soustribu de A. Pour toute v.a.r. X L 1 (, A, P ), on appelle espérance conditionnelle de X par rapport à, ou sachant, l unique v.a.r., notée E (X), qui est -mesurable et qui vérifie : E (X) dp = X dp,. Ecrit autrement : E [ E (X)1I ] = E (X1I ). On note aussi l espérance conditionnelle E (X ). Il résulte de la définition, en prenant = que l on a : Proposition 1.2 Pour toute v.a.r. intégrable X, on a E [ E (X) ] = E (X). 1.2 Exemples. a) Si = A, il est clair que E A (X) = X. Cela s interprète en disant que, puisque l on a toute l information, on sait tout sur X. Plus généralement, si X est -mesurable, on a : E (X) = X. b) Si = {, } est la tribu grossière, alors les seules v.a.r. qui sont {, }- mesurables sont les constantes. De par l égalité E [ E (X) ] = E (X), cette constante ne peut être que E (X) ; donc E {,} (X) = E (X)1I. Cela s interprète en disant que, puisque l on ne dispose d aucune information, tout ce que l on peut savoir sur X est sa valeur moyenne. c) Si est la tribu engendrée par une partition ( n ) n 1 (finie ou infinie) de, formée de parties A -mesurables deux-à-deux disjointes et telles que P ( n ) 0, comme les v.a.r. -mesurables sont celles qui sont constantes sur chaque n, on a, si a n désigne cette constante : E (X) = n 1 a n 1I n ; d où : Donc : X dp = n E (X), dp = n a n dp = a n P ( n ). n E (X) = n ( 1 ) X dp 1I n ; P ( n ) n 2
3 ainsi, sur chaque n, X n est connu que par sa moyenne sur n. En particulier, si = {,, c, }, pour un A tel que 0 < P () < 1, alors : E (1I A ) = 1 P () P (A )1I + 1 P ( c ) P (A c )1I c = P (A )1I + P (A c )1I c, où P (A ) est la probabilité conditionnelle de A sachant. 1.3 Propriétés Proposition 1.3 Soit X L 1 (, A, P ). Pour toute v.a.r. Z -mesurable et bornée (Z L (,, P )), on a : E (ZX) = Z E (X) (propriété d idéal). Corollaire 1.4 Pour toute X L 1 (, A, P ) et toute Z L (,, P ), on a : Z E (X) dp = ZX dp. En effet, ce n est autre que l égalité E [ E (ZX) ] = E (ZX). Preuve de la Proposition 1.3. a) Il suffit en fait de montrer l égalité du Corollaire 1.4, car, en remplaçant dedans Z par Z1I, avec, qui est encore -mesurable, on aura : ZX dp = Z E (X) dp ; mais comme Z E (X) est -mesurable, la définition (et l unicité) de E (ZX) donne bien : E (ZX) = Z E (X). b) Or l égalité : ZX dp = Z E (X) dp est valable, par définition, pour les Z = 1I, avec ; elle est donc aussi valable pour les v.a.r. étagées -mesurables. Par convergence dominée, puisque X L 1 (, A, P ), elle est ensuite valable pour toutes les Z -mesurables bornées. 3
4 Proposition 1.5 L espérence conditionnelle : E : L 1 (, A, P ) L 1 (,, P ) est une application linéaire, continue, de norme 1, positive, et idempotente (projecteur). Remarque. L utilisation du terme idempotent laisse sous-entendre que l espace L 1 (,, P ) est contenu dans L 1 (, A, P ) ; ce n est en fait pas le cas. En effet, il y a là une petite difficulté. Rappelons éléments de L 1 (, A, P ) ne sont pas réellement des fonctions, mais des classes de fonctions (modulo l égalité presque sûre), même si d habitude on ne fait pas de distinction entre la fonction et sa classe d équivalence. Maintenant, si X est une variable aléatoire -mesurable et si X est une variable aléatoire (A -mesurable), qui est presque sûrement égale à X : P (X X) = 0, alors il n y a aucune raison que X soit elle aussi -mesurable (sauf si la tribu est P -complète). En notant P la restriction à de la probabilité P (définie sur A ), on doit donc distinguer : a) la classe d équivalence P -p.s. sur (, A, P ) de X et : b) sa classe d équivalence P -p.s. sur (,, P ), la première étant en général strictement plus grande que la seconde. En d autres termes, bien que, pour les espaces de fonctions, on ait : L r (,, P ) L r (, A, P ), pour 1 r +, par contre l espace des classes de fonctions -mesurables L r (,, P ) n est pas contenu dans l espace des classes de fonctions A - mesurables L r (, A, P ). Néanmoins, l application qui à la P -classe de X fait correspondre sa P - classe est injective, et définit une isométrie : J : L r (,, P ) L r (, A, P ). Par cette isométrie, on peut donc identifier isométriquement L r (,, P ) à un sous-espace (fermé) de L r (, A, P ), ce que l on fera toujours par la suite. Preuve de la Proposition 1.5. a) La linéarité est facile, par unicité. b) Montrons que X 0 E (X) 0. En effet, si X 0, la mesure ν X définie en 1.1 est positive ; donc E (X) 0, puisque ν X = E (X).P c) On a alors : E (X) E ( X ), car X ± X 0. Donc, puisque E [ E ( X ) ] = E ( X ) = X 1, on obtient : E (X) 1 X 1. 4
5 d) Mais E (1I) = 1I et donc la norme est exactement 1. e) Pour finir : E [ E (X) ] = E (X) car E (X) L 1 () L 1 (A ) et que E (X) est -mesurable. Proposition 1.6 1) Pour 1 r : X L r (, A, P ) E (X) L r (,, P ). 2) Pour r = 2, E est la projection orthogonale de L 2 (, A, P ) sur L 2 (,, P ). On utilisera le lemme suivant. Lemme 1.7 Si X L r (, A, P ), avec 1 r < +, alors : E (X) r E ( X r ). Preuve de la Proposition ) Pour 1 r <, cela résulte du lemme. Pour r = : X X 1I E (X) E ( X ) E ( X 1I) = X. 2) Pour r = 2, on doit vérifier que X E (X) Z pour toute Z L 2 (,, P ). Mais : [ X E (X) ] Z dp = XZ dp E (X)Z dp = 0 pour toute Z L (,, P ), donc pour toute Z L 2 (,, P ) par densité. Remarque. Certains auteurs définissent directement, pour X L 2 (, A, P ), l espérance conditionnelle de X sachant comme la projection orthogonale de X sur L 2 (,, P ), puis prolongent l application E à L 1 (, A, P ), par densité. C est plus élémentaire, mais cela fait complètement perdre de vue le sens réel de l espérance conditionnelle. Preuve du Lemme 1.7. On peut supposer r > 1. Pour toute Z L (,, P ) et tout, on a : Z1I E (X) dp = E (Z1I X) dp E ( Z1I X ) dp = Z1I X dp Z s 1I X r < +, avec 1 r + 1 s = 1. Comme L (,, P ) est dense dans L s (,, P ), cela signifie que : Z Z1I E (X) dp 5
6 est une forme linéaire continue sur L s (,, P ), de norme 1I X r. Donc 1I E (X) L r (,, P ), et : cela s écrit aussi : E (X) r dp 1I E (X) r 1I X r ; X r dp = Mais, puisque c est vrai pour tout, cela entraîne : E ( X r ) dp. E (X) r E ( X r ). Voyons maintenant une propriété d emboîtement, que l on a déjà vue dans le cas particulier de 2 = {, } ; elle s écrit alors E [ E 1 (X) ] = E (X)1I. Proposition 1.8 (transitivité) Si 2 1 A, on a : E 2 [ E 1 (X) ] = E 2 (X). Preuve. Si 2 : E 2[ E 1 (X) ] dp = mais comme on a aussi 1 : E 1 (X) dp = E 1 (X) dp ; X dp. 1.4 Cas d une tribu engendrée par une variable aléatoire Si = Y est la tribu engendrée par une v.a. Y, on notera : E (X Y ) au lieu de E Y (X) = E (X Y ). On dit que c est l espérance conditionnelle de X sachant Y. Rappelons que l on a : Y = {Y 1 (D) ; D or(r d )}. Rappelons aussi que toute v.a. Y -mesurable s écrit comme la composée de Y et d une fonction borélienne sur R d. Donc : Proposition 1.9 Pour toute v.a.r. X L 1 (, A, P ) et toute v.a. Y, il existe une fonction borélienne h: R d R, P Y -intégrable, telle que : E (X Y ) = h(y ). 6
7 Par définition, pour tout borélien D or(r d ), on a donc : X dp = E (X Y ) dp = h(y ) dp, ce qui s écrit : Y 1 (D) Y D Y 1 (D) X dp = D Y 1 (D) h(y) dp Y (y), D or(r d ). (1.2) 1.5 Exemples de calcul d espérances conditionnelles par rapport à une v.a.r Cas où Y est une v.a.r. discrète On a : P Y = n 1 a n δ xn, avec a n 0, la somme étant finie ou infinie. Puisque P (Y D) = 0 si D {x n ; n 1} =, la formule (1.2) ci-dessus montre que l on peut prendre h(y) = 0 si y / {x n ; n 1}, et : h(x n ) = 1 a n {Y =x n} X dp = On obtient : E (X Y ) = ( 1 P (Y = x n ) n 1 1 P (Y = x n ) {Y =x n} {Y =x n} X dp. ) X dp 1I {Y =xn}, ce que l on savait déjà, puisque Y par les {Y = x n }, n 1. est engendrée par la partition de formée Cas de variables à densité Supposons que le couple (X, Y ) possède une densité f (X,Y ) sur R d+1. La loi P Y de Y a alors une densité (densité marginale), donnée par : f Y (y) = f (X,Y ) (x, y) dx. R Comme f Y L 1 (R d ), f Y est finie λ d -presque partout ; par conséquent, Y est presque sûrement à valeurs dans : Pour y Q, on peut poser : Q = {y R d ; 0 < f Y (y) < + }. f X (x y) = f (X,Y )(x, y) f Y (y) 7
8 La fonction : f X (. y): x f X (x y) est une densité de probabilité sur R : on a f X (x y) 0, et : f X (x y) dx = 1 f (X,Y ) (x, y) dx = 1. f Y (y) R Définition 1.10 On dit que f X (. y) est la densité conditionnelle de X sachant Y = y. Il faut faire attention que Y = y n est qu une notation ; en effet, P (Y = y) = 0 pour tout y R d puisque Y possède une densité. On note parfois aussi : f X (x y) = f X (x Y = y) R et : f X (x y) dx = P (x Y = y). Proposition 1.11 Si le vecteur aléatoire (X, Y ) a une densité sur R d+1, alors pour toute g L 1 (R, P X ), on a : avec, pour tout pour y Q : h(y) = Preuve. Nous avons vu que : avec : D R E ( g(x) Y ) = h(y ), g(x)f X (x y) dx = 1 g(x)f (X,Y ) (x, y) dx. f Y (y) R h(y) dp Y (y) = E ( g(x) Y ) = h(y ), Y D g(x) dp, D or(r d ). Comme P Y (Q) = 1, on peut poser f X (x y) = 0 pour y R d \ Q. On a alors, 8
9 par le Théorème de Fubini : [ ] [ ] g(x)f X (x y) dx dp Y (y) = g(x)f X (x y) dx f Y (y) dy D R D R = g(x)f X (x y)f Y (y) dxdy R D = g(x)f (X,Y ) (x, y) dxdy R D = g(x) dp (X,Y ) (x, y) R D = g(x)1i D (y) dp (X,Y ) (x, y) R d+1 = g(x)1i D (Y ) dp = g(x) dp Y D Cas gaussien Nous allons voir qu alors E (X Y ) est une fonction affine de Y, et pas seulement une fonction borélienne. Théorème 1.12 Si (X, Y ): R n+1 est un vecteur gaussien, avec Y = (Y 1,..., Y n ), alors E (X Y ) est une v.a.r. gaussienne et il existe des nombres a 1,..., a n, b R tels que : E (X Y ) = a 1 Y a n Y n + b. On utilisera le lemme suivant, qui a d ailleurs son intérêt propre. Lemme 1.13 Les tribus 1 et 2 sont indépendantes si et seulement si : E 2 (U) = E (U)1I pour toute v.a.r. U 1 -mesurable. Preuve. S il y a indépendance, on a, pour tout 2 : U dp = E (1I U) = E (1I )E (U) = E (U)1I dp, d où E 2 (U) = E (U)1I. Inversement, si 1 1 et 2 2 : P ( 1 2 ) = 1I 1 dp = E 2 (1I 1 ) dp 2 2 = E (1I 1 ) 1I dp = P ( 1 ) P ( 2 ), 2 9
10 d où l indépendance de 1 et 2, et donc de 1 et 2. Preuve du théorème. Supposons d abord E (X) = E (Y ) = 0. Soit G l espace vectoriel engendré par Y 1,..., Y n. C est un sous-espace (de dimension finie) de L 2 (, A, P ). De plus, comme le vecteur Y = (Y 1,..., Y n ) est gaussien, G est entièment composé de gaussiennes (c est un espace gaussien). Rappelons que, puisque l on est dans L 2 (, A, P ), l espérance conditionnelle est la projection orthogonale de L 2 (, A, P ) sur L 2 (, Y, P ). Remarquons par ailleurs que G L 2 (, Y, P ). Soit P (X) la projection orthogonale de X sur G. On a P (X) = a 1 Y a n Y n pour des nombres réels a 1,..., a n R. Posons Z = X P (X). Le vecteur (Z, Y ) est gaussien, comme image linéaire de (X, Y ), et E (ZY k ) = 0 pour tout k = 1,..., n, car Z est orthogonal à G ; mais si les composantes d un vecteur gaussien sont non corrélées, elles sont indépendantes. Donc Z est indépendant de Y 1,..., Y n. Alors, par le lemme, E (Z Y ) = E (Z) 1I = 0, car E (Z) = a 1 E (Y 1 ) + + a n E (Y n ) = 0, ce qui donne E ( X Y ) = P (X), car E ( P (X) Y ) = P (X) puisque P (X) G L 2 (, Y, P ). On peut donc bien écrire E (X Y ) = a 1 Y a n Y n. Lorsque X et Y ne sont plus centrés, il suffit de poser X = X E (X) et Y = Y E (Y ) ; comme Y = Y, on a : E (X Y ) = E (X + E (X) Y ) = E (X Y ) + E (X) n n = a k Y k + E (X) = a k (Y k E (Y k )) + E (X) = k=1 k=1 n ( n ) a k Y k + a k E (Y k ) + E (X). k=1 k=1 Calcul pratique. Pour calculer les coefficients a 1,..., a n, b, on part de : E (X Y ) = a 1 Y a n Y n + b. En prenant l espérance, on obtient, puisque E [E (X Y )] = E (X) : E (X) = a 1 E (Y 1 ) + + a n E (Y n ) + b. De même, si on multiplie par Y k, en utilisant E (X Y )Y k = E (XY k Y ), on obtient : n E (XY k ) = a j E (Y j Y k ) + be (Y k ). j=1 Il ne reste plus qu à résoudre ce système linéaire de n + 1 équations à n + 1 inconnues. Il n y a évidemment pas unicité si Y 1,..., Y n ne sont pas linéairement indépendants. 10
11 2 Martingales Nous n en dirons que quelques mots d introduction. C est une partie importante des Probabilités. Jusqu à présent, nous n avons parlé que de Probabilités statiques, au sens où l on ne s intéressait qu à une seule tribu d événements (ou à deux dans le cas des espérances conditionnelles). Les martingales vont faire intervenir une notion d évolution avec le temps : au fur et à mesure que le temps passe, le nombre d informations que l on connaît augmente ; autrement dit, on doit tenir compte de plus en plus d événements, et l on est amené à considérer des familles croissantes de sous-tribus d événements ; pour mesurer une expérience, on aura donc,à chaque instant, une variable aléatoire pour laquelle l information que l on a sur elle dans le passé, c est-à-dire son espérance conditionnelle par rapport à la tribu correspondante, est la variable aléatoire connue à cet instant passé. Nous ne parlerons par ailleurs que des martingales à temps discret, c està-dire celle indexées par les entiers. Cela revient à regarder ce qui se passe à intervalles réguliers. Si l on veut savoir se qui se passe à tout moment, on utilisera des martingales à temps continu, indexées par R +, par exemple. Définition 2.1 On appelle filtration toute suite croissante : de sous-tribus de A. 1 2 n A Définition 2.2 On appelle martingale par rapport à, ou adaptée à, la filtration ( n ) n 1, toute suite de v.a.r. M n L 1 (, A, P ), n 1, telle que, pour tout n 1 : 1) M n est n -mesurable ; 2) E n (M n+1 ) = M n. Voici deux exemples particulièrement importants. Exemple 1. Soit M L 1 (, A, P ). Si l on pose M n = E n (M), alors (M n ) n 1 est une martingale par rapport à la filtration ( n ) n 1, par la propriété de transitivité des espérances conditionnelles. On dit qu une martingale (M n ) n 1 est terminée s il existe M L 1 (, A, P ) telle que M n = E n (M) pour tout n 1. Exemple 2. Soit (X n ) n 1 une suite de v.a.r. indépendantes et centrées. Si l on pose : S n = X X n, alors (S n ) n 1 est une martingale, adaptée à la filtration donnée par n = σ(x 1,..., X n ). 11
12 On complète habituellement la filtration en introduisant 0 = {, }. Alors, si l on pose M 0 = 0, on définit les accroissements de la martingale, que l on appelle aussi les différences de la martingale, par : On a : d n = M n M n 1 n 1. M n = d d n. Ainsi on a une situation semblable à celle de l Exemple 2, sauf que les différences d n, n 1, ne sont plus indépendantes (en général). Néanmoins, on garde une version très affaiblie d indépendance. En effet, dire que la suite (X n ) n 1 est indépendante, peut s exprimer par : Pour tout n 1, la var X n+1 est indépendante de la tribu σ(x 1,..., X n ). Pour la suite des différences d une martingale, on a : E n (d n+1 ) = 0 (puisque E n (M n+1 ) = M n ) ; on a donc une orthogonalité entre n et d n+1 (il y aurait vraiment orthogonalité si l on était dans L 2 (, A, P )). On peut donc espérer pour la convergence des martingales des résultats analogues à ceux obtenus pour les sommes de v.a.r. indépendantes et centrées, et nous allons voir que c est bien le cas. Théorème 2.3 (inégalité maximale de Doob) Soit (M n ) n 1 une martingale adaptée à la filtration ( n ) n 1. Alors, pour tout N 1 et tout a > 0, on a : ( ) P sup M n > a 1 1 n N a E ( M N ). Preuve. Elle est analogue à celle de l inégalité de Kolmogorov. On définit le temps d arrêt ν a par : { + si Mn = d ν a (ω) = d n a, pour tout n = 1, 2,..., N min { n N ; M n = d d n > a sinon. Posons A = { sup n N M n > a }, et A n = {ν a = n}. On a A n n, et A = 1 n N A n. Alors : E ( 1I An. M n ) = E ( ) ( 1I An.sgn (M n ).M n = E 1IAn.sgn (M n ).E n (M N ) ) = E (E n[ ] ) 1I An.sgn (M n ).M N = E ( ) 1I An.sgn (M n ).M N E (1I An. M N ). 12
13 Par conséquent : P (A) = N P (A n ) n=1 N n=1 ce qu on voulait montrer. ( 1 ) E a M n.1i An 1 a N E (1I An. M N ) = 1 a E ( M N ), n=1 Théorème 2.4 (Théorème de Doob) 1) Toute martingale terminée converge presque sûrement et pour la norme de L 1. 2) Toute martingale bornée dans L 2 converge presque sûrement et pour la norme de L 2. Pour prouver ce théorème, on aura besoin d une propriété d approximation. Lemme 2.5 Soit C A une algèbre de oole, et soit A σ(c ) et ε > 0. Alors il existe C tel que P (A ) ε, où désigne la différence symétrique. Preuve. Remarquons que P (A ) = 1I A 1I 1. Si D désigne l ensemble des A σ(c ) ayant la propriété d approximation de l énoncé pour tout ε > 0, on vérifie facilement que D est une tribu. Comme elle contient C, elle est égale à σ(c ). Preuve du Théorème de Doob. 1) Soit ( n ) n 1 la filtration à laquelle (M n ) n 1 est adaptée. Par hypothèse, il existe M L 1 (, A, P ) telle que M n = E n (M) pour tout n 1. Soit C l algèbre de oole n=1 n, = σ(c ), et M = E (M). Si ε > 0, on peut trouver Y = J j=1 a j1i j, avec j, 1 j J, telle que M Y 1 ε. Grâce au lemme, on peut trouver, pour chaque j, un C j C tel que : 1I j 1I Cj 1 ε 1 + a a J ; il s ensuit que Z = J j=1 a j1i Cj est C -mesurable, et que : M Z 1 M Y 1 + Y Z 1 2ε. Par définition de C, on peut trouver un n 0 1 tel que Z soit n0 -mesurable. On a donc, pour n n 0 : d où : M n M = E n (M) M = E n (M ) M = E n (M ) E n (Z) + Z M ; M n M 1 E n (M Z) 1 + M Z 1 2 M Z 1 4ε. 13
14 L Cela montre que M 1 n M. n Appliquons maintenant, pour chaque n 1, l inégalité maximale de Doob à la martingale (M k M n ) k n. On obtient : ( P sup n k N ) M k M n > a 1 a M N M n 1. Donc, en faisant tendre N vers l infini : ( ) P M k M n > a 1 a M M n 1. sup k n Cette inégalité montre que la fonction maximale sup k>n M k M n converge en probabilité vers 0. Cela signifie que (M n ) n 1 est presque sûrement de Cauchy, et donc converge presque sûrement. Comme elle converge vers M pour la norme de L 1, la limite presque sûre est forcément M. 2) Posons M 0 = 0 et d n = M n M n 1 pour n 1. Les accroissements d n sont orthogonaux dans L 2 car pour j < n on a : E (d j d n ) = E [ E j (d j d n ) ] = E [ d j E j (d n ) ] = E (d j.0) = 0. On a donc E (Mn) 2 = n j=1 E (d2 j ), et donc, puisque l on a supposé la martin- j=1 d j converge gale (M n ) n 1 bornée dans L 2 : j=1 E (d2 j ) < +. La série donc dans L 2, et puisque M n = d d n, cela montre que la martingale (M n ) n 1 converge dans L 2. Notons M sa limite. Il ne reste plus qu à voir que E n (M) = M n, car cela signifiera que (M n ) n 1 est une martingale terminée, et donc converge presque sûrement, par le 1). On notera que l on a forcément M = M. Pour montrer cela, pour chaque n 1, fixons n. Alors, pour N n, on a : E (M n 1I ) = E [ E n (M N )1I ) ] = E [ E n (M N 1I ) ] = E (M N 1I ). Comme E (M N 1I ) E (M1I ) M N M 1 M N M 2, on obtient, en faisant tendre N vers l infini : E (M n 1I ) = E (M1I ). On a donc bien M n = E n (M). Nous nous arrêterons ici. Signalons simplement que l on peut montrer les résultats suivants : 1) (Doob) Toute martingale bornée dans L 1 converge presque sûrement. 2) Pour toute martingale (M n ) n 1, il y a équivalence entre : a) (M n ) n 1 converge dans L 1 (pour la norme) ; b) (M n ) n 1 est terminée ; c) {M n ; n 1} est équi-intégrable. 3) Pour 1 < p <, si M n L p (, A, P ) et si M n p K pour tout n 1, alors les conditions précédentes sont vérifiées, et de plus la convergence a lieu pour la norme de L p. 14
3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailIntégration et probabilités TD1 Espaces mesurés Corrigé
Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailIntégration et probabilités TD1 Espaces mesurés
Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?
Plus en détail4. Martingales à temps discret
Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les
Plus en détailAmphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailLimites finies en un point
8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,
Plus en détailFonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Plus en détailThéorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Plus en détailImage d un intervalle par une fonction continue
DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction
Plus en détailExo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.
Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailDe même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
Plus en détailFonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailEXERCICE 4 (7 points ) (Commun à tous les candidats)
EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat
Plus en détail* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours
Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****
Plus en détailThéorie de la Mesure et Intégration
Ecole Nationale de la Statistique et de l Administration Economique Théorie de la Mesure et Intégration Xavier MARY 2 Table des matières I Théorie de la mesure 11 1 Algèbres et tribus de parties d un ensemble
Plus en détailCalcul fonctionnel holomorphe dans les algèbres de Banach
Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte
Plus en détailCommun à tous les candidats
EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle
Plus en détailContinuité en un point
DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Plus en détailIntégration sur des espaces produits
Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailLa mesure de Lebesgue sur la droite réelle
Chapitre 1 La mesure de Lebesgue sur la droite réelle 1.1 Ensemble mesurable au sens de Lebesgue 1.1.1 Mesure extérieure Définition 1.1.1. Un intervalle est une partie convexe de R. L ensemble vide et
Plus en détailExercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Plus en détailMesures gaussiennes et espaces de Fock
Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première
Plus en détail1 Définition et premières propriétés des congruences
Université Paris 13, Institut Galilée Département de Mathématiques Licence 2ème année Informatique 2013-2014 Cours de Mathématiques pour l Informatique Des nombres aux structures Sylviane R. Schwer Leçon
Plus en détailUniversité Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications
Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au
Plus en détailContinuité d une fonction de plusieurs variables
Chapitre 2 Continuité d une fonction de plusieurs variables Maintenant qu on a défini la notion de limite pour des suites dans R n, la notion de continuité s étend sans problème à des fonctions de plusieurs
Plus en détailI. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Plus en détailThéorie de la Mesure et Intégration
Université Pierre & Marie Curie (Paris 6) Licence de Mathématiques L3 UE LM364 Intégration 1 & UE LM365 Intégration 2 Année 2010 11 Théorie de la Mesure et Intégration Responsable des cours : Amaury LAMBERT
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailUne introduction aux codes correcteurs quantiques
Une introduction aux codes correcteurs quantiques Jean-Pierre Tillich INRIA Rocquencourt, équipe-projet SECRET 20 mars 2008 1/38 De quoi est-il question ici? Code quantique : il est possible de corriger
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailLe modèle de Black et Scholes
Le modèle de Black et Scholes Alexandre Popier février 21 1 Introduction : exemple très simple de modèle financier On considère un marché avec une seule action cotée, sur une période donnée T. Dans un
Plus en détailCalcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.
1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détailMESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours
MSUR T INTÉGRATION N UN DIMNSION Notes de cours André Giroux Département de Mathématiques et Statistique Université de Montréal Mai 2004 Table des matières 1 INTRODUCTION 2 1.1 xercices.............................
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailMA6.06 : Mesure et Probabilités
Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................
Plus en détailFonctions de deux variables. Mai 2011
Fonctions de deux variables Dédou Mai 2011 D une à deux variables Les fonctions modèlisent de l information dépendant d un paramètre. On a aussi besoin de modéliser de l information dépendant de plusieurs
Plus en détailCours Fonctions de deux variables
Cours Fonctions de deux variables par Pierre Veuillez 1 Support théorique 1.1 Représentation Plan et espace : Grâce à un repère cartésien ( ) O, i, j du plan, les couples (x, y) de R 2 peuvent être représenté
Plus en détailConstruction de l'intégrale de Lebesgue
Université d'artois Faculté des ciences Jean Perrin Mesure et Intégration (Licence 3 Mathématiques-Informatique) Daniel Li Construction de l'intégrale de Lebesgue 10 février 2011 La construction de l'intégrale
Plus en détailNotes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières
Plus en détailPRIME D UNE OPTION D ACHAT OU DE VENTE
Université Paris VII - Agrégation de Mathématiques François Delarue) PRIME D UNE OPTION D ACHAT OU DE VENTE Ce texte vise à modéliser de façon simple l évolution d un actif financier à risque, et à introduire,
Plus en détailSéminaire TEST. 1 Présentation du sujet. October 18th, 2013
Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailIntégrale de Lebesgue
Intégrale de Lebesgue L3 Mathématiques Jean-Christophe Breton Université de Rennes 1 Septembre Décembre 2014 version du 2/12/14 Table des matières 1 Tribus (σ-algèbres) et mesures 1 1.1 Rappels ensemblistes..............................
Plus en détailTexte Agrégation limitée par diffusion interne
Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détailÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE
ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers
Plus en détailThéorie de la mesure. S. Nicolay
Théorie de la mesure S. Nicolay Année académique 2011 2012 ii Table des matières Introduction v 1 Mesures 1 1.1 Sigma-algèbres................................. 1 1.2 Mesures.....................................
Plus en détailBac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)
Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Eercice 1 (5 points) pour les candidats n ayant pas choisi la spécialité MATH Le tableau suivant donne l évolution du chiffre
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailProposition. Si G est un groupe simple d ordre 60 alors G est isomorphe à A 5.
DÉVELOPPEMENT 32 A 5 EST LE SEUL GROUPE SIMPLE D ORDRE 60 Proposition. Si G est un groupe simple d ordre 60 alors G est isomorphe à A 5. Démonstration. On considère un groupe G d ordre 60 = 2 2 3 5 et
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailCorrection de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Plus en détailLe produit semi-direct
Le produit semi-direct Préparation à l agrégation de mathématiques Université de Nice - Sophia Antipolis Antoine Ducros Octobre 2007 Ce texte est consacré, comme son titre l indique, au produit semi-direct.
Plus en détailSuites numériques 4. 1 Autres recettes pour calculer les limites
Suites numériques 4 1 Autres recettes pour calculer les limites La propriété suivante permet de calculer certaines limites comme on verra dans les exemples qui suivent. Propriété 1. Si u n l et fx) est
Plus en détailQuelques tests de primalité
Quelques tests de primalité J.-M. Couveignes (merci à T. Ezome et R. Lercier) Institut de Mathématiques de Bordeaux & INRIA Bordeaux Sud-Ouest Jean-Marc.Couveignes@u-bordeaux.fr École de printemps C2 Mars
Plus en détailCapes 2002 - Première épreuve
Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série
Plus en détailCalcul intégral élémentaire en plusieurs variables
Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement
Plus en détailPROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390
PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détail3. Caractéristiques et fonctions d une v.a.
3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions
Plus en détailCours d Analyse 3 Fonctions de plusieurs variables
Université Claude Bernard, Lyon I Licence Sciences, Technologies & Santé 43, boulevard 11 novembre 1918 Spécialité Mathématiques 69622 Villeurbanne cedex, France L. Pujo-Menjouet pujo@math.univ-lyon1.fr
Plus en détailIntroduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
Plus en détailChapitre 2. Eléments pour comprendre un énoncé
Chapitre 2 Eléments pour comprendre un énoncé Ce chapitre est consacré à la compréhension d un énoncé. Pour démontrer un énoncé donné, il faut se reporter au chapitre suivant. Les tables de vérité données
Plus en détailSuites numériques 3. 1 Convergence et limite d une suite
Suites numériques 3 1 Convergence et limite d une suite Nous savons que les termes de certaines suites s approchent de plus en plus d une certaine valeur quand n augmente : par exemple, les nombres u n
Plus en détailPeut-on imiter le hasard?
168 Nicole Vogel Depuis que statistiques et probabilités ont pris une large place dans les programmes de mathématiques, on nous propose souvent de petites expériences pour tester notre perception du hasard
Plus en détailExercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Plus en détailApproximations variationelles des EDP Notes du Cours de M2
Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation
Plus en détailFonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples
45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et
Plus en détailItems étudiés dans le CHAPITRE N5. 7 et 9 p 129 D14 Déterminer par le calcul l'antécédent d'un nombre par une fonction linéaire
CHAPITRE N5 FONCTIONS LINEAIRES NOTION DE FONCTION FONCTIONS LINEAIRES NOTION DE FONCTION FONCTIONS LINEAIRES NOTION DE FONCTION Code item D0 D2 N30[S] Items étudiés dans le CHAPITRE N5 Déterminer l'image
Plus en détailCours de mathématiques
DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détailM2 IAD UE MODE Notes de cours (3)
M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de
Plus en détailProgrammation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
Plus en détailI. Ensemble de définition d'une fonction
Chapitre 2 Généralités sur les fonctions Fonctions de références et fonctions associées Ce que dit le programme : Étude de fonctions Fonctions de référence x x et x x Connaître les variations de ces deux
Plus en détailCalcul différentiel. Chapitre 1. 1.1 Différentiabilité
Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace
Plus en détailOM 1 Outils mathématiques : fonction de plusieurs variables
Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.
Plus en détailMaster Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2.
Master Modélisation Aléatoire Paris VII, Cours Méthodes de Monte Carlo en nance et C++, TP n 2. Techniques de correction pour les options barrières 25 janvier 2007 Exercice à rendre individuellement lors
Plus en détailChapitre VI - Méthodes de factorisation
Université Pierre et Marie Curie Cours de cryptographie MM067-2012/13 Alain Kraus Chapitre VI - Méthodes de factorisation Le problème de la factorisation des grands entiers est a priori très difficile.
Plus en détailPremière partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Plus en détailChapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme
Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet
Plus en détailProduits d espaces mesurés
Chapitre 7 Produits d espaces mesurés 7.1 Motivation Au chapitre 2, on a introduit la mesure de Lebesgue sur la tribu des boréliens de R (notée B(R)), ce qui nous a permis d exprimer la notion de longueur
Plus en détailPremiers exercices d Algèbre. Anne-Marie Simon
Premiers exercices d Algèbre Anne-Marie Simon première version: 17 août 2005 version corrigée et complétée le 12 octobre 2010 ii Table des matières 1 Quelques structures ensemblistes 1 1.0 Ensembles, relations,
Plus en détailDualité dans les espaces de Lebesgue et mesures de Radon finies
Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention
Plus en détailCours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Plus en détailUn K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E
Exo7 Espaces vectoriels Vidéo partie 1. Espace vectoriel (début Vidéo partie 2. Espace vectoriel (fin Vidéo partie 3. Sous-espace vectoriel (début Vidéo partie 4. Sous-espace vectoriel (milieu Vidéo partie
Plus en détail