Espérance conditionnelle

Dimension: px
Commencer à balayer dès la page:

Download "Espérance conditionnelle"

Transcription

1 Table des matières 1 Espérance conditionnelle Cas discret Cas absolument continu Applications Probabilités conditionnelles La régression Interprétation géométrique de l espérance conditionnelle Vecteurs gaussiens et conditionnement appels sur les vecteurs gaussiens variables gaussiennes Vecteurs gaussiens Conditionnement des vecteurs gaussiens Conditionnement pour un couple gaussien Hyperplan de régression Espérance conditionnelle gaussienne i

2 ii

3 Chapitre 1 Espérance conditionnelle 1.1 Cas discret On considère un couple aléatoire discret (X, Y ), c est-à-dire une application mesurable (X, Y ) { (Ω, F, P) ω (X(ω), Y (ω)) où = (x i ) i I et = (y j ) j J sont deux ensembles finis ou dénombrables. La probabilité de tomber sur un couple (x i, y j ) est : p ij = P (X = x i, Y = y j ). La suite double (p ij ) i I,j J est appelée loi jointe du couple (X, Y ) et on a : { pij 1 i I,j J p ij = 1 Exemple 1. On tire deux chiffres au hasard, indépendamment et de façon équiprobable entre 1 et 3. On note X le maximum des chiffres obtenus et Y la somme des chiffres obtenus. On peut représenter la loi jointe dans un tableau : Y = 2 Y = 3 Y = 4 Y = 5 Y = 6 X = 1 1/9 X = 2 2/9 1/9 X = 3 2/9 1/9 1/9 Tab. 1.1 Loi de (X, Y ). Définition 1.1 (Lois marginales) Soit (X, Y ) un couple aléatoire. Les variables X et Y sont appelées variables marginales. La loi de X est appelée loi marginale. Elle entièrement déterminée par les probabilités p i de tomber sur les points x i : p i = P (X = x i ) = j J P (X = x i, Y = y j ) = j J p ij. 1

4 2 Chapitre 1. Espérance conditionnelle De même la loi marginale de Y est déterminée par : p j = P (Y = y j ) = P (X = x i, Y = y j ) = p ij. i I i I Exemple 1. Pour l exemple précédent, il suffit de sommer sur les lignes (resp. sur les colonnes) pour obtenir la loi marginale de X (resp. de Y ) : Y = 2 Y = 3 Y = 4 Y = 5 Y = 6 X = 1 1/9 p 1 = 1/9 X = 2 2/9 1/9 p 2 = 3/9 X = 3 2/9 2/9 1/9 p 3 = 5/9 p 1 = 1/9 p 2 = 2/9 p 3 = 3/9 p 4 = 2/9 p 5 = 1/9 Tab. 1.2 Lois jointe et marginales. On peut aussi représenter la situation dans la figure 1.1, représentation spaciale dont on s inspirera pour interpréter le cas continu Y X Fig. 1.1 Loi jointe (en traits pleins) et lois marginales (en pointillés). emarque En général, la connaissance des lois marginales ne suffit pas reconstituer la loi jointe. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

5 1.1. Cas discret 3 Exemple 2. En guise d illustration, considérons une urne contenant deux boules blanches et une boule noire. On tire deux boules de cette urne. 1 er cas : tirage avec remise On note, pour i = 1, 2 : X i = 1 si la i eme boule est blanche et X i = si la i eme boule est noire. Les lois marginales et jointe sont données dans le tableau suivant : X 1 = 1 X 1 = X 2 = 1 4/9 2/9 2/3 X 2 = 2/6 1/9 1/3 2/3 1/3 2 nd cas : tirage sans remise Cette fois, on note, pour i = 1, 2 : Y i = 1 si la i eme boule est blanche et Y i = si la i eme boule est noire. Le tableau est alors : Y 1 = 1 Y 1 = Y 2 = 1 2/6 2/6 2/3 Y 2 = 2/6 1/3 2/3 1/3 On constate que les lois marginales sont les mêmes alors que ce n est pas le cas des lois jointes. Nous pouvons obtenir facilement la loi jointe à partir des lois marginales dans un cas particulier : celui de l indépendance des deux variables. Définition 1.2 (Indépendance) Les variables aléatoires X et Y sont dites indépendantes lorsque : soit avec nos notations : p ij = p i p j. (i, j) I J P (X = x i, Y = y j ) = P (X = x i ) P (Y = y j ), Exemple 2. Les variables X 1 et X 2 définies dans l expérience précédente sont indépendantes mais ce n est pas le cas des variables Y 1 et Y 2. Définition 1.3 (Probabilités conditionnelles) Soit x i, la loi conditionnelle de Y sachant X = x i est la loi discrète prenant les valeurs y j avec les probabilités : p j i = P (Y = y j X = x i ) = P (X = x i, Y = y j ) P (X = x i ) = p ij p i. emarques La définition suppose que P (X = x i ) ce qui est le cas sinon x i n a rien à faire dans. La suite ( p j i définit bien une probabilité car : )j J j J p j i 1 et j J p j i = j J P (X = x i, Y = y j ) P (X = x i ) = 1. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3

6 4 Chapitre 1. Espérance conditionnelle Exemple 1. Nous reprenons l exemple du tableau 1.1. Les lois conditionnelles de Y sachant X = x i pour i = 1, 2, 3 sont données dans le tableau suivant : Y = 2 Y = 3 Y = 4 Y = 5 Y = 6 X = 1 1 X = 2 2/3 1/3 X = 3 2/5 2/5 1/5 Tab. 1.3 Lois conditionnelles de Y sachant X = x i. Exemple 3. Soit Y P(α) et Z P(β) deux variables de Poisson indépendantes. On sait que X = Y + Z P(α + β). Soit n N, quelle est la loi de Y sachant X = n? Une fois X figé à n, Y prend ses valeurs dans {, 1,, n}. Soit k {, 1,, n}, cherchons P(Y = k X = n) : P(Y = k, X = n) P(Y = k X = n) = P(X = n) P(Y = k, Z = n k) = P(X = n) P(Y = k)p(z = n k) = P(X = n) ( e α α k = e β β n k ) ( ) e (α+β) (α + β) n / k! (n k)! n! n! = k!(n k)! αk β n k (α + β) n ( ) α k ( β = Cn k α + β α + β ) n k ( ) α Finalement, sachant X = n, Y suit une loi binomiale B n, α+β. evenons au cas général et supposons Y intégrable. Il est naturel de s intéresser à la valeur moyenne de la variable Y lorsque X = x i. C est ce qu on appelle l espérance conditionnelle de Y sachant X = x i. Elle s écrit : [Y X = x i ] = y j P(Y = y j X = x i ) = y j p j i. j J j J Or on sait que X prend la valeur x i avec la probabilité p i d où la définition de la variable aléatoire suivante : Définition 1.4 (Espérance conditionnelle) Supposons Y intégrable. La variable aléatoire qui prend les valeurs [Y X = x i ] avec les probabilités p i est appelée espérance conditionnelle de Y sachant X et notée [Y X]. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

7 1.1. Cas discret 5 emarques Il est clair qu en général [Y X = x i ] est une valeur qui est fonction de x i. Il faut donc comprendre qu en général l espérance conditionnelle [Y X] est une variable aléatoire qui pourra s écrire en fonction de X. Pourquoi supposer Y intégrable? On rappelle que Y intégrable signifie [ Y ] < + c est-à-dire que la moyenne des valeurs absolues des valeurs prises par Y est une quantité finie. Si l on considère une variable d espérance finie mais non intégrable, on comprend que les valeurs positives qu elle prend compensent les valeurs négatives pour en moyenne rendre une quantité finie. Il est donc possible dans ce cas d avoir une restriction des valeurs de la variable dont la moyenne soit infinie alors qu en les considérant toutes on aurait une moyenne finie. En supposant Y intégrable, on se prémunit de ce genre de risques. Comme d autre part, on peut considérer [Y X = x i ] comme la moyenne des valeurs de Y restreintes au cas où X = x i, en prenant Y intégrable, on est donc sûr d avoir [Y X = x i ] fini pour tout x i. Exemple 1. En reprenant le tableau 1.3, on obtient facilement [Y X = 1] = 2, [Y X = 2] = 1/3 et [Y X = 3] = 24/5. Par ailleurs, P(X = 1) = 1/9, P(X = 2) = 3/9 et P(X = 3) = 5/9 donc [Y X] est la variable aléatoire qui prend les valeurs 2, 1/3 et 24/5 avec les probabilités respectivement 1/9, 3/9 et 5/9. Exemple 3. On reprend l exemple où Y et Z suivent des lois de Poisson : Y sachant X = n suit une loi binomiale donc : n N [Y X = n] = αn α + β. Ainsi : [Y X] = αx α + β et c est bien une fonction de X. Exemple d une variable non-intégrable mais d espérance finie. Considérons la variable X discrète telle que : n N P (X = ( 1) n n) = π2 /6 n 2. On peut vérifier que cette variable aléatoire est d espérance finie mais qu elle n est pas intégrable. Théorème 1.1 (Calcul d espérance par conditionnement) Si Y est intégrable alors la variable aléatoire [Y X] aussi et on a : [ [Y X]] = E[Y ]. Preuve [Y X] est la variable aléatoire prenant les valeurs E[Y X = x i ] avec les probabilités p i donc : [ [Y X]] = i I p i [Y X = X i ] = i I p i j J y j p j i = y j p i p j i, i I j J or p j i = p ij p i et les sommes mises en jeu sont absolument convergentes; on peut donc intervertir les ordres de sommations et : [ [Y X]] = ( ) p ij y j = p j y j = E[Y ]. j J j J i I Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3

8 6 Chapitre 1. Espérance conditionnelle Exemple 1. Nous obtenons : [ [Y X]] = = 4 et cela correspond en effet au calcul de [Y ] que l on pouvait ici avoir facilement. Exemple 3. Nous avons vu et X = Y + Z P(α + β) donc on retrouve bien [ [Y X] = [Y X] = αx α + β, α α + β [X] = α (α + β) = α = [Y ]. α + β Propriété 1.1 (Espérance conditionnelle et indépendance) Si Y est intégrable, si X et Y sont indépendantes alors la variable aléatoire [Y X] est constante égale à [Y ]. Preuve Si X et Y sont indépendantes alors, i I, j J ainsi, i I, j J Exprimons alors [Y X = x i ] pour un i quelconque : p ij = p i p j p j i = p ij p i = p j. [Y X = x i ] = j J y j p j i = y j p j j J = [Y ] Ainsi, la variable aléatoire [Y X] est constante égale à [Y ]. Utilisation du théorème de transfert. On est souvent amené à calculer [h(x, Y )] où h est une fonction de 2 dans telle que le produit, la somme, la moyenne par exemple. Le théorème de transfert assure que, sous réserve d intégrabilité, cette espérance correspond à la somme double : [h(x, Y )] = h(x i, y i )p ij. i I,j J Si h est à variable séparable (h(x, y) = f(x) g(y)) alors cette formule se simplifie en : [h(x, Y )] = i I,j J f(x i )g(y i )p ij Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

9 1.2. Cas absolument continu 7 et si en plus X et Y sont indépendantes alors : [h(x, Y )] = ( ) f(x i )g(y i )p i p j = f(x i )p i g(y i )p j = [f(x)] [(g(y )], i I,j J i j J On est donc ramené au produit de deux sommes simples qui sont des espérances discrètes classiques. Dans le cas général où h n a pas cette forme et où X et Y ne sont pas indépendantes, E[h(X, Y )] = h(x i, y j )p ij i I,j J = h(x i, y j )p j i p i i I j J = i I j J h(x i, y j )p j i p i = ( [h(x i, Y )]) p i i I = [ [X, Y ] X] On se ramène là encore au calcul de deux sommes simples. 1.2 Cas absolument continu On considère maintenant un couple (X, Y ) à valeurs dans 2. Par définition, la loi jointe P X,Y du couple est la mesure de probabilité sur ( 2, B 2 ) définie par : B B 2 P X,Y (B) = P ((X, Y ) B), que l on peut voir comme la probabilité que le point aléatoire M de coordonnées (X, Y ) tombe dans l ensemble borélien B. Définition 1.5 (Loi jointe absolument continue) On dit que la loi P X,Y est absolument continue s il existe une fonction mesurable f : ( 2 ), B 2 (, B) telle que : B B 2, P X,Y (B) = f(x, y)dxdy. La fonction f est appelée densité de probabilité du couple (X, Y ). Pour qu une fonction f soit une densité de probabilité, il suffit qu elle soit positive et intègre à 1 : { f(x, y) 2 f(x, y)dxdy = 1 emarque En pratique, on fait le parallèle avec le cas discret en remplaçant x i par x, y j par y, p ij par f(x, y) et les sommes par des intégrales. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3 B

10 8 Chapitre 1. Espérance conditionnelle Exemple 4. On considère le couple (X, Y ) de densité : f(x, y) = 2e (x+y) ½ x y. Vérifions qu il s agit bien d une densité. f est positive et son intégrale sur 2 converge. Calculons cette intégrale : 2 f(x, y)dxdy = = = = 2 = La représentation de la densité f est donnée figure 1.2. ( y 2e y ( y ) 2e (x+y) dx dy ) e x dx dy 2e y ( 1 e y) dy e y dy 2 + e 2y dy y x Fig. 1.2 Densité jointe f(x, y) = 2e (x+y) ½ x y sur [, 5] [, 5]. Définition 1.6 (Lois marginales) Si le couple (X, Y ) est absolument continu, les variables marginales X et Y le sont aussi et la densité jointe Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

11 1.2. Cas absolument continu 9 détermine les densités marginales f(x) et f(y) : f(x) = f X (x) = f(x, y)dy et f(y) = f Y (y) = Exemple 4. Pour l exemple précédent, on a f(x) = si x < et pour x : f(x) = Ainsi, De même, + x + 2e (x+y) dy = 2e x e y dy = 2e 2x. f(x) = 2e 2x ½ [,+ [ (x). f(y) = 2e y ( 1 e y) ½ [,+ [ (y). Les densités marginales sont représentées en figure 1.3 et notons que X E(2). x f(x, y)dx. Loi de X Loi de y x y Fig. 1.3 eprésentations des densités marginales f(x) et f(y). Dans le cas général, par définition, les variables aléatoires X et Y sont indépendantes si pour tout couple de boréliens B et B de, on a : P(X B, Y B ) = P(X B)P(Y B ), ou encore si pour toutes fonctions bornées (ou positives) g et h de dans : [g(x)h(y )] = [g(x)] [h(y )]. L indépendance n est en général pas facile à justifier en utilisant ces définitions mais elle se justifie simplement si la loi jointe est absolument continue : Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3

12 1 Chapitre 1. Espérance conditionnelle Propriété 1.2 (Indépendance) Avec les notations précédentes, les variables X et Y sont indépendantes si et seulement si pour tout couple (x, y) de 2 : f(x, y) = f(x)f(y). emarque On peut souvent remarquer que deux variables ne sont pas indépendantes en raisonnant sur les supports. Le support de la loi de X est l adhérence de l endroit où X a des chances de tomber : Supp(X) = {x : f(x) }. La propriété précédente montre donc que l indépendance de X et Y implique que le support de (X, Y ) soit le produit cartésien des supports de X et de Y. Dans notre exemple, le support de (X, Y ) est { (x, y) 2 : x y } et cela ne correspond pas au produit cartésien des supports de X et Y : + +. On peut définir l analogue des probabilités conditionnelles vues dans le cas discret. Définition 1.7 (Lois conditionnelles) La densité conditionnelle de Y sachant X = x est : f(y x) = { f(x,y) f(x) si f(x) si f(x) = Interprétation graphique. On obtient une allure de la densité conditionnelle f(y x ) en coupant la surface représentant la loi jointe par le plan d équation x = x. On observe à l intersection une représentation de la fonction y f(y, x ) qui correspond au facteur de normalisation f(x ) près à celle de la fonction y f(y x ). Exemple 4. Nous avons, pour tout x : f(y x) = f(x, y) f(x) = 2e (x+y) ½ {x y} 2e 2x = e (y x) ½ {y x} et pour tout y > : f(x y) = f(x, y) f(y) = 2e (x+y) ½ {x y} 2e y (1 e y ) = e x ½ {x y} 1 e y Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

13 1.2. Cas absolument continu 11 emarques Pour tout x fixé, la fonction y f(y x) est une densité de probabilité c est-à-dire qu elle est positive et de somme 1. On a l analogue des relations vues dans le cas discret : f(y) = Si X et Y sont indépendantes, on a bien sûr : f(y x)f(x)dx et f(x) = f X Y = f X et f Y X = f Y. f(x y)f(y)dy. Comme dans le cas discret, on cherche à définir l espérance conditionnelle. Pour x fixé, l espérance conditionnelle de Y sachant X = x est : [Y X = x] = yf(y x)dy. La fonction φ : x [Y X = x] est une fonction de la variable réelle x. φ(x) et donc une variable aléatoire : c est l espérance conditionnelle de Y sachant X. Définition 1.8 (Espérance conditionnelle) La variable aléatoire qui prend les valeurs [Y X = x] avec la densité f(x) est appelée espérance conditionnelle de Y sachant X. On la note [Y X]. Exemple 4. Pour tout x, on a : Ainsi, [Y X = x] = = + x yf(y x)dy ye (y x) dy + = e x ye y dy x = x + 1 [Y X = x] = (x + 1)½ x et donc [Y X] = X + 1. Comme X E(2), la variable aléatoire [Y X] suit une loi exponentielle de paramètre 2 translatée sur [1, + [ (cf. figure 1.4). Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3

14 12 Chapitre 1. Espérance conditionnelle Fig. 1.4 Densité de E[Y X]. Propriété 1.3 Si Y est intégrable, alors la variable aléatoire [Y X] aussi et : [ [Y X]] = E[Y ]. Preuve [Y X] est la variable aléatoire prenant les valeurs [Y X = x] avec la densité f(x) donc. [ [Y X]] = [Y X = x]f(x)dx ( ) = yf(y x)dy f(x)dx ( ) = y f(y x)f(x)dx dy (Fubini) = yf(y)dy = [Y ] Exemple 4. On se souvient que la densité de la variable Y est : f(y) = 2e y ( 1 e y) ½ [,+ [ (y). On peut donc obtenir [Y ] : E[Y ] = = + yf(y)dy 2ye y ( 1 e y) dy = = 3 2 Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

15 1.2. Cas absolument continu 13 On retrouve ce résultat en utilisant le fait que [Y X] = X + 1 avec X E(2) : [Y ] = [ [Y X]] = [X + 1] = [X] + 1 = 3 2 Utilisation du théorème de transfert. Si h est une fonction de 2 dans, on peut chercher à calculer l espérance de la variable aléatoire h(x, Y ) : [h(x, Y )] = h(x, y)f(x, y)dxdy. 2 Sous réserve d intégrabilité, c est-à-dire à la condition que on peut la calculer par conditionnement : D où la définition suivante. [h(x, Y )] = 2 h(x, y) f(x, y)dxdy < +, Définition 1.9 (Espérance conditionnelle d un couple) L espérance conditionnelle de h(x, Y ) sachant X = x est : [h(x, Y ) X = x] = ( ) h(x, y)f(y x)dy f(x)dx. h(x, y)f(y x)dy. L espérance conditionnelle de h(x, Y ) sachant X, notée [h(x, Y ) X], est la variable aléatoire prenant les valeurs [h(x, Y ) X = x] avec la densité de probabilité f(x). Propriété 1.4 (Propriétés de l espérance conditionnelle) Sous réserve d intégrabilité des variables aléatoires, on a les propriétés suivantes : Calcul d espérance par conditionnement : [ [h(x, Y ) X]] = [h(x, y) X = x]f(x)dx = [h(x, Y )]. Indépendance : Si X et Y sont indépendantes, alors : [g(y ) X] = [g(y )]. En particulier, on a : [Y X] = [Y ]. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3

16 14 Chapitre 1. Espérance conditionnelle On a : donc en particulier : Linéarité : [g(x) X] = g(x) [X X] = X. [αg(x) + βh(y ) X] = α [g(x) X] + β [h(y ) X] = αg(x) + β [h(y ) X]. Linéarité (bis) : emarques [g(x)h(y ) X] = g(x) [h(y ) X]. Les preuves s obtiennent sans difficulté en revenant à la définition de l espérance conditionnelle. Il faut bien comprendre que par exemple [g(x) X] est une variable aléatoire. C est en effet la variable aléatoire prenant les valeurs [g(x) x] avec la densité f(x). C est donc la variable aléatoire prenant les valeurs g(x) avec la densité f(x) et c est par conséquent la variable aléatoire g(x). 1.3 Applications Probabilités conditionnelles Soit A un événement qui s exprime en fonction de X et Y. On peut lui associer la variable aléatoire indicatrice : Ω {, 1} ½ A ω 1 si (X(ω), Y (ω)) A sinon et voir ainsi sa probabilité comme l espérance de cette indicatrice : P(A) = [½ A ] = 2 ½ A (x, y)f(x, y)dxdy. Il est souvent plus facile de calculer cette quantité en commençant par geler l une des variables et en intégrant par rapport à l autre. C est le principe du conditionnement. Définition 1.1 (Probabilités conditionnelles) La probabilité conditionnelle de l événement A sachant X = x est la quantité : P(A X = x) = [½ A X = x] = ½ A (x, y)f(y x)dy. La probabilité conditionnelle de A sachant X, notée P(A X) est la variable aléatoire prenant les valeurs P(A X = x) avec la densité f(x). On peut alors appliquer la technique de calcul d espérance par conditionnement pour le calcul de P(A). Proposition 1 (Calcul de probabilité par conditionnement) P(A) = P(A X = x)f(x)dx. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

17 1.3. Applications 15 Exemple 5. Soit X et Y deux variables aléatoires indépendantes avec X E(λ) et Y E(µ). On cherche à calculer : P(X < Y ). On pose : Alors : P(X < Y ) = A = {ω Ω : X(ω) < Y (ω)}. P(X < Y X = x)f(x)dx = P(x < Y X = x)f(x)dx. Du fait de l indépendance des variables, P(x < Y X = x) = P(x < Y ) = 1 F Y (x) = e µx, et donc : P(X < Y ) = e µx f(x)dx = e µx λe λx dx. + On obtient ainsi : P(X < Y ) = λ λ + µ La régression Approximation d une variable aléatoire par une constante Soit Y une variable aléatoire de carré intégrable, c est à dire telle que [Y 2 ] < +. On veut approcher Y par une constante ; plus précisément, si on cherche a telle que l erreur quadratique [(Y a) 2 ] soit la plus petite possible, la solution est donnée par l espérance. Proposition 2 (Approximation par une constante) Soit Y telle que [Y 2 ] < +. Parmi tous les réels a, la quantité [(Y a) 2 ] est minimale lorsque a = [Y ]. C est-à-dire : min a [(Y a)2 ] = [(Y [Y ]) 2 ] = [Y 2 ] (E[Y ]) 2 = Var(Y ). Preuve Soit a. Introduisons la fonction a [(Y a) 2 ]. Nous pouvons écrire : [(Y a) 2 ] = [Y 2 2aY + a 2 ] = [Y 2 ] 2a [Y ] + a 2 On reconnait un polynôme du second degré en a qui est en effet minimum pour a = [Y ] et l erreur quadratique est alors : [(Y [Y ]) 2 ] = Var(Y ). emarques En statistique, l analogue de cette proposition est une propriété classique de la moyenne empirique d une série d observations (y i ) i=1 n : la moyenne des y i est la valeur la plus proche de l ensemble des y i au sens de la mesure quadratique. Si on cherche à minimiser l erreur en norme L 1 c est-à-dire si on cherche a tel que [ Y a ] est minimale, la solution est la médiane de Y. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3

18 16 Chapitre 1. Espérance conditionnelle Approximation d une variable aléatoire par une droite On considère cette fois un couple aléatoire (X, Y ) et on suppose que les variables marginales X et Y sont de carré intégrable. On cherche cette fois à approcher au mieux la variable aléatoire Y par une fonction affine de la variable X. Proposition 3 (Approximation par une droite) Soit X et Y deux variables aléatoires de carré intégrable. Parmi tous les couple de réels (a, b), la quantité [(Y (ax + b)) 2 ] est minimale lorsque : L erreur quadratique est alors : a = Cov(X, Y ) σ 2 (X) b = [Y ] Cov(X, Y ) σ 2 [X] (X) min a,b [(Y (ax + b))2 ] = σ 2 (Y )(1 ρ 2 ) où ρ = Cov(X, Y ) σ(x)σ(y ). Preuve On introduit la fonction φ : (a, b) [(Y (ax + b)) 2 ]. En développant, on obtient : φ(a, b) = [X 2 ]a [X]ab + b 2 2 [XY ]a 2 [Y ]b + [Y 2 ] Si cette fonction possède un point singulier, ce point est un minimum. Cherchons les points où les dérivées partielles s annulent : Le système { φ a (a, b) = 2a [X2 ] + 2b [X] 2 [XY ] = φ b a pour solution : { soit En écrivant (a, b) = 2a [X] + 2b 2 [Y ] = [XY ] [X]E[Y ] [X 2 ] [X] 2 a = b = [Y ] a [X] a = Cov(X, Y ) σ 2 (X) b = [Y ] Cov(X, Y ) σ 2 [X] (X) Y (ax + b) = Y [Y ] Cov(X, Y ) σ 2 (X [X]) (X) puis en calculant l espérance du carré de cette variable, on obtient (après calcul) : φ(a, b) = σ 2 (Y )(1 ρ 2 ). Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

19 1.3. Applications 17 emarques Lorsque les variables X et Y sont de carré intégrable, parler de la covariance de X et Y a un sens puisque d une part cela assure l existence de [X] et de [Y ] et que d autre part on a : ω Ω, X(ω)Y (ω) 1 ( X 2 (ω) + Y 2 (ω) ), 2 donc, en passant à l expérance [ XY ] 1 ( [X 2 ] + [Y 2 ] ) < +. 2 L existence du minimum pour la fonction φ suppose que Var(X). Mais Var(X) = revient à dire que X est presque sûrement constante auquel cas on est ramené à approcher Y par une constante ce qui a été vu juste avant. Ce principe d approximation est d usage fréquent en statistique mais dans ce cadre on ne dispose que de n couples (x i, y i ) i=1 n d observations des variables et l idée est d utiliser cet échantillon pour, à partir d une nouvelle observation de la variable X de faire une prévision pour Y. Lorsque le nuage de points représentant les observations s apparente à une droite, on cherche la droite qui approche le mieux ce nuage en minimisant la somme des carrés : n (y i (ax i + b)) 2. i=1 La droite de régression obtenue est la même que précédemment mais en considérant cette fois espérances, variances et covariances empiriques. Exemple 4. On rappelle que : f(x, y) = 2e (x+y) ½ x y X E(2) c est-à-dire f(x) = 2e 2x ½ [,+ [ f(y) = 2e y (1 e y )½ [,+ [ [X] = 1/2 et [Y ] = 3/2 appelons également que si V E(λ) alors pour tout n N : [V n ] = n! λ n. Calculons la droite de régression dans cet exemple : Cov(X, Y ) = [XY ] [X] [Y ] = xyf(x, y)dxdy ( y ) = 2xye (x+y) dx dy 3 4 = = ye y ( 1 ye y e y) dy 3 4 ye y dy = ye 2y dy + 2y 2 e 2y dy 3 4 = 1 4 Comme Var(X) = 1/4, on obtient a = 1 et par conséquent b = 1. La droite de régression a donc pour équation : y = x + 1. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3

20 18 Chapitre 1. Espérance conditionnelle Approximation d une variable aléatoire par une fonction On considère encore un couple aléatoire (X, Y ) avec Y de carré intégrable. On cherche à nouveau à approcher au mieux Y par une fonction de X mais sans se restreindre à une classe de fonctions particulières. On pose donc le problème ainsi : parmi toutes les fonctions de X, quelle est celle qui approche le mieux Y? Autremement dit, on cherche la fonction u : qui rend minimale la quantité : [(Y u(x)) 2 ]. Théorème 1.2 (Espérance conditionnelle et régression) Supposons Y telle que [Y 2 ] < +. Parmi toutes les fonctions u :, l erreur d approximation E[(Y u(x)) 2 ] est minimale lorsque que u est la fonction dite de régression x [Y X = x], c est-à-dire lorsque u(x) = [Y X]. Preuve Notons m(x) = [Y X] et montrons que pour toute fonction u :, [(Y u(x)) 2 ] [(Y m(x)) 2 ]. [(Y u(x)) 2 ] = [(Y m(x) + m(x) u(x)) 2 ] = [(Y m(x)) 2 ] + [(m(x) u(x)) 2 ] + 2 [(Y m(x))(m(x) u(x))] Calculons [(Y m(x))(m(x) u(x))] par conditionnement : [(Y m(x))(m(x) u(x)] = [ [(Y m(x))(m(x) u(x)) X]] = [(m(x) u(x)) [(Y m(x)) X]] = [(m(x) u(x)) { [Y X] [m(x) X]}] = [(m(x) u(x)) { [Y X] m(x)}] Or m(x) = [Y X] donc [(Y m(x))(m(x) u(x)] = et finalement on a bien : [(Y u(x)) 2 ] = [(Y m(x)) 2 ] + [(m(x) u(x)) 2 ] [(Y m(x)) 2 ]. Le minimum obtenu fait l objet d une définition. Définition 1.11 La quantité σ 2 = min u [(Y u(x)) 2 ] = [(Y [Y X]) 2 ] est appelée erreur quadratique moyenne ou variance résiduelle. Définition 1.12 (Courbe de régression) La courbe x y = [Y X = x] est appelée courbe de régression de Y en X. Par exemple, si les variables X et Y sont indépendantes, la courbe de régression de Y en X est la droite horizontale d équation y = [Y ]. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

21 1.4. Interprétation géométrique de l espérance conditionnelle 19 Exemple 4. La fonction de régression u : x [Y X = x] a déjà été calculée et on avait obtenu u(x) = X +1. Notons que sur cet exemple la fonction de régression coïncide avec la droite de régression. La variance résiduelle est : [(Y [Y X]) 2 ] = [(Y X 1) 2 ] = 1 2 [XY ] 2E[Y ] + 2 [X] + [Y 2 ] + [X 2 ] = [Y 2 ] + [X 2 ] De plus, en utilisant le rappel énoncé plus haut, [Y 2 ] = + 2y 2 e y (1 e y )dy = 4 et [X 2 ] = 1/2 d où : [(Y [Y X]) 2 ] = Interprétation géométrique de l espérance conditionnelle Soit (Ω, F, P) un espace probabilisé. On note L 2 (Ω, F, P) ou plus simplement L 2 (Ω) l ensemble des variables aléatoires X : Ω de carré intégrable. Propriété 1.5 (Propriétés de L 2 (Ω)) Si X et Y appartiennent à L 2 (Ω), alors XY est intégrable. L 2 (Ω) est un espace vectoriel. Proposition 4 L application.,. : { L 2 (Ω) L 2 (Ω) (X, Y ) X, Y = [XY ] est un produit scalaire sur L 2 (Ω). La norme associée est : X = E[X 2 ]. emarque Dire que deux variables sont orthogonales revient donc à dire que [XY ] = ce qui, si elles sont centrées, revient à dire qu elles sont non-corrélées. Propriété 1.6 (Propriétés de la norme dans L 2 (Ω)) On a les propriétés habituelles d une norme à savoir : la positivité : X en général et X = seulement pour X =, l homogénéité : a, ax = a X, l inégalité triangulaire : X + Y X + Y, l inégalité de Cauchy-Schwarz : X, Y X Y. emarque (Interprétation du coefficient de corrélation linéaire ρ) Dans la section précédente, au moment d approcher une variable par une droite, nous avons défini le coefficient de corrélation linéaire entre deux variables X et Y par : ρ = Cov(X, Y ) σ(x)σ(y ) = [(X [X])(Y [Y ])] [(X [X]) 2 ] [(X [X]) 2 ]. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3

22 2 Chapitre 1. Espérance conditionnelle Nous avons donc : X [X], Y [Y ] ρ = X [X] Y E[Y ] De l inégalité de Cauchy-Schwarz nous déduisons : 1 ρ 1 et on comprend dès lors qu une valeur de ρ = ±1 correspond au cas où les variables X et Y sont liées par une relation Y = ax + b presque sûrement. On comprend par ailleurs que ρ = équivaut à a = Cov(X,Y ) σ(x)σ(y ) = et qu alors le mieux qu on puisse faire est d approcher Y par une constante. Nous avions d autre part calculé l erreur d approximation : min a,b [(Y (ax + b))2 ] = σ 2 (Y )(1 ρ 2 ). L erreur d approximation sera d autant plus faible que ρ est proche de 1 ou -1 ce qui est normal puisqu alors Y ax + b, et que σ(y ) petit. La norme. permet de mesurer la distance entre deux variables aléatoires : d(x, Y ) = X Y = [(X Y ) 2 ], distance que l on appelle naturellement distance en moyenne quadratique. On peut alors associer à cette norme la notion de convergence en moyenne quadratique : la suite de variables aléatoires (X n ) n converge en moyenne quadratique vers la variable aléatoire X si lim n + X n = X c està-dire si : lim n + [(X X n) 2 ] =. On note alors : X n L2 X. Théorème 1.3 (Espace de Hilbert) L espace L 2 (Ω) muni du produit scalaire précédent est complet, c est à dire que toute suite (X n ) n de L 2 (Ω) vérifiant le critère de Cauchy converge en moyenne quadratique vers une variable aléatoire X de L 2 (Ω). Théorème 1.4 (Théorème de la projection orthogonale) Soit H un sous espace fermé de de L 2 (Ω). Pour tout Y de L 2 (Ω), il existe une unique variable aléatoire de H, notée π H (Y ), qui soit à plus courte distance de Y. On l appelle le projeté orthogonale de Y sur H et elle est entierement caractérisée par la double propriété suivante illustrée en figure 1.5 : { π H (Y ) H Y π H (Y ) H Y Y π H (Y ) π H (Y ) H Fig. 1.5 Projection orthogonale π H de Y sur H. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

23 1.4. Interprétation géométrique de l espérance conditionnelle 21 emarque L existence et l unicité du projeté orthogonal dans les espaces Euclidiens (espaces vectoriels de dimension finie munis d un produit scalaire) est connue depuis la 2ème année. Ici l espace L 2 (Ω) est muni d un produit scalaire mais il est de dimensison infinie : c est la complétude qui permet d avoir encore cette propriété. Considérons maintenant une variable aléatoire X. On lui associe : L 2 (X) = { u(x) avec u : borélienne telle que [u 2 (X)] < + }, ensemble des variables aléatoires qui s expriment comme fonctions de X et de carré intégrable. Il se trouve que L 2 (X) est un sous-espace fermé de L 2 (Ω) et on peut donc lui appliquer le théorème 1.4. Si on considère une variable aléatoire Y de carré intégrable : il existe une unique variable π L 2 (X)(Y ) dans le sous espace L 2 (X) qui soit à plus courte distance de Y. Nous avons vu dans le paragraphe sur la régression que cette variable en question était justement l espérance conditionnelle de Y sachant X. Il est donc naturel de donner à l espérance conditionnelle la définition suivante qui est plus générale que les précédentes : Définition 1.13 (Espérance conditionnelle) Soit (X, Y ) un couple aléatoire avec Y L 2 (Ω). L espérance conditionnelle de Y sachant X, notée [Y X] est la projection orthogonale de Y sur le sous espace L 2 (X) des variables aléatoires fonctions de X et de carré intégrable (voir figure 1.6). Y [Y X] L 2 (X) Fig. 1.6 L espérance conditionnelle comme projection orthogonale. Propriété 1.7 Soit (X, Y ) un couple aléatoire avec Y L 2 (Ω). Distance minimale : Z L 2 (X), Y [Y X] Y Z. Orthogonalité : Z L 2 (X), Y [Y X], Z =. Orthogonalité(bis) : Z L 2 (X), Y, Z = [Y X], Z. Pythagore : Y 2 = [Y X] 2 + Y [Y X] 2. Pythagore(bis) : [Y X] Y, avec égalité si Y est une fonction de X. Linéarité : Soit Y 1 et Y 2 de carré intégrable, α et β deux réels, alors : [αy 1 + βy 2 X] = α [Y 1 X] + β [Y 2 X]. Linéarité(bis) : si u : bornée, alors [u(x)y X] = u(x) [Y X]. Positivité : Si Y, alors [Y X]. Positivité(bis) : Si Y 1 et Y 2 sont de carrés intégrables, avec Y 1 Y 2, alors [Y 1 X] E[Y 2 X]. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3

24 22 Chapitre 1. Espérance conditionnelle Calcul Calcul d espérance : [ [Y X]] = [Y ]. Espérance conditionnelle et indépendance : Si X et Y sont indépendantes, alors [Y X] = [Y ]. emarques Les premières propriétés ont une interprétation géométrique simple avec la figure 1.6. Par commodité de notation, ces propriétés ont été écrites en termes de produits scalaires et de norme mais il faut savoir les lire en termes d espérances et d espérances conditionnelles. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Fonctions de plusieurs variables. Sébastien Tordeux

Fonctions de plusieurs variables. Sébastien Tordeux Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Cours Fonctions de deux variables

Cours Fonctions de deux variables Cours Fonctions de deux variables par Pierre Veuillez 1 Support théorique 1.1 Représentation Plan et espace : Grâce à un repère cartésien ( ) O, i, j du plan, les couples (x, y) de R 2 peuvent être représenté

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours

MESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours MSUR T INTÉGRATION N UN DIMNSION Notes de cours André Giroux Département de Mathématiques et Statistique Université de Montréal Mai 2004 Table des matières 1 INTRODUCTION 2 1.1 xercices.............................

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les

Plus en détail

Continuité en un point

Continuité en un point DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Limites finies en un point

Limites finies en un point 8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Cours d Analyse 3 Fonctions de plusieurs variables

Cours d Analyse 3 Fonctions de plusieurs variables Université Claude Bernard, Lyon I Licence Sciences, Technologies & Santé 43, boulevard 11 novembre 1918 Spécialité Mathématiques 69622 Villeurbanne cedex, France L. Pujo-Menjouet pujo@math.univ-lyon1.fr

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

OM 1 Outils mathématiques : fonction de plusieurs variables

OM 1 Outils mathématiques : fonction de plusieurs variables Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.

Plus en détail

EXERCICE 4 (7 points ) (Commun à tous les candidats)

EXERCICE 4 (7 points ) (Commun à tous les candidats) EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat

Plus en détail

Intégration sur des espaces produits

Intégration sur des espaces produits Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

Fonctions de plusieurs variables et applications pour l ingénieur

Fonctions de plusieurs variables et applications pour l ingénieur Service Commun de Formation Continue Année Universitaire 2006-2007 Fonctions de plusieurs variables et applications pour l ingénieur Polycopié de cours Rédigé par Yannick Privat Bureau 321 - Institut Élie

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

4. Martingales à temps discret

4. Martingales à temps discret Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

Commun à tous les candidats

Commun à tous les candidats EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

Cours de mathématiques

Cours de mathématiques DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................

Plus en détail

Mesures gaussiennes et espaces de Fock

Mesures gaussiennes et espaces de Fock Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première

Plus en détail

Loi d une variable discrète

Loi d une variable discrète MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Sur certaines séries entières particulières

Sur certaines séries entières particulières ACTA ARITHMETICA XCII. 2) Sur certaines séries entières particulières par Hubert Delange Orsay). Introduction. Dans un exposé à la Conférence Internationale de Théorie des Nombres organisée à Zakopane

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Calculs de probabilités avec la loi normale

Calculs de probabilités avec la loi normale Calculs de probabilités avec la loi normale Olivier Torrès 20 janvier 2012 Rappels pour la licence EMO/IIES Ce document au format PDF est conçu pour être visualisé en mode présentation. Sélectionnez ce

Plus en détail

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2 Chapitre 8 Fonctions de plusieurs variables 8.1 Généralités sur les fonctions de plusieurs variables réelles Définition. Une fonction réelle de n variables réelles est une application d une partie de R

Plus en détail

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et

Plus en détail

Suites numériques 4. 1 Autres recettes pour calculer les limites

Suites numériques 4. 1 Autres recettes pour calculer les limites Suites numériques 4 1 Autres recettes pour calculer les limites La propriété suivante permet de calculer certaines limites comme on verra dans les exemples qui suivent. Propriété 1. Si u n l et fx) est

Plus en détail

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples 45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et

Plus en détail

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE

ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

Chapitre VI Fonctions de plusieurs variables

Chapitre VI Fonctions de plusieurs variables Chapitre VI Fonctions de plusieurs variables 6. 1 Fonctions différentiables de R 2 dans R. 6. 1. 1 Définition de la différentiabilité Nous introduisons la différentiabilité sous l angle des développements

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

1 TD1 : rappels sur les ensembles et notion de probabilité

1 TD1 : rappels sur les ensembles et notion de probabilité 1 TD1 : rappels sur les ensembles et notion de probabilité 1.1 Ensembles et dénombrement Exercice 1 Soit Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(p(ω)) = 2 4. Soit k n (

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300

I3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300 I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Licence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7 Feuilles de 1 à 7 Ces feuilles avec 25 exercices et quelques rappels historiques furent distribuées à des étudiants de troisième année, dans le cadre d un cours intensif sur deux semaines, en début d année,

Plus en détail

4 Distributions particulières de probabilités

4 Distributions particulières de probabilités 4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

MA6.06 : Mesure et Probabilités

MA6.06 : Mesure et Probabilités Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications

Université Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au

Plus en détail

Etude de fonctions: procédure et exemple

Etude de fonctions: procédure et exemple Etude de fonctions: procédure et exemple Yves Delhaye 8 juillet 2007 Résumé Dans ce court travail, nous présentons les différentes étapes d une étude de fonction à travers un exemple. Nous nous limitons

Plus en détail

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b I Définition d une fonction affine Faire l activité 1 «une nouvelle fonction» 1. définition générale a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe

Plus en détail

MATHEMATIQUES APPLIQUEES Equations aux dérivées partielles Cours et exercices corrigés

MATHEMATIQUES APPLIQUEES Equations aux dérivées partielles Cours et exercices corrigés MATHEMATIQUES APPLIQUEES Equations aux dérivées partielles Cours et exercices corrigés Département GPI 1ère année Avril 2005 INPT-ENSIACET 118 route de Narbonne 31077 Toulouse cedex 4 Mail : Xuan.Meyer@ensiacet.fr

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Image d un intervalle par une fonction continue

Image d un intervalle par une fonction continue DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction

Plus en détail

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N

ENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement

Plus en détail

Dérivées d ordres supérieurs. Application à l étude d extrema.

Dérivées d ordres supérieurs. Application à l étude d extrema. Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières

Plus en détail

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et

Plus en détail

Leçon N 4 : Statistiques à deux variables

Leçon N 4 : Statistiques à deux variables Leçon N 4 : Statistiques à deux variables En premier lieu, il te faut relire les cours de première sur les statistiques à une variable, il y a tout un langage à se remémorer : étude d un échantillon d

Plus en détail

Variables Aléatoires. Chapitre 2

Variables Aléatoires. Chapitre 2 Chapitre 2 Variables Aléatoires Après avoir réalisé une expérience, on ne s intéresse bien souvent à une certaine fonction du résultat et non au résultat en lui-même. Lorsqu on regarde une portion d ADN,

Plus en détail

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème. I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous

Plus en détail

C1 : Fonctions de plusieurs variables

C1 : Fonctions de plusieurs variables 1er semestre 2012/13 CPUMP 3 U 11 : Abrégé de cours Compléments Analyse 3 : fonctions analytiques Les notes suivantes, disponibles à l adresse http://www.iecn.u-nancy.fr/~bertram/, contiennent les définitions

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Fausto Errico Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2012 Table des matières

Plus en détail

Théorèmes du Point Fixe et Applications aux Equations Diérentielles

Théorèmes du Point Fixe et Applications aux Equations Diérentielles Université de Nice-Sophia Antipolis Mémoire de Master 1 de Mathématiques Année 2006-2007 Théorèmes du Point Fixe et Applications aux Equations Diérentielles Auteurs : Clémence MINAZZO - Kelsey RIDER Responsable

Plus en détail

Produits d espaces mesurés

Produits d espaces mesurés Chapitre 7 Produits d espaces mesurés 7.1 Motivation Au chapitre 2, on a introduit la mesure de Lebesgue sur la tribu des boréliens de R (notée B(R)), ce qui nous a permis d exprimer la notion de longueur

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

Corrigé du baccalauréat S Asie 21 juin 2010

Corrigé du baccalauréat S Asie 21 juin 2010 Corrigé du baccalauréat S Asie juin 00 EXERCICE Commun à tous les candidats 4 points. Question : Le triangle GBI est : Réponse a : isocèle. Réponse b : équilatéral. Réponse c : rectangle. On a GB = + =

Plus en détail

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

Statistiques Descriptives à une dimension

Statistiques Descriptives à une dimension I. Introduction et Définitions 1. Introduction La statistique est une science qui a pour objectif de recueillir et de traiter les informations, souvent en très grand nombre. Elle regroupe l ensemble des

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

Que faire lorsqu on considère plusieurs variables en même temps?

Que faire lorsqu on considère plusieurs variables en même temps? Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche

Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines

Plus en détail

Développements limités. Notion de développement limité

Développements limités. Notion de développement limité MT12 - ch2 Page 1/8 Développements limités Dans tout ce chapitre, I désigne un intervalle de R non vide et non réduit à un point. I Notion de développement limité Dans tout ce paragraphe, a désigne un

Plus en détail

Continuité et dérivabilité d une fonction

Continuité et dérivabilité d une fonction DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité

Plus en détail

Optimisation Discrète

Optimisation Discrète Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et

Plus en détail

Chapitre 3. Mesures stationnaires. et théorèmes de convergence

Chapitre 3. Mesures stationnaires. et théorèmes de convergence Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée

Plus en détail