Espérance conditionnelle
|
|
- Jean-Christophe Sylvain
- il y a 7 ans
- Total affichages :
Transcription
1 Table des matières 1 Espérance conditionnelle Cas discret Cas absolument continu Applications Probabilités conditionnelles La régression Interprétation géométrique de l espérance conditionnelle Vecteurs gaussiens et conditionnement appels sur les vecteurs gaussiens variables gaussiennes Vecteurs gaussiens Conditionnement des vecteurs gaussiens Conditionnement pour un couple gaussien Hyperplan de régression Espérance conditionnelle gaussienne i
2 ii
3 Chapitre 1 Espérance conditionnelle 1.1 Cas discret On considère un couple aléatoire discret (X, Y ), c est-à-dire une application mesurable (X, Y ) { (Ω, F, P) ω (X(ω), Y (ω)) où = (x i ) i I et = (y j ) j J sont deux ensembles finis ou dénombrables. La probabilité de tomber sur un couple (x i, y j ) est : p ij = P (X = x i, Y = y j ). La suite double (p ij ) i I,j J est appelée loi jointe du couple (X, Y ) et on a : { pij 1 i I,j J p ij = 1 Exemple 1. On tire deux chiffres au hasard, indépendamment et de façon équiprobable entre 1 et 3. On note X le maximum des chiffres obtenus et Y la somme des chiffres obtenus. On peut représenter la loi jointe dans un tableau : Y = 2 Y = 3 Y = 4 Y = 5 Y = 6 X = 1 1/9 X = 2 2/9 1/9 X = 3 2/9 1/9 1/9 Tab. 1.1 Loi de (X, Y ). Définition 1.1 (Lois marginales) Soit (X, Y ) un couple aléatoire. Les variables X et Y sont appelées variables marginales. La loi de X est appelée loi marginale. Elle entièrement déterminée par les probabilités p i de tomber sur les points x i : p i = P (X = x i ) = j J P (X = x i, Y = y j ) = j J p ij. 1
4 2 Chapitre 1. Espérance conditionnelle De même la loi marginale de Y est déterminée par : p j = P (Y = y j ) = P (X = x i, Y = y j ) = p ij. i I i I Exemple 1. Pour l exemple précédent, il suffit de sommer sur les lignes (resp. sur les colonnes) pour obtenir la loi marginale de X (resp. de Y ) : Y = 2 Y = 3 Y = 4 Y = 5 Y = 6 X = 1 1/9 p 1 = 1/9 X = 2 2/9 1/9 p 2 = 3/9 X = 3 2/9 2/9 1/9 p 3 = 5/9 p 1 = 1/9 p 2 = 2/9 p 3 = 3/9 p 4 = 2/9 p 5 = 1/9 Tab. 1.2 Lois jointe et marginales. On peut aussi représenter la situation dans la figure 1.1, représentation spaciale dont on s inspirera pour interpréter le cas continu Y X Fig. 1.1 Loi jointe (en traits pleins) et lois marginales (en pointillés). emarque En général, la connaissance des lois marginales ne suffit pas reconstituer la loi jointe. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
5 1.1. Cas discret 3 Exemple 2. En guise d illustration, considérons une urne contenant deux boules blanches et une boule noire. On tire deux boules de cette urne. 1 er cas : tirage avec remise On note, pour i = 1, 2 : X i = 1 si la i eme boule est blanche et X i = si la i eme boule est noire. Les lois marginales et jointe sont données dans le tableau suivant : X 1 = 1 X 1 = X 2 = 1 4/9 2/9 2/3 X 2 = 2/6 1/9 1/3 2/3 1/3 2 nd cas : tirage sans remise Cette fois, on note, pour i = 1, 2 : Y i = 1 si la i eme boule est blanche et Y i = si la i eme boule est noire. Le tableau est alors : Y 1 = 1 Y 1 = Y 2 = 1 2/6 2/6 2/3 Y 2 = 2/6 1/3 2/3 1/3 On constate que les lois marginales sont les mêmes alors que ce n est pas le cas des lois jointes. Nous pouvons obtenir facilement la loi jointe à partir des lois marginales dans un cas particulier : celui de l indépendance des deux variables. Définition 1.2 (Indépendance) Les variables aléatoires X et Y sont dites indépendantes lorsque : soit avec nos notations : p ij = p i p j. (i, j) I J P (X = x i, Y = y j ) = P (X = x i ) P (Y = y j ), Exemple 2. Les variables X 1 et X 2 définies dans l expérience précédente sont indépendantes mais ce n est pas le cas des variables Y 1 et Y 2. Définition 1.3 (Probabilités conditionnelles) Soit x i, la loi conditionnelle de Y sachant X = x i est la loi discrète prenant les valeurs y j avec les probabilités : p j i = P (Y = y j X = x i ) = P (X = x i, Y = y j ) P (X = x i ) = p ij p i. emarques La définition suppose que P (X = x i ) ce qui est le cas sinon x i n a rien à faire dans. La suite ( p j i définit bien une probabilité car : )j J j J p j i 1 et j J p j i = j J P (X = x i, Y = y j ) P (X = x i ) = 1. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3
6 4 Chapitre 1. Espérance conditionnelle Exemple 1. Nous reprenons l exemple du tableau 1.1. Les lois conditionnelles de Y sachant X = x i pour i = 1, 2, 3 sont données dans le tableau suivant : Y = 2 Y = 3 Y = 4 Y = 5 Y = 6 X = 1 1 X = 2 2/3 1/3 X = 3 2/5 2/5 1/5 Tab. 1.3 Lois conditionnelles de Y sachant X = x i. Exemple 3. Soit Y P(α) et Z P(β) deux variables de Poisson indépendantes. On sait que X = Y + Z P(α + β). Soit n N, quelle est la loi de Y sachant X = n? Une fois X figé à n, Y prend ses valeurs dans {, 1,, n}. Soit k {, 1,, n}, cherchons P(Y = k X = n) : P(Y = k, X = n) P(Y = k X = n) = P(X = n) P(Y = k, Z = n k) = P(X = n) P(Y = k)p(z = n k) = P(X = n) ( e α α k = e β β n k ) ( ) e (α+β) (α + β) n / k! (n k)! n! n! = k!(n k)! αk β n k (α + β) n ( ) α k ( β = Cn k α + β α + β ) n k ( ) α Finalement, sachant X = n, Y suit une loi binomiale B n, α+β. evenons au cas général et supposons Y intégrable. Il est naturel de s intéresser à la valeur moyenne de la variable Y lorsque X = x i. C est ce qu on appelle l espérance conditionnelle de Y sachant X = x i. Elle s écrit : [Y X = x i ] = y j P(Y = y j X = x i ) = y j p j i. j J j J Or on sait que X prend la valeur x i avec la probabilité p i d où la définition de la variable aléatoire suivante : Définition 1.4 (Espérance conditionnelle) Supposons Y intégrable. La variable aléatoire qui prend les valeurs [Y X = x i ] avec les probabilités p i est appelée espérance conditionnelle de Y sachant X et notée [Y X]. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
7 1.1. Cas discret 5 emarques Il est clair qu en général [Y X = x i ] est une valeur qui est fonction de x i. Il faut donc comprendre qu en général l espérance conditionnelle [Y X] est une variable aléatoire qui pourra s écrire en fonction de X. Pourquoi supposer Y intégrable? On rappelle que Y intégrable signifie [ Y ] < + c est-à-dire que la moyenne des valeurs absolues des valeurs prises par Y est une quantité finie. Si l on considère une variable d espérance finie mais non intégrable, on comprend que les valeurs positives qu elle prend compensent les valeurs négatives pour en moyenne rendre une quantité finie. Il est donc possible dans ce cas d avoir une restriction des valeurs de la variable dont la moyenne soit infinie alors qu en les considérant toutes on aurait une moyenne finie. En supposant Y intégrable, on se prémunit de ce genre de risques. Comme d autre part, on peut considérer [Y X = x i ] comme la moyenne des valeurs de Y restreintes au cas où X = x i, en prenant Y intégrable, on est donc sûr d avoir [Y X = x i ] fini pour tout x i. Exemple 1. En reprenant le tableau 1.3, on obtient facilement [Y X = 1] = 2, [Y X = 2] = 1/3 et [Y X = 3] = 24/5. Par ailleurs, P(X = 1) = 1/9, P(X = 2) = 3/9 et P(X = 3) = 5/9 donc [Y X] est la variable aléatoire qui prend les valeurs 2, 1/3 et 24/5 avec les probabilités respectivement 1/9, 3/9 et 5/9. Exemple 3. On reprend l exemple où Y et Z suivent des lois de Poisson : Y sachant X = n suit une loi binomiale donc : n N [Y X = n] = αn α + β. Ainsi : [Y X] = αx α + β et c est bien une fonction de X. Exemple d une variable non-intégrable mais d espérance finie. Considérons la variable X discrète telle que : n N P (X = ( 1) n n) = π2 /6 n 2. On peut vérifier que cette variable aléatoire est d espérance finie mais qu elle n est pas intégrable. Théorème 1.1 (Calcul d espérance par conditionnement) Si Y est intégrable alors la variable aléatoire [Y X] aussi et on a : [ [Y X]] = E[Y ]. Preuve [Y X] est la variable aléatoire prenant les valeurs E[Y X = x i ] avec les probabilités p i donc : [ [Y X]] = i I p i [Y X = X i ] = i I p i j J y j p j i = y j p i p j i, i I j J or p j i = p ij p i et les sommes mises en jeu sont absolument convergentes; on peut donc intervertir les ordres de sommations et : [ [Y X]] = ( ) p ij y j = p j y j = E[Y ]. j J j J i I Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3
8 6 Chapitre 1. Espérance conditionnelle Exemple 1. Nous obtenons : [ [Y X]] = = 4 et cela correspond en effet au calcul de [Y ] que l on pouvait ici avoir facilement. Exemple 3. Nous avons vu et X = Y + Z P(α + β) donc on retrouve bien [ [Y X] = [Y X] = αx α + β, α α + β [X] = α (α + β) = α = [Y ]. α + β Propriété 1.1 (Espérance conditionnelle et indépendance) Si Y est intégrable, si X et Y sont indépendantes alors la variable aléatoire [Y X] est constante égale à [Y ]. Preuve Si X et Y sont indépendantes alors, i I, j J ainsi, i I, j J Exprimons alors [Y X = x i ] pour un i quelconque : p ij = p i p j p j i = p ij p i = p j. [Y X = x i ] = j J y j p j i = y j p j j J = [Y ] Ainsi, la variable aléatoire [Y X] est constante égale à [Y ]. Utilisation du théorème de transfert. On est souvent amené à calculer [h(x, Y )] où h est une fonction de 2 dans telle que le produit, la somme, la moyenne par exemple. Le théorème de transfert assure que, sous réserve d intégrabilité, cette espérance correspond à la somme double : [h(x, Y )] = h(x i, y i )p ij. i I,j J Si h est à variable séparable (h(x, y) = f(x) g(y)) alors cette formule se simplifie en : [h(x, Y )] = i I,j J f(x i )g(y i )p ij Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
9 1.2. Cas absolument continu 7 et si en plus X et Y sont indépendantes alors : [h(x, Y )] = ( ) f(x i )g(y i )p i p j = f(x i )p i g(y i )p j = [f(x)] [(g(y )], i I,j J i j J On est donc ramené au produit de deux sommes simples qui sont des espérances discrètes classiques. Dans le cas général où h n a pas cette forme et où X et Y ne sont pas indépendantes, E[h(X, Y )] = h(x i, y j )p ij i I,j J = h(x i, y j )p j i p i i I j J = i I j J h(x i, y j )p j i p i = ( [h(x i, Y )]) p i i I = [ [X, Y ] X] On se ramène là encore au calcul de deux sommes simples. 1.2 Cas absolument continu On considère maintenant un couple (X, Y ) à valeurs dans 2. Par définition, la loi jointe P X,Y du couple est la mesure de probabilité sur ( 2, B 2 ) définie par : B B 2 P X,Y (B) = P ((X, Y ) B), que l on peut voir comme la probabilité que le point aléatoire M de coordonnées (X, Y ) tombe dans l ensemble borélien B. Définition 1.5 (Loi jointe absolument continue) On dit que la loi P X,Y est absolument continue s il existe une fonction mesurable f : ( 2 ), B 2 (, B) telle que : B B 2, P X,Y (B) = f(x, y)dxdy. La fonction f est appelée densité de probabilité du couple (X, Y ). Pour qu une fonction f soit une densité de probabilité, il suffit qu elle soit positive et intègre à 1 : { f(x, y) 2 f(x, y)dxdy = 1 emarque En pratique, on fait le parallèle avec le cas discret en remplaçant x i par x, y j par y, p ij par f(x, y) et les sommes par des intégrales. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3 B
10 8 Chapitre 1. Espérance conditionnelle Exemple 4. On considère le couple (X, Y ) de densité : f(x, y) = 2e (x+y) ½ x y. Vérifions qu il s agit bien d une densité. f est positive et son intégrale sur 2 converge. Calculons cette intégrale : 2 f(x, y)dxdy = = = = 2 = La représentation de la densité f est donnée figure 1.2. ( y 2e y ( y ) 2e (x+y) dx dy ) e x dx dy 2e y ( 1 e y) dy e y dy 2 + e 2y dy y x Fig. 1.2 Densité jointe f(x, y) = 2e (x+y) ½ x y sur [, 5] [, 5]. Définition 1.6 (Lois marginales) Si le couple (X, Y ) est absolument continu, les variables marginales X et Y le sont aussi et la densité jointe Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
11 1.2. Cas absolument continu 9 détermine les densités marginales f(x) et f(y) : f(x) = f X (x) = f(x, y)dy et f(y) = f Y (y) = Exemple 4. Pour l exemple précédent, on a f(x) = si x < et pour x : f(x) = Ainsi, De même, + x + 2e (x+y) dy = 2e x e y dy = 2e 2x. f(x) = 2e 2x ½ [,+ [ (x). f(y) = 2e y ( 1 e y) ½ [,+ [ (y). Les densités marginales sont représentées en figure 1.3 et notons que X E(2). x f(x, y)dx. Loi de X Loi de y x y Fig. 1.3 eprésentations des densités marginales f(x) et f(y). Dans le cas général, par définition, les variables aléatoires X et Y sont indépendantes si pour tout couple de boréliens B et B de, on a : P(X B, Y B ) = P(X B)P(Y B ), ou encore si pour toutes fonctions bornées (ou positives) g et h de dans : [g(x)h(y )] = [g(x)] [h(y )]. L indépendance n est en général pas facile à justifier en utilisant ces définitions mais elle se justifie simplement si la loi jointe est absolument continue : Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3
12 1 Chapitre 1. Espérance conditionnelle Propriété 1.2 (Indépendance) Avec les notations précédentes, les variables X et Y sont indépendantes si et seulement si pour tout couple (x, y) de 2 : f(x, y) = f(x)f(y). emarque On peut souvent remarquer que deux variables ne sont pas indépendantes en raisonnant sur les supports. Le support de la loi de X est l adhérence de l endroit où X a des chances de tomber : Supp(X) = {x : f(x) }. La propriété précédente montre donc que l indépendance de X et Y implique que le support de (X, Y ) soit le produit cartésien des supports de X et de Y. Dans notre exemple, le support de (X, Y ) est { (x, y) 2 : x y } et cela ne correspond pas au produit cartésien des supports de X et Y : + +. On peut définir l analogue des probabilités conditionnelles vues dans le cas discret. Définition 1.7 (Lois conditionnelles) La densité conditionnelle de Y sachant X = x est : f(y x) = { f(x,y) f(x) si f(x) si f(x) = Interprétation graphique. On obtient une allure de la densité conditionnelle f(y x ) en coupant la surface représentant la loi jointe par le plan d équation x = x. On observe à l intersection une représentation de la fonction y f(y, x ) qui correspond au facteur de normalisation f(x ) près à celle de la fonction y f(y x ). Exemple 4. Nous avons, pour tout x : f(y x) = f(x, y) f(x) = 2e (x+y) ½ {x y} 2e 2x = e (y x) ½ {y x} et pour tout y > : f(x y) = f(x, y) f(y) = 2e (x+y) ½ {x y} 2e y (1 e y ) = e x ½ {x y} 1 e y Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
13 1.2. Cas absolument continu 11 emarques Pour tout x fixé, la fonction y f(y x) est une densité de probabilité c est-à-dire qu elle est positive et de somme 1. On a l analogue des relations vues dans le cas discret : f(y) = Si X et Y sont indépendantes, on a bien sûr : f(y x)f(x)dx et f(x) = f X Y = f X et f Y X = f Y. f(x y)f(y)dy. Comme dans le cas discret, on cherche à définir l espérance conditionnelle. Pour x fixé, l espérance conditionnelle de Y sachant X = x est : [Y X = x] = yf(y x)dy. La fonction φ : x [Y X = x] est une fonction de la variable réelle x. φ(x) et donc une variable aléatoire : c est l espérance conditionnelle de Y sachant X. Définition 1.8 (Espérance conditionnelle) La variable aléatoire qui prend les valeurs [Y X = x] avec la densité f(x) est appelée espérance conditionnelle de Y sachant X. On la note [Y X]. Exemple 4. Pour tout x, on a : Ainsi, [Y X = x] = = + x yf(y x)dy ye (y x) dy + = e x ye y dy x = x + 1 [Y X = x] = (x + 1)½ x et donc [Y X] = X + 1. Comme X E(2), la variable aléatoire [Y X] suit une loi exponentielle de paramètre 2 translatée sur [1, + [ (cf. figure 1.4). Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3
14 12 Chapitre 1. Espérance conditionnelle Fig. 1.4 Densité de E[Y X]. Propriété 1.3 Si Y est intégrable, alors la variable aléatoire [Y X] aussi et : [ [Y X]] = E[Y ]. Preuve [Y X] est la variable aléatoire prenant les valeurs [Y X = x] avec la densité f(x) donc. [ [Y X]] = [Y X = x]f(x)dx ( ) = yf(y x)dy f(x)dx ( ) = y f(y x)f(x)dx dy (Fubini) = yf(y)dy = [Y ] Exemple 4. On se souvient que la densité de la variable Y est : f(y) = 2e y ( 1 e y) ½ [,+ [ (y). On peut donc obtenir [Y ] : E[Y ] = = + yf(y)dy 2ye y ( 1 e y) dy = = 3 2 Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
15 1.2. Cas absolument continu 13 On retrouve ce résultat en utilisant le fait que [Y X] = X + 1 avec X E(2) : [Y ] = [ [Y X]] = [X + 1] = [X] + 1 = 3 2 Utilisation du théorème de transfert. Si h est une fonction de 2 dans, on peut chercher à calculer l espérance de la variable aléatoire h(x, Y ) : [h(x, Y )] = h(x, y)f(x, y)dxdy. 2 Sous réserve d intégrabilité, c est-à-dire à la condition que on peut la calculer par conditionnement : D où la définition suivante. [h(x, Y )] = 2 h(x, y) f(x, y)dxdy < +, Définition 1.9 (Espérance conditionnelle d un couple) L espérance conditionnelle de h(x, Y ) sachant X = x est : [h(x, Y ) X = x] = ( ) h(x, y)f(y x)dy f(x)dx. h(x, y)f(y x)dy. L espérance conditionnelle de h(x, Y ) sachant X, notée [h(x, Y ) X], est la variable aléatoire prenant les valeurs [h(x, Y ) X = x] avec la densité de probabilité f(x). Propriété 1.4 (Propriétés de l espérance conditionnelle) Sous réserve d intégrabilité des variables aléatoires, on a les propriétés suivantes : Calcul d espérance par conditionnement : [ [h(x, Y ) X]] = [h(x, y) X = x]f(x)dx = [h(x, Y )]. Indépendance : Si X et Y sont indépendantes, alors : [g(y ) X] = [g(y )]. En particulier, on a : [Y X] = [Y ]. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3
16 14 Chapitre 1. Espérance conditionnelle On a : donc en particulier : Linéarité : [g(x) X] = g(x) [X X] = X. [αg(x) + βh(y ) X] = α [g(x) X] + β [h(y ) X] = αg(x) + β [h(y ) X]. Linéarité (bis) : emarques [g(x)h(y ) X] = g(x) [h(y ) X]. Les preuves s obtiennent sans difficulté en revenant à la définition de l espérance conditionnelle. Il faut bien comprendre que par exemple [g(x) X] est une variable aléatoire. C est en effet la variable aléatoire prenant les valeurs [g(x) x] avec la densité f(x). C est donc la variable aléatoire prenant les valeurs g(x) avec la densité f(x) et c est par conséquent la variable aléatoire g(x). 1.3 Applications Probabilités conditionnelles Soit A un événement qui s exprime en fonction de X et Y. On peut lui associer la variable aléatoire indicatrice : Ω {, 1} ½ A ω 1 si (X(ω), Y (ω)) A sinon et voir ainsi sa probabilité comme l espérance de cette indicatrice : P(A) = [½ A ] = 2 ½ A (x, y)f(x, y)dxdy. Il est souvent plus facile de calculer cette quantité en commençant par geler l une des variables et en intégrant par rapport à l autre. C est le principe du conditionnement. Définition 1.1 (Probabilités conditionnelles) La probabilité conditionnelle de l événement A sachant X = x est la quantité : P(A X = x) = [½ A X = x] = ½ A (x, y)f(y x)dy. La probabilité conditionnelle de A sachant X, notée P(A X) est la variable aléatoire prenant les valeurs P(A X = x) avec la densité f(x). On peut alors appliquer la technique de calcul d espérance par conditionnement pour le calcul de P(A). Proposition 1 (Calcul de probabilité par conditionnement) P(A) = P(A X = x)f(x)dx. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
17 1.3. Applications 15 Exemple 5. Soit X et Y deux variables aléatoires indépendantes avec X E(λ) et Y E(µ). On cherche à calculer : P(X < Y ). On pose : Alors : P(X < Y ) = A = {ω Ω : X(ω) < Y (ω)}. P(X < Y X = x)f(x)dx = P(x < Y X = x)f(x)dx. Du fait de l indépendance des variables, P(x < Y X = x) = P(x < Y ) = 1 F Y (x) = e µx, et donc : P(X < Y ) = e µx f(x)dx = e µx λe λx dx. + On obtient ainsi : P(X < Y ) = λ λ + µ La régression Approximation d une variable aléatoire par une constante Soit Y une variable aléatoire de carré intégrable, c est à dire telle que [Y 2 ] < +. On veut approcher Y par une constante ; plus précisément, si on cherche a telle que l erreur quadratique [(Y a) 2 ] soit la plus petite possible, la solution est donnée par l espérance. Proposition 2 (Approximation par une constante) Soit Y telle que [Y 2 ] < +. Parmi tous les réels a, la quantité [(Y a) 2 ] est minimale lorsque a = [Y ]. C est-à-dire : min a [(Y a)2 ] = [(Y [Y ]) 2 ] = [Y 2 ] (E[Y ]) 2 = Var(Y ). Preuve Soit a. Introduisons la fonction a [(Y a) 2 ]. Nous pouvons écrire : [(Y a) 2 ] = [Y 2 2aY + a 2 ] = [Y 2 ] 2a [Y ] + a 2 On reconnait un polynôme du second degré en a qui est en effet minimum pour a = [Y ] et l erreur quadratique est alors : [(Y [Y ]) 2 ] = Var(Y ). emarques En statistique, l analogue de cette proposition est une propriété classique de la moyenne empirique d une série d observations (y i ) i=1 n : la moyenne des y i est la valeur la plus proche de l ensemble des y i au sens de la mesure quadratique. Si on cherche à minimiser l erreur en norme L 1 c est-à-dire si on cherche a tel que [ Y a ] est minimale, la solution est la médiane de Y. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3
18 16 Chapitre 1. Espérance conditionnelle Approximation d une variable aléatoire par une droite On considère cette fois un couple aléatoire (X, Y ) et on suppose que les variables marginales X et Y sont de carré intégrable. On cherche cette fois à approcher au mieux la variable aléatoire Y par une fonction affine de la variable X. Proposition 3 (Approximation par une droite) Soit X et Y deux variables aléatoires de carré intégrable. Parmi tous les couple de réels (a, b), la quantité [(Y (ax + b)) 2 ] est minimale lorsque : L erreur quadratique est alors : a = Cov(X, Y ) σ 2 (X) b = [Y ] Cov(X, Y ) σ 2 [X] (X) min a,b [(Y (ax + b))2 ] = σ 2 (Y )(1 ρ 2 ) où ρ = Cov(X, Y ) σ(x)σ(y ). Preuve On introduit la fonction φ : (a, b) [(Y (ax + b)) 2 ]. En développant, on obtient : φ(a, b) = [X 2 ]a [X]ab + b 2 2 [XY ]a 2 [Y ]b + [Y 2 ] Si cette fonction possède un point singulier, ce point est un minimum. Cherchons les points où les dérivées partielles s annulent : Le système { φ a (a, b) = 2a [X2 ] + 2b [X] 2 [XY ] = φ b a pour solution : { soit En écrivant (a, b) = 2a [X] + 2b 2 [Y ] = [XY ] [X]E[Y ] [X 2 ] [X] 2 a = b = [Y ] a [X] a = Cov(X, Y ) σ 2 (X) b = [Y ] Cov(X, Y ) σ 2 [X] (X) Y (ax + b) = Y [Y ] Cov(X, Y ) σ 2 (X [X]) (X) puis en calculant l espérance du carré de cette variable, on obtient (après calcul) : φ(a, b) = σ 2 (Y )(1 ρ 2 ). Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
19 1.3. Applications 17 emarques Lorsque les variables X et Y sont de carré intégrable, parler de la covariance de X et Y a un sens puisque d une part cela assure l existence de [X] et de [Y ] et que d autre part on a : ω Ω, X(ω)Y (ω) 1 ( X 2 (ω) + Y 2 (ω) ), 2 donc, en passant à l expérance [ XY ] 1 ( [X 2 ] + [Y 2 ] ) < +. 2 L existence du minimum pour la fonction φ suppose que Var(X). Mais Var(X) = revient à dire que X est presque sûrement constante auquel cas on est ramené à approcher Y par une constante ce qui a été vu juste avant. Ce principe d approximation est d usage fréquent en statistique mais dans ce cadre on ne dispose que de n couples (x i, y i ) i=1 n d observations des variables et l idée est d utiliser cet échantillon pour, à partir d une nouvelle observation de la variable X de faire une prévision pour Y. Lorsque le nuage de points représentant les observations s apparente à une droite, on cherche la droite qui approche le mieux ce nuage en minimisant la somme des carrés : n (y i (ax i + b)) 2. i=1 La droite de régression obtenue est la même que précédemment mais en considérant cette fois espérances, variances et covariances empiriques. Exemple 4. On rappelle que : f(x, y) = 2e (x+y) ½ x y X E(2) c est-à-dire f(x) = 2e 2x ½ [,+ [ f(y) = 2e y (1 e y )½ [,+ [ [X] = 1/2 et [Y ] = 3/2 appelons également que si V E(λ) alors pour tout n N : [V n ] = n! λ n. Calculons la droite de régression dans cet exemple : Cov(X, Y ) = [XY ] [X] [Y ] = xyf(x, y)dxdy ( y ) = 2xye (x+y) dx dy 3 4 = = ye y ( 1 ye y e y) dy 3 4 ye y dy = ye 2y dy + 2y 2 e 2y dy 3 4 = 1 4 Comme Var(X) = 1/4, on obtient a = 1 et par conséquent b = 1. La droite de régression a donc pour équation : y = x + 1. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3
20 18 Chapitre 1. Espérance conditionnelle Approximation d une variable aléatoire par une fonction On considère encore un couple aléatoire (X, Y ) avec Y de carré intégrable. On cherche à nouveau à approcher au mieux Y par une fonction de X mais sans se restreindre à une classe de fonctions particulières. On pose donc le problème ainsi : parmi toutes les fonctions de X, quelle est celle qui approche le mieux Y? Autremement dit, on cherche la fonction u : qui rend minimale la quantité : [(Y u(x)) 2 ]. Théorème 1.2 (Espérance conditionnelle et régression) Supposons Y telle que [Y 2 ] < +. Parmi toutes les fonctions u :, l erreur d approximation E[(Y u(x)) 2 ] est minimale lorsque que u est la fonction dite de régression x [Y X = x], c est-à-dire lorsque u(x) = [Y X]. Preuve Notons m(x) = [Y X] et montrons que pour toute fonction u :, [(Y u(x)) 2 ] [(Y m(x)) 2 ]. [(Y u(x)) 2 ] = [(Y m(x) + m(x) u(x)) 2 ] = [(Y m(x)) 2 ] + [(m(x) u(x)) 2 ] + 2 [(Y m(x))(m(x) u(x))] Calculons [(Y m(x))(m(x) u(x))] par conditionnement : [(Y m(x))(m(x) u(x)] = [ [(Y m(x))(m(x) u(x)) X]] = [(m(x) u(x)) [(Y m(x)) X]] = [(m(x) u(x)) { [Y X] [m(x) X]}] = [(m(x) u(x)) { [Y X] m(x)}] Or m(x) = [Y X] donc [(Y m(x))(m(x) u(x)] = et finalement on a bien : [(Y u(x)) 2 ] = [(Y m(x)) 2 ] + [(m(x) u(x)) 2 ] [(Y m(x)) 2 ]. Le minimum obtenu fait l objet d une définition. Définition 1.11 La quantité σ 2 = min u [(Y u(x)) 2 ] = [(Y [Y X]) 2 ] est appelée erreur quadratique moyenne ou variance résiduelle. Définition 1.12 (Courbe de régression) La courbe x y = [Y X = x] est appelée courbe de régression de Y en X. Par exemple, si les variables X et Y sont indépendantes, la courbe de régression de Y en X est la droite horizontale d équation y = [Y ]. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
21 1.4. Interprétation géométrique de l espérance conditionnelle 19 Exemple 4. La fonction de régression u : x [Y X = x] a déjà été calculée et on avait obtenu u(x) = X +1. Notons que sur cet exemple la fonction de régression coïncide avec la droite de régression. La variance résiduelle est : [(Y [Y X]) 2 ] = [(Y X 1) 2 ] = 1 2 [XY ] 2E[Y ] + 2 [X] + [Y 2 ] + [X 2 ] = [Y 2 ] + [X 2 ] De plus, en utilisant le rappel énoncé plus haut, [Y 2 ] = + 2y 2 e y (1 e y )dy = 4 et [X 2 ] = 1/2 d où : [(Y [Y X]) 2 ] = Interprétation géométrique de l espérance conditionnelle Soit (Ω, F, P) un espace probabilisé. On note L 2 (Ω, F, P) ou plus simplement L 2 (Ω) l ensemble des variables aléatoires X : Ω de carré intégrable. Propriété 1.5 (Propriétés de L 2 (Ω)) Si X et Y appartiennent à L 2 (Ω), alors XY est intégrable. L 2 (Ω) est un espace vectoriel. Proposition 4 L application.,. : { L 2 (Ω) L 2 (Ω) (X, Y ) X, Y = [XY ] est un produit scalaire sur L 2 (Ω). La norme associée est : X = E[X 2 ]. emarque Dire que deux variables sont orthogonales revient donc à dire que [XY ] = ce qui, si elles sont centrées, revient à dire qu elles sont non-corrélées. Propriété 1.6 (Propriétés de la norme dans L 2 (Ω)) On a les propriétés habituelles d une norme à savoir : la positivité : X en général et X = seulement pour X =, l homogénéité : a, ax = a X, l inégalité triangulaire : X + Y X + Y, l inégalité de Cauchy-Schwarz : X, Y X Y. emarque (Interprétation du coefficient de corrélation linéaire ρ) Dans la section précédente, au moment d approcher une variable par une droite, nous avons défini le coefficient de corrélation linéaire entre deux variables X et Y par : ρ = Cov(X, Y ) σ(x)σ(y ) = [(X [X])(Y [Y ])] [(X [X]) 2 ] [(X [X]) 2 ]. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3
22 2 Chapitre 1. Espérance conditionnelle Nous avons donc : X [X], Y [Y ] ρ = X [X] Y E[Y ] De l inégalité de Cauchy-Schwarz nous déduisons : 1 ρ 1 et on comprend dès lors qu une valeur de ρ = ±1 correspond au cas où les variables X et Y sont liées par une relation Y = ax + b presque sûrement. On comprend par ailleurs que ρ = équivaut à a = Cov(X,Y ) σ(x)σ(y ) = et qu alors le mieux qu on puisse faire est d approcher Y par une constante. Nous avions d autre part calculé l erreur d approximation : min a,b [(Y (ax + b))2 ] = σ 2 (Y )(1 ρ 2 ). L erreur d approximation sera d autant plus faible que ρ est proche de 1 ou -1 ce qui est normal puisqu alors Y ax + b, et que σ(y ) petit. La norme. permet de mesurer la distance entre deux variables aléatoires : d(x, Y ) = X Y = [(X Y ) 2 ], distance que l on appelle naturellement distance en moyenne quadratique. On peut alors associer à cette norme la notion de convergence en moyenne quadratique : la suite de variables aléatoires (X n ) n converge en moyenne quadratique vers la variable aléatoire X si lim n + X n = X c està-dire si : lim n + [(X X n) 2 ] =. On note alors : X n L2 X. Théorème 1.3 (Espace de Hilbert) L espace L 2 (Ω) muni du produit scalaire précédent est complet, c est à dire que toute suite (X n ) n de L 2 (Ω) vérifiant le critère de Cauchy converge en moyenne quadratique vers une variable aléatoire X de L 2 (Ω). Théorème 1.4 (Théorème de la projection orthogonale) Soit H un sous espace fermé de de L 2 (Ω). Pour tout Y de L 2 (Ω), il existe une unique variable aléatoire de H, notée π H (Y ), qui soit à plus courte distance de Y. On l appelle le projeté orthogonale de Y sur H et elle est entierement caractérisée par la double propriété suivante illustrée en figure 1.5 : { π H (Y ) H Y π H (Y ) H Y Y π H (Y ) π H (Y ) H Fig. 1.5 Projection orthogonale π H de Y sur H. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
23 1.4. Interprétation géométrique de l espérance conditionnelle 21 emarque L existence et l unicité du projeté orthogonal dans les espaces Euclidiens (espaces vectoriels de dimension finie munis d un produit scalaire) est connue depuis la 2ème année. Ici l espace L 2 (Ω) est muni d un produit scalaire mais il est de dimensison infinie : c est la complétude qui permet d avoir encore cette propriété. Considérons maintenant une variable aléatoire X. On lui associe : L 2 (X) = { u(x) avec u : borélienne telle que [u 2 (X)] < + }, ensemble des variables aléatoires qui s expriment comme fonctions de X et de carré intégrable. Il se trouve que L 2 (X) est un sous-espace fermé de L 2 (Ω) et on peut donc lui appliquer le théorème 1.4. Si on considère une variable aléatoire Y de carré intégrable : il existe une unique variable π L 2 (X)(Y ) dans le sous espace L 2 (X) qui soit à plus courte distance de Y. Nous avons vu dans le paragraphe sur la régression que cette variable en question était justement l espérance conditionnelle de Y sachant X. Il est donc naturel de donner à l espérance conditionnelle la définition suivante qui est plus générale que les précédentes : Définition 1.13 (Espérance conditionnelle) Soit (X, Y ) un couple aléatoire avec Y L 2 (Ω). L espérance conditionnelle de Y sachant X, notée [Y X] est la projection orthogonale de Y sur le sous espace L 2 (X) des variables aléatoires fonctions de X et de carré intégrable (voir figure 1.6). Y [Y X] L 2 (X) Fig. 1.6 L espérance conditionnelle comme projection orthogonale. Propriété 1.7 Soit (X, Y ) un couple aléatoire avec Y L 2 (Ω). Distance minimale : Z L 2 (X), Y [Y X] Y Z. Orthogonalité : Z L 2 (X), Y [Y X], Z =. Orthogonalité(bis) : Z L 2 (X), Y, Z = [Y X], Z. Pythagore : Y 2 = [Y X] 2 + Y [Y X] 2. Pythagore(bis) : [Y X] Y, avec égalité si Y est une fonction de X. Linéarité : Soit Y 1 et Y 2 de carré intégrable, α et β deux réels, alors : [αy 1 + βy 2 X] = α [Y 1 X] + β [Y 2 X]. Linéarité(bis) : si u : bornée, alors [u(x)y X] = u(x) [Y X]. Positivité : Si Y, alors [Y X]. Positivité(bis) : Si Y 1 et Y 2 sont de carrés intégrables, avec Y 1 Y 2, alors [Y 1 X] E[Y 2 X]. Nicolas JEGOU - ennes 2 Probabilités et conditionnement - MASS 3
24 22 Chapitre 1. Espérance conditionnelle Calcul Calcul d espérance : [ [Y X]] = [Y ]. Espérance conditionnelle et indépendance : Si X et Y sont indépendantes, alors [Y X] = [Y ]. emarques Les premières propriétés ont une interprétation géométrique simple avec la figure 1.6. Par commodité de notation, ces propriétés ont été écrites en termes de produits scalaires et de norme mais il faut savoir les lire en termes d espérances et d espérances conditionnelles. Probabilités et conditionnement - MASS 3 Nicolas JEGOU - ennes 2
Espérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailFonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailExercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailFonctions de plusieurs variables. Sébastien Tordeux
Fonctions de plusieurs variables Sébastien Tordeux 22 février 2009 Table des matières 1 Fonctions de plusieurs variables 3 1.1 Définition............................. 3 1.2 Limite et continuité.......................
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détailCours Fonctions de deux variables
Cours Fonctions de deux variables par Pierre Veuillez 1 Support théorique 1.1 Représentation Plan et espace : Grâce à un repère cartésien ( ) O, i, j du plan, les couples (x, y) de R 2 peuvent être représenté
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailFonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailMESURE ET INTÉGRATION EN UNE DIMENSION. Notes de cours
MSUR T INTÉGRATION N UN DIMNSION Notes de cours André Giroux Département de Mathématiques et Statistique Université de Montréal Mai 2004 Table des matières 1 INTRODUCTION 2 1.1 xercices.............................
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Plus en détailFonctions de plusieurs variables
Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les
Plus en détailContinuité en un point
DOCUMENT 4 Continuité en un point En général, D f désigne l ensemble de définition de la fonction f et on supposera toujours que cet ensemble est inclus dans R. Toutes les fonctions considérées sont à
Plus en détailDe même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
Plus en détailLimites finies en un point
8 Limites finies en un point Pour ce chapitre, sauf précision contraire, I désigne une partie non vide de R et f une fonction définie sur I et à valeurs réelles ou complees. Là encore, les fonctions usuelles,
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailCours d Analyse 3 Fonctions de plusieurs variables
Université Claude Bernard, Lyon I Licence Sciences, Technologies & Santé 43, boulevard 11 novembre 1918 Spécialité Mathématiques 69622 Villeurbanne cedex, France L. Pujo-Menjouet pujo@math.univ-lyon1.fr
Plus en détailThéorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailChapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Plus en détailOM 1 Outils mathématiques : fonction de plusieurs variables
Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.
Plus en détailEXERCICE 4 (7 points ) (Commun à tous les candidats)
EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat
Plus en détailIntégration sur des espaces produits
Chapitre 5 Intégration sur des espaces produits 5.1 Produit de deux mesures Étant donnés deux espaces mesurés (Ω 1, F 1, µ 1 ) et (Ω 2, F 1, µ 2 ), le but de cette section est de construire une mesure
Plus en détailAmphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
Plus en détailFonctions de plusieurs variables et applications pour l ingénieur
Service Commun de Formation Continue Année Universitaire 2006-2007 Fonctions de plusieurs variables et applications pour l ingénieur Polycopié de cours Rédigé par Yannick Privat Bureau 321 - Institut Élie
Plus en détailCalcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Plus en détail4. Martingales à temps discret
Martingales à temps discret 25 4. Martingales à temps discret 4.1. Généralités. On fixe un espace de probabilités filtré (Ω, (F n ) n, F, IP ). On pose que F contient ses ensembles négligeables mais les
Plus en détailDifférentiabilité ; Fonctions de plusieurs variables réelles
Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2
Plus en détailCommun à tous les candidats
EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle
Plus en détailCalcul différentiel. Chapitre 1. 1.1 Différentiabilité
Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace
Plus en détailCours de mathématiques
DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................
Plus en détailMesures gaussiennes et espaces de Fock
Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première
Plus en détailLoi d une variable discrète
MATHEMATIQUES TD N : VARIABLES DISCRETES - Corrigé. P[X = k] 0 k point de discontinuité de F et P[X = k] = F(k + ) F(k ) Ainsi, P[X = ] =, P[X = 0] =, P[X = ] = R&T Saint-Malo - nde année - 0/0 Loi d une
Plus en détailPremière partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Plus en détailSur certaines séries entières particulières
ACTA ARITHMETICA XCII. 2) Sur certaines séries entières particulières par Hubert Delange Orsay). Introduction. Dans un exposé à la Conférence Internationale de Théorie des Nombres organisée à Zakopane
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détailCalculs de probabilités avec la loi normale
Calculs de probabilités avec la loi normale Olivier Torrès 20 janvier 2012 Rappels pour la licence EMO/IIES Ce document au format PDF est conçu pour être visualisé en mode présentation. Sélectionnez ce
Plus en détail8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2
Chapitre 8 Fonctions de plusieurs variables 8.1 Généralités sur les fonctions de plusieurs variables réelles Définition. Une fonction réelle de n variables réelles est une application d une partie de R
Plus en détailI - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et
Plus en détailSuites numériques 4. 1 Autres recettes pour calculer les limites
Suites numériques 4 1 Autres recettes pour calculer les limites La propriété suivante permet de calculer certaines limites comme on verra dans les exemples qui suivent. Propriété 1. Si u n l et fx) est
Plus en détailFonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples
45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et
Plus en détailÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE
ÉTUDE ASYMPTOTIQUE D UNE MARCHE ALÉATOIRE CENTRIFUGE JEAN-DENIS FOUKS, EMMANUEL LESIGNE ET MARC PEIGNÉ J.-D. Fouks. École Supérieure d Ingénieurs de Poitiers. 40 avenue du Recteur Pineau, 860 Poitiers
Plus en détailCouples de variables aléatoires discrètes
Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude
Plus en détailChapitre VI Fonctions de plusieurs variables
Chapitre VI Fonctions de plusieurs variables 6. 1 Fonctions différentiables de R 2 dans R. 6. 1. 1 Définition de la différentiabilité Nous introduisons la différentiabilité sous l angle des développements
Plus en détailM2 IAD UE MODE Notes de cours (3)
M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de
Plus en détail1 TD1 : rappels sur les ensembles et notion de probabilité
1 TD1 : rappels sur les ensembles et notion de probabilité 1.1 Ensembles et dénombrement Exercice 1 Soit Ω = {1, 2, 3, 4}. Décrire toutes les parties de Ω, puis vérier que card(p(ω)) = 2 4. Soit k n (
Plus en détailIntroduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
Plus en détailI3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300
I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailLicence MASS 2000-2001. (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7
Feuilles de 1 à 7 Ces feuilles avec 25 exercices et quelques rappels historiques furent distribuées à des étudiants de troisième année, dans le cadre d un cours intensif sur deux semaines, en début d année,
Plus en détail4 Distributions particulières de probabilités
4 Distributions particulières de probabilités 4.1 Distributions discrètes usuelles Les variables aléatoires discrètes sont réparties en catégories selon le type de leur loi. 4.1.1 Variable de Bernoulli
Plus en détail3. Caractéristiques et fonctions d une v.a.
3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions
Plus en détailMA6.06 : Mesure et Probabilités
Année universitaire 2002-2003 UNIVERSITÉ D ORLÉANS Olivier GARET MA6.06 : Mesure et Probabilités 2 Table des matières Table des matières i 1 Un peu de théorie de la mesure 1 1.1 Tribus...............................
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailUniversité Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications
Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au
Plus en détailEtude de fonctions: procédure et exemple
Etude de fonctions: procédure et exemple Yves Delhaye 8 juillet 2007 Résumé Dans ce court travail, nous présentons les différentes étapes d une étude de fonction à travers un exemple. Nous nous limitons
Plus en détaila et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b
I Définition d une fonction affine Faire l activité 1 «une nouvelle fonction» 1. définition générale a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe
Plus en détailMATHEMATIQUES APPLIQUEES Equations aux dérivées partielles Cours et exercices corrigés
MATHEMATIQUES APPLIQUEES Equations aux dérivées partielles Cours et exercices corrigés Département GPI 1ère année Avril 2005 INPT-ENSIACET 118 route de Narbonne 31077 Toulouse cedex 4 Mail : Xuan.Meyer@ensiacet.fr
Plus en détailIntégration et probabilités TD1 Espaces mesurés Corrigé
Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.
Plus en détailImage d un intervalle par une fonction continue
DOCUMENT 27 Image d un intervalle par une fonction continue La continuité d une fonction en un point est une propriété locale : une fonction est continue en un point x 0 si et seulement si sa restriction
Plus en détailENS de Lyon TD 1 17-18 septembre 2012 Introduction aux probabilités. A partie finie de N
ENS de Lyon TD 7-8 septembre 0 Introduction aux probabilités Exercice Soit (u n ) n N une suite de nombres réels. On considère σ une bijection de N dans N, de sorte que (u σ(n) ) n N est un réordonnement
Plus en détailDérivées d ordres supérieurs. Application à l étude d extrema.
Chapitre 5 Dérivées d ordres supérieurs. Application à l étude d extrema. On s intéresse dans ce chapitre aux dérivées d ordre ou plus d une fonction de plusieurs variables. Comme pour une fonction d une
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailNotes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailLeçon N 4 : Statistiques à deux variables
Leçon N 4 : Statistiques à deux variables En premier lieu, il te faut relire les cours de première sur les statistiques à une variable, il y a tout un langage à se remémorer : étude d un échantillon d
Plus en détailVariables Aléatoires. Chapitre 2
Chapitre 2 Variables Aléatoires Après avoir réalisé une expérience, on ne s intéresse bien souvent à une certaine fonction du résultat et non au résultat en lui-même. Lorsqu on regarde une portion d ADN,
Plus en détailI. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.
I. Introduction. 1. Objectifs. Le but de ces quelques séances est d introduire les outils mathématiques, plus précisément ceux de nature probabiliste, qui interviennent dans les modèles financiers ; nous
Plus en détailC1 : Fonctions de plusieurs variables
1er semestre 2012/13 CPUMP 3 U 11 : Abrégé de cours Compléments Analyse 3 : fonctions analytiques Les notes suivantes, disponibles à l adresse http://www.iecn.u-nancy.fr/~bertram/, contiennent les définitions
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailNotes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Fausto Errico Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2012 Table des matières
Plus en détailThéorèmes du Point Fixe et Applications aux Equations Diérentielles
Université de Nice-Sophia Antipolis Mémoire de Master 1 de Mathématiques Année 2006-2007 Théorèmes du Point Fixe et Applications aux Equations Diérentielles Auteurs : Clémence MINAZZO - Kelsey RIDER Responsable
Plus en détailProduits d espaces mesurés
Chapitre 7 Produits d espaces mesurés 7.1 Motivation Au chapitre 2, on a introduit la mesure de Lebesgue sur la tribu des boréliens de R (notée B(R)), ce qui nous a permis d exprimer la notion de longueur
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailCorrigé du baccalauréat S Asie 21 juin 2010
Corrigé du baccalauréat S Asie juin 00 EXERCICE Commun à tous les candidats 4 points. Question : Le triangle GBI est : Réponse a : isocèle. Réponse b : équilatéral. Réponse c : rectangle. On a GB = + =
Plus en détailPROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390
PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390 Université PARIS 6 2008/2009 Jean BERTOIN 1 Table des Matières ( ) ces parties peuvent ^etre omises en première lecture, et ne feront pas
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur
Plus en détailStatistiques Descriptives à une dimension
I. Introduction et Définitions 1. Introduction La statistique est une science qui a pour objectif de recueillir et de traiter les informations, souvent en très grand nombre. Elle regroupe l ensemble des
Plus en détail* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours
Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****
Plus en détailCours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Plus en détailQue faire lorsqu on considère plusieurs variables en même temps?
Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailCapes 2002 - Première épreuve
Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série
Plus en détailMÉTHODE DE MONTE CARLO.
MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental
Plus en détailLe théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche
Le théorème de Perron-Frobenius, les chaines de Markov et un célèbre moteur de recherche Bachir Bekka Février 2007 Le théorème de Perron-Frobenius a d importantes applications en probabilités (chaines
Plus en détailDéveloppements limités. Notion de développement limité
MT12 - ch2 Page 1/8 Développements limités Dans tout ce chapitre, I désigne un intervalle de R non vide et non réduit à un point. I Notion de développement limité Dans tout ce paragraphe, a désigne un
Plus en détailContinuité et dérivabilité d une fonction
DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité
Plus en détailOptimisation Discrète
Prof F Eisenbrand EPFL - DISOPT Optimisation Discrète Adrian Bock Semestre de printemps 2011 Série 7 7 avril 2011 Exercice 1 i Considérer le programme linéaire max{c T x : Ax b} avec c R n, A R m n et
Plus en détailChapitre 3. Mesures stationnaires. et théorèmes de convergence
Chapitre 3 Mesures stationnaires et théorèmes de convergence Christiane Cocozza-Thivent, Université de Marne-la-Vallée p.1 I. Mesures stationnaires Christiane Cocozza-Thivent, Université de Marne-la-Vallée
Plus en détail