R esum e du Cours d Econom etrie Yves Till e 16 d ecembre 2008
|
|
- Marie-Ange Léonard
- il y a 7 ans
- Total affichages :
Transcription
1 Résumé du Cours d Économétrie Yves Tillé 16 décembre 2008
2 Avertissement Ce document n est pas un compte rendu exhaustif du cours d Économétrie, mais un résumé Il reprend les principaux développements, mais il est complété au cours par de nombreux graphiques, commentaires, et approfondissements Nous remercions Jérôme Taillard pour la préparation de plusieurs exercices, Guido Pult pour nous avoir donné plusieurs exercices et Ines Pasini pour son aide à la dactylographie Les étudiants sont invités à consulter les ouvrages de références suivants cités dans la bibliographie : Judge et al (1985), Johnston (1988), Theil (1979), Maddala (1988), Gourieroux and Monfort (1989a), Gourieroux and Monfort (1989b), Greene (1990), Cohen and Pradel (1993), Bourbonnais (1993), Johnston (1997), Johnson (1999), Ruud (2000) Yves Tillé 1
3 Chapitre 1 Éléments d algèbre linéaire 11 Espace vectoriel 111 Vecteur Un élément de R n est une suite ordonnée de n éléments de R On peut disposer cette suite, appelée vecteur soit en ligne, soit en colonne Exemple 11 Le vecteur a = [3 est un vecteur colonne 0], est un vecteur ligne et le vecteur b = La transposition transforme un vecteur ligne en vecteur colonne et réciproquement Exemple 12 Si a = (3 0), la transposée de a est a = ( 3 0) 112 Multiplication par un scalaire et addition On peut multiplier un vecteur par un scalaire Soit un scalaire c R et un vecteur colonne a de R n, alors a 1 ca 1 c a = c = a n ca n Deux vecteurs lignes (ou deux vecteurs colonnes) peuvent s additionner s ils sont de même dimension a 1 1 a 1 + b 1 + b = a n b n a n + b n En utilisant la multiplication par un scalaire et l addition, on peut définir une combinaison linéaire de deux vecteurs a et b : a 1 1 c 1 a 1 + c 2 b 1 c 1 a + c 2 b = c 1 + c 2 b = a n b n c 1 a n + c 2 b n où c 1, c 2 R 2
4 113 Définition d un espace vectoriel On se réfère à la définition suivante : la définition suivante : Définition 11 Soit K un corps commutatif d élément unité noté 1 On nomme espace vectoriel sur K, un ensemble E muni d une loi de composition interne (+) conférant à E la structure de groupe commutatif ou abélien, et d une seconde loi dite externe, application de E K dans E notée ( ), aussi appelée multiplication, faisant intervenir les éléments de K, appelés scalaires Cette loi externe doit vérifier les axiomes suivants, x, y E, a, b K désignant des scalaires : 1 a (x + y) = a x + a y (distributivité) 2 (a + b) x = a x + b x (distributivité) 3 a (b x) = ab x (associativité) 4 1 x = x Si on prend K = R, on vérifie que R n doté de la loi interne + et de la loi externe est un espace vectoriel 114 Vecteurs linéairement indépendants Définition 12 Les vecteurs u 1,, u j,, u J sont dit linéairement indépendants, si implique que a 1 = a 2 = = a J = Sous-espace vectoriel a 1 u 1 + a 2 u a J u J = 0 Définition 13 Un sous-ensemble non-vide V de R n est un sous-espace vectoriel, si pour tous u, v V, 1 u + v V, 2 au V pour tout a R 116 Système générateur d un sous-espace vectoriel Définition 14 Un ensemble de p vecteurs u 1,, u p du sous-espace vectoriel V forment un système générateur de V si et seulement si 1 u 1,, u p sont tous différents de 0, 2 pour tout v V, on peut écrire v = a 1 u a p u p 117 Base d un sous-espace vectoriel Définition 15 Un ensemble de p vecteurs u 1,, u p du sous-espace vectoriel V forment une base de V si et seulement si 1 ils sont linéairement indépendants, 2 ils forment un système générateur de V Autrement dit, tout vecteur de V peut s écrire comme une combinaison linéaire de u 1,, u p 118 Base canonique de R n La base canonique de R n est , 0, 1,,
5 119 Dimension d un sous-espace vectoriel Définition 16 La dimension d un sous-espace vectoriel est le plus petit nombre de vecteurs suffisants pour l engendrer Cette dimension correspond en particulier au nombre de vecteurs constituant une base quelconque de V 12 Espace euclidien 121 Produit scalaire On définit la multiplication d un vecteur ligne a par un vecteur colonne b comme le résultat scalaire : 1 a b = (a 1 a n ) b = a i b i b n Le produit scalaire de deux vecteurs colonnes u et b de même dimension est noté < u, b > et est défini par : 1 < u, b >= u b = (u 1 u n ) b = u i b i Définition 17 Un espace euclidien est un espace vectoriel muni d un produit scalaire 122 Norme Définition 18 La norme (ou longueur) d un vecteur colonne u est vecteur de norme égale à 1 est dit normé 123 Distance entre deux vecteurs u = < u, u > Définition 19 La distance entre les vecteurs u et v de R n est définie par d(u, v) = u v = n (u i v i ) 2 Définition 110 La projection d un vecteur u sur un vecteur v est définie par 124 Vecteurs orthogonaux Définition 111 Deux vecteurs non-nuls u et v de R n sont orthogonaux si On note alors u v b n p v (u) = < u, v > v v 2 (11) < u, v >= 0 Théorème 11 (de Pythagore) Si u et v sont orthogonaux, alors u + v 2 = u 2 + v 2 4
6 125 Orthogonal d un sous-espace vectoriel Définition 112 Un vecteur u est orthogonal à un sous-espace vectoriel V si et seulement si il est orthogonal à tous les vecteurs de V, on note alors u V Définition 113 Les sous-espaces V et W sont dits orthogonaux, si tout vecteur de V est orthogonal à tout vecteur de W Définition 114 L ensemble de tous les vecteurs orthogonaux à V est appelé l orthogonal de V et est noté V Propriété 11 (V ) = V, V V = {0} 13 Application linéaire et matrices 131 Application linéaire Une application f() de R J dans R I est dite linéaire si pour tous u, v, de R J et tout a R f(u + v) = f(u) + f(v), f(au) = af(u) 132 Matrice Une matrice est un tableau de nombres Par exemple : a 11 a 1j a 1J A = a i1 a ij a ij a I1 a Ij a IJ est une matrice de I lignes et de J colonnes En statistique, on manipule souvent des matrices Par convention, les lignes représentent souvent les unités statistiques, et les colonnes des variables Comme les vecteurs, les matrices peuvent être multipliées par un scalaire On peut également additionner deux matrices à condition qu elles aient le même nombre de lignes et de colonnes Sous cette même condition, on peut aussi définir une combinaison linéaire de deux matrices 133 Produit d une matrice et d un vecteur Soient une matrice A de dimension I J et un vecteur colonne u de dimension J le produit Au est donné par J a 11 a 1j a 1J u 1 j=1 a 1ju j Au = a i1 a ij a ij a I1 a Ij a IJ u j u J = J j=1 a iju j J j=1 a Iju j Le produit d un vecteur par une matrice est la représentation d une application linéaire dans la base canonique 5
7 134 Produit matriciel Soient deux matrices A de dimension I J et B de dimension J K, alors le produit de ces deux matrices est donné par a 11 a 1j a 1J b 11 b 1k b 1K AB = a i1 a ij a ij b j1 b jk b jk = a I1 a Ij a IJ b J1 b Jk b JK c 11 c 1k c 1K c i1 c ik c ik c I1 c Ik c IK = C, où c ik = J a ij b jk C est le produit des lignes par les colonnes La matrice C est de dimension (I K) 135 Transposition j=1 Transposer une matrice revient à remplacer les lignes par les colonnes et vice versa Par exemple, si A = 1 2 ( ) 4 3 alors A = Remarque 11 Soient A, B, C de dimension respectives (I J), (J K) et (K L), alors la transposée de ABC vaut (ABC) = C B A 136 Matrices carrées, symétriques et diagonales Définition 115 Une matrice est dite carrée si elle a le même nombre de lignes et de colonnes Si un vecteur de dimension n est prémultiplié par une matrice carrée n n, le résultat est donc aussi de dimension n Une matrice carrée n n est donc une application linéaire de R n dans R n Définition 116 Une matrice est dite symétrique si elle est égale à sa transposée Une matrice symétrique est donc toujours carrée Définition 117 Une matrice est dite diagonale, si elle est carrée et que tous ses éléments extradiagonaux sont nuls Par exemple, est une matrice diagonale D =
8 Définition 118 Une matrice identité I est une matrice diagonale dont tous les éléments de la diagonale sont égaux à 1 Par exemple, est une matrice identité de dimension 3 3 I = Rang d une matrice Définition 119 Le rang d une matrice est le nombre maximum de lignes (ou de colonnes) linéairement indépendantes Propriété 12 Le rang est toujours inférieur ou égal au minimum du nombre de lignes et du nombre de colonnes de la matrice Définition 120 Si le rang de la matrice est égal au minimum du nombre de lignes et du nombre de colonnes, la matrice est dite de plein rang (ou de rang maximal) Propriété 13 Le rang d un produit de matrices est inférieur ou égal au rang de chaque matrice 138 Trace d une matrice Définition 121 La trace d une matrice carrée est la somme des éléments de sa diagonale Propriété 14 1 trace(a + B) = trace(a) + trace(b) 2 trace(ab) = trace(ba) mais trace(ab) trace(a)trace(b) 139 Matrices inversibles Définition 122 Une matrice carrée A est dite inversible, s il existe une matrice A 1 qui vérifie AA 1 = A 1 A = I Propriété 15 Si une matrice carrée est de plein rang, alors elle est inversible 1310 Inversion par parties Soit une matrice F composée de quatre sous-matrices : ( ) A B F = C D Les matrices A et D sont carrées et inversibles La technique d inversion par partie permet d obtenir l inverse de F ( ) F 1 A = 1 + A 1 BQCA 1 A 1 BQ QCA 1 Q où Q = ( D CA 1 B ) 1 Ce résultat peut être démontré aisément en réalisant le produit F 1 F 7
9 1311 Déterminant Définition 123 Le déterminant d une matrice carrée A (J J) est noté A et est défini par Si J = 1, A = A Si J > 1, J A = ( 1) i+j M ij a ij, pour tout j fixé, où M ij est le mineur de a ij Le mineur est le déterminant de la matrice (J 1) (J 1) obtenue en enlevant la colonne i et la ligne j de la matrice A Exemple 13 Soit A une matrice (2 2), ( ) a b A = c d en prenant j = 1, on a A = a d c b = ad cb On peut aussi calculer le déterminant de A en prenant j = 2 Exemple 14 Soit une matrice A de dimension (3 3), le calcul se fait en prenant j = 1 A = alors son déterminant vaut A = = ( ) 2 ( ) 9 + ( ) 4 = = 360 Propriété 16 1 A = A, 2 AB = A B, en particulier A k = A k 3 ca = c J A, (où A est de dimension J J), 1312 Quelques propriétés Propriété 17 En général, si A, B et C sont des matrices carrées de même dimension, on a 1 AB BA, 2 A + B = B + A, 3 (AB)C = A(BC), 4 AI = A = IA, où I est une matrice identité, 5 (ABC) = C B A, 6 trace(ab) = trace(ba), 7 trace(a + B) = trace(a) + trace(b), 8 deta = deta, 9 (ABC) 1 = C 1 B 1 A 1 8
10 1313 Matrices orthogonales Définition 124 Une matrice Γ est dite orthogonale si son inverse est égale à sa transposée : Γ = Γ Valeurs propres et vecteurs propres Définition 125 Soit A une matrice J J λ i est une valeur propre de A si λ i est une solution de l équation Propriété 18 A λi = 0 Une matrice carrée symétrique de dimension J J possède toujours J valeurs propres La trace d une matrice carrée est toujours égale à la somme des valeurs propres Le déterminant d une matrice carrée symétrique est toujours égal au produit de ses valeurs propres Définition 126 Le vecteur u i 0 est un vecteur propre de A associé à la valeur propre λ i si Au i = λ i u i Propriété 19 Si A est une matrice J J réelle symétrique, il existe J vecteurs propres normés et orthogonaux Théorème 12 (de diagonalisation) Soient A une matrice symétrique (J J), et u i, λ i, i = 1,, J, ses valeurs propres et vecteurs propres associés Soient la matrice orthogonale Γ dont les colonnes sont les J vecteurs propres de A, et la matrice diagonale Λ ayant sur sa diagonale principale les J valeurs propres Alors Γ AΓ = Λ, A = ΓΛΓ 1315 Formes et applications linéaires, formes quadratiques Définition 127 Soient A une matrice (I I), B une matrice (J I), a un vecteur colonne de R J et b un vecteur colonne de dimension I On appelle forme linéaire définie par le vecteur a, l application de R I dans R a b, application linéaire de R I dans R J définie par la matrice B, Bb, et forme quadratique définie par la matrice A, l expression b Ab Définition 128 Une matrice A de dimension (I I) est dite définie positive si pour tout b R I \{0} b Ab > 0, Définition 129 Une matrice A de dimension (I I) est dite semi-définie positive si pour tout b R I b Ab 0, 9
11 Propriété 110 Une condition nécessaire et suffisante pour qu une matrice soit définie positive (resp semidéfinie positive) est que toutes ses valeurs propres soient strictement positives (resp positives ou nulles) Propriété 111 Pour toute matrice D, la matrice D D est semi-définie positive Démonstration En posant a = Db la forme quadratique b D Db peut s écrire b D Db = a a = i a 2 i 0 Propriété 112 Une matrice définie positive est toujours inversible 1316 Image et noyau d une matrice Définition 130 Le noyau d une matrice A de dimension I J est le sous-espace de R J défini par Ker(A) = { u R J Au = 0 } La définition implique que tous les vecteurs de Ker(A) sont orthogonaux à tous les vecteurs lignes contenus dans la matrice A Définition 131 L image d une matrice B de dimension I J est le sous-espace de R I défini par Im(B) = { x R I il existe u R J tel que Bu = x } Le sous-espace Im(B) est l ensemble des vecteurs qui peuvent s écrire comme une combinaison linéaire des colonnes de B L image de la matrice B est souvent appelé sous-espace engendré par les colonnes de B La dimension de l image de B est égale au rang de B Remarque 12 Le sous-espace Im(B) est l orthogonal de Ker(B ) Propriété 113 Si u Im(B) et v Ker(B ), alors u et v sont orthogonaux En statistique, on utilise souvent des matrices X (individus-variables) de dimension n p avec n p Le sous-espace engendré par les colonnes de X est l image de X 14 Projection et matrice idempotente 141 Projection L opération de projection se déduit du théorème suivant : Théorème 13 Soit V un sous-espace vectoriel de R n, alors tout vecteur u R n se décompose de manière unique en une somme d un vecteur de V et d un vecteur de V 142 Projection orthogonale Définition 132 Soit V un sous-espace de R n, l application linéaire qui à un vecteur u fait correspondre un vecteur u tel que u u soit orthogonal à V est appelé projection orthogonale (u V ) 10
12 143 Projection orthogonale dans l image et le noyau d une matrice Le projecteur orthogonal dans l image d une matrice X de plein rang de dimension n p avec n p est donné par P X = X(X X) 1 X Le projecteur orthogonal dans le noyau d une matrice X de plein rang de dimension n p avec n p est donné par P X = I X(X X) 1 X = I P X Remarque 13 Si X = v est un vecteur, alors le projecteur est et la projection de u sur v P v = v(v v) 1 v = v v 2 v = vv v 2, p v (u) = P v u = ce qui correspond à la définition donnée en (110) v v 2 v u = v < v, u > v 2, 144 Matrice idempotente Définition 133 Une matrice P est dite idempotente si PP = P Une matrice de projection est idempotente Remarque 14 Les matrices P X et P X sont évidemment idempotentes, en effet P X P X = { X(X X) 1 X } { X(X X) 1 X } = X(X X) 1 X X(X X) 1 }{{} = I = X(X X) 1 X = P X X De plus P XP X = (I P X )(I P X ) = I 2P X + P X P }{{ X = I P } X = PX = P X Le projecteur orthogonal dans le noyau d une matrice X de plein rang de dimension n p est donné par P X = I X(X X) 1 X = I P X Théorème 14 Toutes les valeurs propres d une matrice idempotente valent 1 ou 0 Démonstration Un vecteur propre non-nul u d une matrice P doit satisfaire au système d équation où λ est la valeur propre associée à u En multipliant (12) par P, on obtient Pu = λu, (12) et donc, En prémultipliant par u on a }{{} PP u = Pλu, P λu = λ 2 u u λu = u λ 2 u, 11
13 on obtient donc λ = λ 2, ce qui n est vérifié que si λ vaut 0 ou 1 Comme la trace d une matrice carrée est aussi la somme de ses valeurs propres, la trace d une matrice idempotente est le nombre de valeurs propres non-nulles, ce qui donne la propriété suivante Propriété 114 La trace d une matrice idempotente est égale à son rang Remarque 15 Le rang et la trace de X(X X) 1 X sont égaux au rang de la matrice (X X) 1 Cette matrice est supposée de plein rang (sinon X X ne serait pas inversible) Le rang de (X X) 1 et donc de P X = X(X X) 1 X est donc égal au nombre de colonnes de X Le rang de P X est la dimension du sousespace sur lequel projette P X 145 Projecteurs obliques Il existe des projecteurs non-orthogonaux On parle alors de projecteurs obliques Soit Z une matrice ayant le même nombre de lignes et de colonnes que X, alors P O = X(Z X) 1 Z est un projecteur oblique Il est facile de vérifier que la matrice P O est idempotente et qu elle projette sur l image de X 146 Théorème des trois perpendiculaires Théorème 15 Soit V et W deux sous-espaces vectoriels tels que V W, alors P V P W = P W P V = P V 15 Dérivée par rapport à un vecteur 151 Gradient Soit une fonction f() de R p dans R : f(x) = f(x 1,, x j,, x p ) On suppose en outre que toutes les dérivées partielles existes On appelle gradient de f() le vecteur des dérivées partielles : grad f = f ( f x =,, f,, f ) x 1 x j x p 152 Derivation d une forme linéaire Soit a un vecteur de R p, alors a ( p x x = a ix i,, p a ix i,, p a ) ix i = (a 1,, a j,, a p ) = a x 1 x j x p 153 Derivation d une application linéaire Soit A une matrice de dimension q p, alors p j=1 a 1jx j Ax = p j=1 a ijx j p j=1 a qjx j 12
14 On a Donc, a 11 Ax x = a i1,, a q1 a 1j a ij a qj Ax x j = a 1j a ij a qj a 1p a 11 a 1i a 1p,, a ip = a j1 a ji a jp = A a q1 a qi a qp a qp 154 Dérivée d une forme quadratique Donc, et Soit A une matrice de dimension p p, alors x Ax x k x Ax = p j=1 = 2a kk x k + j k p a ij x i x j = p a ii x 2 i + a kj x j + i k a ik x i = p j=1 a 1jx j + p a i1x i p p a ij x i x j j=1 j i p a kj x j + x Ax = p x j=1 a kjx j + p a ikx i = Ax + A x p j=1 a pjx j + p a ipx i Si la matrice A est symétrique, on a x Ax = 2Ax x Exercices Exercice 11 Calculez (y Xb) (y Xb), b où y R n, b R n, et X est une matrice de dimension n p j=1 p a ik x i, Exercice 12 1 Construisez des projecteurs orthogonaux P 1,P 2,P 3, sur des sous-espaces engendrés par les colonnes des matrices x 1 1 x 1 1 X 1 =, X 2 = x i, X 3 = 1 x i 1 x n 1 x n 13
15 2 Construisez les trois projecteurs qui projettent sur l orthogonal des sous-espaces engendré par les colonnes de X 1, X 2,X 3 3 Vérifiez que ces 6 projecteurs sont des matrices idempotentes 4 Projetez le vecteur y 1 y = y i au moyen de ces 6 projecteurs y n Exercice 13 Soient les matrices x 1 1 x 1 1 A =, B = x i, C = 1 x i 1 x n 1 x n Décomposez le vecteur z = (z 1,, z n ) en fonction de ses projections sur respectivement 1 Ker(A ) et Im(A) 2 Ker(B ) et Im(B) 3 Ker(C ) et Im(C) Exercice 14 Soient les matrices , ( ) /5 3/5, 3 3/5 9/ Calculez 1 leur rang 2 leur trace ( ) 1/9 4/9 4, ( ) , 6 2 4/9 16/ Quelles sont les matrices idempotentes et orthogonales? Avec les matrices idempotentes, projetez le vecteur ( x 1 x 2 ) ou ( x1 x 2 x 3 ) selon leur dimension Exercice 15 Soient X et Z, deux matrices de plein rang de dimension n p définissant le même sous-espace vectoriel 1 Donnez l application linéaire (la matrice) permettant de passer de X à Z et réciproquement Cette matrice est définie en fonction de X etz 2 Montrez que les projecteurs orthogonaux sur les sous-espaces engendrés par les colonnes de X et Z sont égaux 14
16 Exercice 16 Soient les matrices Construisez les projecteurs sur 1 x 1 1 A =, B = 1 x i 1 1 x n Im(A) Im(B) notés respectivement P A et P B Si Im(A) Im(B) vérifier le théorème des 3 perpendiculaires 15
17 Chapitre 2 Géométrie des moindres carrés 21 Série statistique bivariée On s intéresse à deux variables x et y Ces deux variables sont mesurées sur les n unités d observation Pour chaque unité, on obtient donc deux mesures La série statistique est alors une suite de n couples des valeurs prises par les deux variables sur chaque individu : (x 1, y 1 ),, (x i, y i ),, (x n, y n ) Chacune des deux variables peut être soit quantitative, soit qualitative 211 Représentation graphique de deux variables Dans ce cas, chaque couple est composé de deux valeurs numériques Un couple de nombres (entiers ou réels) peut toujours être représenté comme un point dans un plan (x 1, y 1 ),, (x i, y i ),, (x n, y n ) Exemple 21 On mesure le poids Y et la taille X de 20 individus Tab 21 Taille et poids de 20 individus y i x i y i x i Analyse des variables Les variables x et y peuvent être analysées séparément On peut calculer tous les paramètres dont les moyennes et les variances : x = 1 x i, s 2 x = 1 (x i x) 2, n n 16
18 poids taille Fig 21 Le nuage de points ȳ = 1 n y i, s 2 y = 1 n (y i ȳ) 2 Ces paramètres sont appelés paramètres marginaux : variances marginales, moyennes marginales, écarts-types marginaux, etc 213 Covariance La covariance est définie s xy = 1 (x i x)(y i ȳ) n Remarque 21 La covariance peut prendre des valeurs positives, négatives ou nulles Quand x i = y i, pour tout i = 1, n, la covariance est égale à la variance La covariance peut également s écrire s xy = 1 n x i y i xȳ 214 Corrélation Le coefficient de corrélation est la covariance divisée par les deux écart-types marginaux r xy = s xy s x s y Le coefficient de détermination est le carré du coefficient de corrélation Remarque 22 rxy 2 = s2 xy s 2 xs 2 y Le coefficient de corrélation mesure la dépendance linéaire entre deux variables 17
19 1 r xy 1 0 r 2 xy Droite de régression La droite de régression est la droite qui ajuste au mieux un nuage de points au sens des moindres carrés On considère que la variable X est explicative et que la variable Y est dépendante L équation d une droite est y = a + bx Le coefficient a est appelé la constante, et le coefficient b la pente de la droite de régression Le principe des moindres carrés consiste à chercher la droite qui minimise M(a, b) = (y i a bx i ) 2 Le minimum s obtient en annulant les dérivées partielles par rapport à a et b M(a, b) = 2 (y i a bx i ) = 0 a M(a, b) = 2 (y i a bx i ) x i = 0 b On obtient un système de deux équations à deux inconnues, qui peuvent également s écrire ȳ = a + b x x i y i a x i b x 2 i = 0 La première équation montre que la droite passe par le point ( x, ȳ) De plus, on obtient a = ȳ b x En remplaçant a par sa valeur dans la seconde équation divisée par n, on a 1 n x i y i (ȳ b x) x b 1 x 2 i n ( ) = 1 1 x i y i xȳ b x 2 i x 2 n n = s xy bs 2 x = 0, ce qui donne La droite de régression est donc ce qui peut s écrire aussi b = s xy s 2 x a = ȳ s xy s 2 x x y = ȳ s xy s 2 x x + s xy s 2 x, x y ȳ = s xy s 2 (x x) x Remarque 23 La droite de régression de y en x n est pas la même que la droite de régression de x en y 18
20 Fig 22 La droite de régression poids taille 216 Résidus et valeurs ajustées Les valeurs ajustées sont obtenues au moyen de la droite de régression : y i = a + bx i Les valeurs ajustées sont les prédictions des y i réalisées au moyen de la variable x et de la droite de régression de y en x Remarque 24 La moyenne des valeurs ajustées est ȳ Les résidus sont les différences entre les valeurs observées et les valeurs ajustées de la variable dépendante : e i = y i y i Les résidus représentent la partie inexpliquée des y i par la droite de régression Remarque 25 La moyenne des résidus est nulle : De plus, e i = 0 x i e i = Variance de régression et variance résiduelle La variance de régression est la variance des valeurs ajustées s 2 Y = 1 n (yi ȳ) 2 Théorème 21 La variance de régression peut également s écrire s 2 Y = s 2 yr 2, où r 2 est le coefficient de détermination 19
21 Démonstration s 2 Y = 1 n (yi ȳ) 2 = 1 { ȳ + s xy n s 2 (x i x) ȳ x = s2 xy 1 s 4 (x i x) 2 x n } 2 = s2 xy s 2 x s 2 xy = s 2 y s 2 xs 2 y = s 2 yr 2 La variance résiduelle est définie par : s 2 e = 1 n e 2 i Théorème 22 La variance résiduelle peut également s écrire s 2 e = s 2 y(1 r 2 ), où r 2 est le coefficient de détermination Démonstration s 2 e = 1 n = 1 n = 1 n = 1 n e 2 i (y i yi ) 2 { y i ȳ s xy s 2 (x i x) x (y i ȳ) 2 + s2 xy s 4 x = s 2 y + s2 xy 2 s2 xy = s 2 y ( s 2 x 1 s2 xy s 2 xs 2 y s 2 x ) 1 n } 2 (x i x) 2 2 s xy s 2 x 1 n (x i x)(y i ȳ) Théorème 23 La variance marginale est la somme de la variance de régression et de la variance résiduelle, s 2 y = s 2 Y + s 2 e La démonstration découle directement des deux théorèmes précédents 20
22 22 La régression multivariée 221 Représentation matricielle des données La matrice x 11 x 1j x 1p X = x i1 x ij x ip x n1 x nj x np peut représenter des données statistiques Plus précisément, on suppose que x ij représente la valeur prise par la variable explicative j sur l unité statistique i De même, le vecteur y = (y 1 y i y n ) représente les valeurs prises par la variable dépendante sur les n unités statistiques Dans la plupart des applications, on supposera également que la première variable est la constante, c est-à-dire que x i1 = 1, i = 1,, n (Néanmoins, il est intéressant dans certains cas particulier d utiliser une régression sans constante) On supposera alors que la matrice est de la forme : 1 x 12 x 1j x 1p X = 1 x i2 x ij x ip 1 x n2 x nj x np Dans ce qui suit, on suppose toujours que la première variable est une constante Si ce n est pas le cas, nous le notifierons expressément 222 Principe des moindres carrés La régression de y en X au sens des moindres carrés consiste à chercher l ajustement qui minimise en b : Q(b) = y Xb 2 = (y Xb) (y Xb), où b = (b 1 b p ) Pour obtenir le minimum, de Q(b), on annule le vecteur des dérivées ce qui donne la valeur de b : Q(b) b = 2X (y Xb) = 0, X Xb = X y En faisant l hypothèse que X X est inversible, on peut déterminer b : 223 Valeurs ajustées et résidus b = (X X) 1 X y Le vecteur des valeurs ajustées est le vecteur des prédictions de y au moyen de X et de b, c est-à-dire y = Xb = X(X X) 1 X y }{{} P X Le vecteur des valeurs ajustées peut être interprété comme la projection de y sur le sous-espace engendré par les colonnes de la matrice X y = P X y, où P X est un projecteur (c est-à-dire une matrice idempotente) sur le sous-espace engendré par les colonnes de X P X = X(X X) 1 X 21
23 Le vecteur des résidus est la différence entre y et y e = y y = y Xb = y X(X X) 1 X y = (I X(X X) 1 X )y Le vecteur des valeurs ajustées peut également être interprété comme la projection de y dans le noyau de X (ou l orthogonal du sous-espace engendré par les colonnes de X) e = P Xy, (21) où P X est un projecteur (c est-à-dire une matrice idempotente) sur le noyau de X Propriété 21 P X = I X(X X) 1 X y = y + e, y est une combinaison linéaire des colonnes de X, y et e sont orthogonaux, e est orthogonal avec toutes les colonnes de X, c est-à-dire e X = Variance de régression et variance résiduelle Soit le vecteur de R n contenant n fois la moyenne de la variable y : La variance peut être définie simplement par : ȳ = (ȳ,, ȳ) s 2 y = 1 n (y ȳ) (y ȳ) = 1 n (y i ȳ) 2 La variance de régression est la moyenne des valeurs ajustées : s 2 Y = 1 n (y ȳ) (y ȳ) = 1 (yi ȳ) 2 n La variance résiduelle est la variance résiduelle : s 2 e = 1 n e e = 1 n (y y ) (y y ) = 1 n 225 Coefficient de détermination Le coefficient de détermination vaut R 2 = s2 Y s 2 y (y i yi ) 2 = 1 n = 1 s2 e s 2 y e 2 i Il est important de noter que le R 2 ne peut être calculé que si la régression inclut une constante Si ce n est pas le cas, le R 2 peut prendre des valeurs négatives Le racine carrée du coefficient de détermination est appelée le coefficient de corrélation multiple 23 Matrice de variance-covariance et matrice de corrélation Si la première colonne de la matrice X contient uniquement des 1, alors ont peut calculer les covariances entre les p 1 dernières variables La matrice variance-covariance, de dimension (p 1) (p 1), des variables explicatives est s 2 2 s 2j s 2p Σ = s j2 s 2 j s jp, (22) s p2 s pj s 2 p 22
24 où et s jk = 1 n (x ij x j )(x ik x k ) s 2 j = 1 n x j = 1 n x ij, (x ij x j ) 2 Si la première colonne de la matrice X est une constante, alors la matrice variance-covariance est une matrice de dimension (p 1) (p 1) correspondant aux p 1 dernières colonnes de X On peut également construire la matrice diagonale des écart-types : s S = 0 s j s p La matrice des corrélations : est obtenue par 1 r 2j r 2p R = r j2 1 r jp, r p2 r pj 1 R = S 1 ΣS 1 24 Corrélations partielles Soit deux variables y et z et le vecteur de leurs valeurs y et z sur les n unités de l échantillon La matrice idempotente P X = I X(X X) 1 X permet d obtenir le vecteur des résidus de la régression de y en X le vecteur des résidus de la régression de z en X e y X = P Xy, e z X = P Xz Le coefficient de corrélation partielle est le coefficient de corrélation entre e y X et e z X Si la première colonne de la matrice X contient une colonne de constante, alors ce coefficient s écrit e y X r yz x2,,x p = e z X y P X e y X e y Xe z X e = z z X y P X yz P X z Le coefficient de corrélation partielle mesure la corrélation entre les variables y et z auxquelles on a enlevé la partie explicable par les variables de X 23
25 25 Condition pour que la somme des résidus soit nulle La matrice X peut contenir une variable constante de manière explicite, c est-à-dire qu une des colonnes de cette matrice contient une variable constante La constante peut également être définie de manière implicite, ce qui signifie qu il existe une combinaison linéaire des colonnes de X qui permet d obtenir une colonne de uns Formellement, on suppose qu il existe un vecteur λ de R p tel que Xλ = 1 n = (1 1 1) Théorème 24 Si la matrice X contient une variable constante définie de manière explicite où implicite, alors la somme des résidus est nulle Démonstration On a e i = 1 ne Or, il existe un vecteur λ de R p tel que Xλ = 1 n On obtient donc e i = λ X e = λ X { I X(X X) 1 X } y = λ X λ X X(X X) 1 }{{} = 0 Une autre manière d aboutir à ce résultat, consiste à se remémorer que le vecteur de résidus est toujours orthogonal aux variables explicatives, c est-à-dire e X = 0 Or, s il existe un vecteur λ de R p tel que Xλ = 1 n, alors e Xλ = e 1 n = 0 λ = 0 Si la somme des résidus est nulle, la moyenne des valeurs ajustées est égale à la moyenne des valeurs observées, autrement dit 1 yi = 1 y i = ȳ n n 26 Décomposition en sommes de carrés Théorème 25 Soit une régression pour laquelle la constante est une variable explicative (éventuellement définie de manière implicite), alors la somme des carrés totale des écarts à la moyenne SC tot = (y ȳ) (y ȳ) = se décompose donc en une somme de deux termes : la somme des carrés expliquée par la régression, I X (y i ȳ) 2 SC regr = (y ȳ) (y ȳ) = y (yi ȳ) 2, 24
26 la somme des carrés des résidus SC res = e e = (y i yi ) 2 = Démonstration En notant ȳ le vecteur de R n contenant n fois la moyenne ȳ, on a Donc, y ȳ = y ȳ + e e 2 i (23) (y ȳ) (y ȳ) = (y ȳ + e) (y ȳ + e) = (y ȳ) (y ȳ) + e e + 2e (y ȳ) or e et (y ȳ) sont orthogonaux En effet e est toujours orthogonal à y et, e ȳ = ȳ n e i Or la somme des résidus est nulle quand la constante est une variable explicative Donc e (y ȳ) = 0, ce qui donne finalement (y ȳ) (y ȳ) = (y ȳ) (y ȳ) + e e 27 Régression avec les données centrées Supposons que la première colonne de la matrice X soit composée de constantes : 1 x 12 x 1j x 1p X = 1 x i2 x ij x ip 1 x n2 x nj x np Dans ce cas, la régression multiple s écrit : y i = b 1 + x i2 b 2 + x i3 b x ip b p + e i (24) On peut aussi travailler avec les données centrées En sommant sur les i et en divisant par n l équation (24), on obtient : ȳ = b 1 + x 2 b 2 + x 3 b x p b p, (25) et donc en soustrayant (25) à (24), on a finalement : Définissons maintenant y i ȳ = (x i2 x 2 )b 2 + (x i3 x 3 )b (x ip x p )b p + e i (26) 1 b : le vecteur de R p 1 composé des p 1 dernières composantes de b, b = (b 2, b 3,, b p ), 2 X : la matrice n (p 1) composée des p 1 dernières colonnes de X, x 12 x 1j x 1p X = x i2 x ij x ip, x n2 x nj x np 3 1 = (1, 1,, 1) : le vecteur colonne de n uns, 4 la matrice idempotente qui centre les valeurs : 1 1/n 1/n 1/n 1/n 1/n 1 1/n 1/n 1/n P c = I 11 n = 1/n 1/n 1 1/n 1/n, (27) 1/n 1/n 1/n 1 1/n 25
27 5 y c = P c y = y 1ȳ = y ȳ = (y 1 ȳ, y 2 ȳ,, y n ȳ) 6 X c = P c X la matrice X centrée x 12 x 2 x 1j x j x 1p x p X c = x i2 x 2 x ij x j x ip x p x n2 x 2 x nj x j x np x p La régression multiple peut maintenant s écrire : Le vecteur b est évidemment défini par y c = X c b + e ( ) X b = (X cx c ) 1 X 1 cy c = c X c X cy c n n (28) Cette présentation est intéressante à plus d un titre En effet (X cx c )/n n est autre que la matrice variancecovariance Σ donnée en (22) s 2 2 s 2j s 2p Σ = X cx c = n s j2 s 2 j s jp, s p2 s pj s 2 p et X cy c /n est le vecteur des covariances entre les variables explicatives et la variable dépendante : où pour j = 2,, n Comme, s jy = 1 n X cy c n s 2y = s jy s py (x ij x j )(y i ȳ), y c = X c b + e, la décomposition en somme de carrés vient directement : y cy c = (X c b + e) (X c b + e) = b X cx c b + e e + 2e X }{{ c b } 0 Le dernier terme s annule, car les résidus observés sont orthogonaux aux colonnes de X On peut donc à nouveau décomposer la somme des carrés totales en une somme de deux termes : SC tot = SC regr + SC res, où la somme des carrés totales SC tot = y cy c = (y i ȳ) 2, (29) 26
28 la somme des carrés expliquée par la régression, car et que donc la somme des carrés des résidus 28 Retour au cas bivarié 281 Méthode 1 SC regr = b X cx c b, (210) p j=2 b j(x 1j x j ) y 1 ȳ X c b = p j=2 b j(x ij x j ) = yi ȳ p j=2 b j(x nj x j ) yn ȳ b X cx c b = (y ȳ) (y ȳ) = SC res = e e = (yi ȳ) 2 = SC regr, e 2 i (211) Le cas particulier le plus fréquemment étudié consiste à utiliser deux variables explicatives (p = 2) : une constante et une variable x i Dans ce cas, 1 x 1 X = 1 x i 1 x n On a alors X X = ( n n x ) i n x n, i x2 i (X X) 1 = = = = = 1 n n x2 i ( n x i) 2 1 { n 2 1 n n x2 i ( 1 n n x ) } 2 i ( 1 n x2 i n x ) i n 2 s 2 x n x i n ( ) 1 ns 2 x + n x 2 n x n 2 s 2 x n x n ( ) 1 s 2 x + x 2 x, x 1 ns 2 x ( n x2 i n x i n x i n ) ( n x2 i n x i n x i n ) où De plus, s 2 x = 1 n x 2 i ( 1 n ) 2 x i ( n X y = y ) ( ) i ȳ n x = n, iy i s xy + xȳ 27
29 ce qui permet de calculer b En général, on note et b = (X X) 1 X y = 1 s 2 x On a finalement le vecteur des valeurs ajustées avec y i = 1 b 1 + x i b 2 = ( ) (s 2 x + x 2 )ȳ x(s xy + xȳ) = xȳ + (s xy + xȳ) b 1 = ȳ x s xy s 2, x b 2 = s xy s 2 x y = (y i ) = Xb, ( ȳ x s ) xy s xy s 2 + x i x s 2 x ȳ x s xy s 2 x s xy s 2 x = ȳ + (x i x) s xy s 2 x Le cas bivarié consiste donc à utiliser deux variables explicatives, la première est la constante et la seconde est la variable x 282 Méthode 2 Une autre manière de traiter le même problème est de d utiliser les données centrées Dans ce cas, on a y 1 ȳ x 1 x y c = y i ȳ, X c = x i x y n ȳ x n x On obtient Il reste a déduire b 1 de l équation ce qui donne Exercices X cx c = ns 2 x, X cy c = ns xy et b = (X c X c ) 1 X cy c = s xy s 2 x b 1 = ȳ s xy s 2 x Exercice 21 Au moyen du tableau 21, calculez 1 tous les paramètres marginaux, 2 la covariance, 3 la droite de regression de la taille par le poids, 4 les résidus et les valeurs ajustées, ȳ = b 1 + s xy s 2 x, x x, et b 2 = s xy s 2 x 5 le coefficient de la régression, la variance résiduelle et la variance de régression Exercice 22 En quoi consiste la régression, 1 quand une seule variable x est utilisée, 28
30 2 quand seule la constante est utilisée, 3 quand l échantillon est partitionné en p parties notées U 1,, U p et que x ij = 1 si l unité i est dans la partie j et 0 sinon? Représentez les deux droites de régression, pour les points 1 et 2 Exercice 23 À partir du tableau 22, calculez les coefficients de corrélation et de régression a et b de la régression de y en x Tab 22 Données pour les variables x et y t y t x t Somme Moyenne Exercice 24 Application du principe des moindres carrés : Soit Q(b) = y Xb 2, qui peut également s écrire Q(b 1,, b p ) = y i 2 p x ij b j Annulez les dérivées partielles Q = 0 b j Écrivez ensuite ce système de p équations à p inconnues sous forme matricielle j=1 Exercice 25 (extrait de Cohen and Pradel, 1993) Parmi les relations suivantes donnant y en fonction de x et peut être z, quelles sont celles qui peuvent être déterminées à l aide d un modèle linéaire? 1 y = ax + b 2 y = ax 2 + b 3 y = ax 2 + bx + c 4 y = ax 3 + b 5 y = x a z b 6 y = a exp bx 29
31 c 7 y = 1 + a exp bx 8 y = x 2 + ax + b 9 y = a log(x) y = ab x + c z 11 y = a x 1 + b 12 y = aln(x) + bz 5 + c Exercice 26 Dans un modèle où on cherche un ajustement linéaire de Y sur X et la constante, on dispose des résultats suivants portant sur 52 observations : y t = x t, x = 1063 s 2 y = s 2 x = Déterminez successivement les valeurs du coefficient de corrélation linéaire entre X et Y, le coefficient de détermination R 2 et les SC tot, SC res et SC regr de la régression Exercice 27 Soit une matrice 1 x 1 X = 1 x i 1 x n Calculez le coefficient de corrélation partiel r yz x et exprimez-le en fonction des coefficients de corrélation (non-partiels) r yz, r xy et r yx Exercice 28 A partir des données du tableau 23, calculez le vecteur des coefficients de la régression des y i en x i1 et x i2 (avec une constante) Les données sont les suivantes : Indication : travailler avec la matrice Tab 23 Données sur le travail, le capital et la production Entreprise(i) Travail(x i ) Capital(z i ) Production(y i ) variance-covariance permet de simplifier considérablement les calculs (voir calcul de b dans l expression (28)) 30
32 Exercice 29 On procède à l estimation d un modèle linéaire avec une constante Les informations disponibles sont : X X = X y = Calculez : y y = 200 (a) La taille de l échantillon (b) n x i1; n x2 i1 (c) n x i2; n x2 i2 (d) n x i1x i2 2 Calculez la droite de régression des y i en x i1 et x i2 (avec constante) 3 Calculez la matrice variance-covariance des variables explicatives 4 Calculez la matrice des corrélations des variables explicatives Exercice 210 Retour au cas bivarié Calculez les droites de régression de { y en x x en y 1 Si sur un graphique on a x en abscisse et y en ordonnée, quelle est la droite ayant la plus grande pente? (Attention la réponse dépend de la valeur du coefficient de corrélation) 2 Quelle est le point d intersection des deux droites (faites les calculs)? 31
33 Chapitre 3 Rappel sur le calcul des probabilités, les variables aléatoires, et l inférence statistique 31 Probabilités 311 Événement Une expérience est dite aléatoire si on ne peut pas prédire a priori son résultat On note ω un résultat possible de cette expérience aléatoire L ensemble de tous les résultats possibles est noté Ω Par exemple, si on jette deux pièces de monnaie, on peut obtenir les résultats Ω = {(P, P, ), (F, P ), (P, F ), (F, F )}, avec F pour face et P pour pile Un événement est une assertion logique sur une expérience aléatoire Formellement, un événement est un sous-ensemble de Ω Exemple 31 L expérience peut consister à jeter un dé, alors Ω = {1, 2, 3, 4, 5, 6}, et un événement, noté A, est obtenir un nombre pair On a alors A = {2, 4, 6} Soient deux événements A et B, si A B =, alors on dit qu ils sont mutuellement exclusifs Exemple 32 Par exemple, si on jette un dé, l événement obtenir un nombre pair et l événement obtenir un nombre impair ne peuvent pas être obtenus en même temps Ils sont mutuellement exclusifs D autre part, si l on jette un dé, les événements A : obtenir un nombre pair n est pas mutuellement exclusif avec l événement B : obtenir un nombre inférieur ou égal à 3 En effet, l intersection de A et B est non-vide et consiste en l événement obtenir 2 On appelle complémentaire d un événement A = Ω\A On va associer à Ω l ensemble A de toutes les parties (ou sous-ensembles) de Ω Exemple 33 Si on jette un pièce de monnaie alors Ω = {P, F }, et A = {, {F }, {P }, {F, P }} 32
34 Définition 31 Les événements A 1,, A n forment un système complet d événements, si ils constituent une partition de Ω, c est-à-dire si tous les couples A i, A j sont mutuellement exclusifs quand i j, n A i = Ω 312 Axiomatique des Probabilités Définition 32 Une probabilité P () est une application de A dans [0, 1], telle que : Pr(Ω) = 1, Pour tout ensemble dénombrable d événements A 1,, A n tels que A i A j =, pour tout i j, ( n ) Pr A i = Pr(A i ) A partir des axiomes, on peut déduire les propriétés suivantes : Pr( ) = 0, Pr(A) = 1 Pr(A), Pr(A) Pr(B) si A B, Pr(A B) = Pr(A) + Pr(B) Pr(A B), Pr ( n A i) n Pr(A i), Si A 1,, A n forment un système complet d événements, alors Pr(B A i ) = Pr(B) 313 Probabilités conditionnelles et indépendance Définition 33 Soient deux événements A et B, si Pr(B) > 0, alors Pr(A B) = Pr(A B) Pr(B) Définition 34 Deux événements A et B sont dits indépendants si Pr(A B) = Pr(A) On peut montrer facilement que si A et B sont indépendants, alors Pr(A B) = Pr(A)Pr(B) 314 Théorème des probabilités totales et théorème de Bayes Théorème 31 (des probabilités totales) Soit A 1,, A n un système complet d événements, alors En effet, Pr(B) = Pr(A i )Pr(B A i ) Pr(A i )Pr(B A i ) = Comme les événements A i B sont mutuellement exclusifs, Pr(B A i ) n Pr(B A i ) = Pr (B A i ) = Pr(B) Théorème 32 (de Bayès) Soit A 1,, A n un système complet d événements, alors Pr(A i B) = Pr(A i )Pr(B A i ) n j=1 Pr(A j)pr(b A j ) 33
35 En effet, par le théorème des probabilités totales, 32 Variables aléatoires 321 Définition Pr(A i )Pr(B A i ) n j=1 Pr(A j)pr(b A j ) = Pr(B A i) = Pr(A i B) Pr(B) La notion de variable aléatoire formalise l association d une valeur au résultat d une expérience aléatoire Définition 35 Une variable aléatoire X est une application de l ensemble fondamental Ω dans R Exemple 34 On considère une expérience aléatoire consistant à lancer deux pièces de monnaie L ensemble des résultats possibles est Ω = {(F, F ), (F, P ), (P, F ), (P, P )} Chacun des éléments de Ω a une probabilité 1/4 Une variable aléatoire va associer une valeur à chacun des éléments de Ω Considérons la variable aléatoire représentant le nombre de Faces obtenus : 0 avec une probabilité 1/4 X = 1 avec une probabilité 1/2 2 avec une probabilité 1/4 322 Variables aléatoires discrètes Définition, espérance et variance Une variable aléatoire discrète prend uniquement des valeurs entières (de Z) Une distribution de probabilité p X (x) est une fonction qui associe à chaque valeur entière une probabilité La fonction de répartition est définie par p X (x) = Pr(X = x), x Z F X (x) = Pr(X x) = z x p X (z) L espérance mathématique d une variable aléatoire discrète est donné par µ = E(X) = x Z xp X (x), et sa variance ( σ 2 = var(x) = E {X E(X)} 2) = p X (x)(x µ) 2 x Z Variable indicatrice ou bernoullienne La variable indicatrice X de paramètre p [0, 1] a la distribution de probabilité suivante : { 1 avec une probabilité p X = 0 avec une probabilité 1 p L espérance vaut et la variance vaut µ = E(X) = 0 (1 p) + 1 p = p, σ 2 = var(x) = E(X p) 2 = (1 p)(0 p) 2 + p(1 p) 2 = p(1 p) Exemple 35 On tire au hasard une boule dans une urne contenant 18 boules rouges et 12 boules blanches Si X vaut 1 si la boule est rouge et 0 sinon, alors X a une loi bernoullienne de paramètre p = 18/(18+12) = 06 34
36 Variable binomiale où Une variable X suit une loi binomiale de paramètre 0 < p < 1 et d exposant n, si ( n ) Pr(X = x) = p x (1 p) n x, x = 0, 1,, n 1, n, x La somme de ces probabilités vaut 1, en effet Pr(X = x) = x=0 x=0 L espérance et la variance sont données par ( n ) n! = x x!(n x)! ( n x ) p x (1 p) n x = {p + (1 p)} n = 1 E(X) = np, var(x) = np(1 p) Exemple 36 On tire au hasard avec remise et de manière indépendante 5 boules dans une urne contenant 18 boules rouges et 12 boules blanches Si X est le nombre de boules rouges obtenues, alors X a une loi binomiale de paramètre p = 18/( ) = 06, et d exposant n = 5 Donc, ( ) 5 Pr(X = x) = 06 x 04 5 x, x = 0, 1,, 4, 5, x ce qui donne Pr(X = 0) = Pr(X = 1) = Pr(X = 2) = Pr(X = 3) = Pr(X = 4) = Pr(X = 5) = 5! 0!(5 0)! = = ! 1!(5 1)! = = ! 2!(5 2)! = = ! 3!(5 3)! = = ! 4!(5 4)! = = ! 5!(5 5)! = = Variable de Poisson La variable X suit une loi de Poisson, de paramètre λ R + si Pr(X = x) = e λ λ x, x = 0, 1, 2, 3, x! L espérance et la variance d une loi de Poisson sont égales au paramètre λ E(X) = λ, var(x) = λ 35
37 323 Variable aléatoire continue Définition, espérance et variance Une variable aléatoire continue prend des valeurs dans R ou dans un intervalle de R La probabilité qu une variable aléatoire continue soit inférieure à une valeur particulière est donnée par sa fonction de répartition Pr(X x) = F (x) La fonction de répartition d une variable aléatoire continue est toujours : dérivable, positive : F (x) 0, pour tout x, croissante, lim x F (x) = 1, lim x F (x) = 0 On a Pr(a X b) = F (b) F (a) La fonction de densité d une variable aléatoire continue est la dérivée de la fonction de répartition en un point df (x) f(x) = dx Une fonction de densité est toujours : positive : f(x) 0, pour tout x, d aire égale à un : f(x)dx = 1 On a évidemment la relation : F (b) = b f(x)dx La probabilité que la variable aléatoire soit inférieure à une valeur quelconque vaut : Pr(X a) = a f(x)dx = F (a) La probabilité que la variable aléatoire prenne une valeur comprise entre a et b vaut Pr(a X b) = b a f(x)dx = F (b) F (a) Si la variable aléatoire est continue, la probabilité qu elle prenne exactement une valeur quelconque est nulle : Pr(X = a) = 0 L espérance d une variable aléatoire continue est définie par : et la variance Variable uniforme E(X) = var(x) = xf(x)dx, (x µ) 2 f(x)dx Une variable est dite uniforme dans un intervalle [a,b], (avec a < b) si sa répartition est : 0 si x < a F (x) = (x a)/(b a) si a x b 1 si x > b Sa densité est alors 0 si x < a f(x) = 1/(b a) si a x b 0 si x > b 36
38 On peut montrer que µ = E(X) = b + a 2 et σ 2 (b a)2 = var(x) = 12 Les logiciels gênèrent en général des variables aléatoires uniformes dans [0,1] Variable normale Une variable aléatoire X est dite normale si sa densité vaut f µ,σ 2(x) = 1 ( ) 2 x µ σ 2π exp 1 (31) 2 σ De manière synthétique, pour noter que X a une distribution normale de moyenne µ et de variance σ 2 on écrit : X N(µ, σ 2 ) On peut montrer que et La fonction de répartition vaut F µ,σ 2(x) = 324 Distribution bivariée x E(X) = µ, var(x) = σ 2 ( ) 2 1 u µ σ 2π exp 1 du 2 σ Deux variables aléatoires peuvent avoir une distribution jointe Cas continu Soit deux variables aléatoires X et Y continues, leur distribution de densité f(x, y) est une fonction continue, positive, et telle que La fonction de répartition jointe est définie par F (x, y) = Pr(X x et Y y) = On appelle densités marginales les fonctions f X (x) = f(x, y)dxdy = 1 x f(x, y)dy, et f Y (y) = y f(u, v)dvdu f(x, y)dx Avec les distributions marginales, on peut définir les moyennes marginales, et les variances marginales : σ 2 X = µ X = xf X (x)dx, et µ Y = (x µ X ) 2 f X (x)dx, et σ 2 Y = On appelle densités conditionnelles, les fonctions yf Y (y)dy, (y µ Y ) 2 f Y (y)dy f(x y) = f(x, y) f Y (y) et f(y x) = f(x, y) f X (x) 37
39 Avec les distributions conditionnelles, on peut définir les moyennes conditionnelles, et les variances conditionnelles : σ 2 X(y) = µ X (y) = xf(x y)dx, et µ Y (x) = {x µ X (y)} 2 f(x y)dx, et σ 2 Y (x) = Enfin, la covariance entre X et Y est définie par σ xy = cov(x, Y ) = 325 Indépendance de deux variables aléatoires Deux variables aléatoires X et Y sont dites indépendantes, si yf(y x)dy, {y µ Y (x)} 2 f(y x)dy (x µ X )(y µ Y )f(x, y)dxdy Pr(X x et Y y) = Pr(X x)pr(y y), pour tout x, y R Si X et Y sont discrètes, cela implique que Pr(X = x et Y = y) = Pr(X = x)pr(y = y), pour tout x, y Z Si X et Y sont continues, en notant f X () et f Y () les fonctions de densité marginales respectives de X et Y, et en notant f XY (x, y) la densité jointe des deux variables, alors X et Y sont indépendants si f XY (x, y) = f X (x)f Y (y), x, y R 326 Propriétés des espérances et des variances De manière générale, pour des variables aléatoires X et Y, et avec a et b constants : De plus, si X et Y sont indépendantes : E(a + bx) = a + be(x) E(aY + bx) = ae(y ) + be(x) var(a + bx) = b 2 var(x) var(x + Y ) = var(x) + var(y ) + 2cov(X, Y ) E(XY ) = E(X)E(Y ) cov(x, Y ) = 0, var(x + Y ) = var(x) + var(y ) Enfin, il est possible de calculer l espérance et la variance d une somme de variables aléatoires indépendantes, et identiquement distribuées Théorème 33 Soit X 1,, X n une suite de variables aléatoires, indépendantes et identiquement distribuées et dont la moyenne µ et la variance σ 2 existent et sont finies, alors si X = 1 X i, n on a Démonstration et E ( X) = E ( 1 n var ( X) = var ( 1 n E( X) = µ, et var( X) = σ2 n ) X i = 1 n E (X i ) = 1 n ) X i = 1 n n 2 var (X i ) = 1 n 2 µ = µ n σ 2 = σ2 n 38
40 327 Autres variables aléatoires Variable khi-carrée Soit une suite de variables aléatoires indépendantes, normales, centrées réduites, X 1,, X p, (c est-à-dire de moyenne nulle et de variance égale à 1), alors la variable aléatoire χ 2 p = p Xi 2, est appelée variable aléatoire khi-carré à p degrés de liberté Il est possible de montrer que E(χ 2 p) = p, et que Variable de Student var(χ 2 p) = 2p Soit une variable aléatoire X normale centrée réduite, et une variable aléatoire khi-carré χ 2 p à p degrés de liberté, indépendante de X, alors la variable aléatoire t p = X χ 2 p/p est appelée variable aléatoire de Student à p degrés de liberté Variable de Fisher Soient deux variables aléatoires khi-carrés indépendantes χ 2 p, χ 2 q, respectivement à p et q degrés de liberté, alors la variable aléatoire F p,q = χ2 p/p χ 2 q/q est appelée variable aléatoire de Fisher à p et q degrés de liberté Remarque 31 Il est facile de montrer que le carré d une variable de Student à q degrés de liberté est une variable de Fisher à 1 et q degrés de liberté 328 Variable normale multivariée Le vecteur de variables aléatoires X = (X 1,, X p ) a une distribution normale multivariée de moyenne µ = (µ 1,, µ p ) et de matrice variance-covariance Σ (on suppose par simplicité que Σ est de plein rang), si sa fonction de densité est donnée par [ 1 f X (x) = exp 1 ] (2π) p/2 Σ 1/2 2 (x µ) Σ 1 (x µ), (32) pour tout x R p Remarque 32 Si p = 1, on retrouve l expression (31) 39
Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.
1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le
Plus en détailExo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.
Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur
Plus en détailChapitre 2. Matrices
Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailProgrammation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailDe même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que
Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailFonctions de plusieurs variables
Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailStructures algébriques
Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe
Plus en détailExercices - Polynômes : corrigé. Opérations sur les polynômes
Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)
Plus en détail8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2
Chapitre 8 Fonctions de plusieurs variables 8.1 Généralités sur les fonctions de plusieurs variables réelles Définition. Une fonction réelle de n variables réelles est une application d une partie de R
Plus en détailDifférentiabilité ; Fonctions de plusieurs variables réelles
Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailChapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Plus en détailFonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Plus en détailRésolution de systèmes linéaires par des méthodes directes
Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.
Plus en détailAnalyse en Composantes Principales
Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées
Plus en détailCouples de variables aléatoires discrètes
Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude
Plus en détailCours d analyse numérique SMI-S4
ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,
Plus en détailCalcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Plus en détailQue faire lorsqu on considère plusieurs variables en même temps?
Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites
Plus en détailCapes 2002 - Première épreuve
Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailFonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples
45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détail[http://mp.cpgedupuydelome.fr] édité le 30 avril 2015 Enoncés 1
[http://mpcpgedupuydelomefr] édité le 3 avril 215 Enoncés 1 Exercice 1 [ 265 ] [correction] On note V l ensemble des matrices à coefficients entiers du type a b c d d a b c c d a b b c d a et G l ensemble
Plus en détailCoefficients binomiaux
Probabilités L2 Exercices Chapitre 2 Coefficients binomiaux 1 ( ) On appelle chemin une suite de segments de longueur 1, dirigés soit vers le haut, soit vers la droite 1 Dénombrer tous les chemins allant
Plus en détailExercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.
14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,
Plus en détailFonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Plus en détailProbabilités sur un univers fini
[http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur
Plus en détailEnoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en 2000. Énoncé.
Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en 2000. Énoncé. I- ACTIVITES NUMERIQUES (12 points) Exercice 1 (3 points) On considère
Plus en détailQu est-ce qu une probabilité?
Chapitre 1 Qu est-ce qu une probabilité? 1 Modéliser une expérience dont on ne peut prédire le résultat 1.1 Ensemble fondamental d une expérience aléatoire Une expérience aléatoire est une expérience dont
Plus en détailCCP PSI - 2010 Mathématiques 1 : un corrigé
CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailCalcul différentiel. Chapitre 1. 1.1 Différentiabilité
Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace
Plus en détailUn K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E
Exo7 Espaces vectoriels Vidéo partie 1. Espace vectoriel (début Vidéo partie 2. Espace vectoriel (fin Vidéo partie 3. Sous-espace vectoriel (début Vidéo partie 4. Sous-espace vectoriel (milieu Vidéo partie
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailCours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Plus en détailCours de mathématiques
DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................
Plus en détailBac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)
Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Eercice 1 (5 points) pour les candidats n ayant pas choisi la spécialité MATH Le tableau suivant donne l évolution du chiffre
Plus en détailDOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10.
A1 Trouvez l entier positif n qui satisfait l équation suivante: Solution 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. En additionnant les termes du côté gauche de l équation en les mettant sur le même dénominateur
Plus en détailBaccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Plus en détailINTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine
Plus en détailPremière partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Plus en détailDéveloppement décimal d un réel
4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détailProgrammation linéaire
Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détailOM 1 Outils mathématiques : fonction de plusieurs variables
Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.
Plus en détailThéorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Plus en détailCorrection de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailExamen optimisation Centrale Marseille (2008) et SupGalilee (2008)
Examen optimisation Centrale Marseille (28) et SupGalilee (28) Olivier Latte, Jean-Michel Innocent, Isabelle Terrasse, Emmanuel Audusse, Francois Cuvelier duree 4 h Tout resultat enonce dans le texte peut
Plus en détailTravaux dirigés d introduction aux Probabilités
Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien
Plus en détailIntroduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailPremiers exercices d Algèbre. Anne-Marie Simon
Premiers exercices d Algèbre Anne-Marie Simon première version: 17 août 2005 version corrigée et complétée le 12 octobre 2010 ii Table des matières 1 Quelques structures ensemblistes 1 1.0 Ensembles, relations,
Plus en détailCours Fonctions de deux variables
Cours Fonctions de deux variables par Pierre Veuillez 1 Support théorique 1.1 Représentation Plan et espace : Grâce à un repère cartésien ( ) O, i, j du plan, les couples (x, y) de R 2 peuvent être représenté
Plus en détailAmphi 3: Espaces complets - Applications linéaires continues
Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite
Plus en détailCours 7 : Utilisation de modules sous python
Cours 7 : Utilisation de modules sous python 2013/2014 Utilisation d un module Importer un module Exemple : le module random Importer un module Exemple : le module random Importer un module Un module est
Plus en détailCorrigé du baccalauréat S Asie 21 juin 2010
Corrigé du baccalauréat S Asie juin 00 EXERCICE Commun à tous les candidats 4 points. Question : Le triangle GBI est : Réponse a : isocèle. Réponse b : équilatéral. Réponse c : rectangle. On a GB = + =
Plus en détailÉvaluation de la régression bornée
Thierry Foucart UMR 6086, Université de Poitiers, S P 2 M I, bd 3 téléport 2 BP 179, 86960 Futuroscope, Cedex FRANCE Résumé. le modèle linéaire est très fréquemment utilisé en statistique et particulièrement
Plus en détailLe Modèle Linéaire par l exemple :
Publications du Laboratoire de Statistique et Probabilités Le Modèle Linéaire par l exemple : Régression, Analyse de la Variance,... Jean-Marc Azaïs et Jean-Marc Bardet Laboratoire de Statistique et Probabilités
Plus en détailLois de probabilité. Anita Burgun
Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage
Plus en détailExercices Corrigés Premières notions sur les espaces vectoriels
Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3
Plus en détailt 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :
Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant
Plus en détailNotes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières
Plus en détailPrécision d un résultat et calculs d incertitudes
Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................
Plus en détailPolynômes à plusieurs variables. Résultant
Polynômes à plusieurs variables. Résultant Christophe Ritzenthaler 1 Relations coefficients-racines. Polynômes symétriques Issu de [MS] et de [Goz]. Soit A un anneau intègre. Définition 1.1. Soit a A \
Plus en détailI - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES
I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et
Plus en détailExercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT
Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détailM2 IAD UE MODE Notes de cours (3)
M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de
Plus en détail3. Caractéristiques et fonctions d une v.a.
3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions
Plus en détailRésumé du Cours de Statistique Descriptive. Yves Tillé
Résumé du Cours de Statistique Descriptive Yves Tillé 15 décembre 2010 2 Objectif et moyens Objectifs du cours Apprendre les principales techniques de statistique descriptive univariée et bivariée. Être
Plus en détailLEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.
LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailPour l épreuve d algèbre, les calculatrices sont interdites.
Les pages qui suivent comportent, à titre d exemples, les questions d algèbre depuis juillet 003 jusqu à juillet 015, avec leurs solutions. Pour l épreuve d algèbre, les calculatrices sont interdites.
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailApproximations variationelles des EDP Notes du Cours de M2
Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation
Plus en détailModèles et Méthodes de Réservation
Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E
Plus en détailOptimisation, traitement d image et éclipse de Soleil
Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement
Plus en détailCorrection du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Plus en détailNotes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables
Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Fausto Errico Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2012 Table des matières
Plus en détailExercices sur le chapitre «Probabilités»
Arnaud de Saint Julien - MPSI Lycée La Merci 2014-2015 1 Pour démarrer Exercices sur le chapitre «Probabilités» Exercice 1 (Modélisation d un dé non cubique) On considère un parallélépipède rectangle de
Plus en détail