R esum e du Cours d Econom etrie Yves Till e 16 d ecembre 2008

Dimension: px
Commencer à balayer dès la page:

Download "R esum e du Cours d Econom etrie Yves Till e 16 d ecembre 2008"

Transcription

1 Résumé du Cours d Économétrie Yves Tillé 16 décembre 2008

2 Avertissement Ce document n est pas un compte rendu exhaustif du cours d Économétrie, mais un résumé Il reprend les principaux développements, mais il est complété au cours par de nombreux graphiques, commentaires, et approfondissements Nous remercions Jérôme Taillard pour la préparation de plusieurs exercices, Guido Pult pour nous avoir donné plusieurs exercices et Ines Pasini pour son aide à la dactylographie Les étudiants sont invités à consulter les ouvrages de références suivants cités dans la bibliographie : Judge et al (1985), Johnston (1988), Theil (1979), Maddala (1988), Gourieroux and Monfort (1989a), Gourieroux and Monfort (1989b), Greene (1990), Cohen and Pradel (1993), Bourbonnais (1993), Johnston (1997), Johnson (1999), Ruud (2000) Yves Tillé 1

3 Chapitre 1 Éléments d algèbre linéaire 11 Espace vectoriel 111 Vecteur Un élément de R n est une suite ordonnée de n éléments de R On peut disposer cette suite, appelée vecteur soit en ligne, soit en colonne Exemple 11 Le vecteur a = [3 est un vecteur colonne 0], est un vecteur ligne et le vecteur b = La transposition transforme un vecteur ligne en vecteur colonne et réciproquement Exemple 12 Si a = (3 0), la transposée de a est a = ( 3 0) 112 Multiplication par un scalaire et addition On peut multiplier un vecteur par un scalaire Soit un scalaire c R et un vecteur colonne a de R n, alors a 1 ca 1 c a = c = a n ca n Deux vecteurs lignes (ou deux vecteurs colonnes) peuvent s additionner s ils sont de même dimension a 1 1 a 1 + b 1 + b = a n b n a n + b n En utilisant la multiplication par un scalaire et l addition, on peut définir une combinaison linéaire de deux vecteurs a et b : a 1 1 c 1 a 1 + c 2 b 1 c 1 a + c 2 b = c 1 + c 2 b = a n b n c 1 a n + c 2 b n où c 1, c 2 R 2

4 113 Définition d un espace vectoriel On se réfère à la définition suivante : la définition suivante : Définition 11 Soit K un corps commutatif d élément unité noté 1 On nomme espace vectoriel sur K, un ensemble E muni d une loi de composition interne (+) conférant à E la structure de groupe commutatif ou abélien, et d une seconde loi dite externe, application de E K dans E notée ( ), aussi appelée multiplication, faisant intervenir les éléments de K, appelés scalaires Cette loi externe doit vérifier les axiomes suivants, x, y E, a, b K désignant des scalaires : 1 a (x + y) = a x + a y (distributivité) 2 (a + b) x = a x + b x (distributivité) 3 a (b x) = ab x (associativité) 4 1 x = x Si on prend K = R, on vérifie que R n doté de la loi interne + et de la loi externe est un espace vectoriel 114 Vecteurs linéairement indépendants Définition 12 Les vecteurs u 1,, u j,, u J sont dit linéairement indépendants, si implique que a 1 = a 2 = = a J = Sous-espace vectoriel a 1 u 1 + a 2 u a J u J = 0 Définition 13 Un sous-ensemble non-vide V de R n est un sous-espace vectoriel, si pour tous u, v V, 1 u + v V, 2 au V pour tout a R 116 Système générateur d un sous-espace vectoriel Définition 14 Un ensemble de p vecteurs u 1,, u p du sous-espace vectoriel V forment un système générateur de V si et seulement si 1 u 1,, u p sont tous différents de 0, 2 pour tout v V, on peut écrire v = a 1 u a p u p 117 Base d un sous-espace vectoriel Définition 15 Un ensemble de p vecteurs u 1,, u p du sous-espace vectoriel V forment une base de V si et seulement si 1 ils sont linéairement indépendants, 2 ils forment un système générateur de V Autrement dit, tout vecteur de V peut s écrire comme une combinaison linéaire de u 1,, u p 118 Base canonique de R n La base canonique de R n est , 0, 1,,

5 119 Dimension d un sous-espace vectoriel Définition 16 La dimension d un sous-espace vectoriel est le plus petit nombre de vecteurs suffisants pour l engendrer Cette dimension correspond en particulier au nombre de vecteurs constituant une base quelconque de V 12 Espace euclidien 121 Produit scalaire On définit la multiplication d un vecteur ligne a par un vecteur colonne b comme le résultat scalaire : 1 a b = (a 1 a n ) b = a i b i b n Le produit scalaire de deux vecteurs colonnes u et b de même dimension est noté < u, b > et est défini par : 1 < u, b >= u b = (u 1 u n ) b = u i b i Définition 17 Un espace euclidien est un espace vectoriel muni d un produit scalaire 122 Norme Définition 18 La norme (ou longueur) d un vecteur colonne u est vecteur de norme égale à 1 est dit normé 123 Distance entre deux vecteurs u = < u, u > Définition 19 La distance entre les vecteurs u et v de R n est définie par d(u, v) = u v = n (u i v i ) 2 Définition 110 La projection d un vecteur u sur un vecteur v est définie par 124 Vecteurs orthogonaux Définition 111 Deux vecteurs non-nuls u et v de R n sont orthogonaux si On note alors u v b n p v (u) = < u, v > v v 2 (11) < u, v >= 0 Théorème 11 (de Pythagore) Si u et v sont orthogonaux, alors u + v 2 = u 2 + v 2 4

6 125 Orthogonal d un sous-espace vectoriel Définition 112 Un vecteur u est orthogonal à un sous-espace vectoriel V si et seulement si il est orthogonal à tous les vecteurs de V, on note alors u V Définition 113 Les sous-espaces V et W sont dits orthogonaux, si tout vecteur de V est orthogonal à tout vecteur de W Définition 114 L ensemble de tous les vecteurs orthogonaux à V est appelé l orthogonal de V et est noté V Propriété 11 (V ) = V, V V = {0} 13 Application linéaire et matrices 131 Application linéaire Une application f() de R J dans R I est dite linéaire si pour tous u, v, de R J et tout a R f(u + v) = f(u) + f(v), f(au) = af(u) 132 Matrice Une matrice est un tableau de nombres Par exemple : a 11 a 1j a 1J A = a i1 a ij a ij a I1 a Ij a IJ est une matrice de I lignes et de J colonnes En statistique, on manipule souvent des matrices Par convention, les lignes représentent souvent les unités statistiques, et les colonnes des variables Comme les vecteurs, les matrices peuvent être multipliées par un scalaire On peut également additionner deux matrices à condition qu elles aient le même nombre de lignes et de colonnes Sous cette même condition, on peut aussi définir une combinaison linéaire de deux matrices 133 Produit d une matrice et d un vecteur Soient une matrice A de dimension I J et un vecteur colonne u de dimension J le produit Au est donné par J a 11 a 1j a 1J u 1 j=1 a 1ju j Au = a i1 a ij a ij a I1 a Ij a IJ u j u J = J j=1 a iju j J j=1 a Iju j Le produit d un vecteur par une matrice est la représentation d une application linéaire dans la base canonique 5

7 134 Produit matriciel Soient deux matrices A de dimension I J et B de dimension J K, alors le produit de ces deux matrices est donné par a 11 a 1j a 1J b 11 b 1k b 1K AB = a i1 a ij a ij b j1 b jk b jk = a I1 a Ij a IJ b J1 b Jk b JK c 11 c 1k c 1K c i1 c ik c ik c I1 c Ik c IK = C, où c ik = J a ij b jk C est le produit des lignes par les colonnes La matrice C est de dimension (I K) 135 Transposition j=1 Transposer une matrice revient à remplacer les lignes par les colonnes et vice versa Par exemple, si A = 1 2 ( ) 4 3 alors A = Remarque 11 Soient A, B, C de dimension respectives (I J), (J K) et (K L), alors la transposée de ABC vaut (ABC) = C B A 136 Matrices carrées, symétriques et diagonales Définition 115 Une matrice est dite carrée si elle a le même nombre de lignes et de colonnes Si un vecteur de dimension n est prémultiplié par une matrice carrée n n, le résultat est donc aussi de dimension n Une matrice carrée n n est donc une application linéaire de R n dans R n Définition 116 Une matrice est dite symétrique si elle est égale à sa transposée Une matrice symétrique est donc toujours carrée Définition 117 Une matrice est dite diagonale, si elle est carrée et que tous ses éléments extradiagonaux sont nuls Par exemple, est une matrice diagonale D =

8 Définition 118 Une matrice identité I est une matrice diagonale dont tous les éléments de la diagonale sont égaux à 1 Par exemple, est une matrice identité de dimension 3 3 I = Rang d une matrice Définition 119 Le rang d une matrice est le nombre maximum de lignes (ou de colonnes) linéairement indépendantes Propriété 12 Le rang est toujours inférieur ou égal au minimum du nombre de lignes et du nombre de colonnes de la matrice Définition 120 Si le rang de la matrice est égal au minimum du nombre de lignes et du nombre de colonnes, la matrice est dite de plein rang (ou de rang maximal) Propriété 13 Le rang d un produit de matrices est inférieur ou égal au rang de chaque matrice 138 Trace d une matrice Définition 121 La trace d une matrice carrée est la somme des éléments de sa diagonale Propriété 14 1 trace(a + B) = trace(a) + trace(b) 2 trace(ab) = trace(ba) mais trace(ab) trace(a)trace(b) 139 Matrices inversibles Définition 122 Une matrice carrée A est dite inversible, s il existe une matrice A 1 qui vérifie AA 1 = A 1 A = I Propriété 15 Si une matrice carrée est de plein rang, alors elle est inversible 1310 Inversion par parties Soit une matrice F composée de quatre sous-matrices : ( ) A B F = C D Les matrices A et D sont carrées et inversibles La technique d inversion par partie permet d obtenir l inverse de F ( ) F 1 A = 1 + A 1 BQCA 1 A 1 BQ QCA 1 Q où Q = ( D CA 1 B ) 1 Ce résultat peut être démontré aisément en réalisant le produit F 1 F 7

9 1311 Déterminant Définition 123 Le déterminant d une matrice carrée A (J J) est noté A et est défini par Si J = 1, A = A Si J > 1, J A = ( 1) i+j M ij a ij, pour tout j fixé, où M ij est le mineur de a ij Le mineur est le déterminant de la matrice (J 1) (J 1) obtenue en enlevant la colonne i et la ligne j de la matrice A Exemple 13 Soit A une matrice (2 2), ( ) a b A = c d en prenant j = 1, on a A = a d c b = ad cb On peut aussi calculer le déterminant de A en prenant j = 2 Exemple 14 Soit une matrice A de dimension (3 3), le calcul se fait en prenant j = 1 A = alors son déterminant vaut A = = ( ) 2 ( ) 9 + ( ) 4 = = 360 Propriété 16 1 A = A, 2 AB = A B, en particulier A k = A k 3 ca = c J A, (où A est de dimension J J), 1312 Quelques propriétés Propriété 17 En général, si A, B et C sont des matrices carrées de même dimension, on a 1 AB BA, 2 A + B = B + A, 3 (AB)C = A(BC), 4 AI = A = IA, où I est une matrice identité, 5 (ABC) = C B A, 6 trace(ab) = trace(ba), 7 trace(a + B) = trace(a) + trace(b), 8 deta = deta, 9 (ABC) 1 = C 1 B 1 A 1 8

10 1313 Matrices orthogonales Définition 124 Une matrice Γ est dite orthogonale si son inverse est égale à sa transposée : Γ = Γ Valeurs propres et vecteurs propres Définition 125 Soit A une matrice J J λ i est une valeur propre de A si λ i est une solution de l équation Propriété 18 A λi = 0 Une matrice carrée symétrique de dimension J J possède toujours J valeurs propres La trace d une matrice carrée est toujours égale à la somme des valeurs propres Le déterminant d une matrice carrée symétrique est toujours égal au produit de ses valeurs propres Définition 126 Le vecteur u i 0 est un vecteur propre de A associé à la valeur propre λ i si Au i = λ i u i Propriété 19 Si A est une matrice J J réelle symétrique, il existe J vecteurs propres normés et orthogonaux Théorème 12 (de diagonalisation) Soient A une matrice symétrique (J J), et u i, λ i, i = 1,, J, ses valeurs propres et vecteurs propres associés Soient la matrice orthogonale Γ dont les colonnes sont les J vecteurs propres de A, et la matrice diagonale Λ ayant sur sa diagonale principale les J valeurs propres Alors Γ AΓ = Λ, A = ΓΛΓ 1315 Formes et applications linéaires, formes quadratiques Définition 127 Soient A une matrice (I I), B une matrice (J I), a un vecteur colonne de R J et b un vecteur colonne de dimension I On appelle forme linéaire définie par le vecteur a, l application de R I dans R a b, application linéaire de R I dans R J définie par la matrice B, Bb, et forme quadratique définie par la matrice A, l expression b Ab Définition 128 Une matrice A de dimension (I I) est dite définie positive si pour tout b R I \{0} b Ab > 0, Définition 129 Une matrice A de dimension (I I) est dite semi-définie positive si pour tout b R I b Ab 0, 9

11 Propriété 110 Une condition nécessaire et suffisante pour qu une matrice soit définie positive (resp semidéfinie positive) est que toutes ses valeurs propres soient strictement positives (resp positives ou nulles) Propriété 111 Pour toute matrice D, la matrice D D est semi-définie positive Démonstration En posant a = Db la forme quadratique b D Db peut s écrire b D Db = a a = i a 2 i 0 Propriété 112 Une matrice définie positive est toujours inversible 1316 Image et noyau d une matrice Définition 130 Le noyau d une matrice A de dimension I J est le sous-espace de R J défini par Ker(A) = { u R J Au = 0 } La définition implique que tous les vecteurs de Ker(A) sont orthogonaux à tous les vecteurs lignes contenus dans la matrice A Définition 131 L image d une matrice B de dimension I J est le sous-espace de R I défini par Im(B) = { x R I il existe u R J tel que Bu = x } Le sous-espace Im(B) est l ensemble des vecteurs qui peuvent s écrire comme une combinaison linéaire des colonnes de B L image de la matrice B est souvent appelé sous-espace engendré par les colonnes de B La dimension de l image de B est égale au rang de B Remarque 12 Le sous-espace Im(B) est l orthogonal de Ker(B ) Propriété 113 Si u Im(B) et v Ker(B ), alors u et v sont orthogonaux En statistique, on utilise souvent des matrices X (individus-variables) de dimension n p avec n p Le sous-espace engendré par les colonnes de X est l image de X 14 Projection et matrice idempotente 141 Projection L opération de projection se déduit du théorème suivant : Théorème 13 Soit V un sous-espace vectoriel de R n, alors tout vecteur u R n se décompose de manière unique en une somme d un vecteur de V et d un vecteur de V 142 Projection orthogonale Définition 132 Soit V un sous-espace de R n, l application linéaire qui à un vecteur u fait correspondre un vecteur u tel que u u soit orthogonal à V est appelé projection orthogonale (u V ) 10

12 143 Projection orthogonale dans l image et le noyau d une matrice Le projecteur orthogonal dans l image d une matrice X de plein rang de dimension n p avec n p est donné par P X = X(X X) 1 X Le projecteur orthogonal dans le noyau d une matrice X de plein rang de dimension n p avec n p est donné par P X = I X(X X) 1 X = I P X Remarque 13 Si X = v est un vecteur, alors le projecteur est et la projection de u sur v P v = v(v v) 1 v = v v 2 v = vv v 2, p v (u) = P v u = ce qui correspond à la définition donnée en (110) v v 2 v u = v < v, u > v 2, 144 Matrice idempotente Définition 133 Une matrice P est dite idempotente si PP = P Une matrice de projection est idempotente Remarque 14 Les matrices P X et P X sont évidemment idempotentes, en effet P X P X = { X(X X) 1 X } { X(X X) 1 X } = X(X X) 1 X X(X X) 1 }{{} = I = X(X X) 1 X = P X X De plus P XP X = (I P X )(I P X ) = I 2P X + P X P }{{ X = I P } X = PX = P X Le projecteur orthogonal dans le noyau d une matrice X de plein rang de dimension n p est donné par P X = I X(X X) 1 X = I P X Théorème 14 Toutes les valeurs propres d une matrice idempotente valent 1 ou 0 Démonstration Un vecteur propre non-nul u d une matrice P doit satisfaire au système d équation où λ est la valeur propre associée à u En multipliant (12) par P, on obtient Pu = λu, (12) et donc, En prémultipliant par u on a }{{} PP u = Pλu, P λu = λ 2 u u λu = u λ 2 u, 11

13 on obtient donc λ = λ 2, ce qui n est vérifié que si λ vaut 0 ou 1 Comme la trace d une matrice carrée est aussi la somme de ses valeurs propres, la trace d une matrice idempotente est le nombre de valeurs propres non-nulles, ce qui donne la propriété suivante Propriété 114 La trace d une matrice idempotente est égale à son rang Remarque 15 Le rang et la trace de X(X X) 1 X sont égaux au rang de la matrice (X X) 1 Cette matrice est supposée de plein rang (sinon X X ne serait pas inversible) Le rang de (X X) 1 et donc de P X = X(X X) 1 X est donc égal au nombre de colonnes de X Le rang de P X est la dimension du sousespace sur lequel projette P X 145 Projecteurs obliques Il existe des projecteurs non-orthogonaux On parle alors de projecteurs obliques Soit Z une matrice ayant le même nombre de lignes et de colonnes que X, alors P O = X(Z X) 1 Z est un projecteur oblique Il est facile de vérifier que la matrice P O est idempotente et qu elle projette sur l image de X 146 Théorème des trois perpendiculaires Théorème 15 Soit V et W deux sous-espaces vectoriels tels que V W, alors P V P W = P W P V = P V 15 Dérivée par rapport à un vecteur 151 Gradient Soit une fonction f() de R p dans R : f(x) = f(x 1,, x j,, x p ) On suppose en outre que toutes les dérivées partielles existes On appelle gradient de f() le vecteur des dérivées partielles : grad f = f ( f x =,, f,, f ) x 1 x j x p 152 Derivation d une forme linéaire Soit a un vecteur de R p, alors a ( p x x = a ix i,, p a ix i,, p a ) ix i = (a 1,, a j,, a p ) = a x 1 x j x p 153 Derivation d une application linéaire Soit A une matrice de dimension q p, alors p j=1 a 1jx j Ax = p j=1 a ijx j p j=1 a qjx j 12

14 On a Donc, a 11 Ax x = a i1,, a q1 a 1j a ij a qj Ax x j = a 1j a ij a qj a 1p a 11 a 1i a 1p,, a ip = a j1 a ji a jp = A a q1 a qi a qp a qp 154 Dérivée d une forme quadratique Donc, et Soit A une matrice de dimension p p, alors x Ax x k x Ax = p j=1 = 2a kk x k + j k p a ij x i x j = p a ii x 2 i + a kj x j + i k a ik x i = p j=1 a 1jx j + p a i1x i p p a ij x i x j j=1 j i p a kj x j + x Ax = p x j=1 a kjx j + p a ikx i = Ax + A x p j=1 a pjx j + p a ipx i Si la matrice A est symétrique, on a x Ax = 2Ax x Exercices Exercice 11 Calculez (y Xb) (y Xb), b où y R n, b R n, et X est une matrice de dimension n p j=1 p a ik x i, Exercice 12 1 Construisez des projecteurs orthogonaux P 1,P 2,P 3, sur des sous-espaces engendrés par les colonnes des matrices x 1 1 x 1 1 X 1 =, X 2 = x i, X 3 = 1 x i 1 x n 1 x n 13

15 2 Construisez les trois projecteurs qui projettent sur l orthogonal des sous-espaces engendré par les colonnes de X 1, X 2,X 3 3 Vérifiez que ces 6 projecteurs sont des matrices idempotentes 4 Projetez le vecteur y 1 y = y i au moyen de ces 6 projecteurs y n Exercice 13 Soient les matrices x 1 1 x 1 1 A =, B = x i, C = 1 x i 1 x n 1 x n Décomposez le vecteur z = (z 1,, z n ) en fonction de ses projections sur respectivement 1 Ker(A ) et Im(A) 2 Ker(B ) et Im(B) 3 Ker(C ) et Im(C) Exercice 14 Soient les matrices , ( ) /5 3/5, 3 3/5 9/ Calculez 1 leur rang 2 leur trace ( ) 1/9 4/9 4, ( ) , 6 2 4/9 16/ Quelles sont les matrices idempotentes et orthogonales? Avec les matrices idempotentes, projetez le vecteur ( x 1 x 2 ) ou ( x1 x 2 x 3 ) selon leur dimension Exercice 15 Soient X et Z, deux matrices de plein rang de dimension n p définissant le même sous-espace vectoriel 1 Donnez l application linéaire (la matrice) permettant de passer de X à Z et réciproquement Cette matrice est définie en fonction de X etz 2 Montrez que les projecteurs orthogonaux sur les sous-espaces engendrés par les colonnes de X et Z sont égaux 14

16 Exercice 16 Soient les matrices Construisez les projecteurs sur 1 x 1 1 A =, B = 1 x i 1 1 x n Im(A) Im(B) notés respectivement P A et P B Si Im(A) Im(B) vérifier le théorème des 3 perpendiculaires 15

17 Chapitre 2 Géométrie des moindres carrés 21 Série statistique bivariée On s intéresse à deux variables x et y Ces deux variables sont mesurées sur les n unités d observation Pour chaque unité, on obtient donc deux mesures La série statistique est alors une suite de n couples des valeurs prises par les deux variables sur chaque individu : (x 1, y 1 ),, (x i, y i ),, (x n, y n ) Chacune des deux variables peut être soit quantitative, soit qualitative 211 Représentation graphique de deux variables Dans ce cas, chaque couple est composé de deux valeurs numériques Un couple de nombres (entiers ou réels) peut toujours être représenté comme un point dans un plan (x 1, y 1 ),, (x i, y i ),, (x n, y n ) Exemple 21 On mesure le poids Y et la taille X de 20 individus Tab 21 Taille et poids de 20 individus y i x i y i x i Analyse des variables Les variables x et y peuvent être analysées séparément On peut calculer tous les paramètres dont les moyennes et les variances : x = 1 x i, s 2 x = 1 (x i x) 2, n n 16

18 poids taille Fig 21 Le nuage de points ȳ = 1 n y i, s 2 y = 1 n (y i ȳ) 2 Ces paramètres sont appelés paramètres marginaux : variances marginales, moyennes marginales, écarts-types marginaux, etc 213 Covariance La covariance est définie s xy = 1 (x i x)(y i ȳ) n Remarque 21 La covariance peut prendre des valeurs positives, négatives ou nulles Quand x i = y i, pour tout i = 1, n, la covariance est égale à la variance La covariance peut également s écrire s xy = 1 n x i y i xȳ 214 Corrélation Le coefficient de corrélation est la covariance divisée par les deux écart-types marginaux r xy = s xy s x s y Le coefficient de détermination est le carré du coefficient de corrélation Remarque 22 rxy 2 = s2 xy s 2 xs 2 y Le coefficient de corrélation mesure la dépendance linéaire entre deux variables 17

19 1 r xy 1 0 r 2 xy Droite de régression La droite de régression est la droite qui ajuste au mieux un nuage de points au sens des moindres carrés On considère que la variable X est explicative et que la variable Y est dépendante L équation d une droite est y = a + bx Le coefficient a est appelé la constante, et le coefficient b la pente de la droite de régression Le principe des moindres carrés consiste à chercher la droite qui minimise M(a, b) = (y i a bx i ) 2 Le minimum s obtient en annulant les dérivées partielles par rapport à a et b M(a, b) = 2 (y i a bx i ) = 0 a M(a, b) = 2 (y i a bx i ) x i = 0 b On obtient un système de deux équations à deux inconnues, qui peuvent également s écrire ȳ = a + b x x i y i a x i b x 2 i = 0 La première équation montre que la droite passe par le point ( x, ȳ) De plus, on obtient a = ȳ b x En remplaçant a par sa valeur dans la seconde équation divisée par n, on a 1 n x i y i (ȳ b x) x b 1 x 2 i n ( ) = 1 1 x i y i xȳ b x 2 i x 2 n n = s xy bs 2 x = 0, ce qui donne La droite de régression est donc ce qui peut s écrire aussi b = s xy s 2 x a = ȳ s xy s 2 x x y = ȳ s xy s 2 x x + s xy s 2 x, x y ȳ = s xy s 2 (x x) x Remarque 23 La droite de régression de y en x n est pas la même que la droite de régression de x en y 18

20 Fig 22 La droite de régression poids taille 216 Résidus et valeurs ajustées Les valeurs ajustées sont obtenues au moyen de la droite de régression : y i = a + bx i Les valeurs ajustées sont les prédictions des y i réalisées au moyen de la variable x et de la droite de régression de y en x Remarque 24 La moyenne des valeurs ajustées est ȳ Les résidus sont les différences entre les valeurs observées et les valeurs ajustées de la variable dépendante : e i = y i y i Les résidus représentent la partie inexpliquée des y i par la droite de régression Remarque 25 La moyenne des résidus est nulle : De plus, e i = 0 x i e i = Variance de régression et variance résiduelle La variance de régression est la variance des valeurs ajustées s 2 Y = 1 n (yi ȳ) 2 Théorème 21 La variance de régression peut également s écrire s 2 Y = s 2 yr 2, où r 2 est le coefficient de détermination 19

21 Démonstration s 2 Y = 1 n (yi ȳ) 2 = 1 { ȳ + s xy n s 2 (x i x) ȳ x = s2 xy 1 s 4 (x i x) 2 x n } 2 = s2 xy s 2 x s 2 xy = s 2 y s 2 xs 2 y = s 2 yr 2 La variance résiduelle est définie par : s 2 e = 1 n e 2 i Théorème 22 La variance résiduelle peut également s écrire s 2 e = s 2 y(1 r 2 ), où r 2 est le coefficient de détermination Démonstration s 2 e = 1 n = 1 n = 1 n = 1 n e 2 i (y i yi ) 2 { y i ȳ s xy s 2 (x i x) x (y i ȳ) 2 + s2 xy s 4 x = s 2 y + s2 xy 2 s2 xy = s 2 y ( s 2 x 1 s2 xy s 2 xs 2 y s 2 x ) 1 n } 2 (x i x) 2 2 s xy s 2 x 1 n (x i x)(y i ȳ) Théorème 23 La variance marginale est la somme de la variance de régression et de la variance résiduelle, s 2 y = s 2 Y + s 2 e La démonstration découle directement des deux théorèmes précédents 20

22 22 La régression multivariée 221 Représentation matricielle des données La matrice x 11 x 1j x 1p X = x i1 x ij x ip x n1 x nj x np peut représenter des données statistiques Plus précisément, on suppose que x ij représente la valeur prise par la variable explicative j sur l unité statistique i De même, le vecteur y = (y 1 y i y n ) représente les valeurs prises par la variable dépendante sur les n unités statistiques Dans la plupart des applications, on supposera également que la première variable est la constante, c est-à-dire que x i1 = 1, i = 1,, n (Néanmoins, il est intéressant dans certains cas particulier d utiliser une régression sans constante) On supposera alors que la matrice est de la forme : 1 x 12 x 1j x 1p X = 1 x i2 x ij x ip 1 x n2 x nj x np Dans ce qui suit, on suppose toujours que la première variable est une constante Si ce n est pas le cas, nous le notifierons expressément 222 Principe des moindres carrés La régression de y en X au sens des moindres carrés consiste à chercher l ajustement qui minimise en b : Q(b) = y Xb 2 = (y Xb) (y Xb), où b = (b 1 b p ) Pour obtenir le minimum, de Q(b), on annule le vecteur des dérivées ce qui donne la valeur de b : Q(b) b = 2X (y Xb) = 0, X Xb = X y En faisant l hypothèse que X X est inversible, on peut déterminer b : 223 Valeurs ajustées et résidus b = (X X) 1 X y Le vecteur des valeurs ajustées est le vecteur des prédictions de y au moyen de X et de b, c est-à-dire y = Xb = X(X X) 1 X y }{{} P X Le vecteur des valeurs ajustées peut être interprété comme la projection de y sur le sous-espace engendré par les colonnes de la matrice X y = P X y, où P X est un projecteur (c est-à-dire une matrice idempotente) sur le sous-espace engendré par les colonnes de X P X = X(X X) 1 X 21

23 Le vecteur des résidus est la différence entre y et y e = y y = y Xb = y X(X X) 1 X y = (I X(X X) 1 X )y Le vecteur des valeurs ajustées peut également être interprété comme la projection de y dans le noyau de X (ou l orthogonal du sous-espace engendré par les colonnes de X) e = P Xy, (21) où P X est un projecteur (c est-à-dire une matrice idempotente) sur le noyau de X Propriété 21 P X = I X(X X) 1 X y = y + e, y est une combinaison linéaire des colonnes de X, y et e sont orthogonaux, e est orthogonal avec toutes les colonnes de X, c est-à-dire e X = Variance de régression et variance résiduelle Soit le vecteur de R n contenant n fois la moyenne de la variable y : La variance peut être définie simplement par : ȳ = (ȳ,, ȳ) s 2 y = 1 n (y ȳ) (y ȳ) = 1 n (y i ȳ) 2 La variance de régression est la moyenne des valeurs ajustées : s 2 Y = 1 n (y ȳ) (y ȳ) = 1 (yi ȳ) 2 n La variance résiduelle est la variance résiduelle : s 2 e = 1 n e e = 1 n (y y ) (y y ) = 1 n 225 Coefficient de détermination Le coefficient de détermination vaut R 2 = s2 Y s 2 y (y i yi ) 2 = 1 n = 1 s2 e s 2 y e 2 i Il est important de noter que le R 2 ne peut être calculé que si la régression inclut une constante Si ce n est pas le cas, le R 2 peut prendre des valeurs négatives Le racine carrée du coefficient de détermination est appelée le coefficient de corrélation multiple 23 Matrice de variance-covariance et matrice de corrélation Si la première colonne de la matrice X contient uniquement des 1, alors ont peut calculer les covariances entre les p 1 dernières variables La matrice variance-covariance, de dimension (p 1) (p 1), des variables explicatives est s 2 2 s 2j s 2p Σ = s j2 s 2 j s jp, (22) s p2 s pj s 2 p 22

24 où et s jk = 1 n (x ij x j )(x ik x k ) s 2 j = 1 n x j = 1 n x ij, (x ij x j ) 2 Si la première colonne de la matrice X est une constante, alors la matrice variance-covariance est une matrice de dimension (p 1) (p 1) correspondant aux p 1 dernières colonnes de X On peut également construire la matrice diagonale des écart-types : s S = 0 s j s p La matrice des corrélations : est obtenue par 1 r 2j r 2p R = r j2 1 r jp, r p2 r pj 1 R = S 1 ΣS 1 24 Corrélations partielles Soit deux variables y et z et le vecteur de leurs valeurs y et z sur les n unités de l échantillon La matrice idempotente P X = I X(X X) 1 X permet d obtenir le vecteur des résidus de la régression de y en X le vecteur des résidus de la régression de z en X e y X = P Xy, e z X = P Xz Le coefficient de corrélation partielle est le coefficient de corrélation entre e y X et e z X Si la première colonne de la matrice X contient une colonne de constante, alors ce coefficient s écrit e y X r yz x2,,x p = e z X y P X e y X e y Xe z X e = z z X y P X yz P X z Le coefficient de corrélation partielle mesure la corrélation entre les variables y et z auxquelles on a enlevé la partie explicable par les variables de X 23

25 25 Condition pour que la somme des résidus soit nulle La matrice X peut contenir une variable constante de manière explicite, c est-à-dire qu une des colonnes de cette matrice contient une variable constante La constante peut également être définie de manière implicite, ce qui signifie qu il existe une combinaison linéaire des colonnes de X qui permet d obtenir une colonne de uns Formellement, on suppose qu il existe un vecteur λ de R p tel que Xλ = 1 n = (1 1 1) Théorème 24 Si la matrice X contient une variable constante définie de manière explicite où implicite, alors la somme des résidus est nulle Démonstration On a e i = 1 ne Or, il existe un vecteur λ de R p tel que Xλ = 1 n On obtient donc e i = λ X e = λ X { I X(X X) 1 X } y = λ X λ X X(X X) 1 }{{} = 0 Une autre manière d aboutir à ce résultat, consiste à se remémorer que le vecteur de résidus est toujours orthogonal aux variables explicatives, c est-à-dire e X = 0 Or, s il existe un vecteur λ de R p tel que Xλ = 1 n, alors e Xλ = e 1 n = 0 λ = 0 Si la somme des résidus est nulle, la moyenne des valeurs ajustées est égale à la moyenne des valeurs observées, autrement dit 1 yi = 1 y i = ȳ n n 26 Décomposition en sommes de carrés Théorème 25 Soit une régression pour laquelle la constante est une variable explicative (éventuellement définie de manière implicite), alors la somme des carrés totale des écarts à la moyenne SC tot = (y ȳ) (y ȳ) = se décompose donc en une somme de deux termes : la somme des carrés expliquée par la régression, I X (y i ȳ) 2 SC regr = (y ȳ) (y ȳ) = y (yi ȳ) 2, 24

26 la somme des carrés des résidus SC res = e e = (y i yi ) 2 = Démonstration En notant ȳ le vecteur de R n contenant n fois la moyenne ȳ, on a Donc, y ȳ = y ȳ + e e 2 i (23) (y ȳ) (y ȳ) = (y ȳ + e) (y ȳ + e) = (y ȳ) (y ȳ) + e e + 2e (y ȳ) or e et (y ȳ) sont orthogonaux En effet e est toujours orthogonal à y et, e ȳ = ȳ n e i Or la somme des résidus est nulle quand la constante est une variable explicative Donc e (y ȳ) = 0, ce qui donne finalement (y ȳ) (y ȳ) = (y ȳ) (y ȳ) + e e 27 Régression avec les données centrées Supposons que la première colonne de la matrice X soit composée de constantes : 1 x 12 x 1j x 1p X = 1 x i2 x ij x ip 1 x n2 x nj x np Dans ce cas, la régression multiple s écrit : y i = b 1 + x i2 b 2 + x i3 b x ip b p + e i (24) On peut aussi travailler avec les données centrées En sommant sur les i et en divisant par n l équation (24), on obtient : ȳ = b 1 + x 2 b 2 + x 3 b x p b p, (25) et donc en soustrayant (25) à (24), on a finalement : Définissons maintenant y i ȳ = (x i2 x 2 )b 2 + (x i3 x 3 )b (x ip x p )b p + e i (26) 1 b : le vecteur de R p 1 composé des p 1 dernières composantes de b, b = (b 2, b 3,, b p ), 2 X : la matrice n (p 1) composée des p 1 dernières colonnes de X, x 12 x 1j x 1p X = x i2 x ij x ip, x n2 x nj x np 3 1 = (1, 1,, 1) : le vecteur colonne de n uns, 4 la matrice idempotente qui centre les valeurs : 1 1/n 1/n 1/n 1/n 1/n 1 1/n 1/n 1/n P c = I 11 n = 1/n 1/n 1 1/n 1/n, (27) 1/n 1/n 1/n 1 1/n 25

27 5 y c = P c y = y 1ȳ = y ȳ = (y 1 ȳ, y 2 ȳ,, y n ȳ) 6 X c = P c X la matrice X centrée x 12 x 2 x 1j x j x 1p x p X c = x i2 x 2 x ij x j x ip x p x n2 x 2 x nj x j x np x p La régression multiple peut maintenant s écrire : Le vecteur b est évidemment défini par y c = X c b + e ( ) X b = (X cx c ) 1 X 1 cy c = c X c X cy c n n (28) Cette présentation est intéressante à plus d un titre En effet (X cx c )/n n est autre que la matrice variancecovariance Σ donnée en (22) s 2 2 s 2j s 2p Σ = X cx c = n s j2 s 2 j s jp, s p2 s pj s 2 p et X cy c /n est le vecteur des covariances entre les variables explicatives et la variable dépendante : où pour j = 2,, n Comme, s jy = 1 n X cy c n s 2y = s jy s py (x ij x j )(y i ȳ), y c = X c b + e, la décomposition en somme de carrés vient directement : y cy c = (X c b + e) (X c b + e) = b X cx c b + e e + 2e X }{{ c b } 0 Le dernier terme s annule, car les résidus observés sont orthogonaux aux colonnes de X On peut donc à nouveau décomposer la somme des carrés totales en une somme de deux termes : SC tot = SC regr + SC res, où la somme des carrés totales SC tot = y cy c = (y i ȳ) 2, (29) 26

28 la somme des carrés expliquée par la régression, car et que donc la somme des carrés des résidus 28 Retour au cas bivarié 281 Méthode 1 SC regr = b X cx c b, (210) p j=2 b j(x 1j x j ) y 1 ȳ X c b = p j=2 b j(x ij x j ) = yi ȳ p j=2 b j(x nj x j ) yn ȳ b X cx c b = (y ȳ) (y ȳ) = SC res = e e = (yi ȳ) 2 = SC regr, e 2 i (211) Le cas particulier le plus fréquemment étudié consiste à utiliser deux variables explicatives (p = 2) : une constante et une variable x i Dans ce cas, 1 x 1 X = 1 x i 1 x n On a alors X X = ( n n x ) i n x n, i x2 i (X X) 1 = = = = = 1 n n x2 i ( n x i) 2 1 { n 2 1 n n x2 i ( 1 n n x ) } 2 i ( 1 n x2 i n x ) i n 2 s 2 x n x i n ( ) 1 ns 2 x + n x 2 n x n 2 s 2 x n x n ( ) 1 s 2 x + x 2 x, x 1 ns 2 x ( n x2 i n x i n x i n ) ( n x2 i n x i n x i n ) où De plus, s 2 x = 1 n x 2 i ( 1 n ) 2 x i ( n X y = y ) ( ) i ȳ n x = n, iy i s xy + xȳ 27

29 ce qui permet de calculer b En général, on note et b = (X X) 1 X y = 1 s 2 x On a finalement le vecteur des valeurs ajustées avec y i = 1 b 1 + x i b 2 = ( ) (s 2 x + x 2 )ȳ x(s xy + xȳ) = xȳ + (s xy + xȳ) b 1 = ȳ x s xy s 2, x b 2 = s xy s 2 x y = (y i ) = Xb, ( ȳ x s ) xy s xy s 2 + x i x s 2 x ȳ x s xy s 2 x s xy s 2 x = ȳ + (x i x) s xy s 2 x Le cas bivarié consiste donc à utiliser deux variables explicatives, la première est la constante et la seconde est la variable x 282 Méthode 2 Une autre manière de traiter le même problème est de d utiliser les données centrées Dans ce cas, on a y 1 ȳ x 1 x y c = y i ȳ, X c = x i x y n ȳ x n x On obtient Il reste a déduire b 1 de l équation ce qui donne Exercices X cx c = ns 2 x, X cy c = ns xy et b = (X c X c ) 1 X cy c = s xy s 2 x b 1 = ȳ s xy s 2 x Exercice 21 Au moyen du tableau 21, calculez 1 tous les paramètres marginaux, 2 la covariance, 3 la droite de regression de la taille par le poids, 4 les résidus et les valeurs ajustées, ȳ = b 1 + s xy s 2 x, x x, et b 2 = s xy s 2 x 5 le coefficient de la régression, la variance résiduelle et la variance de régression Exercice 22 En quoi consiste la régression, 1 quand une seule variable x est utilisée, 28

30 2 quand seule la constante est utilisée, 3 quand l échantillon est partitionné en p parties notées U 1,, U p et que x ij = 1 si l unité i est dans la partie j et 0 sinon? Représentez les deux droites de régression, pour les points 1 et 2 Exercice 23 À partir du tableau 22, calculez les coefficients de corrélation et de régression a et b de la régression de y en x Tab 22 Données pour les variables x et y t y t x t Somme Moyenne Exercice 24 Application du principe des moindres carrés : Soit Q(b) = y Xb 2, qui peut également s écrire Q(b 1,, b p ) = y i 2 p x ij b j Annulez les dérivées partielles Q = 0 b j Écrivez ensuite ce système de p équations à p inconnues sous forme matricielle j=1 Exercice 25 (extrait de Cohen and Pradel, 1993) Parmi les relations suivantes donnant y en fonction de x et peut être z, quelles sont celles qui peuvent être déterminées à l aide d un modèle linéaire? 1 y = ax + b 2 y = ax 2 + b 3 y = ax 2 + bx + c 4 y = ax 3 + b 5 y = x a z b 6 y = a exp bx 29

31 c 7 y = 1 + a exp bx 8 y = x 2 + ax + b 9 y = a log(x) y = ab x + c z 11 y = a x 1 + b 12 y = aln(x) + bz 5 + c Exercice 26 Dans un modèle où on cherche un ajustement linéaire de Y sur X et la constante, on dispose des résultats suivants portant sur 52 observations : y t = x t, x = 1063 s 2 y = s 2 x = Déterminez successivement les valeurs du coefficient de corrélation linéaire entre X et Y, le coefficient de détermination R 2 et les SC tot, SC res et SC regr de la régression Exercice 27 Soit une matrice 1 x 1 X = 1 x i 1 x n Calculez le coefficient de corrélation partiel r yz x et exprimez-le en fonction des coefficients de corrélation (non-partiels) r yz, r xy et r yx Exercice 28 A partir des données du tableau 23, calculez le vecteur des coefficients de la régression des y i en x i1 et x i2 (avec une constante) Les données sont les suivantes : Indication : travailler avec la matrice Tab 23 Données sur le travail, le capital et la production Entreprise(i) Travail(x i ) Capital(z i ) Production(y i ) variance-covariance permet de simplifier considérablement les calculs (voir calcul de b dans l expression (28)) 30

32 Exercice 29 On procède à l estimation d un modèle linéaire avec une constante Les informations disponibles sont : X X = X y = Calculez : y y = 200 (a) La taille de l échantillon (b) n x i1; n x2 i1 (c) n x i2; n x2 i2 (d) n x i1x i2 2 Calculez la droite de régression des y i en x i1 et x i2 (avec constante) 3 Calculez la matrice variance-covariance des variables explicatives 4 Calculez la matrice des corrélations des variables explicatives Exercice 210 Retour au cas bivarié Calculez les droites de régression de { y en x x en y 1 Si sur un graphique on a x en abscisse et y en ordonnée, quelle est la droite ayant la plus grande pente? (Attention la réponse dépend de la valeur du coefficient de corrélation) 2 Quelle est le point d intersection des deux droites (faites les calculs)? 31

33 Chapitre 3 Rappel sur le calcul des probabilités, les variables aléatoires, et l inférence statistique 31 Probabilités 311 Événement Une expérience est dite aléatoire si on ne peut pas prédire a priori son résultat On note ω un résultat possible de cette expérience aléatoire L ensemble de tous les résultats possibles est noté Ω Par exemple, si on jette deux pièces de monnaie, on peut obtenir les résultats Ω = {(P, P, ), (F, P ), (P, F ), (F, F )}, avec F pour face et P pour pile Un événement est une assertion logique sur une expérience aléatoire Formellement, un événement est un sous-ensemble de Ω Exemple 31 L expérience peut consister à jeter un dé, alors Ω = {1, 2, 3, 4, 5, 6}, et un événement, noté A, est obtenir un nombre pair On a alors A = {2, 4, 6} Soient deux événements A et B, si A B =, alors on dit qu ils sont mutuellement exclusifs Exemple 32 Par exemple, si on jette un dé, l événement obtenir un nombre pair et l événement obtenir un nombre impair ne peuvent pas être obtenus en même temps Ils sont mutuellement exclusifs D autre part, si l on jette un dé, les événements A : obtenir un nombre pair n est pas mutuellement exclusif avec l événement B : obtenir un nombre inférieur ou égal à 3 En effet, l intersection de A et B est non-vide et consiste en l événement obtenir 2 On appelle complémentaire d un événement A = Ω\A On va associer à Ω l ensemble A de toutes les parties (ou sous-ensembles) de Ω Exemple 33 Si on jette un pièce de monnaie alors Ω = {P, F }, et A = {, {F }, {P }, {F, P }} 32

34 Définition 31 Les événements A 1,, A n forment un système complet d événements, si ils constituent une partition de Ω, c est-à-dire si tous les couples A i, A j sont mutuellement exclusifs quand i j, n A i = Ω 312 Axiomatique des Probabilités Définition 32 Une probabilité P () est une application de A dans [0, 1], telle que : Pr(Ω) = 1, Pour tout ensemble dénombrable d événements A 1,, A n tels que A i A j =, pour tout i j, ( n ) Pr A i = Pr(A i ) A partir des axiomes, on peut déduire les propriétés suivantes : Pr( ) = 0, Pr(A) = 1 Pr(A), Pr(A) Pr(B) si A B, Pr(A B) = Pr(A) + Pr(B) Pr(A B), Pr ( n A i) n Pr(A i), Si A 1,, A n forment un système complet d événements, alors Pr(B A i ) = Pr(B) 313 Probabilités conditionnelles et indépendance Définition 33 Soient deux événements A et B, si Pr(B) > 0, alors Pr(A B) = Pr(A B) Pr(B) Définition 34 Deux événements A et B sont dits indépendants si Pr(A B) = Pr(A) On peut montrer facilement que si A et B sont indépendants, alors Pr(A B) = Pr(A)Pr(B) 314 Théorème des probabilités totales et théorème de Bayes Théorème 31 (des probabilités totales) Soit A 1,, A n un système complet d événements, alors En effet, Pr(B) = Pr(A i )Pr(B A i ) Pr(A i )Pr(B A i ) = Comme les événements A i B sont mutuellement exclusifs, Pr(B A i ) n Pr(B A i ) = Pr (B A i ) = Pr(B) Théorème 32 (de Bayès) Soit A 1,, A n un système complet d événements, alors Pr(A i B) = Pr(A i )Pr(B A i ) n j=1 Pr(A j)pr(b A j ) 33

35 En effet, par le théorème des probabilités totales, 32 Variables aléatoires 321 Définition Pr(A i )Pr(B A i ) n j=1 Pr(A j)pr(b A j ) = Pr(B A i) = Pr(A i B) Pr(B) La notion de variable aléatoire formalise l association d une valeur au résultat d une expérience aléatoire Définition 35 Une variable aléatoire X est une application de l ensemble fondamental Ω dans R Exemple 34 On considère une expérience aléatoire consistant à lancer deux pièces de monnaie L ensemble des résultats possibles est Ω = {(F, F ), (F, P ), (P, F ), (P, P )} Chacun des éléments de Ω a une probabilité 1/4 Une variable aléatoire va associer une valeur à chacun des éléments de Ω Considérons la variable aléatoire représentant le nombre de Faces obtenus : 0 avec une probabilité 1/4 X = 1 avec une probabilité 1/2 2 avec une probabilité 1/4 322 Variables aléatoires discrètes Définition, espérance et variance Une variable aléatoire discrète prend uniquement des valeurs entières (de Z) Une distribution de probabilité p X (x) est une fonction qui associe à chaque valeur entière une probabilité La fonction de répartition est définie par p X (x) = Pr(X = x), x Z F X (x) = Pr(X x) = z x p X (z) L espérance mathématique d une variable aléatoire discrète est donné par µ = E(X) = x Z xp X (x), et sa variance ( σ 2 = var(x) = E {X E(X)} 2) = p X (x)(x µ) 2 x Z Variable indicatrice ou bernoullienne La variable indicatrice X de paramètre p [0, 1] a la distribution de probabilité suivante : { 1 avec une probabilité p X = 0 avec une probabilité 1 p L espérance vaut et la variance vaut µ = E(X) = 0 (1 p) + 1 p = p, σ 2 = var(x) = E(X p) 2 = (1 p)(0 p) 2 + p(1 p) 2 = p(1 p) Exemple 35 On tire au hasard une boule dans une urne contenant 18 boules rouges et 12 boules blanches Si X vaut 1 si la boule est rouge et 0 sinon, alors X a une loi bernoullienne de paramètre p = 18/(18+12) = 06 34

36 Variable binomiale où Une variable X suit une loi binomiale de paramètre 0 < p < 1 et d exposant n, si ( n ) Pr(X = x) = p x (1 p) n x, x = 0, 1,, n 1, n, x La somme de ces probabilités vaut 1, en effet Pr(X = x) = x=0 x=0 L espérance et la variance sont données par ( n ) n! = x x!(n x)! ( n x ) p x (1 p) n x = {p + (1 p)} n = 1 E(X) = np, var(x) = np(1 p) Exemple 36 On tire au hasard avec remise et de manière indépendante 5 boules dans une urne contenant 18 boules rouges et 12 boules blanches Si X est le nombre de boules rouges obtenues, alors X a une loi binomiale de paramètre p = 18/( ) = 06, et d exposant n = 5 Donc, ( ) 5 Pr(X = x) = 06 x 04 5 x, x = 0, 1,, 4, 5, x ce qui donne Pr(X = 0) = Pr(X = 1) = Pr(X = 2) = Pr(X = 3) = Pr(X = 4) = Pr(X = 5) = 5! 0!(5 0)! = = ! 1!(5 1)! = = ! 2!(5 2)! = = ! 3!(5 3)! = = ! 4!(5 4)! = = ! 5!(5 5)! = = Variable de Poisson La variable X suit une loi de Poisson, de paramètre λ R + si Pr(X = x) = e λ λ x, x = 0, 1, 2, 3, x! L espérance et la variance d une loi de Poisson sont égales au paramètre λ E(X) = λ, var(x) = λ 35

37 323 Variable aléatoire continue Définition, espérance et variance Une variable aléatoire continue prend des valeurs dans R ou dans un intervalle de R La probabilité qu une variable aléatoire continue soit inférieure à une valeur particulière est donnée par sa fonction de répartition Pr(X x) = F (x) La fonction de répartition d une variable aléatoire continue est toujours : dérivable, positive : F (x) 0, pour tout x, croissante, lim x F (x) = 1, lim x F (x) = 0 On a Pr(a X b) = F (b) F (a) La fonction de densité d une variable aléatoire continue est la dérivée de la fonction de répartition en un point df (x) f(x) = dx Une fonction de densité est toujours : positive : f(x) 0, pour tout x, d aire égale à un : f(x)dx = 1 On a évidemment la relation : F (b) = b f(x)dx La probabilité que la variable aléatoire soit inférieure à une valeur quelconque vaut : Pr(X a) = a f(x)dx = F (a) La probabilité que la variable aléatoire prenne une valeur comprise entre a et b vaut Pr(a X b) = b a f(x)dx = F (b) F (a) Si la variable aléatoire est continue, la probabilité qu elle prenne exactement une valeur quelconque est nulle : Pr(X = a) = 0 L espérance d une variable aléatoire continue est définie par : et la variance Variable uniforme E(X) = var(x) = xf(x)dx, (x µ) 2 f(x)dx Une variable est dite uniforme dans un intervalle [a,b], (avec a < b) si sa répartition est : 0 si x < a F (x) = (x a)/(b a) si a x b 1 si x > b Sa densité est alors 0 si x < a f(x) = 1/(b a) si a x b 0 si x > b 36

38 On peut montrer que µ = E(X) = b + a 2 et σ 2 (b a)2 = var(x) = 12 Les logiciels gênèrent en général des variables aléatoires uniformes dans [0,1] Variable normale Une variable aléatoire X est dite normale si sa densité vaut f µ,σ 2(x) = 1 ( ) 2 x µ σ 2π exp 1 (31) 2 σ De manière synthétique, pour noter que X a une distribution normale de moyenne µ et de variance σ 2 on écrit : X N(µ, σ 2 ) On peut montrer que et La fonction de répartition vaut F µ,σ 2(x) = 324 Distribution bivariée x E(X) = µ, var(x) = σ 2 ( ) 2 1 u µ σ 2π exp 1 du 2 σ Deux variables aléatoires peuvent avoir une distribution jointe Cas continu Soit deux variables aléatoires X et Y continues, leur distribution de densité f(x, y) est une fonction continue, positive, et telle que La fonction de répartition jointe est définie par F (x, y) = Pr(X x et Y y) = On appelle densités marginales les fonctions f X (x) = f(x, y)dxdy = 1 x f(x, y)dy, et f Y (y) = y f(u, v)dvdu f(x, y)dx Avec les distributions marginales, on peut définir les moyennes marginales, et les variances marginales : σ 2 X = µ X = xf X (x)dx, et µ Y = (x µ X ) 2 f X (x)dx, et σ 2 Y = On appelle densités conditionnelles, les fonctions yf Y (y)dy, (y µ Y ) 2 f Y (y)dy f(x y) = f(x, y) f Y (y) et f(y x) = f(x, y) f X (x) 37

39 Avec les distributions conditionnelles, on peut définir les moyennes conditionnelles, et les variances conditionnelles : σ 2 X(y) = µ X (y) = xf(x y)dx, et µ Y (x) = {x µ X (y)} 2 f(x y)dx, et σ 2 Y (x) = Enfin, la covariance entre X et Y est définie par σ xy = cov(x, Y ) = 325 Indépendance de deux variables aléatoires Deux variables aléatoires X et Y sont dites indépendantes, si yf(y x)dy, {y µ Y (x)} 2 f(y x)dy (x µ X )(y µ Y )f(x, y)dxdy Pr(X x et Y y) = Pr(X x)pr(y y), pour tout x, y R Si X et Y sont discrètes, cela implique que Pr(X = x et Y = y) = Pr(X = x)pr(y = y), pour tout x, y Z Si X et Y sont continues, en notant f X () et f Y () les fonctions de densité marginales respectives de X et Y, et en notant f XY (x, y) la densité jointe des deux variables, alors X et Y sont indépendants si f XY (x, y) = f X (x)f Y (y), x, y R 326 Propriétés des espérances et des variances De manière générale, pour des variables aléatoires X et Y, et avec a et b constants : De plus, si X et Y sont indépendantes : E(a + bx) = a + be(x) E(aY + bx) = ae(y ) + be(x) var(a + bx) = b 2 var(x) var(x + Y ) = var(x) + var(y ) + 2cov(X, Y ) E(XY ) = E(X)E(Y ) cov(x, Y ) = 0, var(x + Y ) = var(x) + var(y ) Enfin, il est possible de calculer l espérance et la variance d une somme de variables aléatoires indépendantes, et identiquement distribuées Théorème 33 Soit X 1,, X n une suite de variables aléatoires, indépendantes et identiquement distribuées et dont la moyenne µ et la variance σ 2 existent et sont finies, alors si X = 1 X i, n on a Démonstration et E ( X) = E ( 1 n var ( X) = var ( 1 n E( X) = µ, et var( X) = σ2 n ) X i = 1 n E (X i ) = 1 n ) X i = 1 n n 2 var (X i ) = 1 n 2 µ = µ n σ 2 = σ2 n 38

40 327 Autres variables aléatoires Variable khi-carrée Soit une suite de variables aléatoires indépendantes, normales, centrées réduites, X 1,, X p, (c est-à-dire de moyenne nulle et de variance égale à 1), alors la variable aléatoire χ 2 p = p Xi 2, est appelée variable aléatoire khi-carré à p degrés de liberté Il est possible de montrer que E(χ 2 p) = p, et que Variable de Student var(χ 2 p) = 2p Soit une variable aléatoire X normale centrée réduite, et une variable aléatoire khi-carré χ 2 p à p degrés de liberté, indépendante de X, alors la variable aléatoire t p = X χ 2 p/p est appelée variable aléatoire de Student à p degrés de liberté Variable de Fisher Soient deux variables aléatoires khi-carrés indépendantes χ 2 p, χ 2 q, respectivement à p et q degrés de liberté, alors la variable aléatoire F p,q = χ2 p/p χ 2 q/q est appelée variable aléatoire de Fisher à p et q degrés de liberté Remarque 31 Il est facile de montrer que le carré d une variable de Student à q degrés de liberté est une variable de Fisher à 1 et q degrés de liberté 328 Variable normale multivariée Le vecteur de variables aléatoires X = (X 1,, X p ) a une distribution normale multivariée de moyenne µ = (µ 1,, µ p ) et de matrice variance-covariance Σ (on suppose par simplicité que Σ est de plein rang), si sa fonction de densité est donnée par [ 1 f X (x) = exp 1 ] (2π) p/2 Σ 1/2 2 (x µ) Σ 1 (x µ), (32) pour tout x R p Remarque 32 Si p = 1, on retrouve l expression (31) 39

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 7 août 204 Enoncés Probabilités sur un univers fini Evènements et langage ensembliste A quelle condition sur (a, b, c, d) ]0, [ 4 existe-t-il une probabilité P sur

Plus en détail

Chapitre 2. Matrices

Chapitre 2. Matrices Département de mathématiques et informatique L1S1, module A ou B Chapitre 2 Matrices Emmanuel Royer emmanuelroyer@mathuniv-bpclermontfr Ce texte mis gratuitement à votre disposition a été rédigé grâce

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Maths MP Exercices Fonctions de plusieurs variables Les indications ne sont ici que pour être consultées après le T (pour les exercices non traités). Avant et pendant le T, tenez bon et n allez pas les

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Structures algébriques

Structures algébriques Structures algébriques 1. Lois de composition s Soit E un ensemble. Une loi de composition interne sur E est une application de E E dans E. Soient E et F deux ensembles. Une loi de composition externe

Plus en détail

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Exercices - Polynômes : corrigé. Opérations sur les polynômes Opérations sur les polynômes Exercice 1 - Carré - L1/Math Sup - Si P = Q est le carré d un polynôme, alors Q est nécessairement de degré, et son coefficient dominant est égal à 1. On peut donc écrire Q(X)

Plus en détail

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2 Chapitre 8 Fonctions de plusieurs variables 8.1 Généralités sur les fonctions de plusieurs variables réelles Définition. Une fonction réelle de n variables réelles est une application d une partie de R

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Résolution de systèmes linéaires par des méthodes directes

Résolution de systèmes linéaires par des méthodes directes Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.

Plus en détail

Analyse en Composantes Principales

Analyse en Composantes Principales Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

Cours d analyse numérique SMI-S4

Cours d analyse numérique SMI-S4 ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

Que faire lorsqu on considère plusieurs variables en même temps?

Que faire lorsqu on considère plusieurs variables en même temps? Chapitre 3 Que faire lorsqu on considère plusieurs variables en même temps? On va la plupart du temps se limiter à l étude de couple de variables aléatoires, on peut bien sûr étendre les notions introduites

Plus en détail

Capes 2002 - Première épreuve

Capes 2002 - Première épreuve Cette correction a été rédigée par Frédéric Bayart. Si vous avez des remarques à faire, ou pour signaler des erreurs, n hésitez pas à écrire à : mathweb@free.fr Mots-clés : équation fonctionnelle, série

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples 45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

[http://mp.cpgedupuydelome.fr] édité le 30 avril 2015 Enoncés 1

[http://mp.cpgedupuydelome.fr] édité le 30 avril 2015 Enoncés 1 [http://mpcpgedupuydelomefr] édité le 3 avril 215 Enoncés 1 Exercice 1 [ 265 ] [correction] On note V l ensemble des matrices à coefficients entiers du type a b c d d a b c c d a b b c d a et G l ensemble

Plus en détail

Coefficients binomiaux

Coefficients binomiaux Probabilités L2 Exercices Chapitre 2 Coefficients binomiaux 1 ( ) On appelle chemin une suite de segments de longueur 1, dirigés soit vers le haut, soit vers la droite 1 Dénombrer tous les chemins allant

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Probabilités sur un univers fini

Probabilités sur un univers fini [http://mp.cpgedupuydelome.fr] édité le 10 août 2015 Enoncés 1 Proailités sur un univers fini Evènements et langage ensemliste A quelle condition sur (a,, c, d) ]0, 1[ 4 existe-t-il une proailité P sur

Plus en détail

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en 2000. Énoncé.

Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en 2000. Énoncé. Enoncé et corrigé du brevet des collèges dans les académies d Aix- Marseille, Montpellier, Nice Corse et Toulouse en 2000. Énoncé. I- ACTIVITES NUMERIQUES (12 points) Exercice 1 (3 points) On considère

Plus en détail

Qu est-ce qu une probabilité?

Qu est-ce qu une probabilité? Chapitre 1 Qu est-ce qu une probabilité? 1 Modéliser une expérience dont on ne peut prédire le résultat 1.1 Ensemble fondamental d une expérience aléatoire Une expérience aléatoire est une expérience dont

Plus en détail

CCP PSI - 2010 Mathématiques 1 : un corrigé

CCP PSI - 2010 Mathématiques 1 : un corrigé CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E

Un K-espace vectoriel est un ensemble non vide E muni : d une loi de composition interne, c est-à-dire d une application de E E dans E : E E E Exo7 Espaces vectoriels Vidéo partie 1. Espace vectoriel (début Vidéo partie 2. Espace vectoriel (fin Vidéo partie 3. Sous-espace vectoriel (début Vidéo partie 4. Sous-espace vectoriel (milieu Vidéo partie

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

Cours de mathématiques

Cours de mathématiques DEUG MIAS premier niveau Cours de mathématiques année 2003/2004 Guillaume Legendre (version révisée du 3 avril 2015) Table des matières 1 Éléments de logique 1 1.1 Assertions...............................................

Plus en détail

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Eercice 1 (5 points) pour les candidats n ayant pas choisi la spécialité MATH Le tableau suivant donne l évolution du chiffre

Plus en détail

DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10.

DOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. A1 Trouvez l entier positif n qui satisfait l équation suivante: Solution 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. En additionnant les termes du côté gauche de l équation en les mettant sur le même dénominateur

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine

Plus en détail

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015

Première partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015 Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k

Plus en détail

Développement décimal d un réel

Développement décimal d un réel 4 Développement décimal d un réel On rappelle que le corps R des nombres réels est archimédien, ce qui permet d y définir la fonction partie entière. En utilisant cette partie entière on verra dans ce

Plus en détail

Chapitre 2 Le problème de l unicité des solutions

Chapitre 2 Le problème de l unicité des solutions Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

OM 1 Outils mathématiques : fonction de plusieurs variables

OM 1 Outils mathématiques : fonction de plusieurs variables Outils mathématiques : fonction de plusieurs variables PCSI 2013 2014 Certaines partie de ce chapitre ne seront utiles qu à partir de l année prochaine, mais une grande partie nous servira dès cette année.

Plus en détail

Théorème du point fixe - Théorème de l inversion locale

Théorème du point fixe - Théorème de l inversion locale Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008) Examen optimisation Centrale Marseille (28) et SupGalilee (28) Olivier Latte, Jean-Michel Innocent, Isabelle Terrasse, Emmanuel Audusse, Francois Cuvelier duree 4 h Tout resultat enonce dans le texte peut

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Introduction à l étude des Corps Finis

Introduction à l étude des Corps Finis Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Premiers exercices d Algèbre. Anne-Marie Simon

Premiers exercices d Algèbre. Anne-Marie Simon Premiers exercices d Algèbre Anne-Marie Simon première version: 17 août 2005 version corrigée et complétée le 12 octobre 2010 ii Table des matières 1 Quelques structures ensemblistes 1 1.0 Ensembles, relations,

Plus en détail

Cours Fonctions de deux variables

Cours Fonctions de deux variables Cours Fonctions de deux variables par Pierre Veuillez 1 Support théorique 1.1 Représentation Plan et espace : Grâce à un repère cartésien ( ) O, i, j du plan, les couples (x, y) de R 2 peuvent être représenté

Plus en détail

Amphi 3: Espaces complets - Applications linéaires continues

Amphi 3: Espaces complets - Applications linéaires continues Amphi 3: Espaces complets - Applications linéaires continues Département de Mathématiques École polytechnique Remise en forme mathématique 2013 Suite de Cauchy Soit (X, d) un espace métrique. Une suite

Plus en détail

Cours 7 : Utilisation de modules sous python

Cours 7 : Utilisation de modules sous python Cours 7 : Utilisation de modules sous python 2013/2014 Utilisation d un module Importer un module Exemple : le module random Importer un module Exemple : le module random Importer un module Un module est

Plus en détail

Corrigé du baccalauréat S Asie 21 juin 2010

Corrigé du baccalauréat S Asie 21 juin 2010 Corrigé du baccalauréat S Asie juin 00 EXERCICE Commun à tous les candidats 4 points. Question : Le triangle GBI est : Réponse a : isocèle. Réponse b : équilatéral. Réponse c : rectangle. On a GB = + =

Plus en détail

Évaluation de la régression bornée

Évaluation de la régression bornée Thierry Foucart UMR 6086, Université de Poitiers, S P 2 M I, bd 3 téléport 2 BP 179, 86960 Futuroscope, Cedex FRANCE Résumé. le modèle linéaire est très fréquemment utilisé en statistique et particulièrement

Plus en détail

Le Modèle Linéaire par l exemple :

Le Modèle Linéaire par l exemple : Publications du Laboratoire de Statistique et Probabilités Le Modèle Linéaire par l exemple : Régression, Analyse de la Variance,... Jean-Marc Azaïs et Jean-Marc Bardet Laboratoire de Statistique et Probabilités

Plus en détail

Lois de probabilité. Anita Burgun

Lois de probabilité. Anita Burgun Lois de probabilité Anita Burgun Problème posé Le problème posé en statistique: On s intéresse à une population On extrait un échantillon On se demande quelle sera la composition de l échantillon (pourcentage

Plus en détail

Exercices Corrigés Premières notions sur les espaces vectoriels

Exercices Corrigés Premières notions sur les espaces vectoriels Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3

Plus en détail

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre : Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant

Plus en détail

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101 Calcul I Partie II: fonctions de plusieurs variables Guy Desaulniers Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2014 Table des matières

Plus en détail

Précision d un résultat et calculs d incertitudes

Précision d un résultat et calculs d incertitudes Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................

Plus en détail

Polynômes à plusieurs variables. Résultant

Polynômes à plusieurs variables. Résultant Polynômes à plusieurs variables. Résultant Christophe Ritzenthaler 1 Relations coefficients-racines. Polynômes symétriques Issu de [MS] et de [Goz]. Soit A un anneau intègre. Définition 1.1. Soit a A \

Plus en détail

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et

Plus en détail

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT

Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Exercices types Algorithmique et simulation numérique Oral Mathématiques et algorithmique Banque PT Ces exercices portent sur les items 2, 3 et 5 du programme d informatique des classes préparatoires,

Plus en détail

Cours de méthodes de scoring

Cours de méthodes de scoring UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

3. Caractéristiques et fonctions d une v.a.

3. Caractéristiques et fonctions d une v.a. 3. Caractéristiques et fonctions d une v.a. MTH2302D S. Le Digabel, École Polytechnique de Montréal H2015 (v2) MTH2302D: fonctions d une v.a. 1/32 Plan 1. Caractéristiques d une distribution 2. Fonctions

Plus en détail

Résumé du Cours de Statistique Descriptive. Yves Tillé

Résumé du Cours de Statistique Descriptive. Yves Tillé Résumé du Cours de Statistique Descriptive Yves Tillé 15 décembre 2010 2 Objectif et moyens Objectifs du cours Apprendre les principales techniques de statistique descriptive univariée et bivariée. Être

Plus en détail

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples. Pré-requis : Probabilités : définition, calculs et probabilités conditionnelles ; Notion de variables aléatoires, et propriétés associées : espérance,

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Pour l épreuve d algèbre, les calculatrices sont interdites.

Pour l épreuve d algèbre, les calculatrices sont interdites. Les pages qui suivent comportent, à titre d exemples, les questions d algèbre depuis juillet 003 jusqu à juillet 015, avec leurs solutions. Pour l épreuve d algèbre, les calculatrices sont interdites.

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

Approximations variationelles des EDP Notes du Cours de M2

Approximations variationelles des EDP Notes du Cours de M2 Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

Optimisation, traitement d image et éclipse de Soleil

Optimisation, traitement d image et éclipse de Soleil Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables

Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Notes du cours MTH1101N Calcul I Partie II: fonctions de plusieurs variables Fausto Errico Département de mathématiques et de génie industriel École Polytechnique de Montréal Automne 2012 Table des matières

Plus en détail

Exercices sur le chapitre «Probabilités»

Exercices sur le chapitre «Probabilités» Arnaud de Saint Julien - MPSI Lycée La Merci 2014-2015 1 Pour démarrer Exercices sur le chapitre «Probabilités» Exercice 1 (Modélisation d un dé non cubique) On considère un parallélépipède rectangle de

Plus en détail