1 Remarques préliminaires
|
|
- Stéphanie Legaré
- il y a 7 ans
- Total affichages :
Transcription
1 1 Remarques préliminaires 1.1 Lois de probabilité utiles loi gamma : notée G(p, θ), de densité f(x) = Γ(p) 1 θ p e x/θ x p 1 1(x > 0) où le paramètre θ > 0. loi du χ 2 : la loi dite du chi2 à k degré de liberté (d.d.l.) est la loi G(k/2, 1/2). On montre que la v.a. Y = k i=1 X2 i où X i sont k v.a. gaussiennes, centrées, de variance 1 et indépendantes, suit une loi du chi2 à k d.d.l. On note que E (Y ) = k. loi de Fisher : soient X et Y deux vecteurs gaussiens, de dimensions respectives k et m, centrés, de matrices de covariance respectives I k et I m, et indépendants entre eux, alors la v.a. k 1 X t X m 1 Y t Y suit une loi dite de Fisher F (k, m) à (k, m) d.d.l. loi de Student : soit X un vecteur gaussien, centré, de matrice de covariance I k, et Y une variable gaussienne, centré, de variance 1 et indépendante de X, alors la v.a. suit une loi dite de Student à k d.d.l. 1.2 Fonction pivotale Y k 1 k i=1 X2 i Soit le modèle statistique {Y, Y, P θ ; θ Θ}. On dit qu une fonction (aléatoire) g(y, θ), à valeurs dans R d, est pivotale pour θ H 0 Θ si, pour tout θ H 0, la loi de probabilité (induite sur {R d, B d }) de g(y, θ) ne dépend pas de θ. Une fonction pivotale n est pas une statistique puisqu elle dépend de θ. Dans la suite, on suppose que la loi de la fonction pivotale g(y, θ) est absolument continue par rapport à la mesure de Lebesgue λ dans {R d, B d }, et on note p H0 (x) sa densité par rapport à λ. On peut construire, sous l hypothèse H 0, un borélien I B d, indépendant de θ, tel que : P (g(y, θ) I) = p H0 (x)λ(dx) = α Evidemment il existe une infinité de boréliens vérifiant l expression ci-dessus. Parmi eux, on en considère un qui est de volume minimal cad tel que λ(dx) soit minimal. Ce borélien est dit le I plus exact au niveau α et est noté I(α). Dans le cas où g(y, θ) est un vecteur gaussien, I(α) est un ellipsoide centré sur la moyenne. Quand d = 1, I(α) est un intervalle de la droite réelle. Partant d une fonction pivotale, on peut en déduire un test de l hypothèse H 0 au niveau de signification α. Pour cela : (i) on construit IC(Y, α) = {θ Θ : g(y, θ) I(α)} (ii) si H 0 IC(Y, α), on accepte l hypothèse H 0, sinon on la rejette. I 1
2 Quand H 0 = {θ 0 } se réduit à un singleton, IC(Y, α) s appelle une région de confiance à 100α% de θ 0. Dans ce cas, le test consiste à accepter H 0 si θ 0 appartient IC(Y, α). La fonction critique de ce test s écrit donc : 1.3 p-valeur T (Y ) = 1(θ 0 IC(Y, α)) La p-valeur d un test est la plus petite valeur de la probabilité de rejeter l hypothèse H 0 alors que celle-ci est vraie (erreur dite de première espèce). L avantage d une telle approche est le suivant : lorsque l on effectue un test à un niveau α = 5% et que l on rejette H 0, on ne sait pas quelle aurait été notre décision pour un niveau α = 4%. Par contre, une p-valeur de 1.5% nous dit que H 0 est rejetée au niveau 5% et acceptée au niveau 1%. Une telle approche permet en quelque sorte de faire le test pour tous les niveaux à la fois. En pratique, plus la p-valeur est faible plus il est raisonnable de rejeter l hypothèse H 0. Par exemple, si φ(y ) = 1(T (Y ) > c) désigne la fonction critique d un test si F 0 est la fonction de répartition de la v.a. T sous H 0, alors p = P (T t H 0 ) = 1 F 0 (t) Sous l hypothèse H 0, p est une variable aléatoire qui suit une loi uniforme sur (0, 1). 2 Régression linéaire 2.1 Aspects géométriques On considère, pour i = 1 n, le modèle linéaire d observation : y i = Z i β + σɛ i, où Z i = [ 1 X 1 X p ], où yi R, où σ R + et où ɛ i est une suite de v.a. gaussiennes, centrées, de variance 1, indépendantes. Le mot linéaire fait référence à la linéarité vis-à-vis de β. En utilisant des notations matricielles, on peut alors écrire : où y = Zβ + σɛ, (1) y est un vecteur de dimension n 1, représentant les réponses ou variables dépendantes, Z est la matrice de dimensions n (p + 1) dont la première colonne est le vecteur 1, dont toutes les composantes valent 1. Z s écrit Z = [ 1 X ] où X désigne la matrice des p régresseurs (ou variables indépendantes 1 ) de longueur n. β = (β 0,..., β p ) R p+1 est le vecteur des coefficients de la régression, β 0 est appelé en anglais l intercept, 1. Parfois on considère que les couples (X i, y i ) forment une suite de v.a. indépendantes. Dans ce cas, en supposant X i et ɛ i indépendants, l équation (1) revient à se donner la loi conditionnelle de y i sachant X i. 2
3 ɛ R n un vecteur gaussien 2, centré, de matrice d auto-covariance E (ɛɛ t ) = I n égale à l identité. Le modèle statistique proposé est un modèle paramétrique de paramètre θ = (β, σ 2 ) R p+1 R +. Notations Dans la suite, r désigne le rang de Z. On sait que r min{n, p + 1}. Si n (p + 1) = r, Z est dit de rang plein colonne, et Z t Z est inversible. Π Z désigne le projecteur orthogonal sur le sous-espace, noté Im(Z), engendré par les colonnes de Z et Π Z = I n Π Z le projecteur sur le sous-espace orthogonal à Im(Z). h i,i désigne le i-ème élément diagonal de la matrice Π Z. Puisque 0 n Π Z I n, on a et 0 h i,i 1 n h i,i = Trace (Π Z ) = r i=1 Puisque Π Z +Π Z = I n, il s ensuit que la somme des i-èmes éléments diagonaux respectifs de Π Z et de Π Z est égale à 1 et que la somme des éléments de même rang, hors diagonal, vaut 0. D après le théorème de projection, la meilleure approximation, au sens des moindres carrés, de y dans Im(Z) est donnée par : ŷ = Π Z y (2) Le projecteur Π Z est aussi appelé matrice chapeau (en anglais hat matrix). Un estimateur ˆβ de β, au sens des moindres carrés, vérifie donc : dont on déduit Z ˆβ = Π Z y (3) Z ˆβ = Zβ + σπ Z ɛ (4) Si Z est de rang plein colonne, il existe un seul élément ˆβ qui vérifie (3) et qui s écrit : ˆβ = (Z t Z) 1 Z t y = β + σ(z t Z) 1 Z t ɛ (5) Centrage des variables Montrons que Π Z = Π Xc + 1 n 11t (6) où X c est la matrice dont les vecteurs-colonnes sont les vecteurs-colonnes centrés de X, ce qui s écrit : X c = X 1 n 11t X (7) 2. Remarque : dans le cas où on suppose que les composantes ɛ i forment une suite de variables aléatoires, i.i.d., centrées, de variance 1, on peut calculer les lois asymptotiques, quand n tend vers l infini, de ˆβ n, de ˆσ,... 3
4 Ce résultat montre que, pour calculer Π Z y, on peut tout d abord centrer les régresseurs en utilisant (7), puis appliquer le projecteur Π Xc au vecteur y, enfin ajouter le vecteur (n 1 i y i)1. Pour établir (6), on vérifie tout d abord que On note Z c = [ 1 en déduit que où nous avons posé 1 t X c = 0 X c ]. Du fait que 1 est orthogonal à Xc, Im(1, X c ) = Im(1) Im(X c ). On Π Zc = Π [ 1 X c] = Π 1 + Π Xc Π 1 = 1 n 11t Mais on a aussi Π Z = Π Zc puisque les colonnes de Z c sont des combinaisons linéaires des colones de Z. Ce qui démontre (6). Il s ensuit par identification que si le vecteur β c vérifie X c β c = Π Xc y alors où β = [ β 0 β t c] t où Zβ = Π Z y β 0 = ȳ 1 n 1t Xβ c En multipliant, à présent, (6) à gauche par 1 n 1t, il vient et par conséquent 1 n 1t ŷ = 1 n 1t Π Z y = n 2 1t 11 t y = 1 n 1t y ȳ = n 1 n y i = n 1 i=1 n ŷ i (8) i=1 2.2 Propriétés probabilistes En portant l expression (1) dans l expression (2), il vient ŷ = Zβ + σπ Z ɛ (9) où nous avons utilisé que Π Z Z = Z. On en déduit aussi que le résidu de prédiction Il s ensuit les résultats suivants : D après (9), la loi de ŷ est gaussienne et s écrit : e := y ŷ = σπ Zɛ (10) ŷ N (Zβ; σ 2 Π Z ) ŷ Zβ σ D après (10), la loi de l erreur e est gaussienne et s écrit : N (0; Π Z ) (11) e N (0; σ 2 Π Z) e σ N (0; Π Z) (12) 4
5 Les v.a. e et ŷ sont indépendantes. En effet, d après (9) et (10), E (eŷ t ) = σ 2 Π Z Π Z = 0, ce qui signifie que e et ŷ sont non corrélées, comme elles sont gaussiennes, elles sont donc indépendantes. Attention de ne pas confondre les vecteurs aléatoires (ŷ Zβ) et e = (y ŷ) : le premier n est pas observable tandis que le second l est. D après (12), E (ee t /σ 2 ) = Π Z et donc On en déduit que ˆσ 2 défini par est un estimateur sans biais de σ Intervalles de confiance E ( e t e ) = σ 2 Trace ( E ( ee t)) = σ 2 (n r) ˆσ 2 := (n r) 1 e t e La loi de ˆσ 2 /σ 2 est la somme des carrés de (n r) v.a. gaussiennes, indépendantes de variance 1. c est donc une v.a. du χ 2 à (n r) degré de liberté, ce qui s écrit : ˆσ 2 σ 2 χ2 n r (13) ˆσ 2 est donc une fonction pivotale sous H σ 2 0 = R p+1 {σ 2 }. On peut en déduire un intervalle de confiance de niveau 100(1 α)% de σ qui s écrit ( P ˆσ 2 [χ 2 n r] [ 1] (1 α/2) σ2 ˆσ 2 [χ 2 n r] [ 1] (α/2) ) = 1 α D après (11), (ŷ i Z i β)/σ suit une loi gaussienne de moyenne 0 et de variance h i,i. D après (12), e/σ est un vecteur gaussien, standard. Ces deux v.a. sont indépendantes. On déduit que (ŷ i Z i β)/(σ h i,i ) et e/σ 2 /(n r) = (ŷ i Z i β) ˆσ h i,i T n r suit une loi de Student à (n r) degré de liberté. On en déduit un intervalle de confiance à 100(1 α)% de Z i β qui s écrit : ŷ i ˆσ T [ 1] n r (1 α/2) h i,i Z i β ŷ i + ˆσ T [ 1] n r (1 α/2) h i,i (14) On en déduit un intervalle de confiance pour la prédiction de y o à partir d une observation Z t o qui s écrit : ŷ o = Z t o ˆβ On a alors : y o ŷ o = Z t o(β ˆβ) + σɛ o En supposant que Z est de rang plein colonne, on peut utiliser (5) et écrire y o ŷ o σ = Z t o(z t Z) 1 Z t ɛ + ɛ o 5
6 qui est une v.a. gaussienne, centrée, de variance (1+Z t o(z t Z) 1 Z o ). D après (12), cette v.a. est indépendante de e/σ. Par conséquent y o ŷ o ˆσ 1 + Z t o(z t Z) 1 Z o T n r On en déduit un intervalle de prévision à 100(1 α)% de y o qui s écrit : ŷ o ˆσ T [ 1] n r (1 α/2) 1 + Z t o(z t Z) 1 Z o y o (15) ŷ o + ˆσ T [ 1] n r (1 α/2) 1 + Z t o(z t Z) 1 Z o D après (4), dans le cas où Z est de rang plein colonne, ˆβ β σ N (0; (Z t Z) 1 ) On en déduit, pour k = 0 p, la fonction pivotale : ˆβ k β k ˆσ [(Z t Z) 1 ] kk T n p 1 (16) On en déduit une fonction critique pour le test de l hypothèse H 0 = {β k = 0} : T k (y) = 2.4 Analyse de variance (ANOVA) ˆβ k ˆσ [(Z t Z) 1 ] kk (17) Dans la littérature sur la régression linéaire, on introduit les coefficients suivants sous le terme d analyse de variance (en anglais ANOVA pour ANlysis Of VAriance) : SST := y ȳ 2 où ȳ = n 1 n i=1 y i. SST (pour Sum of Squares Total) représente la variance totale (écart quadratique moyen) de y. SST = y t y n(ȳ) 2. Le nombre de d.d.l. est n 1. SSR := ŷ ȳ 2. SSR (pour Sum of Squares Regression) est vu comme la partie de SST qui est expliquée par Z. SSR = ŷ t ŷ n(ȳ) 2. Le nombre de d.d.l. est r 1. SSE := e t e. SSE (pour Sum of Squares Errors) est vu comme la partie de SST qui n est pas expliquée par Z i. Le nombre de d.d.l. est n r. D après le théorème de Pythagore, on a SST = SSE + SSR On en déduit la somme moyenne MSE des erreurs en divisant par le nombre de d.d.l., à savoir (n r) : MSE := SSE n r = ˆσ2 et la somme moyenne MSR de la régression en divisant par le nombre de d.d.l., à savoir r 1 (le facteur ȳ réduit de 1 le nombre de d.d.l.) : MSR := SSR r 1 6
7 D après (8) On montre (voir plus loin) que MSR MSE = Z ˆβ ȳ 2 (r 1) ˆσ 2 F -test := MSR MSE F r 2,n r 1 suit une loi de Fisher. Par conséquent, si cette statistique est supérieure à un seuil, on rejettera l hypothèse H 0 : β 1 = 0,, β p = 0. Les résultats sont alors présentés de la façon suivante où nous avons supposé que n p et que r = p + 1 : Source de variations Somme des carrés Régression SSR p MSR = SSR p Résidu SSE n (p + 1) MSE = SSE (n (p+1)) Total SST n 1 d.d.l. variance F-test p-valeur F = MSR p MSE v = + p Fp,(n (p+1)) (t)dt Les quantités suivants sont importantes : coefficients de régression : ˆβ, ainsi que leurs écarts-type (équation16), variance de l erreur : MSE = ˆσ 2 coefficient d explication : R 2 = SSR/SST. Plus R est voisin de 1, plus les résidus sont petits et plus le modèle est bon. F Analyse des résidus Les résidus e i /σ sont des variables gaussiennes, centrées, de covariance Π Z dont les éléments diagonaux sont égaux à (1 h i,i ). D où l idée de tester si e i /σ 1 h i,i suit une loi N (0; 1). Malheureusement σ n est pas connu. On peut alors remplacer σ par ˆσ. La statistique e i t i = ˆσ 1 h i,i a une loi qui ne dépend pas des paramètres (β, σ) du modèle puisque, d après (12) et (13), ni la loi de e i /σ ni la loi de ˆσ 2 /σ 2 ne dépendent des paramètres. Sa loi est dite de Pearson de type II. Le calcul est compliqué car e i et ˆσ ne sont pas indépendant. Cette statistique peut être utilisée pour "apprécier" la validité du modèle : plus la valeur est grande plus il est raisonnable de rejeter l hypothèse de validité du modèle. Toutefois on préfère utiliser pour tester l adéquation du modèle la statistique, appelée résidu studentisé, définie par : t i = e i s (i) 1 hi,i 7
8 où s (i) est l estimation de la variance lorsque l on ne tient pas compte de la i-ème observation. L idée est à rapprocher des méthodes dites de validation croisée qui consistent à sortir de l apprentissage la donnée que l on souhaite tester. Pour calculer t i il n est pas utile de refaire tous les calculs de régression car on montre que : Si n est grand s 2 (i) = n r 1 n r 1 ˆσ2 n r 1 s 2 (i) 1 n r 1 n j=1,j i e 2 j e 2 i 1 h i,i Il s ensuit que s 2 (i) est indépendant de e i et, donc, que la statistique t i suit approximativement une loi de Student à (n r 1) degré de liberté. Asymptotiquement cette loi tend vers la loi de Gauss standard, cad N (0, 1). Il faut donc s attendre à ce que 95% des valeurs soient comprises entre 2 et +2. Les valeurs, en petit nombre, très éloignés de 0, disons tels que e i est supérieur à 3 ou 4, devraient faire l objet d un examen particulier. Ce sont des données suspectes. Il faut toutefois être infiniment prudent dans la décision de les éliminer! Dans un premier temps on peut représenter l ensemble des résidus studentisés sous la forme d un qq-plot par rapport à la loi de Student. On peut compléter ce résultat par un test d adéquation avec la loi normale (Kolmogorov). Les résidus studentisés donnent une information sur les données dites aberrantes (en anglais outliers). Une donnée aberrante est une donnée dont l erreur de prédiction est grande par rapport à σ 1 h i,i, cad une donnée telle que t i est significativement grand. Il ne faut pas confondre donnée aberrante avec donnée influente. Une donnée influente est une donnée telle que si on la retire, les paramètres du modèle changent de façon significative. La distance de Cook permet de mesurer l influence d une observation. Elle est donnée par : D i = ŷ (i) ŷ 2 (p + 1) ˆσ 2 (18) où ŷ (i) = Z ˆβ (i) et où ˆβ (i) est obtenue à partir de toutes les observations sauf la i-ème. On voit que D i compare la variabilité de l erreur de prédiction lorsque l on écarte l observation i et la variabilité ˆσ 2 de la régression. Si D i est faible, alors l observation i est considérée comme ayant peu d influence. Une expression équivalente à (18), mais qui évite de faire le calcul de toutes les régressions, est : D i = h i,i t 2 i 1 h i,i p + 1 On note qu une observation est considérée comme influente pour la distance de Cook si elle présente à la fois un résidu standardisé et un levier importants. En pratique, l ordre de grandeur à partir duquel on considère une observation influente est de l ordre de l unité. 8
9 2.6 Tests de validité du modèle On suppose que n > p + 1 et que r = p + 1. On en déduit que (Z t Z) 1 est inversible et que Π Z = Z(Z t Z) 1 Z t. Pour tout couple de vecteurs (a, β) R p+1, la fonction (a, β) V (a, β) = 1ˆσ a t ( ˆβ β) at (Z t Z) 1 a est pivotale, i.e. est distribuée suivant une loi ne dépendant pas, sous P β,σ 2, des paramètres (β, σ 2 ). D après (11) et (12) cette loi est une loi de Student à (n p 1) ddl. On en déduit un intervalle de confiance de niveau 100α% de a T β, qui s écrit a t ˆβ δ a t β a t ˆβ + δ où δ = T [ 1] n p 1(α) ˆσ a t (Z t Z) 1 a, ainsi qu une procédure de test. En prenant a = (0,, 0, 1, 0,, 0) t (ayant un 1 en i-ème position), on obtient ˆβ i T n p 1(1 [ 1] α/2) ˆσ (Z t Z) 1 i,i β i ˆβ i + T n p 1(1 [ 1] α/2) ˆσ (Z t Z) 1 i,i En réécrivant la double inégalité précédente suivant β i T n p 1(α) [ 1] ˆσ (Z t Z) 1 i,i ˆβ i β i + T n p 1(α) [ 1] ˆσ (Z t Z) 1 i,i et en faisant β i = 0, on obtient une procédure de test de l hypothèse H 0 = {β i = 0}. Si T n p 1(α) [ 1] ˆσ (Z t Z) 1 i,i ˆβ i +T n p 1(α) [ 1] ˆσ (Z t Z) 1 i,i on retient l hypothèse H 0 (cad β i = 0) sinon on la rejette. La p-valeur de ce test est : p = 1 2T n p 1 ( ˆβ i /ˆσ (Z t Z) 1 D après (4) on a i,i ) Z( ˆβ β) N (0; σ 2 Π Z ) (19) dont on déduit que 1 σ ( ˆβ β) t (Z t Z)( ˆβ β) χ 2 2 p+1 suit une loi du χ 2 à (p + 1) degré de liberté. De même en partant de (12) 1 σ 2 et e χ 2 n p 1 Notant que ces deux statistiques sont indépendantes, il s ensuit que : n p 1 p + 1 ( ˆβ β) t (Z t Z)( ˆβ β) e t e F p+1,n p 1 suit une loi de Fisher à (p + 1, n p 1) degré de liberté. Cette fonction est donc pivotale pour P β,σ 2. On en déduit un intervalle de confiance, ainsi qu un test pour β, en écrivant que F p+1,n p 1 (α/2) n p 1 p + 1 ( ˆβ β) t (Z t Z)( ˆβ β) e t e 9 F [ 1] p+1,n p 1(1 α/2)
10 soit pour un test bilatéral : (p + 1) e t e n p 1 F p+1,n p 1(α/2) ( ˆβ β) t (Z t Z)( ˆβ β) (p + 1) et e n p 1 F p+1,n p 1(1 α/2) Pour le test on devra vérifier si ˆβ appartient à la couronne ellipsoïdale, centrée sur β et définie par Z t Z et les deux bornes. Dans un test monolatéral, on prendra 2.7 Sélection de variables ( ˆβ β) t (Z t Z)( ˆβ β) (p + 1) et e n p 1 F p+1,n p 1(1 α) Dans les cas d un grand nombre de variables explicatives, la tâche d évaluer tous les modèles possibles, à savoir 2 p, devient vite insurmontable. C est pourquoi on a développé des méthodes automatiques de sélection de variables explicatives. Nous parlerons uniquement ici de la méthode dite de sélection progressive pas à pas. Pour cela nous allons tout d abord donner un résultat préliminaire sur les modèles dits emboîtés. Un modèle est emboîté dans un autre lorsque l ensemble de ses variables explicatives forme un sous-ensemble propre de celui de l autre. La comparaison de modèles emboîtés est fondamental en pratique, car la plupart des constructions de modèles consiste soit à compléter soit à réduire progressivement un ensemble de variables explicatives. Il s agit donc de tester si l ajout ou la suppression d une variable explicative est significatif, plus généralement si un modèle qui en inclut un autre est significativement meilleur que son emboîté. Pour cela on décompose β en deux sous-vecteurs β 1 et β 2 (dans cet ordre cad β = [ β1 β 2 ] T ), de dimensions respectives k et h (avec h < k) et on cherche à tester l hypothèse β 2 = 0. On montre que la statistique de test T (Y ) = (SSR( ˆβ) SSR( ˆβ 1 ))/k ˆσ 2 F k h,n k 1 (20) suit une loi de Fisher. Notons que le nombre de d.d.l. de la partie régression est (n (h + 1)) (n (k + 1)) = k h. Dans le cas où le modèle complet est l union du modèle emboîté et d une seule variable, cad h = k 1, il vient : T (Y ) F 1,n k 1 (21) On en déduit un test de l hypothèse H 0 : β 1 = = β p = 0. Dans ce cas, le modèle complet est l ensemble de toutes les variables, le modèle emboîté se réduisant à β 0 cad h = 1 et k = p. Cela donne (SSR( ˆβ) SSR( ˆβ 0 )) F p ˆσ 2 p 1,n p 1 Procedure de sélection On déduit de la forme du test défini par (21) une méthode progressive de sélection des variables par introduction/suppression : 1. On introduit la variable qui donne la plus grande valeur de F (équation (21)). 10
11 2. On introduit ensuite la variable qui donne la plus grande amélioration au modèle complété. L analyste se donne aussi un seuil en deçà duquel on ne peut ajouter une variable au modèle. Si aucune des variables restantes ne conduit à une valeur de F supérieure à ce seuil, alors on arrête la procédure d introduction. 3. On examine ensuite si une des variables déjà présentes dans le modèle avant l étape précédente ne pourrait pas être supprimée. Celle pour laquelle le F est le plus petit est un candidat. Elle sera supprimée du modèle pourvu que cette valeur soit inférieure à un seuil minimal fixé. Si aucune des variables ne conduit à une valeur de F inférieure à ce seuil, alors on arrête la procédure de suppression. 4. La procédure continue ainsi : (i) introduction de la meilleure variable s il y en a une ; (ii) suppression des moins intéressantes s il y a lieu ; (ii) arrêt lorsqu aucune étape d ajout ou de suppression de variable n est possible. 11
12 3 Exemples 3.1 Rendement/chute de pluie Nous reportés, en annexe, table 7 les relevés de n = 54 observations donnant le rendement y i et la quantité de pluie tombée X i. Ici p = 1. Sur la figure 1 nous avons reporté les points observés. Les objectifs ont : Vérifier - ou infirmer - le caractère prédictif de la variable pluie. Tester la validité du modèle. Obtenir des intervalles de confiance pour les paramètres de la droite. Détecter des observations aberrantes. Prévoir le rendement, avec incertitude associée, pour une quantité de pluie donnée. Les résultats de l ANOVA son regroupés dans le tableau 3.1 : Source de variations Somme carrés des d.d.l Variance F-test p-valeur Régression SSR = MSR = MSR MSE = Erreur SSE = MSE = Total SST = TABLE 1 Analyse de variance On a comme coefficient d explication : R 2 = SSR/SST = La valeur de F 0 indique qu on peut rejeter l hypothèse H 0 : β 1 = 0. Les résultats sur les intervalles de confiance de β sont regroupés dans le tableau 3.2. estimée écart-type T p-valeur Intercept β TABLE 2 Le T est la valeur de la statistique qui teste l hypothèse H 0 : β k = 0 (expression (17)). 12
13 Nous avons reporté figure 1, les observations et la droite de régression. Nous avons aussi indiqué les intervalles de confiance à 95% de Z i β associé à l observation X i, ainsi que les intervalles de confiance de la réponse y o lorsque l on observe X o et que l on prend comme estimateur de y o la valeur Z o ˆβ. FIGURE 1 Points noirs : valeurs observées. Droite de régression en noir. Courbe rouge : intervalle de confiance à 95% pour Z i β, équation (14). Courbe bleue : intervalle de prévision à 95% pour y o, équation (15). Les prévisions au delà de X o = 0.6 n ont pas de signification car nous ne pouvons pas garantir que le modèle reste linéaire au delà. L interprétation de l intervalle de confiance sur ŷ o est délicate. 13
14 L analyse des résidus studentisés est reportée figure 2. Sur la courbe de gauche on a reporté la suite des valeurs. On observe aucune tendance particulière et les valeurs sont comprises entre 2 et +2. Sur la courbe de droite, la forme est sensiblement celle de la première bissectrice, ce qui conforte l hypothèse de validité du modèle. FIGURE 2 Résidus studentisés 14
15 3.2 Cars (àrevoir) Nous avons reporté figure 3 les différentes observations. L observation mpg (miles per gallon) représente la réponse. Les autres observations sont les variables explicatives. On remarque que la forme des courbes suggère qu il n y a pas une dépendance linéaire en ce qui concerne le poids, la puissance et la cylindrée. C est pourquoi on a effectué une transformation log sur ces variables. Les résultats sont reportés à la figure 4. FIGURE 3 Graphiques des observations prises deux à deux. L observation mpg (miles per gallon) désigne la réponse. Les autres observations sont les variables explicatives, à savoir l accélération, la puissance (en CV), le nombre de cylindres, la cylindrée, l année et l origine (1 : américaine, 2 : japonaise, 3 : autre). 15
16 FIGURE 4 Graphiques des observations prises deux à deux. L observation mpg (miles per gallon) désigne la réponse. Les autres observations sont les mêmes variables explicatives que celles de la figure 3 mais où nous avons pris le logarithme pour le poids, pour la puissance et pour la cylindrée. 16
17 Dans la suite nous n avons considéré que les variables explicatives suivantes : le poids, l accélération, la puissance, le nombre de cylindre et la cylindrée. Les résultats de l ANOVA sont regroupés dans le tableau 3.2. Source de variations Somme carrés des d.d.l Variance F-test p-valeur Régression SSR = MSR = 3564 MSR MSE = Erreur SSE = MSE = Total SST = TABLE 3 Analyse de variance On a comme coefficient d explication : R 2 = SSR/SST = La valeur de F 0 indique qu on peut rejeter l hypothèse H 0 : β 1 = = β p = 0. Les résultats sur les intervalles de confiance de β sont regroupés dans le tableau 3.2. A la vue des résultats du tableau 3.2, on peut envisager d écarter la variable nombre de cylindres". Ce qui donne les résultats reportés dans les tableaux 3.2 et 3.2. estimée écart-type T p-valeur Intercept poids acceleration puissance nombre de cylindre cylindrée TABLE 4 Le T est la valeur de la statistique qui teste l hypothèse H 0 : β k = 0 (expression (17)). 17
18 Source de variations Somme carrés des d.d.l Variance F-test p-valeur Régression SSR = MSR = 4452 MSR MSE = Erreur SSE = MSE = Total SST = TABLE 5 Analyse de variance On a comme coefficient d explication : R 2 = SSR/SST = estimée écart-type T p-valeur Intercept poids acceleration puissance cylindrée TABLE 6 Le T est la valeur de la statistique qui teste l hypothèse H 0 : β k = 0 (expression (17)). 18
19 Nous avons reporté les résultats concernant les résidus studentisés figure 5. On note une tendance chronologique" en fonction de l ordre des observations. Si on permute aléatoirement les observations, cet effet disparaît. Cela est dû au fait que les données sont rangées en fonction de la suite croissante des années. En se reportant à la figure 3, on observe qu à partir de 1980, le poids et la cylindrée ont fortement variés. Sur la courbe, indiquée effet de levier, on observe que certaines observations ont un levier important. Il faudrait sans doute se reporter aux fichiers pour essayer d en saisir une raison. FIGURE 5 Etude des résidus studentisés : la courbe, indiquée effet de levier, représente les h i,i et en rouge la valeur 2(p+1)/n. Certaines observations ont un levier important. 19
20 A Données de pluie rendement pluie rendement pluie TABLE 7 Relevés pluie/rendement 20
La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites
La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailExo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.
Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).
Plus en détailIntégration et probabilités TD1 Espaces mesurés Corrigé
Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détail1 Complément sur la projection du nuage des individus
TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent
Plus en détailAnalyse de la variance Comparaison de plusieurs moyennes
Analyse de la variance Comparaison de plusieurs moyennes Biostatistique Pr. Nicolas MEYER Laboratoire de Biostatistique et Informatique Médicale Fac. de Médecine de Strasbourg Mars 2011 Plan 1 Introduction
Plus en détailTests de comparaison de moyennes. Dr Sahar BAYAT MASTER 1 année 2009-2010 UE «Introduction à la biostatistique»
Tests de comparaison de moyennes Dr Sahar BAYAT MASTER 1 année 2009-2010 UE «Introduction à la biostatistique» Test de Z ou de l écart réduit Le test de Z : comparer des paramètres en testant leurs différences
Plus en détailRésolution de systèmes linéaires par des méthodes directes
Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailIntégration et probabilités TD1 Espaces mesurés
Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?
Plus en détailExemples d application
AgroParisTech Exemples d application du modèle linéaire E Lebarbier, S Robin Table des matières 1 Introduction 4 11 Avertissement 4 12 Notations 4 2 Régression linéaire simple 7 21 Présentation 7 211 Objectif
Plus en détailLe Modèle Linéaire par l exemple :
Publications du Laboratoire de Statistique et Probabilités Le Modèle Linéaire par l exemple : Régression, Analyse de la Variance,... Jean-Marc Azaïs et Jean-Marc Bardet Laboratoire de Statistique et Probabilités
Plus en détailTests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailContexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,
Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très
Plus en détailChapitre 2 Le problème de l unicité des solutions
Université Joseph Fourier UE MAT 127 Mathématiques année 2011-2012 Chapitre 2 Le problème de l unicité des solutions Ce que nous verrons dans ce chapitre : un exemple d équation différentielle y = f(y)
Plus en détailINTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détailChapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Plus en détailExercices Corrigés Premières notions sur les espaces vectoriels
Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailCalcul intégral élémentaire en plusieurs variables
Calcul intégral élémentaire en plusieurs variables PC*2 2 septembre 2009 Avant-propos À part le théorème de Fubini qui sera démontré dans le cours sur les intégrales à paramètres et qui ne semble pas explicitement
Plus en détailFONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)
FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité
Plus en détailBaccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé
Baccalauréat ES Polynésie (spécialité) 10 septembre 2014 Corrigé A. P. M. E. P. Exercice 1 5 points 1. Réponse d. : 1 e Le coefficient directeur de la tangente est négatif et n est manifestement pas 2e
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailChapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme
Chapitre 3 Quelques fonctions usuelles 1 Fonctions logarithme et eponentielle 1.1 La fonction logarithme Définition 1.1 La fonction 7! 1/ est continue sur ]0, +1[. Elle admet donc des primitives sur cet
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailMoments des variables aléatoires réelles
Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................
Plus en détailChapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE
UE4 : Biostatistiques Chapitre 3 : Principe des tests statistiques d hypothèse José LABARERE Année universitaire 2010/2011 Université Joseph Fourier de Grenoble - Tous droits réservés. Plan I. Introduction
Plus en détailDirection des Études et Synthèses Économiques Département des Comptes Nationaux Division des Comptes Trimestriels
Etab=MK3, Timbre=G430, TimbreDansAdresse=Vrai, Version=W2000/Charte7, VersionTravail=W2000/Charte7 Direction des Études et Synthèses Économiques Département des Comptes Nationaux Division des Comptes Trimestriels
Plus en détailTSTI 2D CH X : Exemples de lois à densité 1
TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun
Plus en détailSTATISTIQUES. UE Modélisation pour la biologie
STATISTIQUES UE Modélisation pour la biologie 2011 Cadre Général n individus: 1, 2,..., n Y variable à expliquer : Y = (y 1, y 2,..., y n ), y i R Modèle: Y = Xθ + ε X matrice du plan d expériences θ paramètres
Plus en détailFonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Plus en détailThéorie et codage de l information
Théorie et codage de l information Les codes linéaires - Chapitre 6 - Principe Définition d un code linéaire Soient p un nombre premier et s est un entier positif. Il existe un unique corps de taille q
Plus en détailCours (7) de statistiques à distance, élaboré par Zarrouk Fayçal, ISSEP Ksar-Said, 2011-2012 LES STATISTIQUES INFERENTIELLES
LES STATISTIQUES INFERENTIELLES (test de Student) L inférence statistique est la partie des statistiques qui, contrairement à la statistique descriptive, ne se contente pas de décrire des observations,
Plus en détailCours de Tests paramétriques
Cours de Tests paramétriques F. Muri-Majoube et P. Cénac 2006-2007 Licence Ce document est sous licence ALC TYPE 2. Le texte de cette licence est également consultable en ligne à l adresse http://www.librecours.org/cgi-bin/main?callback=licencetype2.
Plus en détailPremière partie. Préliminaires : noyaux itérés. MPSI B 6 juin 2015
Énoncé Soit V un espace vectoriel réel. L espace vectoriel des endomorphismes de V est désigné par L(V ). Lorsque f L(V ) et k N, on désigne par f 0 = Id V, f k = f k f la composée de f avec lui même k
Plus en détailM2 IAD UE MODE Notes de cours (3)
M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de
Plus en détailRégression linéaire. Nicolas Turenne INRA nicolas.turenne@jouy.inra.fr
Régression linéaire Nicolas Turenne INRA nicolas.turenne@jouy.inra.fr 2005 Plan Régression linéaire simple Régression multiple Compréhension de la sortie de la régression Coefficient de détermination R
Plus en détail1 Définition de la non stationnarité
Chapitre 2: La non stationnarité -Testsdedétection Quelques notes de cours (non exhaustives) 1 Définition de la non stationnarité La plupart des séries économiques sont non stationnaires, c est-à-direqueleprocessusquiles
Plus en détailEteindre. les. lumières MATH EN JEAN 2013-2014. Mme BACHOC. Elèves de seconde, première et terminale scientifiques :
MTH EN JEN 2013-2014 Elèves de seconde, première et terminale scientifiques : Lycée Michel Montaigne : HERITEL ôme T S POLLOZE Hélène 1 S SOK Sophie 1 S Eteindre Lycée Sud Médoc : ROSIO Gauthier 2 nd PELGE
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailBaccalauréat ES/L Amérique du Sud 21 novembre 2013
Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée
Plus en détailMODELE A CORRECTION D ERREUR ET APPLICATIONS
MODELE A CORRECTION D ERREUR ET APPLICATIONS Hélène HAMISULTANE Bibliographie : Bourbonnais R. (2000), Econométrie, DUNOD. Lardic S. et Mignon V. (2002), Econométrie des Séries Temporelles Macroéconomiques
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailÉvaluation de la régression bornée
Thierry Foucart UMR 6086, Université de Poitiers, S P 2 M I, bd 3 téléport 2 BP 179, 86960 Futuroscope, Cedex FRANCE Résumé. le modèle linéaire est très fréquemment utilisé en statistique et particulièrement
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailEtude des propriétés empiriques du lasso par simulations
Etude des propriétés empiriques du lasso par simulations L objectif de ce TP est d étudier les propriétés empiriques du LASSO et de ses variantes à partir de données simulées. Un deuxième objectif est
Plus en détailCalcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.
1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le
Plus en détailBaccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Plus en détailBac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)
Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Eercice 1 (5 points) pour les candidats n ayant pas choisi la spécialité MATH Le tableau suivant donne l évolution du chiffre
Plus en détailUFR de Sciences Economiques Année 2008-2009 TESTS PARAMÉTRIQUES
Université Paris 13 Cours de Statistiques et Econométrie I UFR de Sciences Economiques Année 2008-2009 Licence de Sciences Economiques L3 Premier semestre TESTS PARAMÉTRIQUES Remarque: les exercices 2,
Plus en détailSoit la fonction affine qui, pour représentant le nombre de mois écoulés, renvoie la somme économisée.
ANALYSE 5 points Exercice 1 : Léonie souhaite acheter un lecteur MP3. Le prix affiché (49 ) dépasse largement la somme dont elle dispose. Elle décide donc d économiser régulièrement. Elle a relevé qu elle
Plus en détailFonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Plus en détailIII- Raisonnement par récurrence
III- Raisonnement par récurrence Les raisonnements en mathématiques se font en général par une suite de déductions, du style : si alors, ou mieux encore si c est possible, par une suite d équivalences,
Plus en détailBiostatistiques Biologie- Vétérinaire FUNDP Eric Depiereux, Benoît DeHertogh, Grégoire Vincke
www.fundp.ac.be/biostats Module 140 140 ANOVA A UN CRITERE DE CLASSIFICATION FIXE...2 140.1 UTILITE...2 140.2 COMPARAISON DE VARIANCES...2 140.2.1 Calcul de la variance...2 140.2.2 Distributions de référence...3
Plus en détailEconométrie et applications
Econométrie et applications Ecole des Ponts ParisTech Département Sciences Economiques Gestion Finance Nicolas Jacquemet (nicolas.jacquemet@univ-paris1.fr) Université Paris 1 & Ecole d Economie de Paris
Plus en détailProgrammation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
Plus en détailIntroduction à la statistique non paramétrique
Introduction à la statistique non paramétrique Catherine MATIAS CNRS, Laboratoire Statistique & Génome, Évry http://stat.genopole.cnrs.fr/ cmatias Atelier SFDS 27/28 septembre 2012 Partie 2 : Tests non
Plus en détailIntroduction à l étude des Corps Finis
Introduction à l étude des Corps Finis Robert Rolland (Résumé) 1 Introduction La structure de corps fini intervient dans divers domaines des mathématiques, en particulier dans la théorie de Galois sur
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailChapitre 6 Test de comparaison de pourcentages χ². José LABARERE
UE4 : Biostatistiques Chapitre 6 Test de comparaison de pourcentages χ² José LABARERE Année universitaire 2010/2011 Université Joseph Fourier de Grenoble - Tous droits réservés. Plan I. Nature des variables
Plus en détailPrécision d un résultat et calculs d incertitudes
Précision d un résultat et calculs d incertitudes PSI* 2012-2013 Lycée Chaptal 3 Table des matières Table des matières 1. Présentation d un résultat numérique................................ 4 1.1 Notations.........................................................
Plus en détailDualité dans les espaces de Lebesgue et mesures de Radon finies
Chapitre 6 Dualité dans les espaces de Lebesgue et mesures de Radon finies Nous allons maintenant revenir sur les espaces L p du Chapitre 4, à la lumière de certains résultats du Chapitre 5. Sauf mention
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailIntroduction à la théorie des graphes. Solutions des exercices
CAHIERS DE LA CRM Introduction à la théorie des graphes Solutions des exercices Didier Müller CAHIER N O 6 COMMISSION ROMANDE DE MATHÉMATIQUE 1 Graphes non orientés Exercice 1 On obtient le graphe biparti
Plus en détailExercices - Fonctions de plusieurs variables : corrigé. Pour commencer
Pour commencer Exercice 1 - Ensembles de définition - Première année - 1. Le logarithme est défini si x + y > 0. On trouve donc le demi-plan supérieur délimité par la droite d équation x + y = 0.. 1 xy
Plus en détailTempérature corporelle d un castor (une petite introduction aux séries temporelles)
Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature
Plus en détailPROBABILITES ET STATISTIQUE I&II
PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits
Plus en détailAnalyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I
Analyse stochastique de la CRM à ordre partiel dans le cadre des essais cliniques de phase I Roxane Duroux 1 Cadre de l étude Cette étude s inscrit dans le cadre de recherche de doses pour des essais cliniques
Plus en détailCalculs de probabilités avec la loi normale
Calculs de probabilités avec la loi normale Olivier Torrès 20 janvier 2012 Rappels pour la licence EMO/IIES Ce document au format PDF est conçu pour être visualisé en mode présentation. Sélectionnez ce
Plus en détailI3, Probabilités 2014 Travaux Dirigés F BM F BM F BM F BM F B M F B M F B M F B M 20 20 80 80 100 100 300 300
I3, Probabilités 2014 Travaux Dirigés TD 1 : rappels. Exercice 1 Poker simplié On tire 3 cartes d'un jeu de 52 cartes. Quelles sont les probabilités d'obtenir un brelan, une couleur, une paire, une suite,
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailIntroduction à la Statistique Inférentielle
UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique
Plus en détailUniversité Paris-Dauphine DUMI2E 1ère année, 2009-2010. Applications
Université Paris-Dauphine DUMI2E 1ère année, 2009-2010 Applications 1 Introduction Une fonction f (plus précisément, une fonction réelle d une variable réelle) est une règle qui associe à tout réel x au
Plus en détailEXERCICE 4 (7 points ) (Commun à tous les candidats)
EXERCICE 4 (7 points ) (Commun à tous les candidats) On cherche à modéliser de deux façons différentes l évolution du nombre, exprimé en millions, de foyers français possédant un téléviseur à écran plat
Plus en détailEstimation et tests statistiques, TD 5. Solutions
ISTIL, Tronc commun de première année Introduction aux méthodes probabilistes et statistiques, 2008 2009 Estimation et tests statistiques, TD 5. Solutions Exercice 1 Dans un centre avicole, des études
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailMesures gaussiennes et espaces de Fock
Mesures gaussiennes et espaces de Fock Thierry Lévy Peyresq - Juin 2003 Introduction Les mesures gaussiennes et les espaces de Fock sont deux objets qui apparaissent naturellement et peut-être, à première
Plus en détailExercice : la frontière des portefeuilles optimaux sans actif certain
Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué
Plus en détailCalcul fonctionnel holomorphe dans les algèbres de Banach
Chapitre 7 Calcul fonctionnel holomorphe dans les algèbres de Banach L objet de ce chapitre est de définir un calcul fonctionnel holomorphe qui prolonge le calcul fonctionnel polynômial et qui respecte
Plus en détailPrincipe d un test statistique
Biostatistiques Principe d un test statistique Professeur Jean-Luc BOSSON PCEM2 - Année universitaire 2012/2013 Faculté de Médecine de Grenoble (UJF) - Tous droits réservés. Objectifs pédagogiques Comprendre
Plus en détailChapitre 6. Fonction réelle d une variable réelle
Chapitre 6 Fonction réelle d une variable réelle 6. Généralités et plan d étude Une application de I dans R est une correspondance entre les éléments de I et ceu de R telle que tout élément de I admette
Plus en détailLa classification automatique de données quantitatives
La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations
Plus en détailComparaison de fonctions Développements limités. Chapitre 10
PCSI - 4/5 www.ericreynaud.fr Chapitre Points importants 3 Questions de cours 6 Eercices corrigés Plan du cours 4 Eercices types 7 Devoir maison 5 Eercices Chap Et s il ne fallait retenir que si points?
Plus en détailExo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.
Eo7 Calculs de déterminants Fiche corrigée par Arnaud Bodin Eercice Calculer les déterminants des matrices suivantes : Correction Vidéo ( ) 0 6 7 3 4 5 8 4 5 6 0 3 4 5 5 6 7 0 3 5 4 3 0 3 0 0 3 0 0 0 3
Plus en détailDOCM 2013 http://docm.math.ca/ Solutions officielles. 1 2 10 + 1 2 9 + 1 2 8 = n 2 10.
A1 Trouvez l entier positif n qui satisfait l équation suivante: Solution 1 2 10 + 1 2 9 + 1 2 8 = n 2 10. En additionnant les termes du côté gauche de l équation en les mettant sur le même dénominateur
Plus en détailTests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision
Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous
Plus en détailCalcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Plus en détailRaisonnement par récurrence Suites numériques
Chapitre 1 Raisonnement par récurrence Suites numériques Terminale S Ce que dit le programme : CONTENUS CAPACITÉS ATTENDUES COMMENTAIRES Raisonnement par récurrence. Limite finie ou infinie d une suite.
Plus en détailNON-LINEARITE ET RESEAUX NEURONAUX
NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail
Plus en détail1 Première section: La construction générale
AMALGAMATIONS DE CLASSES DE SOUS-GROUPES D UN GROUPE ABÉLIEN. SOUS-GROUPES ESSENTIEL-PURS. Călugăreanu Grigore comunicare prezentată la Conferinţa de grupuri abeliene şi module de la Padova, iunie 1994
Plus en détailThéorème du point fixe - Théorème de l inversion locale
Chapitre 7 Théorème du point fixe - Théorème de l inversion locale Dans ce chapitre et le suivant, on montre deux applications importantes de la notion de différentiabilité : le théorème de l inversion
Plus en détailCours de Probabilités et de Statistique
Cours de Probabilités et de Statistique Licence 1ère année 2007/2008 Nicolas Prioux Université Paris-Est Cours de Proba-Stat 2 L1.2 Science-Éco Chapitre Notions de théorie des ensembles 1 1.1 Ensembles
Plus en détailTABLE DES MATIERES. C Exercices complémentaires 42
TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence
Plus en détailCommun à tous les candidats
EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle
Plus en détail