La régression linéaire multiple

Dimension: px
Commencer à balayer dès la page:

Download "La régression linéaire multiple"

Transcription

1 Plan La régression linéaire multiple - Chapitre V - Notes de cours Modélisation Statistique L3 MIASHS - Université de Bordeaux - Chapitre V - L3 MIASHS- La régression linéaire multiple 1/46

2 Plan Plan 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 2/46

3 Plan Ecriture du modèle et estimation des paramètres Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 3/46

4 Première écriture du modèle Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Le modèle de régression linéaire multiple s écrit sous la forme : p Y = β 0 + β k X (k) + ε (1) k=1 - les p variables explicatives X (k) sont non aléatoires réelles, - l erreur ε est aléatoire, - la variable à expliquer Y est donc aléatoire. L objectif : estimer les p + 1 paramètres β 0,..., β p. - Chapitre V - L3 MIASHS- La régression linéaire multiple 4/46

5 Seconde écriture du modèle Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique On se donne deux n-échantillons (X n ) et (Y n ) qui ne sont pas mutuellement indépendants où : - (X n ) forme une suite de vecteurs de dimension p 1, - X i = (X (1) i,..., X (p) i ) est la ième composante de (X n ). Le modèle s écrit alors : Y i = β 0 + p k=1 β k X (k) i + ε i i = 1,..., n. (2) - Chapitre V - L3 MIASHS- La régression linéaire multiple 5/46

6 Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Les hypothèses sont celles de la régression linéaire simple : (1) E[ε i ] = 0, i = 1,..., n : les erreurs sont centrées, E[Y i ] = β 0 + p k=1 β kx (k) i. (2) V(ε i ) = σ 2, i = 1,..., n : la variance des erreurs est constante, on parle d homogénéité des variances ou encore d homoscédasticité, V(Y i ) = σ 2. Remarque : σ 2 est un autre paramètre inconnu à estimer. (3) Cov(ε i, ε l ) = 0, i l : les erreurs sont non corrélées, Cov(Y i, Y l ) = 0. Remarque : Lorsqu on ajoute une hypothèse de normalité sur les ε i, les ε i sont indépendants. (ε n ) est alors un bruit blanc gaussien. - Chapitre V - L3 MIASHS- La régression linéaire multiple 6/46

7 Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Sous les hypothèses (1) à (3), l estimateur des moindres carrées de β = (β 0, β 1,..., β p ) t aura de bonnes propriétés. En ajoutant l hypothèse de normalité des erreurs, on pourra définir l estimateur du maximum de vraisemblance de β et effectuer des tests sur la nullité des paramètres. En pratique, il conviendra de vérifier si ces hypothèses sont vérifiées. - Chapitre V - L3 MIASHS- La régression linéaire multiple 7/46

8 Ecriture matricielle du modèle Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Le modèle (2) s écrit : où Y = X β + ε (3) Y 1 1 X (1) 1 X (2) 1... X (p) 1 β 0 ε 1 Y 2 Y =., X = 1 X (1) 2 X (2) 2... X (p) 2 β...., β = 1 ε., ε = 2.. Y n 1 X n (1) X n (2)... X n (p) β p ε n - Chapitre V - L3 MIASHS- La régression linéaire multiple 8/46

9 Ecriture matricielle Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Les 3 hypothèses précédentes peuvent alors s écrire sous la forme : (1 ) E(ε) = 0 n E(Y ) = X β R n. (2 ) V(ε) = σ 2 I n V(Y ) = σ 2 I n. où 0 n est le vecteur nul de dimension n et I n est la matrice identité de dimension n n. On suppose en outre que p + 1 < n, rang(x ) = p + 1, c est-à-dire qu il n existe pas de liaison linéaire entre les X (k). - Chapitre V - L3 MIASHS- La régression linéaire multiple 9/46

10 Ecriture matricielle Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Il est important de bien faire la différence entre l expression E(Y i ) = β 0 + p k=1 β kx (k) i (qui désigne l espérance d une variable aléatoire scalaire), et l expression E(Y ) = X β (qui désigne l espérance d une variable aléatoire vectorielle) : on obtient dans un cas un scalaire, dans l autre cas un vecteur de R n. l expression V(Y i ) = σ 2 (qui désigne la variance d une variable aléatoire scalaire), et l expression V(Y ) = σ 2 I n (qui désigne la covariance d une variable aléatoire vectorielle) : on obtient dans un cas un scalaire (σ 2 ), dans l autre cas une matrice carrée (σ 2 I n ) de dimension n n. - Chapitre V - L3 MIASHS- La régression linéaire multiple 10/46

11 Estimateur des moindres carrés de β Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique On cherche l équation de la droite de régression en dimension p + 1 pour laquelle les erreurs quadratiques (ε 2 n) sont les plus faibles. On cherche alors à minimiser n ε 2 i = i=1 n i=1 (Y i β 0 β 1 X (1) i β 2 X (2) i... β p X (p) i ) 2 = ε t ε On remarque que ε = Y X β, ce qui nous conduit à ε t ε = (Y X β) t (Y X β) = Y t Y 2 Y t X β + β t X t X β - Chapitre V - L3 MIASHS- La régression linéaire multiple 11/46

12 Estimateur des moindres carrés de β Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Ainsi, par dérivation (vectorielle...) par rapport à β, ε t ε β = 2 X t Y + 2 X t X β. Chercher à annuler cette dérivée revient à choisir l estimateur β tel que X t X β = X t Y et donc Exercice 1 (facile). β = (X t X ) 1 X t Y. (4) Cela nous contraint en outre à supposer que la matrice X t X de dimension (p + 1) (p + 1) est bien inversible. - Chapitre V - L3 MIASHS- La régression linéaire multiple 12/46

13 Prédictions et résidus Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Une fois que β a été estimé, nous pouvons reconstruire nos données à l aide de notre modélisation. On construit les prédictions et les résidus Ŷ i = β 0 + p k=1 β k X (k) i ou encore Ŷ = X β, ε i = Y i Ŷi ou encore ε = Y Ŷ. Remarque. Ŷ i estime E(Y i ). - Chapitre V - L3 MIASHS- La régression linéaire multiple 13/46

14 Propriétés de ˆβ Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Sous les hypothèses retenues, on peut montrer que : Exercice 2 (facile). E( ˆβ) = β V( ˆβ) = σ 2 (X t X ) 1 On peut également montrer que ˆβ est l estimateur sans biais de variance minimale ou encore estimateur BLUE (Best Linear Unbiased Estimator). - Chapitre V - L3 MIASHS- La régression linéaire multiple 14/46

15 Estimation de σ 2 Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Selon la stratégie usuelle, on considère l estimateur σ 2 = 1 n p 1 n i=1 ε 2 i = t ε ε n p 1 Sous les hypothèses retenues on peut montrer que : Exercice 3 (difficile). E[ σ 2 ] = σ 2. - Chapitre V - L3 MIASHS- La régression linéaire multiple 15/46

16 Estimation de σ 2 Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique On en déduit un estimateur sans biais de V( ˆβ) ; ˆV( ˆβ) = ˆσ 2 (X t X ) 1. Pour débiaiser l estimateur de σ 2 nous retrouvons une normalisation par n p 1 lorsque l estimation concerne p + 1 paramètres. - Chapitre V - L3 MIASHS- La régression linéaire multiple 16/46

17 Interprétation géométrique Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique On munit l espace R n des variables de la métrique D = 1 n I n. On note W le sous-espace de R n de dimension p + 1 engendré par les colonnes de X. On montre alors que : Ŷ est la projection D-orthogonale de Y sur W. La preuve est directe en écrivant : Ŷ = P W Y, avec P W = X (X t DX ) 1 X t D l opérateur de projection sur W. - Chapitre V - L3 MIASHS- La régression linéaire multiple 17/46

18 Plan Ecriture du modèle et estimation des paramètres 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 18/46

19 Hypothèse supplémentaire On ajoute l hypothèse de normalité des erreurs : ε i N (0, σ 2 ) Y i N (βx i, σ 2 ), ou encore matriciellement : (3 ) ε N (0 n, σ 2 I n ) Y N (βx, σ 2 I n ). Remarques. Sous l hypothèse de normalité, V(ε) = V(Y ) = σ 2 I n implique que le ε i et les Y i sont indépendants. Les hypothèses (1 ), (2 ) (3 ) (ε n ) est un bruit blanc de loi N (0, σ 2 ). - Chapitre V - L3 MIASHS- La régression linéaire multiple 19/46

20 Estimateurs du maximum de vraisemblance de β et de σ 2 La fonction de vraisemblance est la densité conjointe des Y i notée L(β, σ 2 ). Les estimateurs β et σ 2 qui maximisent L(β, σ 2 ) sont : β = (X t X ) 1 X t Y = ˆβ σ 2 = 1 n (Y X ˆβ) t (y X ˆβ) = 1 n ˆεt ˆε ˆσ 2 Exercice 4 (facile). Remarque. σ 2 est biaisé. - Chapitre V - L3 MIASHS- La régression linéaire multiple 20/46

21 Propriétés de β et σ 2 Sous les hypothèses (1 ), (2 ) et (3 ) on montre que : 1 β N ( β, σ 2 (X t X ) 1) ˆβ N ( β, σ 2 (X t X ) 1). 2 n σ2 σ 2 χ 2 (n p 1) (n p 1) ˆσ2 σ 2 χ 2 (n p 1). 3 β et σ 2 indépendants ˆβ et ˆσ 2 indépendants. Exercice 5 (difficile). - Chapitre V - L3 MIASHS- La régression linéaire multiple 21/46

22 Plan Ecriture du modèle et estimation des paramètres Définition Interprétation 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 22/46

23 Définition Ecriture du modèle et estimation des paramètres Définition Interprétation On définit R comme le coefficient de corrélation linéaire entre les Y i et les Ŷ i. Son carré s interprète en terme de variance expliquée : n R 2 i=1 = (Ŷi Ȳ n ) 2 n i=1 (Y i Ȳ n ) 2 = SCE SCT = 1 SCR SCT. avec la décomposition : n n n (Y i Ȳ n ) 2 = (Y i Ŷn) 2 + (Ŷi Ȳ n ) 2 i=1 } {{ } SCT i=1 } {{ } SCR i=1 } {{ } SCE Remarque. R 2 = 1 l ajustement est parfait : i, Ŷi = Y i. - Chapitre V - L3 MIASHS- La régression linéaire multiple 23/46

24 Interprétation Définition Interprétation Interprétation géométrique : R est le cosinus de l angle formé par (Y Ȳ ) et (Ŷ Ȳ ) où Ȳ = (Ȳ n,..., Ȳ n ) t R n. Interprétation statistique : R 2 peut être utilisé pour tester l ajustement de Y par Ŷ. On peut montrer que sous H 0 : β 1 =... = β q = 0 (ou H 0 : R 2 = 0 ) : F n = SCE/p SCR/(n p 1) = R 2 /p (1 R 2 F (p, n p 1) )/(n p 1) Exercice 6 (facile). On rejette H 0 si F n > f p, n p 1, 1 α. - Chapitre V - L3 MIASHS- La régression linéaire multiple 24/46

25 Plan Ecriture du modèle et estimation des paramètres Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 25/46

26 Test de significativité du modèle Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Nous avons vu que l on peut utiliser la statistique de test pour tester l hypothèse F n = SCE/p SCR/(n p 1) H 0 : β 1 =... = β p = 0 contre H 1 : j {1,..., p}, β j 0. La zone de rejet associé à cette statistique est : R = ]f p, n p 1, 1 α, + [. - Chapitre V - L3 MIASHS- La régression linéaire multiple 26/46

27 Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Test de significativité d un coefficient β k On veut tester H 0 : β k = 0 contre H 1 : β k 0 construire une statistique de test dont on connaît la loi sous H 0. On peut montrer que β k β k σ c kk t(n p 1) où c 00, c 11,..., c pp sont les éléments diagonaux de (X t X ) 1 Exercice 7 Remarque. ˆV( ˆβ k ) = ˆσ 2 c kk. - Chapitre V - L3 MIASHS- La régression linéaire multiple 27/46

28 Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Test de significativité d un coefficient β k On utilise donc la statistique de test T n = β k σ c kk pour tester les hypothèses H 0 : β k = 0 contre H 1 : β k 0 La zone de rejet associé à cette statistique est : R = ], t n p 1, 1 α/2 [ ] t n p 1, 1 α/2, + [. - Chapitre V - L3 MIASHS- La régression linéaire multiple 28/46

29 Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Test de significativité d un coefficient β k Rejeter H 0 signifie : que la variable explicative X (k) joue un rôle dans le modèle de régression, c est-à-dire que X (k) apporte de l information quant à la reconstruction de Y, que le coefficient β k est significativement non nul, que β k s interprète comme le taux d accroissement moyen de Y en fonction d une variation de X (k) lorsque tous les autres régresseurs X (1),..., X (k 1), X (k+1),..., X (p) restent fixés. - Chapitre V - L3 MIASHS- La régression linéaire multiple 29/46

30 Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Contribution jointe d un ensemble de régresseurs On cherche à tester la nullité des q p premiers paramètres : H 0 : β 1 =... = β q = 0 contre H 1 : k {1,..., q}, β k 0. Cela revient à comparer deux modèles : le modèle complet à p regresseurs (modèle 1) pour lequel on évalue la somme des carrés des résidus SCR 1, le modèle réduit à p q regresseurs (modèle 0) pour lequel on évalue la somme des carrés des résidus SCR 0. - Chapitre V - L3 MIASHS- La régression linéaire multiple 30/46

31 Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Contribution jointe d un ensemble de régresseurs On peut montrer que sous H 0 : (SCR 0 SCR 1 )/q F (q, n p 1). SCR 1 /(n p 1) Nous en déduisons la zone de rejet associée à cette statistique de test : R = ]f q, n p 1, 1 α, + [. Remarque. Ce test est utile pour faire de la modélisation pas à pas et sélectionner un ensemble optimal de régresseurs nécessaires à la reconstruction de Y. - Chapitre V - L3 MIASHS- La régression linéaire multiple 31/46

32 Plan Ecriture du modèle et estimation des paramètres Intervalle de prédiction Intervalle de confiance 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 32/46

33 Intervalle de prédiction Intervalle de confiance Objectif : prévoir à l aide du modèle la valeur de Y pour une nouvelle observation notée (X (1) 0,..., X (p) 0 ). D après le modèle, on a : où X 0 = (1, X (1) 0,..., X (p) 0 ) t, Deux possibilités : Y 0 = X t 0β + ε 0, Construire un intervalle qui contient la prédiction Ŷ 0 = Ê(Y 0 ) avec une probabilité 1 α (intervalle de prédiction). Construire un intervalle de confiance de E(Y 0 ) de niveau 1 α. - Chapitre V - L3 MIASHS- La régression linéaire multiple 33/46

34 Intervalle de prédiction Intervalle de prédiction Intervalle de confiance La prédiction pour une nouvelle observation est donc : On montre que Ŷ 0 = X t 0 ˆβ. Exercice 8. Y 0 Ŷ0 ˆσ 1 + X t 0 (X t X ) 1 X 0 T (n p 1). On en déduit l intervalle de prédiction qui est : [ ] Ŷ 0 ± t n p 1,1 α/2 ˆσ 1 + X t0 (X t X ) 1 X 0 - Chapitre V - L3 MIASHS- La régression linéaire multiple 34/46

35 Intervalle de confiance Intervalle de prédiction Intervalle de confiance On veut construire un intervalle de confiance du paramètre E(Y 0 ) = X t 0β On sait que Ŷ 0 N (X t 0 β, σ2 X t 0 (X t X ) 1 X 0 ) doù Ŷ 0 X t 0 β ˆσ X t 0 (X t X ) 1 X 0 T (n p 1). On en déduit l intervalle de confiance qui est : [ ] Ŷ 0 ± t n p 1,1 α/2 ˆσ X t0 (X t X ) 1 X 0 - Chapitre V - L3 MIASHS- La régression linéaire multiple 35/46

36 Plan Ecriture du modèle et estimation des paramètres Les critères de choix Les procédures de sélection de variables 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 36/46

37 Les critères de choix Les procédures de sélection de variables Objectif : Sélectionner parmi les p variables explicatives, les q p variables qui donnent le meilleur modèle pour prédire Y. Il va donc falloir : Définir un critère qui permet de comparer deux modèles n ayant pas nécessairement le même nombre de variables explicatives. Définir un procédure qui permet d optimiser ce critère parmi tous les modèles. On parle de procédure de choix de modèle. - Chapitre V - L3 MIASHS- La régression linéaire multiple 37/46

38 Les critères de choix Les critères de choix Les procédures de sélection de variables Le coefficient R 2 = 1 SCR SCT mesure l ajustement du modèle aux données, augmente lorsque le nombre de variables incluses dans le modèle augmente, permet de comparer des modèles ayant le même nombre de variables Ce critère ne peut pas être utilisé dans une procédure de choix de modèle. - Chapitre V - L3 MIASHS- La régression linéaire multiple 38/46

39 Les critères de choix Les critères de choix Les procédures de sélection de variables Le coefficient Rajusté 2 = 1 SCR/(n p 1) SCT /(n 1) Estime le Rpopulation 2 = 1 V(ε) V(Y ) = 1 σ2, σy 2 peut prendre des valeurs négatives, n augmente pas forcément lorsque le nombre de variables introduites dans le modèle augmente. Ce critère peut être utilisé dans une procédure de choix de modèle (à maximiser). - Chapitre V - L3 MIASHS- La régression linéaire multiple 39/46

40 Les critères de choix Les critères de choix Les procédures de sélection de variables Le C q de Mallows : C q = SCR 0 n + 2(q + 1) SCR1/(n p 1) où SCR 1 est évalué pour le modèle complet à p variables, SCR 0 est évalué pour le modèle réduit à q variables. Ce critère doit être comparé à q + 1 dans une procédure de choix de modèle. - Chapitre V - L3 MIASHS- La régression linéaire multiple 40/46

41 Les critères de choix Les critères de choix Les procédures de sélection de variables Les critères de vraisemblance pénalisée : AIC (Akaike Information Criterion) AIC = 2 ln(l) + 2k, BIC (Bayesian Information Criterion) : BIC = 2 ln(l) + k ln(n), où L est la vraisemblance du modèle estimé (vraisemblance maximisée), k est le nombre de paramètres du modèle. - Chapitre V - L3 MIASHS- La régression linéaire multiple 41/46

42 Les critères de choix Les critères de choix Les procédures de sélection de variables Les critères de AIC et BIC en régression multiple : k = q + 1 (paramètres β 1,..., β q et σ), 2 ln(l) = n [ln(2π σ) + 1] où σ = SCR n souvent remplacé par ˆσ = SCR n p 1. Les critères AIC et BIC peuvent alors être simplifiés : AIC = n ln(scr) + 2k AIC = n ln(ˆσ) + 2k BIC = n ln(scr) + k ln(n) BIC = n ln(ˆσ) + k ln(n) Ces critères doivent être minimisés dans une procédure de choix de modèle. - Chapitre V - L3 MIASHS- La régression linéaire multiple 42/46

43 Les critères de choix Les procédures de sélection de variables Procédure exhaustive de sélection de variables Il s agit d évaluer avec l un des critères précédent tous les modèles de régression à q p variables et retenir le meilleur mais, le nombre de modèles à q variables est C q p = p! q!(p q)!, le nombre total de modèles à considérer est p Cp q = 2 p 1. q=1 Le nombre de modèles croît exponentiellement avec p. Par exemple, si 30 variables sont à disposition, on devrait considérer 2 30 = 10 9 modèles... Impossible en pratique dès que p grandit. - Chapitre V - L3 MIASHS- La régression linéaire multiple 43/46

44 Procédure leaps and bounds Les critères de choix Les procédures de sélection de variables Procédure basée sur l algorithme de Furnival et Wilson : algorithme de type branch and bound, permet de trouver, pour q fixé, le meilleur modèle c est à dire le meilleur sous-ensemble de q variables. Pour q fixé, on a : min AIC min BIC max R 2 max Rajusté 2 min SCR. En pratique : 1 La procédure fournit le meilleur modèle à 1, 2,..., p variables, 2 Choisir q {1,..., p} qui fournit le meilleur modèle avec l un des critères de choix (sauf R 2 et SCR). Remarque. Efficace mais limitée à une trentaine de variables. - Chapitre V - L3 MIASHS- La régression linéaire multiple 44/46

45 Les critères de choix Les procédures de sélection de variables Procédure pas à pas ascendante (forward stepwise) 1 On effectue p régressions linéaires simple et on sélectionne la variable qui donne le meilleur modèle c est à dire : le modèle qui maximise R 2 minimise SCR... ou de manière équivalente la variable qui a la p-value du test de contribution marginale la plus petite. 2 On effectue p 1 régressions linéaires avec 2 variables explicatives en gardant celle sélectionnée à l étape 1 et on sélectionne celle qui ajoutée à la première : apporte la plus grande augmentation du R 2 maximise la statistique de Fisher du test de contribution jointe, ou de manière équivalente a la p-value du test de contribution marginale la plus petite (variable la plus significative). 3 On recommence jusqu à ce qu aucune variable significative ne puisse être ajoutée. - Chapitre V - L3 MIASHS- La régression linéaire multiple 45/46

46 Les critères de choix Les procédures de sélection de variables Procédure pas à pas descendante (backward stepwise) 1 On effectue une régression linéaire multiple avec les p variables explicatives disponibles. 2 On effectue p 1 régressions linéaires en supprimant une variable et on sélectionne la variable qui : apporte la plus grande diminuation du R 2 minimise la statistique de Fisher du test de contribution jointe, ou de manière équivalente a la p-value du test de contribution marginale la plus grande (variable la moins significative). 3 On recommence jusqu à ce qu aucune variable non significative ne puisse être retirée. - Chapitre V - L3 MIASHS- La régression linéaire multiple 46/46

STATISTIQUES. UE Modélisation pour la biologie

STATISTIQUES. UE Modélisation pour la biologie STATISTIQUES UE Modélisation pour la biologie 2011 Cadre Général n individus: 1, 2,..., n Y variable à expliquer : Y = (y 1, y 2,..., y n ), y i R Modèle: Y = Xθ + ε X matrice du plan d expériences θ paramètres

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Exemples d application

Exemples d application AgroParisTech Exemples d application du modèle linéaire E Lebarbier, S Robin Table des matières 1 Introduction 4 11 Avertissement 4 12 Notations 4 2 Régression linéaire simple 7 21 Présentation 7 211 Objectif

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Espérance conditionnelle

Espérance conditionnelle Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle

Plus en détail

Analyse en Composantes Principales

Analyse en Composantes Principales Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées

Plus en détail

Le Modèle Linéaire par l exemple :

Le Modèle Linéaire par l exemple : Publications du Laboratoire de Statistique et Probabilités Le Modèle Linéaire par l exemple : Régression, Analyse de la Variance,... Jean-Marc Azaïs et Jean-Marc Bardet Laboratoire de Statistique et Probabilités

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Résolution de systèmes linéaires par des méthodes directes

Résolution de systèmes linéaires par des méthodes directes Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

Exercice : la frontière des portefeuilles optimaux sans actif certain

Exercice : la frontière des portefeuilles optimaux sans actif certain Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué

Plus en détail

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. 1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

Stéphane Tufféry DATA MINING & STATISTIQUE DÉCISIONNELLE. 06/12/2009 Stéphane Tufféry - Data Mining - http://data.mining.free.fr

Stéphane Tufféry DATA MINING & STATISTIQUE DÉCISIONNELLE. 06/12/2009 Stéphane Tufféry - Data Mining - http://data.mining.free.fr Stéphane Tufféry DATA MINING & STATISTIQUE DÉCISIONNELLE 1 Plan du cours Qu est-ce que le data mining? A quoi sert le data mining? Les 2 grandes familles de techniques Le déroulement d un projet de data

Plus en détail

AICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678

AICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678 Sélection prédictive d un modèle génératif par le critère AICp Vincent Vandewalle To cite this version: Vincent Vandewalle. Sélection prédictive d un modèle génératif par le critère AICp. 41èmes Journées

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

Soutenance de stage Laboratoire des Signaux et Systèmes

Soutenance de stage Laboratoire des Signaux et Systèmes Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud

Plus en détail

1 Définition de la non stationnarité

1 Définition de la non stationnarité Chapitre 2: La non stationnarité -Testsdedétection Quelques notes de cours (non exhaustives) 1 Définition de la non stationnarité La plupart des séries économiques sont non stationnaires, c est-à-direqueleprocessusquiles

Plus en détail

Une comparaison de méthodes de discrimination des masses de véhicules automobiles

Une comparaison de méthodes de discrimination des masses de véhicules automobiles p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

Résolution d équations non linéaires

Résolution d équations non linéaires Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique

Plus en détail

Cours d analyse numérique SMI-S4

Cours d analyse numérique SMI-S4 ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

MODELE A CORRECTION D ERREUR ET APPLICATIONS

MODELE A CORRECTION D ERREUR ET APPLICATIONS MODELE A CORRECTION D ERREUR ET APPLICATIONS Hélène HAMISULTANE Bibliographie : Bourbonnais R. (2000), Econométrie, DUNOD. Lardic S. et Mignon V. (2002), Econométrie des Séries Temporelles Macroéconomiques

Plus en détail

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin. Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Eercice 1 (5 points) pour les candidats n ayant pas choisi la spécialité MATH Le tableau suivant donne l évolution du chiffre

Plus en détail

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2. Eo7 Calculs de déterminants Fiche corrigée par Arnaud Bodin Eercice Calculer les déterminants des matrices suivantes : Correction Vidéo ( ) 0 6 7 3 4 5 8 4 5 6 0 3 4 5 5 6 7 0 3 5 4 3 0 3 0 0 3 0 0 0 3

Plus en détail

Une introduction. Lionel RIOU FRANÇA. Septembre 2008

Une introduction. Lionel RIOU FRANÇA. Septembre 2008 Une introduction INSERM U669 Septembre 2008 Sommaire 1 Effets Fixes Effets Aléatoires 2 Analyse Classique Effets aléatoires Efficacité homogène Efficacité hétérogène 3 Estimation du modèle Inférence 4

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

Apprentissage non paramétrique en régression

Apprentissage non paramétrique en régression 1 Apprentissage non paramétrique en régression Apprentissage non paramétrique en régression Résumé Différentes méthodes d estimation non paramétriques en régression sont présentées. Tout d abord les plus

Plus en détail

Analyse de la variance Comparaison de plusieurs moyennes

Analyse de la variance Comparaison de plusieurs moyennes Analyse de la variance Comparaison de plusieurs moyennes Biostatistique Pr. Nicolas MEYER Laboratoire de Biostatistique et Informatique Médicale Fac. de Médecine de Strasbourg Mars 2011 Plan 1 Introduction

Plus en détail

Exercices Corrigés Premières notions sur les espaces vectoriels

Exercices Corrigés Premières notions sur les espaces vectoriels Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

Modèles et Méthodes de Réservation

Modèles et Méthodes de Réservation Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E

Plus en détail

Évaluation de la régression bornée

Évaluation de la régression bornée Thierry Foucart UMR 6086, Université de Poitiers, S P 2 M I, bd 3 téléport 2 BP 179, 86960 Futuroscope, Cedex FRANCE Résumé. le modèle linéaire est très fréquemment utilisé en statistique et particulièrement

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples, Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très

Plus en détail

Projet de Traitement du Signal Segmentation d images SAR

Projet de Traitement du Signal Segmentation d images SAR Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,

Plus en détail

FORMULAIRE DE STATISTIQUES

FORMULAIRE DE STATISTIQUES FORMULAIRE DE STATISTIQUES I. STATISTIQUES DESCRIPTIVES Moyenne arithmétique Remarque: population: m xμ; échantillon: Mx 1 Somme des carrés des écarts "# FR MOYENNE(série) MOYENNE(série) NL GEMIDDELDE(série)

Plus en détail

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et

Plus en détail

Cours de méthodes de scoring

Cours de méthodes de scoring UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES

INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine

Plus en détail

Introduction au Data-Mining

Introduction au Data-Mining Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane

Plus en détail

Température corporelle d un castor (une petite introduction aux séries temporelles)

Température corporelle d un castor (une petite introduction aux séries temporelles) Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature

Plus en détail

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique

La programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation

Plus en détail

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008)

Examen optimisation Centrale Marseille (2008) et SupGalilee (2008) Examen optimisation Centrale Marseille (28) et SupGalilee (28) Olivier Latte, Jean-Michel Innocent, Isabelle Terrasse, Emmanuel Audusse, Francois Cuvelier duree 4 h Tout resultat enonce dans le texte peut

Plus en détail

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage

Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage Journées de Méthodologie Statistique Eric Lesage Crest-Ensai 25 janvier 2012 Introduction et contexte 2/27 1 Introduction

Plus en détail

Approximations variationelles des EDP Notes du Cours de M2

Approximations variationelles des EDP Notes du Cours de M2 Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation

Plus en détail

Econométrie et applications

Econométrie et applications Econométrie et applications Ecole des Ponts ParisTech Département Sciences Economiques Gestion Finance Nicolas Jacquemet (nicolas.jacquemet@univ-paris1.fr) Université Paris 1 & Ecole d Economie de Paris

Plus en détail

Principe de symétrisation pour la construction d un test adaptatif

Principe de symétrisation pour la construction d un test adaptatif Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université

Plus en détail

Data mining II. Modélisation Statistique & Apprentissage

Data mining II. Modélisation Statistique & Apprentissage Publications du Laboratoire de Statistique et Probabilités Data mining II. Modélisation Statistique & Apprentissage Philippe BESSE Version janvier 2003 mises à jour : www.lsp.ups-tlse.fr/besse Laboratoire

Plus en détail

Bureau : 238 Tel : 04 76 82 58 90 Email : dominique.muller@upmf-grenoble.fr

Bureau : 238 Tel : 04 76 82 58 90 Email : dominique.muller@upmf-grenoble.fr Dominique Muller Laboratoire Inter-universitaire de Psychologie Bureau : 238 Tel : 04 76 82 58 90 Email : dominique.muller@upmf-grenoble.fr Supports de cours : webcom.upmf-grenoble.fr/lip/perso/dmuller/m2r/acm/

Plus en détail

Licence STS mention Mathématiques Parcours Ingénieur Télécom Bretagne (ITB)

Licence STS mention Mathématiques Parcours Ingénieur Télécom Bretagne (ITB) Licence STS mention Mathématiques Parcours Ingénieur Télécom Bretagne (ITB) FICHE D IDENTITE DE LA FORMATION Domaine de formation : Sciences, Technologies, Santé Intitulé : Licence Sciences, Technologies,

Plus en détail

NON-LINEARITE ET RESEAUX NEURONAUX

NON-LINEARITE ET RESEAUX NEURONAUX NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

ESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring

ESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring ESSEC Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring Les méthodes d évaluation du risque de crédit pour les PME et les ménages Caractéristiques Comme les montants des crédits et des

Plus en détail

Introduction à la Statistique Inférentielle

Introduction à la Statistique Inférentielle UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique

Plus en détail

Correction de l examen de la première session

Correction de l examen de la première session de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi

Plus en détail

Contributions aux méthodes d estimation en aveugle

Contributions aux méthodes d estimation en aveugle Université Joseph Fourier Année 2005 INPG Contributions aux méthodes d estimation en aveugle THÈSE DE DOCTORAT Spécialité : Traitement de signal et Automatique École Doctorale de Grenoble soutenue le 01

Plus en détail

4.2 Unités d enseignement du M1

4.2 Unités d enseignement du M1 88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter

Plus en détail

2 TABLE DES MATIÈRES. I.8.2 Exemple... 38

2 TABLE DES MATIÈRES. I.8.2 Exemple... 38 Table des matières I Séries chronologiques 3 I.1 Introduction................................... 3 I.1.1 Motivations et objectifs......................... 3 I.1.2 Exemples de séries temporelles.....................

Plus en détail

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle

CHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle CHAPITRE I Modélisation de processus et estimation des paramètres d un modèle I. INTRODUCTION. Dans la première partie de ce chapitre, nous rappelons les notions de processus et de modèle, ainsi que divers

Plus en détail

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos olivier.bos@u-paris2.fr

Plus en détail

données en connaissance et en actions?

données en connaissance et en actions? 1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)

Plus en détail

Etude des propriétés empiriques du lasso par simulations

Etude des propriétés empiriques du lasso par simulations Etude des propriétés empiriques du lasso par simulations L objectif de ce TP est d étudier les propriétés empiriques du LASSO et de ses variantes à partir de données simulées. Un deuxième objectif est

Plus en détail

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique

Objectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55

Plus en détail

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :

t 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre : Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant

Plus en détail

Cours 02 : Problème général de la programmation linéaire

Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =

Plus en détail

Équations non linéaires

Équations non linéaires Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et

Plus en détail

CCP PSI - 2010 Mathématiques 1 : un corrigé

CCP PSI - 2010 Mathématiques 1 : un corrigé CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.

CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES. CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires

Plus en détail

Commun à tous les candidats

Commun à tous les candidats EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle

Plus en détail

Optimisation, traitement d image et éclipse de Soleil

Optimisation, traitement d image et éclipse de Soleil Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

UFR de Sciences Economiques Année 2008-2009 TESTS PARAMÉTRIQUES

UFR de Sciences Economiques Année 2008-2009 TESTS PARAMÉTRIQUES Université Paris 13 Cours de Statistiques et Econométrie I UFR de Sciences Economiques Année 2008-2009 Licence de Sciences Economiques L3 Premier semestre TESTS PARAMÉTRIQUES Remarque: les exercices 2,

Plus en détail

Théorie et codage de l information

Théorie et codage de l information Théorie et codage de l information Les codes linéaires - Chapitre 6 - Principe Définition d un code linéaire Soient p un nombre premier et s est un entier positif. Il existe un unique corps de taille q

Plus en détail

Annexe B : Exemples. Avis de vente aux enchères liées Système de plafonnement et d échange de droits d émission de gaz à effet de serre (GES)

Annexe B : Exemples. Avis de vente aux enchères liées Système de plafonnement et d échange de droits d émission de gaz à effet de serre (GES) Annexe B : Exemples Avis de vente aux enchères liées Système de plafonnement et d échange de droits d émission de gaz à effet de serre (GES) Ce document fournit des exemples sur la façon de déterminer

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Intérêt du découpage en sous-bandes pour l analyse spectrale

Intérêt du découpage en sous-bandes pour l analyse spectrale Intérêt du découpage en sous-bandes pour l analyse spectrale David BONACCI Institut National Polytechnique de Toulouse (INP) École Nationale Supérieure d Électrotechnique, d Électronique, d Informatique,

Plus en détail

Fonctions de deux variables. Mai 2011

Fonctions de deux variables. Mai 2011 Fonctions de deux variables Dédou Mai 2011 D une à deux variables Les fonctions modèlisent de l information dépendant d un paramètre. On a aussi besoin de modéliser de l information dépendant de plusieurs

Plus en détail

Programmation Linéaire - Cours 1

Programmation Linéaire - Cours 1 Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

Cours d Analyse. Fonctions de plusieurs variables

Cours d Analyse. Fonctions de plusieurs variables Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........

Plus en détail

Modèles Estimés sur Données de Panel

Modèles Estimés sur Données de Panel Modèles Estimés sur Données de Panel Introduction Il est fréquent en économétrie qu on ait à composer avec des données à deux dimensions : - une dimension chronologique - une dimension spatiale Par exemple,

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

Econométrie La régression linéaire simple et multiple

Econométrie La régression linéaire simple et multiple Ricco Rakotomalala Econométrie La régression linéaire simple et multiple Version 1.1 Université Lumière Lyon 2 Page: 1 job: Econometrie_Regression macro: svmono.cls date/time: 26-May-2015/18:13 Page: 2

Plus en détail