La régression linéaire multiple
|
|
- Sébastien Grondin
- il y a 6 ans
- Total affichages :
Transcription
1 Plan La régression linéaire multiple - Chapitre V - Notes de cours Modélisation Statistique L3 MIASHS - Université de Bordeaux - Chapitre V - L3 MIASHS- La régression linéaire multiple 1/46
2 Plan Plan 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 2/46
3 Plan Ecriture du modèle et estimation des paramètres Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 3/46
4 Première écriture du modèle Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Le modèle de régression linéaire multiple s écrit sous la forme : p Y = β 0 + β k X (k) + ε (1) k=1 - les p variables explicatives X (k) sont non aléatoires réelles, - l erreur ε est aléatoire, - la variable à expliquer Y est donc aléatoire. L objectif : estimer les p + 1 paramètres β 0,..., β p. - Chapitre V - L3 MIASHS- La régression linéaire multiple 4/46
5 Seconde écriture du modèle Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique On se donne deux n-échantillons (X n ) et (Y n ) qui ne sont pas mutuellement indépendants où : - (X n ) forme une suite de vecteurs de dimension p 1, - X i = (X (1) i,..., X (p) i ) est la ième composante de (X n ). Le modèle s écrit alors : Y i = β 0 + p k=1 β k X (k) i + ε i i = 1,..., n. (2) - Chapitre V - L3 MIASHS- La régression linéaire multiple 5/46
6 Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Les hypothèses sont celles de la régression linéaire simple : (1) E[ε i ] = 0, i = 1,..., n : les erreurs sont centrées, E[Y i ] = β 0 + p k=1 β kx (k) i. (2) V(ε i ) = σ 2, i = 1,..., n : la variance des erreurs est constante, on parle d homogénéité des variances ou encore d homoscédasticité, V(Y i ) = σ 2. Remarque : σ 2 est un autre paramètre inconnu à estimer. (3) Cov(ε i, ε l ) = 0, i l : les erreurs sont non corrélées, Cov(Y i, Y l ) = 0. Remarque : Lorsqu on ajoute une hypothèse de normalité sur les ε i, les ε i sont indépendants. (ε n ) est alors un bruit blanc gaussien. - Chapitre V - L3 MIASHS- La régression linéaire multiple 6/46
7 Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Sous les hypothèses (1) à (3), l estimateur des moindres carrées de β = (β 0, β 1,..., β p ) t aura de bonnes propriétés. En ajoutant l hypothèse de normalité des erreurs, on pourra définir l estimateur du maximum de vraisemblance de β et effectuer des tests sur la nullité des paramètres. En pratique, il conviendra de vérifier si ces hypothèses sont vérifiées. - Chapitre V - L3 MIASHS- La régression linéaire multiple 7/46
8 Ecriture matricielle du modèle Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Le modèle (2) s écrit : où Y = X β + ε (3) Y 1 1 X (1) 1 X (2) 1... X (p) 1 β 0 ε 1 Y 2 Y =., X = 1 X (1) 2 X (2) 2... X (p) 2 β...., β = 1 ε., ε = 2.. Y n 1 X n (1) X n (2)... X n (p) β p ε n - Chapitre V - L3 MIASHS- La régression linéaire multiple 8/46
9 Ecriture matricielle Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Les 3 hypothèses précédentes peuvent alors s écrire sous la forme : (1 ) E(ε) = 0 n E(Y ) = X β R n. (2 ) V(ε) = σ 2 I n V(Y ) = σ 2 I n. où 0 n est le vecteur nul de dimension n et I n est la matrice identité de dimension n n. On suppose en outre que p + 1 < n, rang(x ) = p + 1, c est-à-dire qu il n existe pas de liaison linéaire entre les X (k). - Chapitre V - L3 MIASHS- La régression linéaire multiple 9/46
10 Ecriture matricielle Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Il est important de bien faire la différence entre l expression E(Y i ) = β 0 + p k=1 β kx (k) i (qui désigne l espérance d une variable aléatoire scalaire), et l expression E(Y ) = X β (qui désigne l espérance d une variable aléatoire vectorielle) : on obtient dans un cas un scalaire, dans l autre cas un vecteur de R n. l expression V(Y i ) = σ 2 (qui désigne la variance d une variable aléatoire scalaire), et l expression V(Y ) = σ 2 I n (qui désigne la covariance d une variable aléatoire vectorielle) : on obtient dans un cas un scalaire (σ 2 ), dans l autre cas une matrice carrée (σ 2 I n ) de dimension n n. - Chapitre V - L3 MIASHS- La régression linéaire multiple 10/46
11 Estimateur des moindres carrés de β Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique On cherche l équation de la droite de régression en dimension p + 1 pour laquelle les erreurs quadratiques (ε 2 n) sont les plus faibles. On cherche alors à minimiser n ε 2 i = i=1 n i=1 (Y i β 0 β 1 X (1) i β 2 X (2) i... β p X (p) i ) 2 = ε t ε On remarque que ε = Y X β, ce qui nous conduit à ε t ε = (Y X β) t (Y X β) = Y t Y 2 Y t X β + β t X t X β - Chapitre V - L3 MIASHS- La régression linéaire multiple 11/46
12 Estimateur des moindres carrés de β Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Ainsi, par dérivation (vectorielle...) par rapport à β, ε t ε β = 2 X t Y + 2 X t X β. Chercher à annuler cette dérivée revient à choisir l estimateur β tel que X t X β = X t Y et donc Exercice 1 (facile). β = (X t X ) 1 X t Y. (4) Cela nous contraint en outre à supposer que la matrice X t X de dimension (p + 1) (p + 1) est bien inversible. - Chapitre V - L3 MIASHS- La régression linéaire multiple 12/46
13 Prédictions et résidus Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Une fois que β a été estimé, nous pouvons reconstruire nos données à l aide de notre modélisation. On construit les prédictions et les résidus Ŷ i = β 0 + p k=1 β k X (k) i ou encore Ŷ = X β, ε i = Y i Ŷi ou encore ε = Y Ŷ. Remarque. Ŷ i estime E(Y i ). - Chapitre V - L3 MIASHS- La régression linéaire multiple 13/46
14 Propriétés de ˆβ Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Sous les hypothèses retenues, on peut montrer que : Exercice 2 (facile). E( ˆβ) = β V( ˆβ) = σ 2 (X t X ) 1 On peut également montrer que ˆβ est l estimateur sans biais de variance minimale ou encore estimateur BLUE (Best Linear Unbiased Estimator). - Chapitre V - L3 MIASHS- La régression linéaire multiple 14/46
15 Estimation de σ 2 Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique Selon la stratégie usuelle, on considère l estimateur σ 2 = 1 n p 1 n i=1 ε 2 i = t ε ε n p 1 Sous les hypothèses retenues on peut montrer que : Exercice 3 (difficile). E[ σ 2 ] = σ 2. - Chapitre V - L3 MIASHS- La régression linéaire multiple 15/46
16 Estimation de σ 2 Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique On en déduit un estimateur sans biais de V( ˆβ) ; ˆV( ˆβ) = ˆσ 2 (X t X ) 1. Pour débiaiser l estimateur de σ 2 nous retrouvons une normalisation par n p 1 lorsque l estimation concerne p + 1 paramètres. - Chapitre V - L3 MIASHS- La régression linéaire multiple 16/46
17 Interprétation géométrique Le modèle de régression linéaire multiple Estimation de β et de σ 2 Interprétation géométrique On munit l espace R n des variables de la métrique D = 1 n I n. On note W le sous-espace de R n de dimension p + 1 engendré par les colonnes de X. On montre alors que : Ŷ est la projection D-orthogonale de Y sur W. La preuve est directe en écrivant : Ŷ = P W Y, avec P W = X (X t DX ) 1 X t D l opérateur de projection sur W. - Chapitre V - L3 MIASHS- La régression linéaire multiple 17/46
18 Plan Ecriture du modèle et estimation des paramètres 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 18/46
19 Hypothèse supplémentaire On ajoute l hypothèse de normalité des erreurs : ε i N (0, σ 2 ) Y i N (βx i, σ 2 ), ou encore matriciellement : (3 ) ε N (0 n, σ 2 I n ) Y N (βx, σ 2 I n ). Remarques. Sous l hypothèse de normalité, V(ε) = V(Y ) = σ 2 I n implique que le ε i et les Y i sont indépendants. Les hypothèses (1 ), (2 ) (3 ) (ε n ) est un bruit blanc de loi N (0, σ 2 ). - Chapitre V - L3 MIASHS- La régression linéaire multiple 19/46
20 Estimateurs du maximum de vraisemblance de β et de σ 2 La fonction de vraisemblance est la densité conjointe des Y i notée L(β, σ 2 ). Les estimateurs β et σ 2 qui maximisent L(β, σ 2 ) sont : β = (X t X ) 1 X t Y = ˆβ σ 2 = 1 n (Y X ˆβ) t (y X ˆβ) = 1 n ˆεt ˆε ˆσ 2 Exercice 4 (facile). Remarque. σ 2 est biaisé. - Chapitre V - L3 MIASHS- La régression linéaire multiple 20/46
21 Propriétés de β et σ 2 Sous les hypothèses (1 ), (2 ) et (3 ) on montre que : 1 β N ( β, σ 2 (X t X ) 1) ˆβ N ( β, σ 2 (X t X ) 1). 2 n σ2 σ 2 χ 2 (n p 1) (n p 1) ˆσ2 σ 2 χ 2 (n p 1). 3 β et σ 2 indépendants ˆβ et ˆσ 2 indépendants. Exercice 5 (difficile). - Chapitre V - L3 MIASHS- La régression linéaire multiple 21/46
22 Plan Ecriture du modèle et estimation des paramètres Définition Interprétation 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 22/46
23 Définition Ecriture du modèle et estimation des paramètres Définition Interprétation On définit R comme le coefficient de corrélation linéaire entre les Y i et les Ŷ i. Son carré s interprète en terme de variance expliquée : n R 2 i=1 = (Ŷi Ȳ n ) 2 n i=1 (Y i Ȳ n ) 2 = SCE SCT = 1 SCR SCT. avec la décomposition : n n n (Y i Ȳ n ) 2 = (Y i Ŷn) 2 + (Ŷi Ȳ n ) 2 i=1 } {{ } SCT i=1 } {{ } SCR i=1 } {{ } SCE Remarque. R 2 = 1 l ajustement est parfait : i, Ŷi = Y i. - Chapitre V - L3 MIASHS- La régression linéaire multiple 23/46
24 Interprétation Définition Interprétation Interprétation géométrique : R est le cosinus de l angle formé par (Y Ȳ ) et (Ŷ Ȳ ) où Ȳ = (Ȳ n,..., Ȳ n ) t R n. Interprétation statistique : R 2 peut être utilisé pour tester l ajustement de Y par Ŷ. On peut montrer que sous H 0 : β 1 =... = β q = 0 (ou H 0 : R 2 = 0 ) : F n = SCE/p SCR/(n p 1) = R 2 /p (1 R 2 F (p, n p 1) )/(n p 1) Exercice 6 (facile). On rejette H 0 si F n > f p, n p 1, 1 α. - Chapitre V - L3 MIASHS- La régression linéaire multiple 24/46
25 Plan Ecriture du modèle et estimation des paramètres Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 25/46
26 Test de significativité du modèle Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Nous avons vu que l on peut utiliser la statistique de test pour tester l hypothèse F n = SCE/p SCR/(n p 1) H 0 : β 1 =... = β p = 0 contre H 1 : j {1,..., p}, β j 0. La zone de rejet associé à cette statistique est : R = ]f p, n p 1, 1 α, + [. - Chapitre V - L3 MIASHS- La régression linéaire multiple 26/46
27 Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Test de significativité d un coefficient β k On veut tester H 0 : β k = 0 contre H 1 : β k 0 construire une statistique de test dont on connaît la loi sous H 0. On peut montrer que β k β k σ c kk t(n p 1) où c 00, c 11,..., c pp sont les éléments diagonaux de (X t X ) 1 Exercice 7 Remarque. ˆV( ˆβ k ) = ˆσ 2 c kk. - Chapitre V - L3 MIASHS- La régression linéaire multiple 27/46
28 Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Test de significativité d un coefficient β k On utilise donc la statistique de test T n = β k σ c kk pour tester les hypothèses H 0 : β k = 0 contre H 1 : β k 0 La zone de rejet associé à cette statistique est : R = ], t n p 1, 1 α/2 [ ] t n p 1, 1 α/2, + [. - Chapitre V - L3 MIASHS- La régression linéaire multiple 28/46
29 Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Test de significativité d un coefficient β k Rejeter H 0 signifie : que la variable explicative X (k) joue un rôle dans le modèle de régression, c est-à-dire que X (k) apporte de l information quant à la reconstruction de Y, que le coefficient β k est significativement non nul, que β k s interprète comme le taux d accroissement moyen de Y en fonction d une variation de X (k) lorsque tous les autres régresseurs X (1),..., X (k 1), X (k+1),..., X (p) restent fixés. - Chapitre V - L3 MIASHS- La régression linéaire multiple 29/46
30 Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Contribution jointe d un ensemble de régresseurs On cherche à tester la nullité des q p premiers paramètres : H 0 : β 1 =... = β q = 0 contre H 1 : k {1,..., q}, β k 0. Cela revient à comparer deux modèles : le modèle complet à p regresseurs (modèle 1) pour lequel on évalue la somme des carrés des résidus SCR 1, le modèle réduit à p q regresseurs (modèle 0) pour lequel on évalue la somme des carrés des résidus SCR 0. - Chapitre V - L3 MIASHS- La régression linéaire multiple 30/46
31 Test de significativité du modèle Test de significativité d un coefficient β k Contribution jointe d un ensemble de régresseurs Contribution jointe d un ensemble de régresseurs On peut montrer que sous H 0 : (SCR 0 SCR 1 )/q F (q, n p 1). SCR 1 /(n p 1) Nous en déduisons la zone de rejet associée à cette statistique de test : R = ]f q, n p 1, 1 α, + [. Remarque. Ce test est utile pour faire de la modélisation pas à pas et sélectionner un ensemble optimal de régresseurs nécessaires à la reconstruction de Y. - Chapitre V - L3 MIASHS- La régression linéaire multiple 31/46
32 Plan Ecriture du modèle et estimation des paramètres Intervalle de prédiction Intervalle de confiance 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 32/46
33 Intervalle de prédiction Intervalle de confiance Objectif : prévoir à l aide du modèle la valeur de Y pour une nouvelle observation notée (X (1) 0,..., X (p) 0 ). D après le modèle, on a : où X 0 = (1, X (1) 0,..., X (p) 0 ) t, Deux possibilités : Y 0 = X t 0β + ε 0, Construire un intervalle qui contient la prédiction Ŷ 0 = Ê(Y 0 ) avec une probabilité 1 α (intervalle de prédiction). Construire un intervalle de confiance de E(Y 0 ) de niveau 1 α. - Chapitre V - L3 MIASHS- La régression linéaire multiple 33/46
34 Intervalle de prédiction Intervalle de prédiction Intervalle de confiance La prédiction pour une nouvelle observation est donc : On montre que Ŷ 0 = X t 0 ˆβ. Exercice 8. Y 0 Ŷ0 ˆσ 1 + X t 0 (X t X ) 1 X 0 T (n p 1). On en déduit l intervalle de prédiction qui est : [ ] Ŷ 0 ± t n p 1,1 α/2 ˆσ 1 + X t0 (X t X ) 1 X 0 - Chapitre V - L3 MIASHS- La régression linéaire multiple 34/46
35 Intervalle de confiance Intervalle de prédiction Intervalle de confiance On veut construire un intervalle de confiance du paramètre E(Y 0 ) = X t 0β On sait que Ŷ 0 N (X t 0 β, σ2 X t 0 (X t X ) 1 X 0 ) doù Ŷ 0 X t 0 β ˆσ X t 0 (X t X ) 1 X 0 T (n p 1). On en déduit l intervalle de confiance qui est : [ ] Ŷ 0 ± t n p 1,1 α/2 ˆσ X t0 (X t X ) 1 X 0 - Chapitre V - L3 MIASHS- La régression linéaire multiple 35/46
36 Plan Ecriture du modèle et estimation des paramètres Les critères de choix Les procédures de sélection de variables 1 Ecriture du modèle et estimation des paramètres Chapitre V - L3 MIASHS- La régression linéaire multiple 36/46
37 Les critères de choix Les procédures de sélection de variables Objectif : Sélectionner parmi les p variables explicatives, les q p variables qui donnent le meilleur modèle pour prédire Y. Il va donc falloir : Définir un critère qui permet de comparer deux modèles n ayant pas nécessairement le même nombre de variables explicatives. Définir un procédure qui permet d optimiser ce critère parmi tous les modèles. On parle de procédure de choix de modèle. - Chapitre V - L3 MIASHS- La régression linéaire multiple 37/46
38 Les critères de choix Les critères de choix Les procédures de sélection de variables Le coefficient R 2 = 1 SCR SCT mesure l ajustement du modèle aux données, augmente lorsque le nombre de variables incluses dans le modèle augmente, permet de comparer des modèles ayant le même nombre de variables Ce critère ne peut pas être utilisé dans une procédure de choix de modèle. - Chapitre V - L3 MIASHS- La régression linéaire multiple 38/46
39 Les critères de choix Les critères de choix Les procédures de sélection de variables Le coefficient Rajusté 2 = 1 SCR/(n p 1) SCT /(n 1) Estime le Rpopulation 2 = 1 V(ε) V(Y ) = 1 σ2, σy 2 peut prendre des valeurs négatives, n augmente pas forcément lorsque le nombre de variables introduites dans le modèle augmente. Ce critère peut être utilisé dans une procédure de choix de modèle (à maximiser). - Chapitre V - L3 MIASHS- La régression linéaire multiple 39/46
40 Les critères de choix Les critères de choix Les procédures de sélection de variables Le C q de Mallows : C q = SCR 0 n + 2(q + 1) SCR1/(n p 1) où SCR 1 est évalué pour le modèle complet à p variables, SCR 0 est évalué pour le modèle réduit à q variables. Ce critère doit être comparé à q + 1 dans une procédure de choix de modèle. - Chapitre V - L3 MIASHS- La régression linéaire multiple 40/46
41 Les critères de choix Les critères de choix Les procédures de sélection de variables Les critères de vraisemblance pénalisée : AIC (Akaike Information Criterion) AIC = 2 ln(l) + 2k, BIC (Bayesian Information Criterion) : BIC = 2 ln(l) + k ln(n), où L est la vraisemblance du modèle estimé (vraisemblance maximisée), k est le nombre de paramètres du modèle. - Chapitre V - L3 MIASHS- La régression linéaire multiple 41/46
42 Les critères de choix Les critères de choix Les procédures de sélection de variables Les critères de AIC et BIC en régression multiple : k = q + 1 (paramètres β 1,..., β q et σ), 2 ln(l) = n [ln(2π σ) + 1] où σ = SCR n souvent remplacé par ˆσ = SCR n p 1. Les critères AIC et BIC peuvent alors être simplifiés : AIC = n ln(scr) + 2k AIC = n ln(ˆσ) + 2k BIC = n ln(scr) + k ln(n) BIC = n ln(ˆσ) + k ln(n) Ces critères doivent être minimisés dans une procédure de choix de modèle. - Chapitre V - L3 MIASHS- La régression linéaire multiple 42/46
43 Les critères de choix Les procédures de sélection de variables Procédure exhaustive de sélection de variables Il s agit d évaluer avec l un des critères précédent tous les modèles de régression à q p variables et retenir le meilleur mais, le nombre de modèles à q variables est C q p = p! q!(p q)!, le nombre total de modèles à considérer est p Cp q = 2 p 1. q=1 Le nombre de modèles croît exponentiellement avec p. Par exemple, si 30 variables sont à disposition, on devrait considérer 2 30 = 10 9 modèles... Impossible en pratique dès que p grandit. - Chapitre V - L3 MIASHS- La régression linéaire multiple 43/46
44 Procédure leaps and bounds Les critères de choix Les procédures de sélection de variables Procédure basée sur l algorithme de Furnival et Wilson : algorithme de type branch and bound, permet de trouver, pour q fixé, le meilleur modèle c est à dire le meilleur sous-ensemble de q variables. Pour q fixé, on a : min AIC min BIC max R 2 max Rajusté 2 min SCR. En pratique : 1 La procédure fournit le meilleur modèle à 1, 2,..., p variables, 2 Choisir q {1,..., p} qui fournit le meilleur modèle avec l un des critères de choix (sauf R 2 et SCR). Remarque. Efficace mais limitée à une trentaine de variables. - Chapitre V - L3 MIASHS- La régression linéaire multiple 44/46
45 Les critères de choix Les procédures de sélection de variables Procédure pas à pas ascendante (forward stepwise) 1 On effectue p régressions linéaires simple et on sélectionne la variable qui donne le meilleur modèle c est à dire : le modèle qui maximise R 2 minimise SCR... ou de manière équivalente la variable qui a la p-value du test de contribution marginale la plus petite. 2 On effectue p 1 régressions linéaires avec 2 variables explicatives en gardant celle sélectionnée à l étape 1 et on sélectionne celle qui ajoutée à la première : apporte la plus grande augmentation du R 2 maximise la statistique de Fisher du test de contribution jointe, ou de manière équivalente a la p-value du test de contribution marginale la plus petite (variable la plus significative). 3 On recommence jusqu à ce qu aucune variable significative ne puisse être ajoutée. - Chapitre V - L3 MIASHS- La régression linéaire multiple 45/46
46 Les critères de choix Les procédures de sélection de variables Procédure pas à pas descendante (backward stepwise) 1 On effectue une régression linéaire multiple avec les p variables explicatives disponibles. 2 On effectue p 1 régressions linéaires en supprimant une variable et on sélectionne la variable qui : apporte la plus grande diminuation du R 2 minimise la statistique de Fisher du test de contribution jointe, ou de manière équivalente a la p-value du test de contribution marginale la plus grande (variable la moins significative). 3 On recommence jusqu à ce qu aucune variable non significative ne puisse être retirée. - Chapitre V - L3 MIASHS- La régression linéaire multiple 46/46
STATISTIQUES. UE Modélisation pour la biologie
STATISTIQUES UE Modélisation pour la biologie 2011 Cadre Général n individus: 1, 2,..., n Y variable à expliquer : Y = (y 1, y 2,..., y n ), y i R Modèle: Y = Xθ + ε X matrice du plan d expériences θ paramètres
Plus en détailProgrammes des classes préparatoires aux Grandes Ecoles
Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme
Plus en détailLa problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites
La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur
Plus en détailQuantification Scalaire et Prédictive
Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction
Plus en détail3 Approximation de solutions d équations
3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle
Plus en détailSouad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/
Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation
Plus en détailExemples d application
AgroParisTech Exemples d application du modèle linéaire E Lebarbier, S Robin Table des matières 1 Introduction 4 11 Avertissement 4 12 Notations 4 2 Régression linéaire simple 7 21 Présentation 7 211 Objectif
Plus en détailFiltrage stochastique non linéaire par la théorie de représentation des martingales
Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de
Plus en détailEspérance conditionnelle
Espérance conditionnelle Samy Tindel Nancy-Université Master 1 - Nancy Samy T. (IECN) M1 - Espérance conditionnelle Nancy-Université 1 / 58 Plan 1 Définition 2 Exemples 3 Propriétés de l espérance conditionnelle
Plus en détailAnalyse en Composantes Principales
Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées
Plus en détailLe Modèle Linéaire par l exemple :
Publications du Laboratoire de Statistique et Probabilités Le Modèle Linéaire par l exemple : Régression, Analyse de la Variance,... Jean-Marc Azaïs et Jean-Marc Bardet Laboratoire de Statistique et Probabilités
Plus en détailCONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)
CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un
Plus en détailRésolution de systèmes linéaires par des méthodes directes
Résolution de systèmes linéaires par des méthodes directes J. Erhel Janvier 2014 1 Inverse d une matrice carrée et systèmes linéaires Ce paragraphe a pour objet les matrices carrées et les systèmes linéaires.
Plus en détailLA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»
LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers
Plus en détailProgrammation linéaire et Optimisation. Didier Smets
Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des
Plus en détailExercice : la frontière des portefeuilles optimaux sans actif certain
Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué
Plus en détailCalcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.
1 Définitions, notations Calcul matriciel Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes. On utilise aussi la notation m n pour le
Plus en détail3. Conditionnement P (B)
Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte
Plus en détailFormes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions
Formes quadratiques Imen BHOURI 1 Ce cours s adresse aux étudiants de niveau deuxième année de Licence et à ceux qui préparent le capes. Il combine d une façon indissociable l étude des concepts bilinéaires
Plus en détailChapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens
Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques
Plus en détailSimulation de variables aléatoires
Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo
Plus en détailStéphane Tufféry DATA MINING & STATISTIQUE DÉCISIONNELLE. 06/12/2009 Stéphane Tufféry - Data Mining - http://data.mining.free.fr
Stéphane Tufféry DATA MINING & STATISTIQUE DÉCISIONNELLE 1 Plan du cours Qu est-ce que le data mining? A quoi sert le data mining? Les 2 grandes familles de techniques Le déroulement d un projet de data
Plus en détailAICp. Vincent Vandewalle. To cite this version: HAL Id: inria-00386678 https://hal.inria.fr/inria-00386678
Sélection prédictive d un modèle génératif par le critère AICp Vincent Vandewalle To cite this version: Vincent Vandewalle. Sélection prédictive d un modèle génératif par le critère AICp. 41èmes Journées
Plus en détailProgrammation linéaire
1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit
Plus en détailSoutenance de stage Laboratoire des Signaux et Systèmes
Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud
Plus en détail1 Définition de la non stationnarité
Chapitre 2: La non stationnarité -Testsdedétection Quelques notes de cours (non exhaustives) 1 Définition de la non stationnarité La plupart des séries économiques sont non stationnaires, c est-à-direqueleprocessusquiles
Plus en détailUne comparaison de méthodes de discrimination des masses de véhicules automobiles
p.1/34 Une comparaison de méthodes de discrimination des masses de véhicules automobiles A. Rakotomamonjy, R. Le Riche et D. Gualandris INSA de Rouen / CNRS 1884 et SMS / PSA Enquêtes en clientèle dans
Plus en détailBaccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé
Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue
Plus en détailRésolution d équations non linéaires
Analyse Numérique Résolution d équations non linéaires Said EL HAJJI et Touria GHEMIRES Université Mohammed V - Agdal. Faculté des Sciences Département de Mathématiques. Laboratoire de Mathématiques, Informatique
Plus en détailCours d analyse numérique SMI-S4
ours d analyse numérique SMI-S4 Introduction L objet de l analyse numérique est de concevoir et d étudier des méthodes de résolution de certains problèmes mathématiques, en général issus de problèmes réels,
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire PSI Introduction au Data-Mining p. 1/25 Data-Mining : Kèkecé? Traduction : Fouille de données. Terme
Plus en détailOptimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications
Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante
Plus en détailMODELE A CORRECTION D ERREUR ET APPLICATIONS
MODELE A CORRECTION D ERREUR ET APPLICATIONS Hélène HAMISULTANE Bibliographie : Bourbonnais R. (2000), Econométrie, DUNOD. Lardic S. et Mignon V. (2002), Econométrie des Séries Temporelles Macroéconomiques
Plus en détailExo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.
Exo7 Matrice d une application linéaire Corrections d Arnaud odin. Exercice Soit R muni de la base canonique = ( i, j). Soit f : R R la projection sur l axe des abscisses R i parallèlement à R( i + j).
Plus en détailFonctions de plusieurs variables
Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme
Plus en détailBac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)
Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures) Eercice 1 (5 points) pour les candidats n ayant pas choisi la spécialité MATH Le tableau suivant donne l évolution du chiffre
Plus en détailExo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.
Eo7 Calculs de déterminants Fiche corrigée par Arnaud Bodin Eercice Calculer les déterminants des matrices suivantes : Correction Vidéo ( ) 0 6 7 3 4 5 8 4 5 6 0 3 4 5 5 6 7 0 3 5 4 3 0 3 0 0 3 0 0 0 3
Plus en détailUne introduction. Lionel RIOU FRANÇA. Septembre 2008
Une introduction INSERM U669 Septembre 2008 Sommaire 1 Effets Fixes Effets Aléatoires 2 Analyse Classique Effets aléatoires Efficacité homogène Efficacité hétérogène 3 Estimation du modèle Inférence 4
Plus en détailBaccalauréat ES Pondichéry 7 avril 2014 Corrigé
Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient
Plus en détailApprentissage non paramétrique en régression
1 Apprentissage non paramétrique en régression Apprentissage non paramétrique en régression Résumé Différentes méthodes d estimation non paramétriques en régression sont présentées. Tout d abord les plus
Plus en détailAnalyse de la variance Comparaison de plusieurs moyennes
Analyse de la variance Comparaison de plusieurs moyennes Biostatistique Pr. Nicolas MEYER Laboratoire de Biostatistique et Informatique Médicale Fac. de Médecine de Strasbourg Mars 2011 Plan 1 Introduction
Plus en détailExercices Corrigés Premières notions sur les espaces vectoriels
Exercices Corrigés Premières notions sur les espaces vectoriels Exercice 1 On considére le sous-espace vectoriel F de R formé des solutions du système suivant : x1 x 2 x 3 + 2x = 0 E 1 x 1 + 2x 2 + x 3
Plus en détailChapitre 3. Les distributions à deux variables
Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles
Plus en détailTests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles
Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA
Plus en détailModèles et Méthodes de Réservation
Modèles et Méthodes de Réservation Petit Cours donné à l Université de Strasbourg en Mai 2003 par Klaus D Schmidt Lehrstuhl für Versicherungsmathematik Technische Universität Dresden D 01062 Dresden E
Plus en détailÉvaluation de la régression bornée
Thierry Foucart UMR 6086, Université de Poitiers, S P 2 M I, bd 3 téléport 2 BP 179, 86960 Futuroscope, Cedex FRANCE Résumé. le modèle linéaire est très fréquemment utilisé en statistique et particulièrement
Plus en détailFonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre
IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables
Plus en détailContexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,
Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très
Plus en détailProjet de Traitement du Signal Segmentation d images SAR
Projet de Traitement du Signal Segmentation d images SAR Introduction En analyse d images, la segmentation est une étape essentielle, préliminaire à des traitements de haut niveau tels que la classification,
Plus en détailFORMULAIRE DE STATISTIQUES
FORMULAIRE DE STATISTIQUES I. STATISTIQUES DESCRIPTIVES Moyenne arithmétique Remarque: population: m xμ; échantillon: Mx 1 Somme des carrés des écarts "# FR MOYENNE(série) MOYENNE(série) NL GEMIDDELDE(série)
Plus en détailL ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ
L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et
Plus en détailCours de méthodes de scoring
UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-
Plus en détailProbabilités III Introduction à l évaluation d options
Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un
Plus en détailINTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES
INTRODUCTION À L ANALYSE FACTORIELLE DES CORRESPONDANCES Dominique LAFFLY Maître de Conférences, Université de Pau Laboratoire Société Environnement Territoire UMR 5603 du CNRS et Université de Pau Domaine
Plus en détailIntroduction au Data-Mining
Introduction au Data-Mining Gilles Gasso, Stéphane Canu INSA Rouen -Département ASI Laboratoire LITIS 8 septembre 205. Ce cours est librement inspiré du cours DM de Alain Rakotomamonjy Gilles Gasso, Stéphane
Plus en détailTempérature corporelle d un castor (une petite introduction aux séries temporelles)
Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature
Plus en détailLa programmation linéaire : une introduction. Qu est-ce qu un programme linéaire? Terminologie. Écriture mathématique
La programmation linéaire : une introduction Qu est-ce qu un programme linéaire? Qu est-ce qu un programme linéaire? Exemples : allocation de ressources problème de recouvrement Hypothèses de la programmation
Plus en détailExamen optimisation Centrale Marseille (2008) et SupGalilee (2008)
Examen optimisation Centrale Marseille (28) et SupGalilee (28) Olivier Latte, Jean-Michel Innocent, Isabelle Terrasse, Emmanuel Audusse, Francois Cuvelier duree 4 h Tout resultat enonce dans le texte peut
Plus en détailApproche modèle pour l estimation en présence de non-réponse non-ignorable en sondage
Approche modèle pour l estimation en présence de non-réponse non-ignorable en sondage Journées de Méthodologie Statistique Eric Lesage Crest-Ensai 25 janvier 2012 Introduction et contexte 2/27 1 Introduction
Plus en détailApproximations variationelles des EDP Notes du Cours de M2
Approximations variationelles des EDP Notes du Cours de M2 Albert Cohen Dans ce cours, on s intéresse à l approximation numérique d équations aux dérivées partielles linéaires qui admettent une formulation
Plus en détailEconométrie et applications
Econométrie et applications Ecole des Ponts ParisTech Département Sciences Economiques Gestion Finance Nicolas Jacquemet (nicolas.jacquemet@univ-paris1.fr) Université Paris 1 & Ecole d Economie de Paris
Plus en détailPrincipe de symétrisation pour la construction d un test adaptatif
Principe de symétrisation pour la construction d un test adaptatif Cécile Durot 1 & Yves Rozenholc 2 1 UFR SEGMI, Université Paris Ouest Nanterre La Défense, France, cecile.durot@gmail.com 2 Université
Plus en détailData mining II. Modélisation Statistique & Apprentissage
Publications du Laboratoire de Statistique et Probabilités Data mining II. Modélisation Statistique & Apprentissage Philippe BESSE Version janvier 2003 mises à jour : www.lsp.ups-tlse.fr/besse Laboratoire
Plus en détailBureau : 238 Tel : 04 76 82 58 90 Email : dominique.muller@upmf-grenoble.fr
Dominique Muller Laboratoire Inter-universitaire de Psychologie Bureau : 238 Tel : 04 76 82 58 90 Email : dominique.muller@upmf-grenoble.fr Supports de cours : webcom.upmf-grenoble.fr/lip/perso/dmuller/m2r/acm/
Plus en détailLicence STS mention Mathématiques Parcours Ingénieur Télécom Bretagne (ITB)
Licence STS mention Mathématiques Parcours Ingénieur Télécom Bretagne (ITB) FICHE D IDENTITE DE LA FORMATION Domaine de formation : Sciences, Technologies, Santé Intitulé : Licence Sciences, Technologies,
Plus en détailNON-LINEARITE ET RESEAUX NEURONAUX
NON-LINEARITE ET RESEAUX NEURONAUX Vêlayoudom MARIMOUTOU Laboratoire d Analyse et de Recherche Economiques Université de Bordeaux IV Avenue. Leon Duguit, 33608 PESSAC, France tel. 05 56 84 85 77 e-mail
Plus en détailMéthodes de quadrature. Polytech Paris-UPMC. - p. 1/48
Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation
Plus en détailESSEC. Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring
ESSEC Cours «Management bancaire» Séance 3 Le risque de crédit Le scoring Les méthodes d évaluation du risque de crédit pour les PME et les ménages Caractéristiques Comme les montants des crédits et des
Plus en détailIntroduction à la Statistique Inférentielle
UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique
Plus en détailCorrection de l examen de la première session
de l examen de la première session Julian Tugaut, Franck Licini, Didier Vincent Si vous trouvez des erreurs de Français ou de mathématiques ou bien si vous avez des questions et/ou des suggestions, envoyez-moi
Plus en détailContributions aux méthodes d estimation en aveugle
Université Joseph Fourier Année 2005 INPG Contributions aux méthodes d estimation en aveugle THÈSE DE DOCTORAT Spécialité : Traitement de signal et Automatique École Doctorale de Grenoble soutenue le 01
Plus en détail4.2 Unités d enseignement du M1
88 CHAPITRE 4. DESCRIPTION DES UNITÉS D ENSEIGNEMENT 4.2 Unités d enseignement du M1 Tous les cours sont de 6 ECTS. Modélisation, optimisation et complexité des algorithmes (code RCP106) Objectif : Présenter
Plus en détail2 TABLE DES MATIÈRES. I.8.2 Exemple... 38
Table des matières I Séries chronologiques 3 I.1 Introduction................................... 3 I.1.1 Motivations et objectifs......................... 3 I.1.2 Exemples de séries temporelles.....................
Plus en détailCHAPITRE I. Modélisation de processus et estimation des paramètres d un modèle
CHAPITRE I Modélisation de processus et estimation des paramètres d un modèle I. INTRODUCTION. Dans la première partie de ce chapitre, nous rappelons les notions de processus et de modèle, ainsi que divers
Plus en détailEconomie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de
Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de l espérance d utilité Olivier Bos olivier.bos@u-paris2.fr
Plus en détaildonnées en connaissance et en actions?
1 Partie 2 : Présentation de la plateforme SPSS Modeler : Comment transformer vos données en connaissance et en actions? SPSS Modeler : l atelier de data mining Large gamme de techniques d analyse (algorithmes)
Plus en détailEtude des propriétés empiriques du lasso par simulations
Etude des propriétés empiriques du lasso par simulations L objectif de ce TP est d étudier les propriétés empiriques du LASSO et de ses variantes à partir de données simulées. Un deuxième objectif est
Plus en détailObjectifs. Clustering. Principe. Applications. Applications. Cartes de crédits. Remarques. Biologie, Génomique
Objectifs Clustering On ne sait pas ce qu on veut trouver : on laisse l algorithme nous proposer un modèle. On pense qu il existe des similarités entre les exemples. Qui se ressemble s assemble p. /55
Plus en détailt 100. = 8 ; le pourcentage de réduction est : 8 % 1 t Le pourcentage d'évolution (appelé aussi taux d'évolution) est le nombre :
Terminale STSS 2 012 2 013 Pourcentages Synthèse 1) Définition : Calculer t % d'un nombre, c'est multiplier ce nombre par t 100. 2) Exemples de calcul : a) Calcul d un pourcentage : Un article coûtant
Plus en détailCours 02 : Problème général de la programmation linéaire
Cours 02 : Problème général de la programmation linéaire Cours 02 : Problème général de la Programmation Linéaire. 5 . Introduction Un programme linéaire s'écrit sous la forme suivante. MinZ(ou maxw) =
Plus en détailÉquations non linéaires
Équations non linéaires Objectif : trouver les zéros de fonctions (ou systèmes) non linéaires, c-à-d les valeurs α R telles que f(α) = 0. y f(x) α 1 α 2 α 3 x Equations non lineaires p. 1/49 Exemples et
Plus en détailCCP PSI - 2010 Mathématiques 1 : un corrigé
CCP PSI - 00 Mathématiques : un corrigé Première partie. Définition d une structure euclidienne sur R n [X]... B est clairement symétrique et linéaire par rapport à sa seconde variable. De plus B(P, P
Plus en détailCorrection du Baccalauréat S Amérique du Nord mai 2007
Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n
Plus en détailCHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE. EQUATIONS DIFFERENTIELLES.
CHAPITRE V SYSTEMES DIFFERENTIELS LINEAIRES A COEFFICIENTS CONSTANTS DU PREMIER ORDRE EQUATIONS DIFFERENTIELLES Le but de ce chapitre est la résolution des deux types de systèmes différentiels linéaires
Plus en détailCommun à tous les candidats
EXERCICE 3 (9 points ) Commun à tous les candidats On s intéresse à des courbes servant de modèle à la distribution de la masse salariale d une entreprise. Les fonctions f associées définies sur l intervalle
Plus en détailOptimisation, traitement d image et éclipse de Soleil
Kléber, PCSI1&3 014-015 I. Introduction 1/8 Optimisation, traitement d image et éclipse de Soleil Partie I Introduction Le 0 mars 015 a eu lieu en France une éclipse partielle de Soleil qu il était particulièrement
Plus en détailLa Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1
La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois
Plus en détailUFR de Sciences Economiques Année 2008-2009 TESTS PARAMÉTRIQUES
Université Paris 13 Cours de Statistiques et Econométrie I UFR de Sciences Economiques Année 2008-2009 Licence de Sciences Economiques L3 Premier semestre TESTS PARAMÉTRIQUES Remarque: les exercices 2,
Plus en détailThéorie et codage de l information
Théorie et codage de l information Les codes linéaires - Chapitre 6 - Principe Définition d un code linéaire Soient p un nombre premier et s est un entier positif. Il existe un unique corps de taille q
Plus en détailAnnexe B : Exemples. Avis de vente aux enchères liées Système de plafonnement et d échange de droits d émission de gaz à effet de serre (GES)
Annexe B : Exemples Avis de vente aux enchères liées Système de plafonnement et d échange de droits d émission de gaz à effet de serre (GES) Ce document fournit des exemples sur la façon de déterminer
Plus en détailCapacité d un canal Second Théorème de Shannon. Théorie de l information 1/34
Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second
Plus en détailIntérêt du découpage en sous-bandes pour l analyse spectrale
Intérêt du découpage en sous-bandes pour l analyse spectrale David BONACCI Institut National Polytechnique de Toulouse (INP) École Nationale Supérieure d Électrotechnique, d Électronique, d Informatique,
Plus en détailFonctions de deux variables. Mai 2011
Fonctions de deux variables Dédou Mai 2011 D une à deux variables Les fonctions modèlisent de l information dépendant d un paramètre. On a aussi besoin de modéliser de l information dépendant de plusieurs
Plus en détailProgrammation Linéaire - Cours 1
Programmation Linéaire - Cours 1 P. Pesneau pierre.pesneau@math.u-bordeaux1.fr Université Bordeaux 1 Bât A33 - Bur 265 Ouvrages de référence V. Chvátal - Linear Programming, W.H.Freeman, New York, 1983.
Plus en détailMéthodes de Simulation
Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents
Plus en détailCours d Analyse. Fonctions de plusieurs variables
Cours d Analyse Fonctions de plusieurs variables Licence 1ère année 2007/2008 Nicolas Prioux Université de Marne-la-Vallée Table des matières 1 Notions de géométrie dans l espace et fonctions à deux variables........
Plus en détailModèles Estimés sur Données de Panel
Modèles Estimés sur Données de Panel Introduction Il est fréquent en économétrie qu on ait à composer avec des données à deux dimensions : - une dimension chronologique - une dimension spatiale Par exemple,
Plus en détailCalcul différentiel sur R n Première partie
Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité
Plus en détailI. Polynômes de Tchebychev
Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire
Plus en détailEconométrie La régression linéaire simple et multiple
Ricco Rakotomalala Econométrie La régression linéaire simple et multiple Version 1.1 Université Lumière Lyon 2 Page: 1 job: Econometrie_Regression macro: svmono.cls date/time: 26-May-2015/18:13 Page: 2
Plus en détail