Deuxième partie II. Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance

Dimension: px
Commencer à balayer dès la page:

Download "Deuxième partie II. Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance"

Transcription

1 Deuxième partie II Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance (version corrigée, 4 avril 27) Construction d estimateurs 4 Construction d estimateurs Estimateur de moments Divergence de Kullback Maximum de vraisemblance L exemple de la régression logistique M-Estimateurs 5 Le modèle linéaire 6 Tests et intervalles de confiance

2 Construction d estimateurs La question à laquelle on cherche à répondre Etant donné un modèle statistique {P θ, θ Θ} comment utiliser les données au mieux pour estimer θ? Un premier critère important Estimateur consistant [Définition 5.] Une séquence d estimateurs ˆθ n (ou par abus de langage un estimateur) de θ est dit consistant si ˆθ n n θ presque sûrement (consistance forte) ou en probabilité (consistance faible), lorsque l on suppose que les observations sont de loi P θ Cet objectif n est envisageable que si le modèle est identifiable au sens où θ θ 2 P θ P θ2 Autres critères On souhaite en particulier que le risque quadratique de ˆθ n soit aussi faible que possible Construction d estimateurs Estimateur de moments Estimateur de moments Si δ(y) est une statistique telle que E θ [δ(y )] = θ, l estimateur n n δ(y i ) est Sans biais Consistant (loi des grands nombres) On peut juger de ses performances (vis à vis de la perte quadratique) en comparant V θ [δ(y )] à I F (θ) (rappel : la borne n est pas nécessairement atteignable)

3 Construction d estimateurs Estimateur de moments Il est possible d être plus précis dans certains modèles Si {P θ, θ Θ} correspond à un modèle exponentiel sous forme naturelle (l(y; θ) = C(θ)h(y) exp [θ T (y)]), l estimateur de moments basé sur la statistique T (Y ) est efficace pour ϕ = E θ [T (Y )] = log C(θ) θ Preuve Cf. critère d efficacité vu précédemment : T (y) E θ [T (Y )] = log l(y; θ) θ Ou en calculant l expression de la borne de FDCR pour vérifier que 2 log C(θ) θ θ = I F (θ) = V θ [T (Y )] Exemples Estimation de la moyenne dans le modèle gaussien (de variance connue), estimation de l espérance pour une loi exponentielle,... [Section 4.3] Construction d estimateurs Estimateur de moments On peut généraliser la construction Exemple (Modèle linéaire univarié) { Yi = β + β X i + U i avec E θ [U i X i ] = et E θ [Ui 2 X i] < E[X i ] = et E[Xi 2] < On a E θ (Y i ) = E (E θ [Y i X i ]) = β + β E[X i ] = β E θ (X i Y i ) = E (X i E θ [Y i X i ]) = β E[Xi 2 ] Donc (/n n Y i) et (/n n X iy i ) / ( /n n des estimateurs consistants de β et β X2 i ) sont Mais l évaluation des performances devient délicate (voir plus loin concernant l approche asymptotique)

4 Construction d estimateurs Estimateur de moments temperature latitude Fig.: Régression linéaire sur les données de température en fonction de la latitude (centrée) Construction d estimateurs Divergence de Kullback On recherche un critère numérique Permettant d attester la proximité de deux lois 2 Susceptible d être approché empiriquement (à partir de données) 3 Se prêtant à l optimisation 4 Garantissant de bonnes performances statistiques

5 Construction d estimateurs Divergence de Kullback Divergence de Kullback * -(Leibler) [Définition 3.4] Pour deux lois P et P 2, de densités l et l 2 par rapport à µ, on définit la divergence de Kullback par [ I(P P 2 ) = E P log l ] (Y ) = log l (y) l 2 (Y ) l 2 (y) l (y)µ(dy) La divergence de Kullback Ne dépend pas du choix de µ Est toujours bien définie (c est une quantité positive qui vaut éventuellement + ) Dans un modèle paramétrique, on note I(θ θ 2 ) plutôt que I(P θ P θ2 ) * Solomon Kullback (93 994) [Définition 3.4] Construction d estimateurs Divergence de Kullback Propriété [Proposition 3.5] I(P P 2 ) 2 I(P P 2 ) = si et seulement si P = P 2 Preuve Rappel (Inégalité de Jensen) : Si g est un fonction convexe et E Z <, E[g(Z)] g(e[z]) ; si, de plus, g est strictement convexe, E[g(Z)] = g(e[z]) implique qu il existe c R tel que P[Z = c] = [ I(P P 2 ) = E P log l ] 2(Y ) l (Y ) soit en appliquant l inégalité de Jensen à la fonction log, l2 (y) I(P P 2 ) log l (y) l (y)µ(dy) =

6 Construction d estimateurs Maximum de vraisemblance Utilisation de la divergence de Kullback en statistique La divergence de Kullback constitue une mesure permettant d attester la proximité de deux lois P et P 2 (bien qu elle ne soit pas symétrique) Critère asymptotique du maximum de vraisemblance Q(θ) def = I(P P θ ) = log l(y; θ) l(y) l(y)µ(dy) où P désigne la loi des observations et {P θ, θ Θ} est un modèle statistique paramétrique θ def = arg max θ Θ Q(θ) définit le meilleur ajustement (au sens de la divergence de Kullback) dans la famille paramétrique {P θ, θ Θ} Construction d estimateurs Maximum de vraisemblance Propriétés du critère asymptotique du maximum de vraisemblance Si P = P θ pour θ Θ et le modèle {P θ, θ Θ} est identifiable, Q(θ) admet un maximum unique en θ = θ 2 Si, de plus, le modèle est régulier (de vraisemblance l( ; θ)) 2 [ Q(θ) 2 ] log l(y ; θ) θ θ = E θ θ=θ θ θ = I F (θ ) θ=θ En particulier [Proposition 3.6] Q(θ) = 2 (θ θ ) I F (θ )(θ θ ) + o( θ θ 2 ) la matrice d information de Fisher détermine le comportement local du critère autour du maximum θ

7 Construction d estimateurs Maximum de vraisemblance Estimateur du maximum de vraisemblance On appelle critère empirique du maximum de vraisemblance Q n (θ) = n n log l(y i ; θ)= n log l n(y,..., Y n ; θ) } {{ } L n (Y,...,Y n ;θ) L estimateur du maximum de vraisemblance est défini (implicitement) par ˆθ n = arg max θ Θ Q n(θ) Remarque Q n (θ) a même optimum que Q n (θ) = n n log l(y i;θ) l(y i ;θ ) P θ p.s. Q(θ) Construction d estimateurs Maximum de vraisemblance Exemple (Modèle de régression linéaire univarié gaussien) Y i = β + β X i + U i avec U i X i N (, σ 2 ) Q n (θ) = C te 2nσ 2 n (Y i β β X i ) 2 } {{ } à minimiser en β, β En supposant n n X i = (sinon, s y ramener) on trouve ˆβ,n = n n Y i ˆβ,n = n X iy i n X2 i

8 Construction d estimateurs Maximum de vraisemblance Cas des modèles exponentiels Si {P θ, θ Θ} correspond à un modèle exponentiel sous forme naturelle (l(y; θ) = C(θ)h(y) exp [θ T (y)]) Q(θ) = log C(θ) + θ E P [T (y)] et la condition d optimalité au premier ordre est log C(θ) = E θ [T (Y )] = E P [T (y)] θ Q n (θ) = log C(θ) + θ ( n n T (Y i) ) et la condition d optimalité au premier ordre est log C(θ) θ = E θ [T (Y )] = n n T (Y i ) Si I F (θ), Q et Q n sont des fonctions strictement concaves de θ est l estimateur du maximum de vraisemblance ˆθ n est défini (implicitement) par l équation de vraisemblance [T (Y )] = n T (Y Eˆθn i ) n Construction d estimateurs Maximum de vraisemblance Equivariance du maximum de vraisemblance Si ϕ = g(θ) correspond à une reparamétrisation du modèle (g bijective) ) ˆϕ n = g (ˆθn Exemple (Estimation d une loi exponentielle) Pour l(y; θ) = θ e θy pour y R + l équation de vraisemblance s écrit n n θ Y i = donc l estimateur du maximum de vraisemblance de θ est ˆθ n = ( n n Y i) et celui de ϕ = /θ = Eθ [Y ] est n n Y i

9 Construction d estimateurs L exemple de la régression logistique On s intéresse souvent à des modèles conditionnels dans lesquels la variable de réponse Y est catégorielle (ou qualitative), c est-à-dire prend un nombre fini de valeurs (on considère ici le cas binaire) sbp tobacco ldl obesity alcohol age Fig.: Présence de la maladie coronarienne en fonction de 6 facteurs (27 individus) Construction d estimateurs L exemple de la régression logistique Régression logistique (ou modèle logit) Conditionnellement à X, Y est une variable de Bernoulli telle que log P θ(y = X) P θ (Y = X) = X θ C est un modèle de régression linéaire sur le log-rapport de probabilités De façon équivalente logit (P θ [Y = X]) = X θ avec logit : ], [ ], + [, p log P θ (Y = X) = logit (X θ) avec p p logit : ], + [ ], [, x ex + e x = ( + e x)

10 Construction d estimateurs L exemple de la régression logistique Formulation équivalente On peut voir le modèle logit comme un modèle à donnée latente où Y = X θ + U Y = {Y > } [Section 2.27] P θ (Y = X) = P θ (Y > X) = P θ (U > X θ X) = F ( X θ) où F (x) désigne la fonction de répartition de U (supposé indépendant de X), qui doit donc être égale à logit (x) (de façon équivalente, logit (U) suit une loi uniforme sur ], [) On peut imaginer d autre types de modélisation pour U (par ex. modèle probit) Construction d estimateurs L exemple de la régression logistique Estimateur du maximum de vraisemblance Log-vraisemblance (conditionnelle) log l n (Y,..., Y n X,..., X n ; θ) n = Y i log P θ (Y i = X i ) + ( Y i ) log P θ (Y i = X i ) = n Y i log P θ(y i = X i ) P θ (Y i = X i ) + log P θ(y i = X i ) Gradient (fonction de score) = n Y i (X iθ) log( + e X i θ ) log l n (Y,..., Y n X,..., X n ; θ) θ = n X i {Y i P θ (Y i = X i )}

11 Construction d estimateurs L exemple de la régression logistique Hessien 2 log l n (Y,..., Y n X,..., X n ; θ) θ θ n = X i X i P θ (Y i = X i ) { P θ (Y i = X i )} } {{ } variance conditionnelle de Y i ( avec P X -probabilité si X a une loi continue et n > p) La maximisation de la log-vraisemblance (conditionnelle) est un problème d optimisation convexe Construction d estimateurs L exemple de la régression logistique sbp tobacco ldl obesity alcohol Fig.: Présence de la maladie coronarienne en fonction de 6 facteurs age sbp.66 tobacco 6.6 ldl.74 obesity 2E-4 alcohol age 9.59 Tab.: Paramètres estimés (2 itérations de l algorithme de Newton) sur les données centrées et normalisées

12 Construction d estimateurs M-Estimateurs M-Estimateur Dans les cas où L estimateur du maximum de vraisemblance est difficile à déterminer La loi des observations n est pas entièrement déterminée par le paramètre θ (modèle semi-paramétrique) On souhaite imposer certaines propriétés aux estimateurs (voir ci-après l exemple de régression robuste) on est amené à utiliser un M-Estimateur défini (implicitement) par n ˆθ n = arg max ψ(y i ; θ) θ Θ n où ψ est une fonction à valeur réelle [Définition 5.3] Remarque : Ce cadre général est aussi intéressant car il permet d inclure d autres types d estimateurs (comme les estimateurs de moments) Construction d estimateurs M-Estimateurs Outre des conditions de régularité (cf. [Proposition 5.4]), il est raisonnable de penser (et nous le démontrerons plus loin) que ˆθ n ne peut être consistant que si E θ [ψ(y ; θ)] a un maximum unique en θ puisque c est le critère asymptotique limite lorsque Y,..., Y n sont IID de loi P θ (par la loi des grands nombres) Modèle de régression non-linéaire Dans un modèle conditionnel où E [h(x; θ )] = E [h(x; θ 2 )] implique θ = θ 2 (en notant h(x; θ) = E θ [Y X]), on peut utiliser le critère des moindres carrés (non-linéaire) : Q n (θ) = n n (Y i h(x i ; θ)) 2 } {{ } ψ(y i,x i ;θ)

13 Construction d estimateurs M-Estimateurs La régression linéaire est sensible à la présence de données aberrantes temperature latitude Fig.: Régression linéaire sur les données de température en fonction de la latitude, avec ou sans donnée aberrante Construction d estimateurs M-Estimateurs Régression linéaire robuste Plutôt que la fonction des moindres carrés : ψ(x, y; β) = γ MC (r) où γ MC (r) = r 2 avec r def = y (β + β x) On utilise une fonction de Huber { r 2 si r τ γ H (r) = 2τ r τ 2 sinon On vérifie aisément que γ H est convexe et de classe C (mais pas C 2 ) de telle façon que τ τ min (β,β ) R 2 n n γ H {Y i (β + β X i )} est un problème de minimisation convexe qui se prête bien à l optimisation numérique

14 Construction d estimateurs M-Estimateurs temperature latitude Fig.: Régression linéaire robuste sur les données de température en fonction de la latitude, avec ou sans donnée aberrante (τ = 4.9, soit environ 8% des résidus qui tombent la partie quadratique du critère) Le modèle linéaire 4 Construction d estimateurs 5 Le modèle linéaire Estimateur des moindres carrés Cas gaussien 6 Tests et intervalles de confiance

15 Le modèle linéaire Le modèle linéaire [Chapitre 9] On s intéresse ici au cas du modèle linéaire (ou modèle de régression linéaire) dans lequel Y i = X iβ + U i où U i est indépendant de X i et E[U i ] =, E[U 2 i ] = σ2 Si on suppose de plus que U i N (, σ 2 ), on parlera de modèle linéaire gaussien (ou normal) Remarque Dans le cas où les régresseurs {X i } sont aléatoires, le modèle est défini de façon conditionnelle (de même que certains des résultats qui suivent doivent être compris de façon conditionnelle) Le modèle linéaire Il est utile de réécrire le modèle de l ensemble des observations sous forme vectorielle : Y X = (X (),..., X (p)) U. =. β +. Y n } {{ } Y X n = (X n (),..., X n (p)) } {{ } X (n p) U n } {{ } U avec E θ [U] = et V θ [U] = σ 2 Id n (ou U N (, σ 2 Id n ) si le modèle est gaussien) On suppose que X est de rang p

16 Le modèle linéaire Estimateur des moindres carrés On considère le critère des moindres carrés ψ(x i, Y i ; β) = (Y i X i β)2 ˆβ MC = arg min β R p n (Y i X iβ) 2 } {{ } Y Xβ 2 Interprétation géométrique Problème de projection orthogonale du vecteur Y R n sur le sous espace de Y dimension p im(x) (engendré par les Y Ŷ colonnes de X) Ŷ Y Ŷ im(x) def où Ŷ = X ˆβ im(x) Le modèle linéaire Estimateur des moindres carrés La condition Y Ŷ im(x) est équivalente à X (Y X ˆβ) = d où L estimateur des moindres carrés ˆβ = ( X X ) X Y La décomposition ˆβ = β + (X X) X U montre que E θ [ ˆβ] = β, ˆβ est sans biais 2 V θ [ ˆβ] = σ 2 (X X) Propriété ˆβ est l estimateur linéaire sans biais de β de matrice de covariance minimale [Théorème (Gauss-Markov) 4.] Remarque : Généralisation au cas hétéroscédastique, E θ [U i ] = σ 2 i, ou au cas d une matrice de covariance quelconque (connue)

17 Relation de Pythagore Le modèle linéaire Estimateur des moindres carrés Y Ŷ 2 = Y 2 Ŷ 2 = Y 2 Y Ŷ = Y Y Y X ( X X ) X Y = Y ( Id n X ( X X ) X ) Y = U ( Id n X ( X X ) X ) U X (X X) X est la matrice de projection sur im(x) Id n X (X X) X est la matrice de projection sur le sous-espace (de dimension n p) orthogonal à im(x) Il existe M matrice unitaire (M M = Id n ) telle que Id n X ( X X ) X Id n p. = M M. Le modèle linéaire Estimateur des moindres carrés Estimation de la variance Y Ŷ 2 /(n p) est un estimateur sans biais de la variance σ 2 Preuve ( [ E θ Y Ŷ 2) = E θ {tr ( U Id n X ( X X ) ) ]} X U = tr [(Id n X ( X X ) ) ( X E θ UU )] = σ 2 (n p)

18 Le modèle linéaire Cas gaussien Dans le cas gaussien, U N (, σ 2 Id n ) } log l n (Y,..., Y n ; θ) = 2 {n log 2π + n log σ 2 Y Xβ 2 + σ 2 donc ˆβ et (n p)/nˆσ 2 sont les estimateurs du maximum de vraisemblance 2 ˆβ = β + (X X) X U implique que ˆβ N (β, σ 2 ( XX ) ) 3 (n p)ˆσ 2 /σ 2 χ 2 (n p), loi du khi-deux à n p degrés de libertés, dans la mesure où (n p)ˆσ 2 = Y Ŷ 2 = U Id n p. M M } {{ U}. N (,σ 2 Id n ) Le modèle linéaire Cas gaussien Rappel [Cours de probabilité, Tables 3 et 4] La loi du khi-deux à k degrés de liberté est la loi de k X2 i lorsque {X i } sont IID de loi N (, ) La loi de Student * à k degrés de Y liberté est la loi de q /k P k X2 i lorsque {X i } sont IID de loi N (, ) et Y est une variable normale indépendante des {X i } * William S. Gosset ( )

19 Le modèle linéaire Cas gaussien 4 ˆβ i β i ˆσ 2 x ii t(n p) où xii est le ième terme diagonal de (XX ) et t(n p) désigne la loi de Student à n p degrés de liberté Preuve ˆβ = β + (X X) X U et (n p)ˆσ 2 = (Id n X (X X) X )U 2, or [ (X Cov X ) X U, (Id n X ( X X ) ] X )U = ( X X ) X E θ [UU ](Id } {{ } n X σ 2 Id n ( X X ) X ) = (3) donc (X X) X U et (Id n X (X X) X )U sont indépendants et, par suite, ˆβ et ˆσ 2 sont indépendants Tests et intervalles de confiance 4 Construction d estimateurs 5 Le modèle linéaire 6 Tests et intervalles de confiance Tests Cas de deux hypothèses simples Cas général : Approche de Neyman-Pearson Intervalles de confiance

20 Tests et intervalles de confiance Tests La problématique des tests Test d hypothèses (binaires) [Section 6.] Soit un modèle statistique {P θ ; θ Θ} et des hypothèses H : θ Θ H : θ Θ = Θ \ Θ Un test (pur) est une statistique à valeur dans {, } dont l interprétation est { ϕ(y ) = H est vraie ϕ(y ) = H est vraie Remarque : Il existe également des tests mixtes ou aléatoires dont l importance est essentiellement théorique Tests et intervalles de confiance Tests Hypothèses simples et composites Une hypothèse H i : θ Θ i est dite Simple si Θ i = {θ i } Composite sinon Dans le cas d un modèle paramétrique et si H i est une hypothèse simple, la loi des observations est connue sous H i 2 Il est fréquent qu une seule des deux hypothèses soit simple : par exemple, Θ = R p, H : θ = θ 3 Les hypothèses peuvent aussi être définies implicitement sous la forme H i : g(θ) = où g : Θ R p est une fonction (par exemple, g(θ, θ 2 ) = θ θ 2 pour tester l égalité de deux coordonnées du paramètres)

21 Tests et intervalles de confiance Tests Comment quantifier la performance d un test? Risque de première espèce Risque de seconde espèce α ϕ (θ) def = P θ [ϕ(y ) = ] = E θ [ϕ(y )] pour θ Θ β ϕ (θ) = P θ [ϕ(y ) = ] = E θ [ϕ(y )] pour θ Θ On utilise en général plutôt la puissance ρ ϕ (θ) = E θ [ϕ(y )] pour θ Θ En se plaçant du point de vue de H, on peut interpréter α ϕ (θ) comme le taux de fausses alarmes et ρ ϕ (θ) comme la probabilité de détection Tests et intervalles de confiance Cas de deux hypothèses simples On considère un modèle statistique dominé et deux hypothèses simples { H : θ = θ l(y; θ ) = H : θ = θ l(y; θ ) { α ϕ ρ ϕ = ϕ(y)l(y; θ )µ(dy) = ϕ(y)l(y; θ )µ(dy) On présente ici deux façons classiques de choisir ϕ : l approche bayésienne et l approche de Neyman-Pearson * * Thomas Bayes (72 76), Jerzy Neyman (894 98), Egon Pearson ( )

22 Tests et intervalles de confiance Dans l approche bayésienne Cas de deux hypothèses simples On définit une fonction de perte en donnant des coûts c et c aux erreurs de première et seconde espèce 2 On probabilise les hypothèses en spécifiant des probabilités a priori π et π (π + π = ) pour H et H Le risque du test est défini par r ϕ = E {c P(ϕ(Y ) = H vraie) + c P(ϕ(Y ) = H vraie)} = c π α ϕ + c π ( ρ ϕ ) Test bayésien Le test ϕ qui minimise le risque bayésien r ϕ est donné par ϕ(y) = { si l(y;θ ) l(y;θ ) > c π c π sinon Preuve Tests et intervalles de confiance Cas de deux hypothèses simples r ϕ = c π α ϕ + c π ( ρ ϕ ) = c π ϕ(y)l(y; θ )µ(dy) ) + c π ( ϕ(y)l(y; θ )µ(dy) Le risque bayésien minimal est obtenu en arg ϕ(y) [c π l(y; θ ) c π l(y; θ )] µ(dy) min ϕ mesurable soit ϕ(y) = { si c π l(y; θ ) c π l(y; θ ) < sinon (valeur en cas d égalité indifférente)

23 Tests et intervalles de confiance Cas de deux hypothèses simples Exemple (Test de deux lois normales de même variance) { H : Y N (µ, σ) H : Y N (µ, σ) avec µ > µ l(y ; θ ) l(y ; θ ) s log l(y ; θ ) l(y ; θ ) log s [ (Y ) 2 ( ) ] µ Y 2 µ log s 2 σ σ (µ [ ] µ ) Y (µ + µ )/2 log s σ σ De même pour n observations log l n(y,..., Y n ; θ ) l n (Y,..., Y n ; θ ) = (µ µ ) σ [ n {Y ] i (µ + µ )/2} σ Tests et intervalles de confiance Cas de deux hypothèses simples Test de deux lois normales de même variance (suite) n {Y i (µ + µ )/2} a pour loi σ n { Sous H, N ( n [ µ µ ] ) 2σ, Sous H, N ( [ n µ µ ] ) 2σ, D où pour le test σ n n {Y i (µ + µ )/2} t : Risque de première espèce α (t) = Φ ( t + n [ µ µ ]) 2σ Puissance ρ (t) = Φ ( t n [ µ µ ]) 2σ La courbe ρ (t) en fonction de α (t) (lorsque t varie) est dite courbe COR (Caractéristique Opérationnelle de Réception) et nous renseigne sur le compromis entre les deux objectifs antagonistes ρ (t) et α (t)

24 Tests et intervalles de confiance Cas de deux hypothèses simples puissance risque er esp Fig.: Courbes COR pour (µ µ )/σ =.2 avec, 5 et 2 observations Tests et intervalles de confiance Dans l approche de Neyman-Pearson Cas de deux hypothèses simples On dissymétrise les deux types d erreurs : { H est l hypothèse de référence ou hypothèse nulle H est l hypothèse alternative 2 On cherche à maximiser la puissance du test sous la contrainte que le risque de première espèce α ϕ (θ) soit inférieur à une valeur α spécifiée par l utilisateur Le niveau du test est la valeur α ϕ = sup θ Θ α ϕ (θ) Test UPP (Uniformément Plus Puissant) [Définition 6.9] Un test ϕ est dit UPP dans la classe C si α ϕ α ϕ pour ϕ C implique pour θ Θ ρ ϕ (θ) ρ ϕ (θ) E θ [ ϕ(y )] E θ [ϕ(y )]

25 Tests et intervalles de confiance Cas de deux hypothèses simples Lemme de Neyman-Pearson [Proposition 6.3] Pour tout α, < α <, il existe un test de Neyman de la forme * { si l(y; θ )/l(y; θ ) > s ϕ(y) = si l(y; θ )/l(y; θ ) < s (où s R + ) qui est de niveau α ; celui-ci est UPP dans la classe des tests de niveau inférieur ou égal à α Inversement, un test qui possède ces propriétés est nécessairement un test de Neyman n o * La formulation ci-dessus suffit si on suppose que µ y : l(y;θ ) = s l(y;θ = ) s R +, sinon il faut régler plus précisément le cas d égalité (en considérant un test mixte) Tests et intervalles de confiance Cas de deux hypothèses simples Preuve La preuve complète est donnée dans le polycopié L argument principal est le fait que si ϕ est un test de Neyman associé au seuil s et ϕ est un autre test [ϕ(y) ϕ(y)] [l(y; θ ) sl(y; θ )] µ(dy) d où c est à dire E θ [ϕ(y ) ϕ(y )] s E θ [ϕ(y ) ϕ(y )] ρ ϕ ρ ϕ s (α ϕ α ϕ )

26 Tests et intervalles de confiance Cas général : Approche de Neyman-Pearson Cas général Les arguments précédents se généralisent difficilement dans le cas où les deux hypothèses ne sont pas des hypothèses simples * L approche adoptée dans la suite consiste à Choisir une statistique de test ξ(y ) dont la loi est connue sous H 2 Ajuster le seuil s de façon à ce que le test ϕ(y ) correspondant à ξ(y ) s soit de niveau α (fixé par l utilisateur, suffisamment faible pour que le test soit significatif) 3 Si possible, évaluer la puissance du test (sous H ) * Voir toutefois le cas d une hypothèse composite unilatérale [Section 6.3.2] Tests et intervalles de confiance Cas général : Approche de Neyman-Pearson (Exemple) Cas de la régression linéaire Test de Student Dans le modèle Y i = β + β X i + U i avec U i N (, σ 2 ), on sait que ξ n = ( ˆβ β )/ ˆσ 2 x = n X 2 i ( ˆβ β ) ˆσ 2 temperature suit une loi de Student à n 2 degrés de libertés (cf. cours précédent + régresseurs centrés) latitude On utilise ξ n = n X2 i ˆβ ˆσ 2 pour tester l hypothèse H : β =, c est-à-dire, les régresseurs n ont pas d influence sur la valeur des variables de réponse

27 Tests et intervalles de confiance Cas général : Approche de Neyman-Pearson En utilisant la [Table n 4] ou équivalent (fonction cdft en scilab) on détermine le seuil z α/2 tel que P(T > z α/2 ) = α/2 α pour une variable T de loi de Student à n 2 degrés de liberté, où α est le niveau de confiance (souvent pris à.5) z α/2 ξ n z α/2 H acceptée ξ n > z α/2 H refusée (au niveau de confiance α) Remarque Pour une idée plus qualitative du résultat, on calcule souvent la probabilité critique (ou p-valeur) : 2P(T > ξ n ) (interprétation : le niveau de confiance maximum pour lequel on aurait rejeté l hypothèse H ) ξ n Tests et intervalles de confiance Cas général : Approche de Neyman-Pearson temperature temperature latitude longitude températures/latitudes n H (α =.5) p-valeur 7 Acceptée.4 4 Rejetée Rejetée Rejetée. 6 températures/longitudes n H (α =.5) p-valeur 7 Acceptée.6 4 Acceptée.9 28 Acceptée Acceptée.87

28 Tests et intervalles de confiance Intervalles de confiance Les intervalles de confiances Question posée Au vu des données, quelles sont les valeurs de θ qui sont crédibles? Et comment quantifier la fiabilité de la réponse fournie à cette question? Région de confiance [Définition 8.] Une région de confiance pour θ est une fonction S(y) de y à valeur dans l ensemble des parties de Y telle que P θ (θ S(Y )) = α où α est dit probabilité de couverture ou niveau de confiance Si θ est un paramètre scalaire, on parle d intervalle de confiance Tests et intervalles de confiance Intervalles de confiance Fonction pivotale Une fonction v(y; θ) est dite pivotale si la loi de v(y ; θ) ne dépend pas de θ sous P θ Si v est un fonction pivotale à valeur réelle telle que P θ (v(y ; θ) [a, b]) = α, {θ : v(y ; θ) [a, b]} constitue une région de confiance de probabilité de couverture α Si v(y ; θ) a une loi symétrique sous P θ, on vérifie que pour une probabilité α donnée, l intervalle de longueur minimale vérifiant les conditions ci-dessus est de la forme [ a, a] ; c est celui-ci qui sera choisi

29 Tests et intervalles de confiance Intervalles de confiance (Exemple) Cas de la régression linéaire Dans le modèle Y i = β + β X i + U i avec U i N (, σ 2 ), on sait que n Xi 2 ( ˆβ β ) ˆσ 2 suit une loi de Student à n 2 degrés de libertés Si z α/2 désigne le niveau dépassé avec probabilité α/2 pour cette loi, ˆβ z α/2 ˆσ 2 n X2 i ˆσ, ˆβ 2 + z α/2 n X2 i est l intervalle de confiance de probabilité α pour β Tests et intervalles de confiance Intervalles de confiance Dans le cas précédent, l intervalle de confiance obtenu coïncide avec l ensemble des valeurs de β pour lequel le test d hypothèse H : β = β de niveau α aurait été accepté, compte tenu de la valeur estimé ˆβ Par exemple On peut tester H : β = en vérifiant si l origine se situe ou non dans l intervalle ˆσ 2 ˆσ ˆβ z α/2 n, ˆβ 2 + z α/2 n X2 i X2 i Cette équivalence entre test et intervalle de confiance constitue une remarque générale

30 Tests et intervalles de confiance Intervalles de confiance temperature 2 temperature latitude longitude températures/latitudes n Intervalle de confiance à 95% 7.76 ± ± ± ±.9 températures/longitudes n Intervalle de confiance à 95% 7.7 ± ± ± ±.3

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites

La problématique des tests. Cours V. 7 mars 2008. Comment quantifier la performance d un test? Hypothèses simples et composites La problématique des tests Cours V 7 mars 8 Test d hypothèses [Section 6.1] Soit un modèle statistique P θ ; θ Θ} et des hypothèses H : θ Θ H 1 : θ Θ 1 = Θ \ Θ Un test (pur) est une statistique à valeur

Plus en détail

choisir H 1 quand H 0 est vraie - fausse alarme

choisir H 1 quand H 0 est vraie - fausse alarme étection et Estimation GEL-64943 Hiver 5 Tests Neyman-Pearson Règles de Bayes: coûts connus min π R ( ) + ( π ) R ( ) { } Règles Minimax: coûts connus min max R ( ), R ( ) Règles Neyman Pearson: coûts

Plus en détail

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications

Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications Optimisation non linéaire Irène Charon, Olivier Hudry École nationale supérieure des télécommunications A. Optimisation sans contrainte.... Généralités.... Condition nécessaire et condition suffisante

Plus en détail

Simulation de variables aléatoires

Simulation de variables aléatoires Chapter 1 Simulation de variables aléatoires Références: [F] Fishman, A first course in Monte Carlo, chap 3. [B] Bouleau, Probabilités de l ingénieur, chap 4. [R] Rubinstein, Simulation and Monte Carlo

Plus en détail

1 Complément sur la projection du nuage des individus

1 Complément sur la projection du nuage des individus TP 0 : Analyse en composantes principales (II) Le but de ce TP est d approfondir nos connaissances concernant l analyse en composantes principales (ACP). Pour cela, on reprend les notations du précédent

Plus en détail

TABLE DES MATIERES. C Exercices complémentaires 42

TABLE DES MATIERES. C Exercices complémentaires 42 TABLE DES MATIERES Chapitre I : Echantillonnage A - Rappels de cours 1. Lois de probabilités de base rencontrées en statistique 1 1.1 Définitions et caractérisations 1 1.2 Les propriétés de convergence

Plus en détail

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens Chapitre 7 Statistique des échantillons gaussiens Le théorème central limite met en évidence le rôle majeur tenu par la loi gaussienne en modélisation stochastique. De ce fait, les modèles statistiques

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : scientifique Voie : Biologie, chimie, physique et sciences de la Terre (BCPST) Discipline : Mathématiques Seconde année Préambule Programme

Plus en détail

Méthodes de Simulation

Méthodes de Simulation Méthodes de Simulation JEAN-YVES TOURNERET Institut de recherche en informatique de Toulouse (IRIT) ENSEEIHT, Toulouse, France Peyresq06 p. 1/41 Remerciements Christian Robert : pour ses excellents transparents

Plus en détail

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ

L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ L ANALYSE EN COMPOSANTES PRINCIPALES (A.C.P.) Pierre-Louis GONZALEZ INTRODUCTION Données : n individus observés sur p variables quantitatives. L A.C.P. permet d eplorer les liaisons entre variables et

Plus en détail

Cours d introduction à la théorie de la détection

Cours d introduction à la théorie de la détection Olivier J.J. MICHEL Département EEA, UNSA v1.mars 06 olivier.michel@unice.fr Laboratoire LUAN UMR6525-CNRS Cours d introduction à la théorie de la détection L ensemble du document s appuie très largement

Plus en détail

Théorie de l estimation et de la décision statistique

Théorie de l estimation et de la décision statistique Théorie de l estimation et de la décision statistique Paul Honeine en collaboration avec Régis Lengellé Université de technologie de Troyes 2013-2014 Quelques références Decision and estimation theory

Plus en détail

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING»

LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» LA NOTATION STATISTIQUE DES EMPRUNTEURS OU «SCORING» Gilbert Saporta Professeur de Statistique Appliquée Conservatoire National des Arts et Métiers Dans leur quasi totalité, les banques et organismes financiers

Plus en détail

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1

La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La Licence Mathématiques et Economie-MASS Université de Sciences Sociales de Toulouse 1 La licence Mathématiques et Economie-MASS de l Université des Sciences Sociales de Toulouse propose sur les trois

Plus en détail

Analyse en Composantes Principales

Analyse en Composantes Principales Analyse en Composantes Principales Anne B Dufour Octobre 2013 Anne B Dufour () Analyse en Composantes Principales Octobre 2013 1 / 36 Introduction Introduction Soit X un tableau contenant p variables mesurées

Plus en détail

Programmation linéaire

Programmation linéaire 1 Programmation linéaire 1. Le problème, un exemple. 2. Le cas b = 0 3. Théorème de dualité 4. L algorithme du simplexe 5. Problèmes équivalents 6. Complexité de l Algorithme 2 Position du problème Soit

Plus en détail

Quantification Scalaire et Prédictive

Quantification Scalaire et Prédictive Quantification Scalaire et Prédictive Marco Cagnazzo Département Traitement du Signal et des Images TELECOM ParisTech 7 Décembre 2012 M. Cagnazzo Quantification Scalaire et Prédictive 1/64 Plan Introduction

Plus en détail

PROBABILITES ET STATISTIQUE I&II

PROBABILITES ET STATISTIQUE I&II PROBABILITES ET STATISTIQUE I&II TABLE DES MATIERES CHAPITRE I - COMBINATOIRE ELEMENTAIRE I.1. Rappel des notations de la théorie des ensemble I.1.a. Ensembles et sous-ensembles I.1.b. Diagrammes (dits

Plus en détail

3. Conditionnement P (B)

3. Conditionnement P (B) Conditionnement 16 3. Conditionnement Dans cette section, nous allons rappeler un certain nombre de définitions et de propriétés liées au problème du conditionnement, c est à dire à la prise en compte

Plus en détail

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles Valentin Patilea 1 Cesar Sanchez-sellero 2 Matthieu Saumard 3 1 CREST-ENSAI et IRMAR 2 USC Espagne 3 IRMAR-INSA

Plus en détail

3 Approximation de solutions d équations

3 Approximation de solutions d équations 3 Approximation de solutions d équations Une équation scalaire a la forme générale f(x) =0où f est une fonction de IR dans IR. Un système de n équations à n inconnues peut aussi se mettre sous une telle

Plus en détail

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34 Capacité d un canal Second Théorème de Shannon Théorie de l information 1/34 Plan du cours 1. Canaux discrets sans mémoire, exemples ; 2. Capacité ; 3. Canaux symétriques ; 4. Codage de canal ; 5. Second

Plus en détail

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples, Non-linéarité Contexte Pour permettre aux algorithmes de cryptographie d être sûrs, les fonctions booléennes qu ils utilisent ne doivent pas être inversées facilement. Pour cela, elles doivent être très

Plus en détail

Correction du Baccalauréat S Amérique du Nord mai 2007

Correction du Baccalauréat S Amérique du Nord mai 2007 Correction du Baccalauréat S Amérique du Nord mai 7 EXERCICE points. Le plan (P) a une pour équation cartésienne : x+y z+ =. Les coordonnées de H vérifient cette équation donc H appartient à (P) et A n

Plus en détail

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. 14-3- 214 J.F.C. p. 1 I Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques. Exercice 1 Densité de probabilité. F { ln x si x ], 1] UN OVNI... On pose x R,

Plus en détail

La classification automatique de données quantitatives

La classification automatique de données quantitatives La classification automatique de données quantitatives 1 Introduction Parmi les méthodes de statistique exploratoire multidimensionnelle, dont l objectif est d extraire d une masse de données des informations

Plus en détail

Fonctions de plusieurs variables

Fonctions de plusieurs variables Module : Analyse 03 Chapitre 00 : Fonctions de plusieurs variables Généralités et Rappels des notions topologiques dans : Qu est- ce que?: Mathématiquement, n étant un entier non nul, on définit comme

Plus en détail

Optimisation des fonctions de plusieurs variables

Optimisation des fonctions de plusieurs variables Optimisation des fonctions de plusieurs variables Hervé Hocquard Université de Bordeaux, France 8 avril 2013 Extrema locaux et globaux Définition On étudie le comportement d une fonction de plusieurs variables

Plus en détail

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013

Séminaire TEST. 1 Présentation du sujet. October 18th, 2013 Séminaire ES Andrés SÁNCHEZ PÉREZ October 8th, 03 Présentation du sujet Le problème de régression non-paramétrique se pose de la façon suivante : Supposons que l on dispose de n couples indépendantes de

Plus en détail

Théorie des probabilités

Théorie des probabilités Théorie des probabilités LAVOISIER, 2008 LAVOISIER 11, rue Lavoisier 75008 Paris www.hermes-science.com www.lavoisier.fr ISBN 978-2-7462-1720-1 ISSN 1952 2401 Le Code de la propriété intellectuelle n'autorisant,

Plus en détail

Econométrie et applications

Econométrie et applications Econométrie et applications Ecole des Ponts ParisTech Département Sciences Economiques Gestion Finance Nicolas Jacquemet (nicolas.jacquemet@univ-paris1.fr) Université Paris 1 & Ecole d Economie de Paris

Plus en détail

Économetrie non paramétrique I. Estimation d une densité

Économetrie non paramétrique I. Estimation d une densité Économetrie non paramétrique I. Estimation d une densité Stéphane Adjemian Université d Évry Janvier 2004 1 1 Introduction 1.1 Pourquoi estimer une densité? Étudier la distribution des richesses... Proposer

Plus en détail

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/

Souad EL Bernoussi. Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Recherche opérationnelle Les démonstrations et les exemples seront traités en cours Souad EL Bernoussi Groupe d Analyse Numérique et Optimisation Rabat http ://www.fsr.ac.ma/ano/ Table des matières 1 Programmation

Plus en détail

Introduction à la Statistique Inférentielle

Introduction à la Statistique Inférentielle UNIVERSITE MOHAMMED V-AGDAL SCIENCES FACULTE DES DEPARTEMENT DE MATHEMATIQUES SMI semestre 4 : Probabilités - Statistique Introduction à la Statistique Inférentielle Prinemps 2013 0 INTRODUCTION La statistique

Plus en détail

Etude des propriétés empiriques du lasso par simulations

Etude des propriétés empiriques du lasso par simulations Etude des propriétés empiriques du lasso par simulations L objectif de ce TP est d étudier les propriétés empiriques du LASSO et de ses variantes à partir de données simulées. Un deuxième objectif est

Plus en détail

Baccalauréat ES/L Amérique du Sud 21 novembre 2013

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Baccalauréat ES/L Amérique du Sud 21 novembre 2013 A. P. M. E. P. EXERCICE 1 Commun à tous les candidats 5 points Une entreprise informatique produit et vend des clés USB. La vente de ces clés est réalisée

Plus en détail

Théorie et codage de l information

Théorie et codage de l information Théorie et codage de l information Les codes linéaires - Chapitre 6 - Principe Définition d un code linéaire Soient p un nombre premier et s est un entier positif. Il existe un unique corps de taille q

Plus en détail

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures) CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE Cinquième épreuve d admissibilité STATISTIQUE (durée : cinq heures) Une composition portant sur la statistique. SUJET Cette épreuve est composée d un

Plus en détail

Intégration et probabilités TD1 Espaces mesurés Corrigé

Intégration et probabilités TD1 Espaces mesurés Corrigé Intégration et probabilités TD1 Espaces mesurés Corrigé 2012-2013 1 Petites questions 1 Est-ce que l ensemble des ouverts de R est une tribu? Réponse : Non, car le complémentaire de ], 0[ n est pas ouvert.

Plus en détail

Cours de méthodes de scoring

Cours de méthodes de scoring UNIVERSITE DE CARTHAGE ECOLE SUPERIEURE DE STATISTIQUE ET D ANALYSE DE L INFORMATION Cours de méthodes de scoring Préparé par Hassen MATHLOUTHI Année universitaire 2013-2014 Cours de méthodes de scoring-

Plus en détail

UFR de Sciences Economiques Année 2008-2009 TESTS PARAMÉTRIQUES

UFR de Sciences Economiques Année 2008-2009 TESTS PARAMÉTRIQUES Université Paris 13 Cours de Statistiques et Econométrie I UFR de Sciences Economiques Année 2008-2009 Licence de Sciences Economiques L3 Premier semestre TESTS PARAMÉTRIQUES Remarque: les exercices 2,

Plus en détail

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux

Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux Détection en environnement non-gaussien Cas du fouillis de mer et extension aux milieux hétérogènes Laurent Déjean Thales Airborne Systems/ENST-Bretagne Le 20 novembre 2006 Laurent Déjean Détection en

Plus en détail

Soutenance de stage Laboratoire des Signaux et Systèmes

Soutenance de stage Laboratoire des Signaux et Systèmes Soutenance de stage Laboratoire des Signaux et Systèmes Bornes inférieures bayésiennes de l'erreur quadratique moyenne. Application à la localisation de points de rupture. M2R ATSI Université Paris-Sud

Plus en détail

Relation entre deux variables : estimation de la corrélation linéaire

Relation entre deux variables : estimation de la corrélation linéaire CHAPITRE 3 Relation entre deux variables : estimation de la corrélation linéaire Parmi les analyses statistiques descriptives, l une d entre elles est particulièrement utilisée pour mettre en évidence

Plus en détail

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE UE4 : Biostatistiques Chapitre 3 : Principe des tests statistiques d hypothèse José LABARERE Année universitaire 2010/2011 Université Joseph Fourier de Grenoble - Tous droits réservés. Plan I. Introduction

Plus en détail

I. Polynômes de Tchebychev

I. Polynômes de Tchebychev Première épreuve CCP filière MP I. Polynômes de Tchebychev ( ) 1.a) Tout réel θ vérifie cos(nθ) = Re ((cos θ + i sin θ) n ) = Re Cn k (cos θ) n k i k (sin θ) k Or i k est réel quand k est pair et imaginaire

Plus en détail

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4) Bernard Le Stum Université de Rennes 1 Version du 13 mars 2009 Table des matières 1 Fonctions partielles, courbes de niveau 1 2 Limites et continuité

Plus en détail

Filtrage stochastique non linéaire par la théorie de représentation des martingales

Filtrage stochastique non linéaire par la théorie de représentation des martingales Filtrage stochastique non linéaire par la théorie de représentation des martingales Adriana Climescu-Haulica Laboratoire de Modélisation et Calcul Institut d Informatique et Mathématiques Appliquées de

Plus en détail

Chp. 4. Minimisation d une fonction d une variable

Chp. 4. Minimisation d une fonction d une variable Chp. 4. Minimisation d une fonction d une variable Avertissement! Dans tout ce chapître, I désigne un intervalle de IR. 4.1 Fonctions convexes d une variable Définition 9 Une fonction ϕ, partout définie

Plus en détail

Différentiabilité ; Fonctions de plusieurs variables réelles

Différentiabilité ; Fonctions de plusieurs variables réelles Différentiabilité ; Fonctions de plusieurs variables réelles Denis Vekemans R n est muni de l une des trois normes usuelles. 1,. 2 ou.. x 1 = i i n Toutes les normes de R n sont équivalentes. x i ; x 2

Plus en détail

Le Modèle Linéaire par l exemple :

Le Modèle Linéaire par l exemple : Publications du Laboratoire de Statistique et Probabilités Le Modèle Linéaire par l exemple : Régression, Analyse de la Variance,... Jean-Marc Azaïs et Jean-Marc Bardet Laboratoire de Statistique et Probabilités

Plus en détail

Température corporelle d un castor (une petite introduction aux séries temporelles)

Température corporelle d un castor (une petite introduction aux séries temporelles) Température corporelle d un castor (une petite introduction aux séries temporelles) GMMA 106 GMMA 106 2014 2015 1 / 32 Cas d étude Temperature (C) 37.0 37.5 38.0 0 20 40 60 80 100 Figure 1: Temperature

Plus en détail

Moments des variables aléatoires réelles

Moments des variables aléatoires réelles Chapter 6 Moments des variables aléatoires réelles Sommaire 6.1 Espérance des variables aléatoires réelles................................ 46 6.1.1 Définition et calcul........................................

Plus en détail

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48 Méthodes de Polytech Paris-UPMC - p. 1/48 Polynôme d interpolation de Preuve et polynôme de Calcul de l erreur d interpolation Étude de la formule d erreur Autres méthodes - p. 2/48 Polynôme d interpolation

Plus en détail

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision

Tests du χ 2. on accepte H 0 bonne décision erreur de seconde espèce on rejette H 0 erreur de première espèce bonne décision Page n 1. Tests du χ 2 une des fonctions des statistiques est de proposer, à partir d observations d un phénomène aléatoire (ou modélisé comme tel) une estimation de la loi de ce phénomène. C est que nous

Plus en détail

www.h-k.fr/publications/objectif-agregation

www.h-k.fr/publications/objectif-agregation «Sur C, tout est connexe!» www.h-k.fr/publications/objectif-agregation L idée de cette note est de montrer que, contrairement à ce qui se passe sur R, «sur C, tout est connexe». Cet abus de langage se

Plus en détail

Texte Agrégation limitée par diffusion interne

Texte Agrégation limitée par diffusion interne Page n 1. Texte Agrégation limitée par diffusion interne 1 Le phénomène observé Un fût de déchets radioactifs est enterré secrètement dans le Cantal. Au bout de quelques années, il devient poreux et laisse

Plus en détail

Mesures de dépendance pour la séparation aveugle de sources. Application aux mélanges post non linéaires

Mesures de dépendance pour la séparation aveugle de sources. Application aux mélanges post non linéaires Mesures de dépendance pour la séparation aveugle de sources. Application aux mélanges post non linéaires Sophie Achard To cite this version: Sophie Achard. Mesures de dépendance pour la séparation aveugle

Plus en détail

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples

Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples 45 Fonctions de plusieurs variables : dérivés partielles, diérentielle. Fonctions composées. Fonctions de classe C 1. Exemples Les espaces vectoriels considérés sont réels, non réduits au vecteur nul et

Plus en détail

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité

Calcul différentiel. Chapitre 1. 1.1 Différentiabilité Chapitre 1 Calcul différentiel L idée du calcul différentiel est d approcher au voisinage d un point une fonction f par une fonction plus simple (ou d approcher localement le graphe de f par un espace

Plus en détail

M2 IAD UE MODE Notes de cours (3)

M2 IAD UE MODE Notes de cours (3) M2 IAD UE MODE Notes de cours (3) Jean-Yves Jaffray Patrice Perny 16 mars 2006 ATTITUDE PAR RAPPORT AU RISQUE 1 Attitude par rapport au risque Nousn avons pas encore fait d hypothèse sur la structure de

Plus en détail

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes. Promotion X 004 COURS D ANALYSE DES STRUCTURES MÉCANIQUES PAR LA MÉTHODE DES ELEMENTS FINIS (MEC 568) contrôle non classant (7 mars 007, heures) Documents autorisés : polycopié ; documents et notes de

Plus en détail

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes

Contents. 1 Introduction Objectifs des systèmes bonus-malus Système bonus-malus à classes Système bonus-malus : Principes Université Claude Bernard Lyon 1 Institut de Science Financière et d Assurances Système Bonus-Malus Introduction & Applications SCILAB Julien Tomas Institut de Science Financière et d Assurances Laboratoire

Plus en détail

de calibration Master 2: Calibration de modèles: présentation et simulation d

de calibration Master 2: Calibration de modèles: présentation et simulation d Master 2: Calibration de modèles: présentation et simulation de quelques problèmes de calibration Plan de la présentation 1. Présentation de quelques modèles à calibrer 1a. Reconstruction d une courbe

Plus en détail

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que

De même, le périmètre P d un cercle de rayon 1 vaut P = 2π (par définition de π). Mais, on peut démontrer (difficilement!) que Introduction. On suppose connus les ensembles N (des entiers naturels), Z des entiers relatifs et Q (des nombres rationnels). On s est rendu compte, depuis l antiquité, que l on ne peut pas tout mesurer

Plus en détail

Estimation et tests statistiques, TD 5. Solutions

Estimation et tests statistiques, TD 5. Solutions ISTIL, Tronc commun de première année Introduction aux méthodes probabilistes et statistiques, 2008 2009 Estimation et tests statistiques, TD 5. Solutions Exercice 1 Dans un centre avicole, des études

Plus en détail

Introduction aux Statistiques et à l utilisation du logiciel R

Introduction aux Statistiques et à l utilisation du logiciel R Introduction aux Statistiques et à l utilisation du logiciel R Christophe Lalanne Christophe Pallier 1 Introduction 2 Comparaisons de deux moyennes 2.1 Objet de l étude On a mesuré le temps de sommeil

Plus en détail

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours Exo7 Continuité (étude globale). Diverses fonctions Exercices de Jean-Louis Rouget. Retrouver aussi cette fiche sur www.maths-france.fr * très facile ** facile *** difficulté moyenne **** difficile *****

Plus en détail

Arbres binaires de décision

Arbres binaires de décision 1 Arbres binaires de décision Résumé Arbres binaires de décision Méthodes de construction d arbres binaires de décision, modélisant une discrimination (classification trees) ou une régression (regression

Plus en détail

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé

Baccalauréat S Antilles-Guyane 11 septembre 2014 Corrigé Baccalauréat S ntilles-guyane 11 septembre 14 Corrigé EXERCICE 1 6 points Commun à tous les candidats Une entreprise de jouets en peluche souhaite commercialiser un nouveau produit et à cette fin, effectue

Plus en détail

Exercice : la frontière des portefeuilles optimaux sans actif certain

Exercice : la frontière des portefeuilles optimaux sans actif certain Exercice : la frontière des portefeuilles optimaux sans actif certain Philippe Bernard Ingénierie Economique & Financière Université Paris-Dauphine Février 0 On considère un univers de titres constitué

Plus en détail

Programmation linéaire

Programmation linéaire Programmation linéaire DIDIER MAQUIN Ecole Nationale Supérieure d Electricité et de Mécanique Institut National Polytechnique de Lorraine Mathématiques discrètes cours de 2ème année Programmation linéaire

Plus en détail

Introduction à l approche bootstrap

Introduction à l approche bootstrap Introduction à l approche bootstrap Irène Buvat U494 INSERM buvat@imedjussieufr 25 septembre 2000 Introduction à l approche bootstrap - Irène Buvat - 21/9/00-1 Plan du cours Qu est-ce que le bootstrap?

Plus en détail

Évaluation de la régression bornée

Évaluation de la régression bornée Thierry Foucart UMR 6086, Université de Poitiers, S P 2 M I, bd 3 téléport 2 BP 179, 86960 Futuroscope, Cedex FRANCE Résumé. le modèle linéaire est très fréquemment utilisé en statistique et particulièrement

Plus en détail

Problème 1 : applications du plan affine

Problème 1 : applications du plan affine Problème 1 : applications du plan affine Notations On désigne par GL 2 (R) l ensemble des matrices 2 2 inversibles à coefficients réels. Soit un plan affine P muni d un repère (O, I, J). Les coordonnées

Plus en détail

Intégration et probabilités TD1 Espaces mesurés

Intégration et probabilités TD1 Espaces mesurés Intégration et probabilités TD1 Espaces mesurés 2012-2013 1 Petites questions 1) Est-ce que l ensemble des ouverts de R est une tribu? 2) Si F et G sont deux tribus, est-ce que F G est toujours une tribu?

Plus en détail

TSTI 2D CH X : Exemples de lois à densité 1

TSTI 2D CH X : Exemples de lois à densité 1 TSTI 2D CH X : Exemples de lois à densité I Loi uniforme sur ab ; ) Introduction Dans cette activité, on s intéresse à la modélisation du tirage au hasard d un nombre réel de l intervalle [0 ;], chacun

Plus en détail

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation

Complexité. Licence Informatique - Semestre 2 - Algorithmique et Programmation Complexité Objectifs des calculs de complexité : - pouvoir prévoir le temps d'exécution d'un algorithme - pouvoir comparer deux algorithmes réalisant le même traitement Exemples : - si on lance le calcul

Plus en détail

IBM SPSS Regression 21

IBM SPSS Regression 21 IBM SPSS Regression 21 Remarque : Avant d utiliser ces informations et le produit qu elles concernent, lisez les informations générales sous Remarques sur p. 46. Cette version s applique à IBM SPSS Statistics

Plus en détail

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre

Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre IUFM du Limousin 2009-10 PLC1 Mathématiques S. Vinatier Rappels de cours Fonctions de plusieurs variables, intégrales multiples, et intégrales dépendant d un paramètre 1 Fonctions de plusieurs variables

Plus en détail

«Cours Statistique et logiciel R»

«Cours Statistique et logiciel R» «Cours Statistique et logiciel R» Rémy Drouilhet (1), Adeline Leclercq-Samson (1), Frédérique Letué (1), Laurence Viry (2) (1) Laboratoire Jean Kuntzmann, Dép. Probabilites et Statistique, (2) Laboratoire

Plus en détail

PROJET MODELE DE TAUX

PROJET MODELE DE TAUX MASTER 272 INGENIERIE ECONOMIQUE ET FINANCIERE PROJET MODELE DE TAUX Pricing du taux d intérêt des caplets avec le modèle de taux G2++ Professeur : Christophe LUNVEN 29 Fevrier 2012 Taylan KUNAL - Dinh

Plus en détail

Chapitre 3. Les distributions à deux variables

Chapitre 3. Les distributions à deux variables Chapitre 3. Les distributions à deux variables Jean-François Coeurjolly http://www-ljk.imag.fr/membres/jean-francois.coeurjolly/ Laboratoire Jean Kuntzmann (LJK), Grenoble University 1 Distributions conditionnelles

Plus en détail

Calcul différentiel sur R n Première partie

Calcul différentiel sur R n Première partie Calcul différentiel sur R n Première partie Université De Metz 2006-2007 1 Définitions générales On note L(R n, R m ) l espace vectoriel des applications linéaires de R n dans R m. Définition 1.1 (différentiabilité

Plus en détail

1 Définition de la non stationnarité

1 Définition de la non stationnarité Chapitre 2: La non stationnarité -Testsdedétection Quelques notes de cours (non exhaustives) 1 Définition de la non stationnarité La plupart des séries économiques sont non stationnaires, c est-à-direqueleprocessusquiles

Plus en détail

Apprentissage par renforcement (1a/3)

Apprentissage par renforcement (1a/3) Apprentissage par renforcement (1a/3) Bruno Bouzy 23 septembre 2014 Ce document est le chapitre «Apprentissage par renforcement» du cours d apprentissage automatique donné aux étudiants de Master MI, parcours

Plus en détail

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57

Analyse de la vidéo. Chapitre 4.1 - La modélisation pour le suivi d objet. 10 mars 2015. Chapitre 4.1 - La modélisation d objet 1 / 57 Analyse de la vidéo Chapitre 4.1 - La modélisation pour le suivi d objet 10 mars 2015 Chapitre 4.1 - La modélisation d objet 1 / 57 La représentation d objets Plan de la présentation 1 La représentation

Plus en détail

Lagrange, où λ 1 est pour la contrainte sur µ p ).

Lagrange, où λ 1 est pour la contrainte sur µ p ). Chapitre 1 Exercice 1 : Portefeuilles financiers Considérons trois types d actions qui sont négociées à la bourse et dont les rentabilités r 1, r 2 et r 3 sont des variables aléatoires d espérances µ i

Plus en détail

Couples de variables aléatoires discrètes

Couples de variables aléatoires discrètes Couples de variables aléatoires discrètes ECE Lycée Carnot mai Dans ce dernier chapitre de probabilités de l'année, nous allons introduire l'étude de couples de variables aléatoires, c'est-à-dire l'étude

Plus en détail

MÉTHODE DE MONTE CARLO.

MÉTHODE DE MONTE CARLO. MÉTHODE DE MONTE CARLO. Alexandre Popier Université du Maine, Le Mans A. Popier (Le Mans) Méthode de Monte Carlo. 1 / 95 PLAN DU COURS 1 MÉTHODE DE MONTE CARLO 2 PROBLÈME DE SIMULATION Théorème fondamental

Plus en détail

Introduction à la statistique non paramétrique

Introduction à la statistique non paramétrique Introduction à la statistique non paramétrique Catherine MATIAS CNRS, Laboratoire Statistique & Génome, Évry http://stat.genopole.cnrs.fr/ cmatias Atelier SFDS 27/28 septembre 2012 Partie 2 : Tests non

Plus en détail

Programmation linéaire et Optimisation. Didier Smets

Programmation linéaire et Optimisation. Didier Smets Programmation linéaire et Optimisation Didier Smets Chapitre 1 Un problème d optimisation linéaire en dimension 2 On considère le cas d un fabricant d automobiles qui propose deux modèles à la vente, des

Plus en détail

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES

I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES I - PUISSANCE D UN POINT PAR RAPPORT A UN CERCLE CERCLES ORTHOGONAUX POLES ET POLAIRES Théorème - Définition Soit un cercle (O,R) et un point. Une droite passant par coupe le cercle en deux points A et

Plus en détail

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé Baccalauréat ES Pondichéry 7 avril 204 Corrigé EXERCICE 4 points Commun à tous les candidats. Proposition fausse. La tangente T, passant par les points A et B d abscisses distinctes, a pour coefficient

Plus en détail

http://cermics.enpc.fr/scilab

http://cermics.enpc.fr/scilab scilab à l École des Ponts ParisTech http://cermics.enpc.fr/scilab Introduction à Scilab Graphiques, fonctions Scilab, programmation, saisie de données Jean-Philippe Chancelier & Michel De Lara cermics,

Plus en détail

(51) Int Cl.: H04L 29/06 (2006.01) G06F 21/55 (2013.01)

(51) Int Cl.: H04L 29/06 (2006.01) G06F 21/55 (2013.01) (19) TEPZZ 8 8 4_A_T (11) EP 2 838 241 A1 (12) DEMANDE DE BREVET EUROPEEN (43) Date de publication: 18.02.1 Bulletin 1/08 (1) Int Cl.: H04L 29/06 (06.01) G06F 21/ (13.01) (21) Numéro de dépôt: 141781.4

Plus en détail

Travaux dirigés d introduction aux Probabilités

Travaux dirigés d introduction aux Probabilités Travaux dirigés d introduction aux Probabilités - Dénombrement - - Probabilités Élémentaires - - Variables Aléatoires Discrètes - - Variables Aléatoires Continues - 1 - Dénombrement - Exercice 1 Combien

Plus en détail

Probabilités III Introduction à l évaluation d options

Probabilités III Introduction à l évaluation d options Probabilités III Introduction à l évaluation d options Jacques Printems Promotion 2012 2013 1 Modèle à temps discret 2 Introduction aux modèles en temps continu Limite du modèle binomial lorsque N + Un

Plus en détail

Continuité et dérivabilité d une fonction

Continuité et dérivabilité d une fonction DERNIÈRE IMPRESSIN LE 7 novembre 014 à 10:3 Continuité et dérivabilité d une fonction Table des matières 1 Continuité d une fonction 1.1 Limite finie en un point.......................... 1. Continuité

Plus en détail

Correction du baccalauréat ES/L Métropole 20 juin 2014

Correction du baccalauréat ES/L Métropole 20 juin 2014 Correction du baccalauréat ES/L Métropole 0 juin 014 Exercice 1 1. c.. c. 3. c. 4. d. 5. a. P A (B)=1 P A (B)=1 0,3=0,7 D après la formule des probabilités totales : P(B)=P(A B)+P(A B)=0,6 0,3+(1 0,6)

Plus en détail