Chapitre 4 Estimatio par vraisemblace Le procédé de costructio des estimateurs par isertio a été itroduit das le chapitre 2. L objectif de ce chapitre est d étudier ue autre méthode de costructio, basée sur le pricipe ituitif suivat : le paramètre icou est proche d u paramètre pour lequel l observatio est la plus probable ou, e d autres termes, la plus vraisemblable. Das tout le chapitre, (H,{P } Θ ) est u modèle statistique domié par ue mesure σ-fiie µ, avec H R k et Θ R d. 4. Vraisemblace Lorsque H est discret, la probabilité que l échatillo (X,,X ) P soit égal à (x,,x ) H représete le degré de vraisemblace de cette observatio pour la loi P. E étedat ce poit de vue à tous les modèles, o obtiet le cocept de vraisemblace défii ci-dessous. Défiitio. La vraisemblace du modèle (H,{P } Θ ) est l applicatio L : H Θ R + telle que, pour chaque Θ, L (.;) : H R + est u élémet de la classe d équivalece de la desité de P par rapport à µ. Remarque. L existece de la vraisemblace est assurée par le théorème de Rado-Nikodỳm. Par abus, ous parlos de "la" vraisemblace bie qu elle e soit pas uique, car il e s agit que d ue versio de la desité de P par 37
38 CHAPITRE 4. ESTIMATION PAR VRAISEMBLANCE rapport à l ue des mesures domiates du modèle statistique. Das tout le chapitre, la vraisemblace du modèle (H,{P } Θ ) pour la mesure domiate µ est otée L. Exemples. Das le modèle statistique ({0,},{B() } ]0,[ ) du jeu de pile ou face, qui est domié par la mesure (δ 0 +δ ), la vraisemblace L vaut L (x,,x ;)= x ( ) ( x ), pour (x,,x ) {0,} et ]0,[. Das le modèle statistique (R,{N (m,σ 2 ) } m R,σ>0 ), qui est domié par la mesure de Lebesgue sur R, la vraisemblace L vaut L (x,,x ;m,σ 2 )= ( 2πσ 2 ) exp pour (x,,x ) R, m R et σ > 0. (x i m) 2 2σ 2, Propositio 4... Pour tous Θ, L (.;) > 0 P -p.s. Preuve. Puisque dp = L (.;)dµ, 0 P L (.;) 0 = {L (.;) 0} L (.;)dµ 0. L expressio de la vraisemblace est simple das le cas d u modèle à échatilloage idépedat, comme e témoige le résultat qui suit. Propositio 4..2. Soit L la vraisemblace du modèle (H,{Q } Θ ) domié par la mesure ν. Si, pour chaque Θ, P = Q, alors la foctio L : H Θ R (x,,x,) L(x i ;), est la vraisemblace du modèle (H,{P } Θ ) pour la mesure domiate µ = ν.
4.2. MAXIMUM DE VRAISEMBLANCE 39 Preuve. Il suffit de remarquer que, pour chaque Θ, l applicatio (x,,x ) L(x i ;), défiie sur H est ue versio de la desité de Q 4.2 Maximum de vraisemblace par rapport à µ = ν. Das l exemple du jeu de pile ou face de la sectio. décrit par le modèle statistique ({0,},{B() } ]0,[ ), les lacers de pièce ot fouri ue observatio (x,,x ) {0,}, réalisatio de la loi B( 0 ). Ituitivemet, il est aturel de cosidérer que la probabilité sous B() de l observatio est élevée lorsque est proche de 0. Cette idée est formalisée de la maière suivate : si L est la vraisemblace du modèle, ue valeur du paramètre qui s ajuste à l observatio est das l esemble des maxima de la foctio [0, ] R L (x,,x ;), car L (x,,x ;) représete la probabilité qu u échatillo de loi B() soit égal à (x,,x ). Ce pricipe de costructio des estimateurs s exporte au cas des modèles cotius, par exemple (R,{N (,) } R ). Pour l observatio (x,,x ) géérée selo la loi N (0,), la courbe de la foctio (2π) /2 exp 2 (x i ) 2, est alors maximale e u poit proche de 0, comme le motre le graphique ci-dessus. Ce pricipe ituitif ous amèe à choisir comme estimateur du paramètre du modèle u paramètre qui maximise la vraisemblace. C est le cocept d estimateur du maximum de vraisemblace.
40 CHAPITRE 4. ESTIMATION PAR VRAISEMBLANCE Défiitio. U estimateur du maximum de vraisemblace (EMV) est u estimateur ˆ qui vérifie : L.; ˆ(.) = sup L (.;) µ-p.p. Θ Noter que i l existece, i l uicité des EMV e sot e gééral acquises. Remarques. L EMV oté ˆ est doc u estimateur du paramètre du modèle. Si le paramètre d itérêt est g(), avec g ue foctio boréliee coue défiie sur Θ, o dira par abus que g( ˆ) est l EMV de g(). Das le cas d u modèle statistique à échatilloage idépedat, i.e. P = Q Θ, chaque Q état ue probabilité sur (H,B(H )), o préfère calculer l EMV e maximisat la log-vraisemblace, c est-àdire le logarithme de la vraisemblace, plutôt que la vraisemblace. E effet, d après la propositio 4..2, si L désige la vraisemblace du modèle (H,{Q } Θ ), la log-vraisemblace du modèle (H,{Q } Θ ) s écrit : ll (x,,x ;)= ll(x i ;), pour (x,,x ) H et Θ. L itérêt pratique est clair, l étape de maximisatio état e pricipe plus facile à meer. Exemple. Das l étude statistique du jeu de pile ou face de la sectio., la vraisemblace du modèle ({0,},{B() } ]0,[ ) est otée L, et sa logvraisemblace s écrit ll (x,,x ;)= x l + ( x )l( ), pour (x,,x ) {0,} et ]0,[. Lorsque x est différet de 0 et de, ue étude de foctio motre que x réalise le maximum de la foctio ll (x,,x ;), défiie sur ]0,[. Efi, pour x {0,} : L (x,,x ; x )= sup L (x,,x ;). ]0,[ Si (X,,X ) B(), l EMV est doc la moyee empirique X.
4.3. INFORMATION DE KULLBACK-LEIBLER 4 4.3 Iformatio de Kullback-Leibler U outil fodametal das l étude des EMV est l iformatio de Kullback- Leibler : Défiitio. Supposos que ll (.;α) L (P ) pour chaque α, Θ. L iformatio de Kullback-Leibler etre les lois P α et P est défiie par : κ (α,)= E l L (.;α) L (.;). Das la suite, l iformatio de Kullback-Leibler est évoquée que lorsque les coditios de cette défiitio sot implicitemet satisfaites. L iformatio de Kullback-Leibler est ue mesure de la dissimilarité etre deux probabilités -P α et P das la défiitio-, qui trouve so origie otammet das la théorie de l iformatio. Exemple. Calculos l iformatio de Kullback-Leibler κ das le modèle statistique ({0,},{B() } ]0,[ ) du jeu de pile ou face de la sectio.. La vraisemblace de ce modèle a été calculée das la sectio 4.. Pour α, ]0,[ et (X,,X ) P = B() : κ (α,) = E X l α + ( X )l α = l + ( )l α α, car E X =. Propositio 4.3.. Supposos que le modèle statistique (H,{P } Θ ) est idetifiable, d iformatio de Kullback-Leibler κ. Alors, pour chaque α, Θ, κ (α,) 0 et de plus κ (α,)=0 α =. La valeur iformative de l iformatio de Kullback-Leibler apparaît das cette propositio, e permettat d idetifier le paramètre icou e tat
42 CHAPITRE 4. ESTIMATION PAR VRAISEMBLANCE que seule solutio de l équatio κ (.,)=0. Preuve. Il est clair que κ (,) =0. Soiet doc α =. La foctio t lt défiie sur R + état covexe, l iégalité de Jese doe κ (α,) = l L (.;α) H L (.;) dp L (.;α) l H L (.;) dp = l L (.;α)dµ, H car dp = L (.;)dµ. Or, H L (.;α)dµ = P α (H )= d où κ (α,) 0. Supposos maiteat que κ (α,)=0. L iégalité l L (.;α) H L (.;) dp L (.;α) l H L (.;) dp, obteue plus haut est alors u cas d égalité das l iégalité de Jese. Comme t lt défiie sur R + est strictemet covexe, il existe C R + tel que L (.;α)=cl (.;) P -p.s. Par suite, pour tout borélie A H : P α (A)= A L (.;α)dµ = A L (.;α) L (.;) dp = CP (A). O e déduit que C = (predre A = H ) et doc que P = P α, ce qui cotredit l idetifiabilité du modèle. E coclusio, κ (α,) =0 seulemet si α =. 4.4 Cosistace Seul le cas d u échatilloage idépedat est abordé das cette sectio, i.e. P = Q Θ, chaque Q état ue probabilité sur (H,B(H )). Das la suite, L désige la vraisemblace du modèle (H,{Q } Θ ) domié par la mesure ν. La vraisemblace L du modèle (H,{P } Θ ) domié par µ = ν s écrit doc, d après la propositio 4..2 : L (x,,x ;)= L(x i ;),
4.4. CONSISTANCE 43 pour (x,,x ) H et Θ. Théorème 4.4.. Supposos que le modèle statistique (H,{Q } Θ ) est idetifiable avec Θ boré, et que pour chaque x H, la foctio ll(x;.) est prologeable à l adhérece Θ de Θ. Si l EMV du modèle (H,{P } Θ ) existe, il est cosistat sous les coditios supplémetaires suivates : (i) x H, ll(x;.) est cotiue sur Θ ; (ii) Θ, il existe u voisiage V de et H L (Q ) tels que sup ll(.;α) H. α V Remarque. Lorsque le paramètre d itérêt du modèle (H,{P } Θ ) est g() avec g : Θ R p ue foctio cotiue coue, l EMV g( ˆ) de g() est cosistat sous les coditios du théorème 4.4.. Das la costructio de la démarche statistique, l itérêt de ce théorème est de motrer que l idée de maximisatio de la vraisemblace est pertiete. Cepedat, ses hypothèses sot très techiques et o optimales. E pratique, pour motrer que l EMV est cosistat, il e faut doc pas exclure ue preuve adaptée au modèle statistique et utilisat pas ce théorème ; c est le cas das l exemple ci-dessous. Exemple. Cosidéros le modèle statistique (R +,{E() } >0 ). Pour > 0 et (X,,X ) E(), la vraisemblace L du modèle pour la mesure de Lebesgue vaut L (X,,X ;)= exp X ). U calcul stadard d optimisatio motre que l EMV est ˆ = / X. Comme la moyee d ue loi E() est /, cet estimateur est cosistat d après la loi des grads ombres. Preuve du théorème 4.4.. Supposos pour simplifier que Θ est compact et otos ˆ l EMV du modèle (H,{P } Θ ). Si (X,,X ) P avec Θ fixé, o défiit pour chaque α Θ : U (α) = ll (X,,X ;α)= U(α) = E ll(.;α). ll(x i ;α)
44 CHAPITRE 4. ESTIMATION PAR VRAISEMBLANCE Alors, U ( ˆ)=if Θ U et U coverge poctuellemet vers U e probabilité d après la loi des grads ombres. Admettos das u premier temps que cette covergece est e fait uiforme, i.e. P sup U U 0. Θ Puisque if Θ U if Θ U sup Θ U U : U ( ˆ)=if U P if U. Θ Θ Sous les hypothèses (i) et (ii), le théorème de covergece domié motre que U est cotiue. Comme Θ est compact, il existe t Θ tel que U(t)=if Θ U. Or, t =. E effet, U ( ˆ) U () P U(t) U()=κ(t,), κ désigat l iformatio de Kullback-Leibler du modèle (H,{Q } Θ ). De plus, U ( ˆ) U ()=if Θ U U () 0. Par suite, κ(t,) 0 d où t = d après la propositio 4.3.. O déduit alors de la covergece uiforme de U vers U e probabilité que κ( ˆ,)=U( ˆ) U() P 0. Fixos ε > 0. La foctio cotiue α κ(α,) e s aulle qu e, doc il existe γ > 0 tel que si α Θ vérifie α ε, alors κ(α,) γ. Il s esuit que lim sup i.e. ˆ ted vers e probabilité. P ˆ ε limsupp κ( ˆ,) γ = 0, Il reste à motrer que U coverge uiformémet vers U e probabilité. Pour tout η > 0 suffisammet petit, soit h(.,η) la foctio défiie pour chaque x H par h(x, η)= sup α β η ll(x;α) ll(x;β).
4.4. CONSISTANCE 45 Fixos ε > 0. Comme h(.,η) 2H avec H L (Q ) par (ii) et h(x,η) 0 si η 0 pour tout x H par (i), o a E h(.,η) < ε/3 d après le théorème de covergece domiée, pour ue valeur de η que ous fixos doréavat. Recouvros le compact Θ par N boules fermées de Θ de rayo η, otées B( j,η) pour j =,,N, i.e. Θ = N j= B( j,η). O remarque que sup U U = max Θ sup j=,,n B( j,η) max sup j=,,n B( j,η) + max sup j=,,n B( j,η) h(x i,η)+ D où, puisque E h(.,η) < ε/3: U U U U ( j ) + max j=,,n U ( j ) U( j ) U( j ) U max U ( j ) U( j ) + E h(.,η). j=,,n P sup U U ε Θ P h(x i,η)+ max U ( j ) U( j ) 2ε j=,,n 3 P i,η) h(x ε + P 3 Or, d après la loi des grads ombres, o a à la fois : max U ( j ) U( j ) j=,,n P 0 et Comme E h(.,η) < ε/3, ceci etraîe que max j=,,n U ( j ) U( j ) ε 3 lim P sup U U ε = 0, Θ i.e. U coverge uiformémet vers U e probabilité. h(x i,η) P E h(.,η)..
46 CHAPITRE 4. ESTIMATION PAR VRAISEMBLANCE 4.5 Iformatio de Fisher Das la suite, F() désige le gradiet de F : Θ R évalué e Θ. Par covetio, le gradiet d ue foctio est calculé e que si la foctio est de classe C sur u voisiage de. Par ailleurs, V (resp. cov ) désige la matrice de variace (resp. la covariace) sous la loi P. Pour motiver le cocept d iformatio de Fisher, supposos pour simplifier que Θ est u ouvert de R et cosidéros la foctio K : α κ (α,) défiie sur Θ, avec Θ fixé. Nous allos comparer la dérivée secode de K e à V ll (.;) L (.;) 2 = E L (.;) E L (.;) L (.;) Sous les coditios idoies, o trouve : L (.;) E L (.;) = L (.;)dµ = L (.;)dµ, H H car dp = L (.;)dµ. Comme H L (.;)dµ = P (H )=, o obtiet d où, au passage, K ()=0, et aussi E L (.;) L (.;) = 0, V ll (.;) = E L (.;) L (.;) Le même type de calcul mèe à la relatio : K ()=E L (.;) L (.;) La courbure e de la foctio α K(α) =κ (α,) est doc, sous les coditios idoies : K ()=V ll (.;). Puisque K ()=0 et κ (,)=0, la formule de Taylor-Youg motre fialemet que 2. 2. κ (α,)= 2 V ll (.;) α ) 2 + o (α ) 2. 2.
4.5. INFORMATION DE FISHER 47 L itérêt de la foctio V ( ll (.;)) défiie sur Θ apparaît ici : elle complète l iformatio de Kullback-Leibler e précisat sa courbure au voisiage du paramètre du modèle. Cette observatio est à l origie de la défiitio ci-dessous. Défiitio. Supposos que Θ est ouvert et que ll (.;) L 2 (P ) pour chaque Θ. L iformatio de Fisher est la foctio I défiie sur Θ, telle que pour chaque Θ : I () = V ll (.;) = cov ll (.;), ll (.;). i j i, j=,,d Das la suite, l iformatio de Fisher est évoquée que lorsque les coditios ci-dessus sot implicitemet satisfaites. L iformatio de Fisher est ue foctio à valeurs das l esemble des matrices positives. E tat que mesure de la courbure de l iformatio de Kullback-Leibler, elle précise le pouvoir de discrimiatio du modèle etre deux valeurs proches du paramètre du modèle : si d =, ue grade valeur pour I () traduit ue variatio importate de la ature des probabilités du modèle au voisiage de P, d où ue discrimiatio de la vraie valeur du paramètre icou facilitée. A l iverse, si I () est petit, la loi est très piquée et o est ameé à rechercher le maximum de la vraisemblace das ue régio très vaste. Exemple. Afi d illustrer ces commetaires, repreos le modèle statistique ({0,},{B() } ]0,[ ) du jeu de pile ou face de la sectio., pour lequel la vraisemblace L vaut, si ]0,[ et (x,,x ) {0,} : L (x,,x ;)= x ( ) ( x ). O a calculé das la sectio 2.3 la variace de ll (.;), doc l iformatio I du modèle : I ()=V ll (.;) = ( ).
48 CHAPITRE 4. ESTIMATION PAR VRAISEMBLANCE Das ce modèle, l icertitude est faible pour proche de 0 et alors qu elle est d autat plus grade que est proche de /2, ce qui se traduit par ue iformatio I () maximale pour proche de 0 et, et miimale pour = /2. Das ue situatio d échatilloage idépedat, l iformatio de Fisher est proportioelle à la taille de l échatillo. Propositio 4.5.. Soit I l iformatio de Fisher du modèle (H,{Q } Θ ) domié par la mesure ν. Si, pour chaque Θ, P = Q, l iformatio de Fisher I du modèle (H,{P } Θ ) pour la mesure domiate µ = ν vaut I ()=I() Θ. Preuve. Soiet Θ et (X,,X ) P. Si L désige la vraisemblace du modèle (H,{Q } Θ ), la vraisemblace L du modèle (H,{P } Θ ) est, d après la propositio 4..2 : Par suite, O e déduit la relatio L (X,,X ;)= ll (X,,X ;)= I () = V ll (.;) = = V ll(x ;), L(X i ;). ll(x i ;). V ll(xi ;) car les variables aléatoires X,,X sot idépedates et de même loi. Comme I()=V ( ll(x ;)), la propositio est démotrée. Du poit de vue des calculs, o se réfèrera souvet à la propositio qui suit, dot l objectif pricipal est de doer ue forme simplifiée pour l iformatio de Fisher. Das la suite, 2 F() désige la matrice Hessiee de F : Θ R évaluée e Θ. Par covetio, l utilisatio de la otatio 2 F() sigifie implicitemet que F est de classe C 2 sur u voisiage de.
4.5. INFORMATION DE FISHER 49 Propositio 4.5.2. Soit I l iformatio de Fisher du modèle (H,{P } Θ ). Supposos que pour chaque Θ, il existe u voisiage V Θ de tel que sup α V L (.;α) L (µ). Alors : (i) E ll (.;)=0. (ii) si, e outre, sup α V 2 L (.;α) L (µ), I ()= E 2 ll (.;). Les coditios de cette propositio e sot pas aussi restrictives qu elle peuvet le sembler, car elle sot satisfaites par bo ombre de modèles statistiques. Preuve. Sous la coditio sup α V L (.;α) L (µ), o a d après le théorème de dérivatio sous l itégrale : L (.;)dµ = L (.;)dµ, H H d où, puisque dp = L (.;)dµ et P (H )=: H L (.;)dµ = P H = 0. Or, comme dp = L (.;)dµ et ll (.;)= L (.;)/L (.;), E ll (.;) = = ll (.;)L (.;)dµ H L (.;)dµ, H d où (i). Motros maiteat (ii). Si F : Θ R est de classe C 2, otos pour tout i, j =,,d et Θ : i F()= F () et 2 ijf()= 2 F (). i i j Le théorème de dérivatio sous l itégrale motre que H 2 ijl (.;)dµ = 2 ij H L (.;)dµ
50 CHAPITRE 4. ESTIMATION PAR VRAISEMBLANCE sous l hypothèse sup α V 2 L (.;α) L (µ), et doc H 2 ijl (.;)dµ = ij P (H )=0. Par ailleurs, o vérifie que pour tout x H : De ce fait, 2 ijll (x;)= 2 ij L (x;) L (x;) il (x;) j L (x;) L(x;) 2. E 2 ijll (.;) = 2 ijll (.;)L (.;)dµ H i L (.;) j L (.;) = dµ H L (.;) = E i ll (.;) j ll (.;), car ll (.;) = L (.;)/L (.;). Or, par défiitio de l iformatio de Fisher : I () ij = cov i ll (.;), j ll (.;) puisque E ll (.;)=0, d où (ii). = E i ll (.;) j ll (.;), Cette propositio légitime la défiitio qui suit, e doat des coditios suffisates au cocept de régularité d u modèle statistique. Défiitio. Le modèle statistique (H,{P } Θ ) est dit régulier si les propriétés suivates sot vérifiées e chaque Θ : (i) so iformatio de Fisher I e existe et est iversible ; (ii) E ll (.;)=0 et I ()= E 2 ll (.;). Exemple. Le modèle statistique ({0,},{B() } ]0,[ ) du jeu de pile ou face de la sectio. costitue u exemple de modèle régulier : d ue part, o a déja costaté das la sectio 4.5 que so iformatio de Fisher est iversible pour chaque ]0, [ ; d autre part, sa vraisemblace (calculée das la sectio 4.), qui vérifie les hypothèses de la propositio 4.5.2, répod doc au secod jeu de coditios imposé das la défiitio ci-dessus.
4.6. NORMALITÉ ASYMPTOTIQUE 5 4.6 Normalité asymptotique Seul le cas d u échatilloage idépedat est abordé das cette sectio, i.e. P = Q Θ, chaque Q état ue probabilité sur (H,B(H )). Das la suite, L et I désiget la vraisemblace et l iformatio de Fisher du modèle statistique (H,{Q } Θ ) pour la mesure domiate ν. La vraisemblace L et l iformatio de Fisher I du modèle (H,{P } Θ ) domié par µ = ν s écrivet doc, d après les propositios 4..2 et 4.5. : L (x,,x ;)= pour tous Θ et (x,,x ) H. L(x i ;) et I ()=I(), Théorème 4.6.. Supposos que (H,{Q } Θ ) est u modèle régulier et que, pour chaque Θ, il existe u voisiage V Θ de pour lequel sup α V 2 ll(.;α) L (P ). Si l EMV ˆ du modèle (H,{P } Θ ) est cosistat, alors : ˆ L/P N d 0,I() Θ. Remarque. Lorsque le paramètre d itérêt est g() avec g : Θ R k ue foctio coue de classe C, l EMV g( ˆ) de g() est, sous les coditios de ce théorème, asymptotiquemet ormal et de vitesse, d après la δ- méthode (Théorème 2.5.). L itérêt de ce théorème est qu il dégage u comportemet d ivariace de l EMV e motrat que, sous des coditios idoies, sa loi limite est ormale. Cepedat, les hypothèses de ce théorème e sot pas optimales ; de ce fait, pour obteir la loi limite de l EMV das u modèle doé, il e faut pas exclure ue preuve directe utilisat pas ce résultat. Cette observatio est reforcée par le fait que la ormalité asymptotique de l EMV cocere spécialemet les modèles statistiques suffisammet réguliers, comme l atteste l exemple qui suit. Exemple. Cosidéros le modèle statistique (R +,{U([0,]) } >0 ). Pour > 0 et (X,,X ) P = U([0,]), sa vraisemblace L relativemet à
52 CHAPITRE 4. ESTIMATION PAR VRAISEMBLANCE la mesure de Lebesgue s écrit pour tout > 0: si 0 X L (X,,X ;)=,,X ; 0 sio. L EMV est doc ˆ = max i X i. Pour chaque t ]0,[ : P ( ˆ) t = P max X i < t,, = t. La limite de cette expressio est exp( t/) dès que t > 0, doc ˆ L/P E (/). Aisi, das cet exemple de modèle o régulier, i la vitesse de l EMV, i la loi limite, e correspodet à celles du théorème précédet. Preuve du théorème 4.6.. Soiet Θ, (X,,X ) P et U (α)=ll (X,,X ;α)= ll(x i ;α) α Θ. D après le théorème de dérivatio sous l itégrale, U est de classe C 2 P -p.s. Comme U ( ˆ) =0 car ˆ maximise U, u développemet de Taylor avec reste itégral ous doe E coséquece, 0 = U ()+ 2 U +t( ˆ ) dt ( ˆ ). 0 Ū ( ˆ )= U (), si Ū = 2 U +t( ˆ ) dt. Or, d ue part V ll(.;) = I(), et d autre part E ll(.;)=0 par régularité du modèle. Doc, d après le théorème cetral limite : U ()= ll(x i ;) U/P N d 0,I(). 0
4.6. NORMALITÉ ASYMPTOTIQUE 53 P Admettat das u premier temps que Ū I(), le lemme de Slutsky doe le résultat aocé, i.e. ( ˆ ) U/P I() N d 0,I() = Nd 0,I(). Il reste à motrer que Ū coverge e probabilité vers I(). Soit, pour chaque x H et r > 0: σ(x,r)= sup 2 ll(x;α) 2 ll(x;). α r Par hypothèse, ll(x;.) C 2 pour chaque x H et σ(.,r) L (P ) pour r > 0 suffisammet petit. D après le théorème de covergece domiée, état doé ε > 0, il existe doc r > 0 tel que E σ(.,r) < ε/2. E remarquat que il viet : Ū = P Ū + I() ε P +P 0 0 2 ll X i ; +t( ˆ ) dt, 2 ll X i ; +t( ˆ ) 2 ll(x i ;) dt ε 2 2 ll(x i ;)+I() ε 2 + P ˆ r P i,r) σ(x ε 2 +P 2 ll(x i ;)+I() ε 2 La derière iégalité a été obteue e itroduisat l évéemet { ˆ < r}. Comme E σ(.,r) < ε/2, E 2 ll(.;) = I() par régularité du modèle et ˆ est cosistat, o déduit de la loi des grads ombres que Ū ce qui achève la preuve du théorème. P I(),.
54 CHAPITRE 4. ESTIMATION PAR VRAISEMBLANCE