Statistiques - Notes de cours - M1. Elisabeth Gassiat

Save this PDF as:
 WORD  PNG  TXT  JPG

Dimension: px
Commencer à balayer dès la page:

Download "Statistiques - Notes de cours - M1. Elisabeth Gassiat"

Transcription

1 Statistiques - Notes de cours - M1 Elisabeth Gassiat

2

3 Table des matières 1 Introduction Estimation et régions de confiance Tests Construction d estimateurs Généralités Méthode des moments. Estimation empirique Maximum de vraisemblance Fonction de répartition et théorème de Glivenko-Cantelli 21 4 Construction de tests Test du rapport de vraisemblance Généralités Optimalité dans le cas de deux hypothèses simples Test de Kolmogorov-Smirnov Test du chi-deux d ajustement Lien entre tests et régions de confiance Vecteurs gaussiens 31 6 Modèle linéaire gaussien Définition et exemples Estimation des paramètres Estimation de m et σ Estimation de β et σ Tests d hypothèses linéaires Régions de confiance Région de confiance pour m Région de confiance pour β Région de confiance pour σ Eléments de théorie de la décision introduction Affinité de test et minoration du risque maximum Distance et affinité de Hellinger Vitesse de séparation pour le test de deux hypothèses simples

4 7.5 Divergence de Kullback Estimation bayésienne Estimateurs admissibles et estimateurs bayésiens Notion de loi conditionnelle Calcul d estimateurs bayésiens Tests du rapport de vraisemblance et théorie de Neyman-Pearson Extension de la notion de test Cas de deux hypothèses simples Tests d hypothèses multiples Etude des estimateurs sans biais Exhaustivité et estimateurs UVMB Exemple du modèle de Bernoulli Exhaustivité Estimateurs UVMB Modèle exponentiel Efficacité Score et information de Fisher Inégalité de Cramer-Rao Cas des modèles produit Modèles exponentiels Limites des estimateurs sans biais et de l efficacité Eléments de statistique asymptotique Etude asymptotique de l estimateur du maximum de vraisemblance Amélioration d un estimateur n-consistant Consistance de l estimateur du maximum de vraisemblance Asymptotique du test du rapport de vraisemblance Généralisations multidimensionnelles Constructions de régions de confiance asymptotiques Retour sur le test du chi-deux d ajustement

5 1 Introduction En probabilité, on étudie les propriétés de variables aléatoires connaissant leur loi. En statistique, on cherche à trouver de l information sur la loi connaissant les variables aléatoires. Voici une idée de la démarche sur un exemple simple, celui du sondage. On souhaite avoir une idée de la proportion p de personnes qui préfèrent l option A à l option B dans une population de N individus deux options possibles). Pour cela, on interroge n personnes. On se dit que considérer, parmi ces n personnes, la proportion p de personnes qui préfèrent l option A à l option B donne une idée de p. Bon, mais si on refait un sondage, on ne va pas retrouver la même valeur pour p : c est une variable aléatoire, l aléa vient du choix des n parmi les N. Ah oui, mais si on choisit ces n au hasard, on se dit qu on va trouver une valeur proche. Mais alors : tout le temps? Non ce n est pas possible, même au hasard, on peut tomber sur un mauvais échantillon. Et une valeur proche comment? Cela dépend de si on veut que ce résultat arrive souvent. Essayons de formaliser tout cela. On va noter X i = 1 si la i-ème personne interrogée répond A et X i = 0 si la i-ème personne interrogée répond B. On note alors Z n le nombre de personnes qui ont répondu A parmi les n, soit Z n = n X i. La proportion observée est donc p = 1 n Z n. Dire que l on choisit n personnes au hasard parmi N, c est dire que le tirage de l ensemble de ces n personnes suit la loi uniforme sur tous les sous-ensembles à n éléments parmi les N possibles, et Z n suit alors la loi hypergéométrique de paramètre n, p, N). On sait que si N est très grand par rapport à n, cette loi est approximativement la loi binomiale Bn; p), qui est celle que l on obtient avec un tirage avec remise les X i sont alors des variables aléatoires indépendantes de même loi de Bernoulli de paramètre p). Du coup, le fait que p soit proche de p, et avec quelle probabilité, va pouvoir être quantifié. Dans cette démarche, il y a une part de modélisation qui consiste à dire quelque chose sur la loi possible de la variable aléatoire considérée. Ici, la modélisation porte sur la loi de Z n par l intermédiaire de au hasard et l approximation N >> n. On a X variable aléatoire de loi P inconnue, et la modélisation fixe P, ensemble de lois possibles pour P, autrement dit, on a une information a priori qui est : P P. 1.1 Estimation et régions de confiance Reprenons la situation où l on dispose de X 1,..., X n indépendantes de loi de Bernoulli Bθ), et que l on cherche à estimer θ par 1 n n X i. On dit que X 1,..., X n est 5

6 1 Introduction l observation et que 1 n n X i est un estimateur de θ. Ce vocabulaire dit seulement que c est une quantité qui ne dépend que de l observation. C est une variable aléatoire. Comment savoir si cette variable aléatoire est proche de θ? Rappels : LFGN On suppose que X k ) k 1 est une suite de variables aléatoires réelles indépendantes et de même loi P, telle que E X 1 ) est finie. Alors la suite de variables aléatoires 1 n n X i) n 1 converge presque sûrement vers EX 1 ). LGN On suppose que X k ) k 1 est une suite de variables aléatoires réelles indépendantes et de même loi, telle que E X 1 ) est finie. Alors la suite de variables aléatoires 1 n n X i) n 1 converge en probabilité vers EX 1 ). Reprendre les définitions de convergence p.s. et en probabilité qui permettent de voir que, en ce qui concerne la question de quantifier les probabilités des écarts, la LFGN est seulement qualitative, et que ce qui nous intéresse est la LGN. Souvent on note X n = 1 n n X i la moyenne empirique. Dans notre exemple, on a EX 1 ) = θ, donc X n semble être un bon estimateur de θ. Pour évaluer ses performances, il faut noter qu il y a deux types d erreurs, si on utilise X n : X n θ l écart entre l estimateur X n et la valeur cible θ), et, si l on veut préciser cette erreur pour avoir X n θ ɛ la probabilité que cette affirmation soit fausse. On voit que ces deux erreurs varient de manière inverse : si l on augmente la précision si l on diminue ɛ), on diminue la probabilité que l affirmation soit vraie. On va donc construire des fourchettes que l on associe à des niveaux de confiance, c est ce que l on appelle un intervalle de confiance : on va chercher à évaluer P X n θ ɛ), et si c est inférieur ou égal à α, on dira que [X n ɛ, X n + ɛ] est un intervalle de confiance pour θ de niveau de confiance 1 α. Il y a plusieurs choses à remarquer. D abord, la loi P des X i est inconnue. Elle dépend de θ, on va donc la noter P θ. Ensuite, l intervalle de confiance est un intervalle aléatoire. Si on renouvelle l expérience, il change. Et ce que l on veut contrôler, on souhaite que cela soit valide bien que l on ne connaisse pas la loi, puisque justement c est l objectif, donc que ce soit vrai quel que soit θ. Définition Soit α [0, 1]. On dit que I est un intervalle de confiance pour θ Θ de niveau de confiance 1 α si et seulement si I est un intervalle aléatoire, dont les bornes sont des variables aléatoires fonction de l observation θ Θ, P θ θ I) 1 α. Dans l exemple, Θ = [0, 1]. Noter que dans l événement θ I c est I qui est aléatoire, pas θ qui est une quantité fixe mais inconnue). Reprendre l exemple pour lire la définition. 6

7 1.1 Estimation et régions de confiance On veut donc évaluer P θ X n θ ɛ). Outils? Rappels : Inégalité de Markov Si Z est une variable aléatoire réelle positive ou nulle, alors t > 0, P Z t) EZ). t Ceci n a un intérêt que si EZ) est finie). Inégalité de BT Si Z est une variable aléatoire réelle admettant une espérance et une variance, alors t > 0, P Z EZ) t) V arz) t 2. Se rappeler les preuves. Sur l exemple : V arx n ) = θ1 θ) n bien détailler pourquoi), et donc θ [0, 1], P θ X n θ ɛ) θ1 θ). Par ailleurs, par l étude de la fonction θ θ1 θ), on nɛ 2 voit que θ [0, 1], θ1 θ) 1/4. On a donc ceci se réécrit en détailler les étapes) θ [0, 1], P θ Xn θ ɛ ) 1 4nɛ 2. θ [0, 1], P θ Xn ɛ < θ < X n + ɛ ) 1 1 4nɛ 2, ce qui montre que l intervalle I =]X n ɛ; X n + ɛ[ est un intervalle de confiance pour θ Θ de niveau de confiance 1 1. Si l on fixe α et que l on veut un intervalle de 4nɛ 2 niveau de confiance 1 α, il faut choisir ɛ = 1/2 nα. En ce qui concerne n, on voit que la probabilité d erreur décroit en 1/n. Dans ce cas, on peut utiliser une inégalité plus performante, qui donne une décroissance exponentielle en n. Proposition Inégalité de Cramer-Chernoff.). Soient X 1,..., X n des variables aléatoires réelles indépendantes et de même loi P telle que pour tout λ > 0, ψλ) soit fini en posant ) ψλ) = log E e λx 1 EX 1 )). Alors ɛ > 0, λ > 0, P X n EX 1 ) ɛ ) e nλɛ ψλ)). Preuve : On a pour tout λ > 0 1 Xn EX 1 ) ɛ = 1 λxn EX 1 )) λɛ exp [ λx n EX 1 )) λɛ ] 7

8 1 Introduction donc en prenant l espérance P X n EX 1 ) ɛ ) E { exp [ λx n EX 1 )) λɛ ]} n = e λɛ E[e λ n X i EX 1 )) ] car les X i sont indépendants. Puis comme ils ont même loi, pour tout i = 1,..., n, log E[e λ n X i EX 1 )) ] = ψ λ n ), donc pour tout λ > 0 P X n EX 1 ) ɛ ) e λɛ+nψ λ n ) et l on obtient la proposition en posant λ = λ/n. Lemme Lemme de Hoeffding.). Soit Y une variable aléatoire réelle de loi P telle que, pour des réels a et b, a Y b, et telle que EY ) = 0. Alors Preuve : On a λ R, log E [e ] λy λ2 b a) 2. 8 b a 2 Y a + b 2 donc Y a + b ) 2 2 b a 2 b a)2. 4 Du coup, si Q est une probabilité sur [a, b], on a dire pourquoi!) V ar Q Y ) b a)2. 4 Prenons maintenant pour tout réel λ, dq λ y) = e λy φλ) dp y), en posant φλ) = log E P e λy dire pourquoi ça existe). Maintenant, on obtient facilement que φ est deux fois dérivable dire pourquoi et faire les calculs!) et que pour tout λ, φ λ) = V ar Qλ Y ). Donc En intégrant entre 0 et λ, λ R, φ λ) b a)2. 4 λ R, φ λ) φ 0) λb a)2, 4 8

9 1.1 Estimation et régions de confiance mais φ 0) = E P Y ), donc en intégrant de nouveau entre 0 et λ, et enfin φ0) = 1. λ R, φλ) φ0) λ2 b a) 2, 8 Conséquence pour notre exemple : Proposition Soient X 1,..., X n des variables aléatoires réelles indépendantes et de même loi P θ = Bθ). Alors ɛ > 0, θ [0, 1], P θ Xn θ ɛ ) 2e 2nɛ2. Preuve : On fixe ɛ > 0 et θ [0, 1]. En appliquant le lemme de Hoeffding à chaque X i avec a = θ et b = 1 θ, donc b a = 1) puis l inégalité de Cramer-Chernoff, on obtient pour tout λ > 0 P θ Xn θ ɛ ) λ2 nλɛ e 8 ). Donc P θ Xn θ ɛ ) e n sup λ2 λ>0 λɛ 8 ). Mais sup λ>0 λɛ λ2 8 ) = 2ɛ2, donc P θ Xn θ ɛ ) e 2nɛ2. Par ailleurs, les θ X i, i = 1,..., n sont aussi des variables aléatoires indépendantes centrées de même loi et telles que θ 1 θ X i θ donc le même raisonnement donne P θ θ Xn ɛ ) e 2nɛ2 et l on termine par P θ Xn θ ɛ ) = P θ Xn θ ɛ ) + P θ θ Xn ɛ ). On peut aussi penser, pour contrôler P θ Xn θ ɛ ) à des résultats asymptotiques. Rappel TLC : On suppose que X k ) k 1 est une suite de variables aléatoires réelles indépendantes et de même loi, admettant une espérance et une variance. Alors la suite )) n X n EX 1 ) V arx1 ) converge en loi vers U, variable aléatoire réelle de loi N 0, 1). Se rappeler la définition de convergence en loi et les différents critères équivalents de convergence en loi. n 1 9

10 1 Introduction Retour à l exemple : lorsque X k ) k 1 est une suite de variables aléatoires réelles indépendantes et de même loi P θ = Bθ), on a par le TLC ) n θ [0, 1], ɛ > 0, lim P X n θ + 1 θ ɛ = 2 e u2 2 du n + θ1 θ) ɛ 2π par parité de la densité de la loi N 0, 1), soit écrire les détails) θ [0, 1], ɛ > 0, lim n + P θ en notant F la fonction de répartition de la loi N 0, 1). Comme pour tout θ, θ1 θ) 1 2, θ [0, 1], ɛ > 0, P θ et on a θ [0, 1], ɛ > 0, lim inf n + P θ X n ɛ θ1 θ) n θ X n + ɛ θ1 θ) n ) = 2F ɛ) 1 ) X n ɛ θ1 θ) θ X n + ɛ θ1 θ) n n X n On obtient ainsi que [ X n ɛ 2 n ; X n + ɛ ] 2 n P θ X n ɛ 2 n θ X n + ɛ ) 2 n ɛ 2 n θ X n + ɛ ) 2 2F ɛ) 1. n est un intervalle de confiance pour θ Θ asymptotiquement de niveau de confiance 1 α, si l on a choisi ɛ de sorte que F ɛ) = 1 α/2. On note u 1 α/2 un tel ɛ. Par exemple, pour α = 0.05, on obtient u 1 α/2 1.96, donc pour avoir une préxcision de 0.01 largeur de l intervalle de confiance) il faut n Définition Soit α [0, 1]. Soit X k ) k 1 une suite de variables aléatoires réelles indépendantes et de même loi P θ. On dit que I n est un intervalle de confiance pour θ Θ asymptotiquement de niveau de confiance 1 α si et seulement si I n est un intervalle aléatoire, dont les bornes sont des variables aléatoires fonction de l observation X 1,..., X n θ Θ, lim inf n + P θ θ I n ) 1 α. 1.2 Tests Imaginons que le sondage soit fait dans un contexte de contrôle de qualité, et que θ soit la proportion de pièces défectueuses dans la production. 10

11 1.2 Tests La question à laquelle le statisticien s intéresse ici est de savoir si cette proportion est, par exemple, bien inférieure à 5%. Autrement dit, étant donné une valeur θ 0 fixée, il s agit de décider si θ θ 0 au vu du résultat du sondage. Une approche naïve pourrait être de décider que oui, en effet, θ θ 0 si l observation est telle que X n θ 0 et non, ce n est pas le cas, si l observation est telle que X n > θ 0. En réfléchissant un peu, on voit que ce n est pas la bonne méthode, car alors, si en fait θ = θ 0, et que l on devrait décider que oui, en effet, θ θ 0 et bien la probabilité de se tromper en décidant que ce n est pas le cas, est proche de 1/2 pour n grand. Par contre, il semble que décider que oui, en effet, θ θ 0 si l observation est telle que X n t et non, ce n est pas le cas, si l observation est telle que X n > t soit une bonne procédure. Toute la question est de choisir le seuil de décision t. Pour cela, on va quantifier les erreurs de décision. Il y a deux erreurs de décision possible : décider que θ θ 0 alors qu en fait θ > θ 0, et décider que θ > θ 0 alors qu en fait θ θ 0. Notons α = sup θ θ 0 P θ Xn > t ). α est appelée erreur de première espèce, elle quantifie la probabilité maximum de l erreur que l on fait en décidant que θ > θ 0 alors qu en fait θ θ 0. Si l on note maintenant β = sup θ>θ 0 P θ Xn t ), β est appelée erreur de deuxième espèce, elle quantifie la probabilité maximum de l erreur que l on fait en décidant que θ θ 0 alors qu en fait θ > θ 0. On souhaite choisir le seuil t de sorte que ces deux erreurs soient petites. Proposition Soient X 1,..., X n des variables aléatoires réelles indépendantes et de même loi P θ = Bθ). Alors, pour t fixé, la fonction θ P θ Xn > t ) est croissante, et pour toute valeur θ 0, pour tout t, sup θ θ0 P θ Xn > t ) + sup θ>θ0 P θ Xn t ) = 1. Preuve : Soient U 1,..., U n des variables aléatoires réelles indépendantes et de même loi uniforme sur [0, 1]. Pour tout θ [0, 1], 1 U1 θ est de loi Bθ), et donc P θ Xn > t ) ) 1 n = P 1 Ui θ > t. n Mais θ 1 Ui θ est une fonction croissante, donc θ P 1 n n 1 U i θ > t ) est aussi une fonction croissante. Donc son maximum pour θ [0, θ 0 ] est atteint en θ 0. De même, P θ Xn t ) = 1 P 1 n n 1 U i θ > t ) est une fonction décroissante de θ, c est une fonction continue de θ car polynomiale ; l écrire!) donc son maximum pour θ ]θ 0, 1] est en θ 0. On a donc sup θ θ0 P θ Xn > t ) + sup θ>θ0 P θ Xn t ) = P θ0 Xn > t ) + P θ0 Xn t ) = 1. Comment choisir t? Si l on cherche à rendre α petit, il faut choisir t assez grand, mais alors β = 1 α ne sera pas petit. Si l on choisit t = θ 0, alors pour n grand α et β sont proches de 1/2, ce qui n est pas 11

12 1 Introduction satisfaisant dans un contexte de contrôle de qualité. Ce que l on peut faire, c est choisir t de sorte que α soit petit, et que, lorsque θ 1 > θ 0, pour θ 1 pas trop proche de θ 0 on ait sup θ>θ1 P θ Xn t ) petit. Introduisons maintenant la notion de test statistique. Définition Soient Θ 0 et Θ 1 deux sous-ensembles disjoints de Θ. Un test statistique de l hypothèse H 0 : θ Θ 0 contre l alternative H 1 : θ Θ 1 est une variable aléatoire φ fonction mesurable de l observation et à valeur dans {0, 1}. On appelle région de rejet l ensemble des valeurs de l observation pour lesquelles φ = 1. La taille du test est sup θ Θ0 E θ φ. On appelle puissance du test la fonction θ E θ φ. On dit que le test est de niveau α si sa taille est majorée par α, ou autrement dit si la fonction puissance, pour θ Θ 0, est majorée par α. Un test est une procédure de décision : si φ = 1, on décide H 1, on dit aussi que l on rejette H 0. Si φ = 0, on décide H 0, on dit aussi que l on accepte H 0. Reprenons l exemple. Allure de la fonction puissance, qui croit de 0 à 1 sur [0, 1]. De même que pour les intervalles de confiance, on peut parler de test asymptotiquement de niveau α si φ n ) est une suite de tests de H 0 : θ Θ 0 contre H 1 : θ Θ 1 tel que θ Θ 0, lim sup E θ φ n α. n + En utilisant le théorème de limite centrale, on voit que si l on choisit comme seuil, dans l exemple, t n = θ 0 + u 1 α θ0 1 θ 0 ) n alors le test φ n = 1 Xn tn est asymptotiquement de niveau α pour tester H 0 : θ θ 0 contre H 1 : θ > θ 0. Aussi, en prenant θ 1 = θ u 1 α θ0 1 θ 0 ) n, on obtient θ θ 1, lim sup E θ φ n 1 α, n + soit ) θ θ 1, lim sup P θ Xn t n α. n + 12

13 2 Construction d estimateurs 2.1 Généralités On considère le modèle statistique avec l observation X, à valeurs dans X muni d une tribu A, et une famille de probabilités P θ ) θ Θ sur X, A). Si Θ R k pour un entier k, on dit que le modèle est paramétrique. Si Θ est une partie d un espace de dimension infinie par exemple : l ensemble des probabilités ayant une densité sur R), on dit que le modèle est non paramétrique. Soit g une fonction de Θ dans un ensemble Y muni d une tribu B. Un estimateur de gθ) est une variable aléatoire T X), où T est une fonction mesurable de X dans Y. On appelle biais la quantité gθ) E θ [T X)]. Rappel : on note E θ l espérance prise sour la probabilité P θ, c est à dire pour X de loi P θ ). Noter que le biais est une fonction de θ. On dit que T X) est un estimateur sans biais de gθ) si et seulement si θ Θ, E θ [T X)] = gθ). Pour évaluer la qualité d un estimateur, on introduit une fonction de perte : L : Y Y R + vérifiant : y Y, Ly, y) = 0, de sorte que Lgθ), T X)) évalue un écart entre l estimateur et la valeur cible. Parfois on suppose aussi que L est symétrique : y, y ) Y 2, Ly, y ) = Ly, y)). On appelle risque de l estimateur T X) la fonction θ E θ [Lgθ), T X))]. On cherche alors des estimateurs qui rendent ce risque petit. C est une fonction, donc il faut choisir le sens de petit, on y reviendra!). Exemples : Risque quadratique : lorsque Y = R, et Ly, y ) = y y ) 2, le risque est E θ [gθ) T X)) 2 ]. On a la décomposition biais-variance : risque quadratique=carré du biais + variance Ecrire la preuve. E θ [gθ) T X)) 2 ] = gθ) E θ [T X)]) 2 + V ar θ [T X)]. 13

14 2 Construction d estimateurs Risque de test/ de classification : lorque Ly, y ) = 1 y y, le risque est E θ [1 T X) gθ) ] = P θ T X) gθ)). Lorsque l on considère une suite d expériences statistiques, de sorte que pour tout entier n, on dispose d une observation X 1,..., X n ) et d une famille de probabilités P θ,n ) θ Θ sur X n, A n ) par exemple, à partir d une suite de variables i.i.d., de sorte que P θ,n = P n θ ), si T n X 1,..., X n )) n 1 est une suite d estimateurs de gθ), on dira que : T n est un estimateur fortement consistant de gθ) si et seulement si θ Θ, lim T nx 1,..., X n ) = gθ) P θ p.s.. n + On a alors pu définir, pour tout θ, P θ probabilité sur X N de sorte que si la suite X n ) n 1 est de loi P θ, X 1,..., X n ) est de loi P θ,n ). T n est un estimateur consistant de gθ) si et seulement si θ Θ, T n X 1,..., X n ) n + gθ) en P θ probabilité, autrement dit, si Y R m et si est une norme par exemple la norme euclidienne) sur R m, θ Θ, ɛ > 0, lim P θ,n T n X 1,..., X n ) gθ) ɛ) = 0. n + Remarque : par abus de notation, j utiliserai T n pour T n X 1,..., X n ) comme fait ci-dessus). 2.2 Méthode des moments. Estimation empirique On considère X n ) n 1 une suite de variable aléatoires indépendantes identiquement distribuées sur X. Soit φ : X R une fonction telle que pour tout θ Θ, φ L 1 P θ ). Soit g : Θ R donnée par θ Θ, gθ) = E θ [φx)]. L estimateur de gθ) obtenu par la méthode des moments est T n = 1 n n φx i ). Alors, T n est un estimateur sans biais et consistant de gθ). Exemple : le sondage vu au premier chapitre. 14

15 2.3 Maximum de vraisemblance Plus généralement, on parle de méthode des moments lorsque l on construit un estimateur avec des moyennes empiriques. Exemple du modèle gaussien : Soit X n ) n 1 une suite de variable aléatoires indépendantes identiquement distribuées sur R, de loi N m, σ 2 ). Le modèle est alors, pour la loi de X 1, P θ ) θ Θ avec θ = m, σ 2 ) et Θ = R R +,. Un estimateur de θ obtenu par la méthode des moments est θ n = m n, σ 2 n) avec m n = 1 n n X i, σ 2 n = 1 n n Xi 2 1 n ) 2 n X i. Il est consistant dire pourquoi). Est-il sans biais? calculer le biais). La méthode des moments est une méthode qui utilise donc des moments calculés avec la mesure empirique P n, qui est une mesure de probabilité aléatoire qui met en chaque X i la masse 1/n : P n = 1 n δ Xi. n Dans l exemple précédent, m n = xdp n x), σ 2 n = x 2 dp n x) xdp n x)) 2. Tous les moments empiriques sont des estimateurs consistants de l espérance de la fonction, la méthode fonctionne car P n est un bon estimateur de P θ. En quel sens? Au moins en ce qui concerne la fonction de répartition, c est ce que l on verra au prochain chapitre voir Théorème de Glivenko-Cantelli). 2.3 Maximum de vraisemblance On dit que le modèle statistique est un modèle dominé si il existe une mesure positive µ su X, A) telle que : pour tout θ Θ, P θ est absolument continue par rapport à µ. Se rappeler la définition de absolument continue. En ce cas, pour tout θ Θ, il existe une fonction mesurable f θ de X dans R telle que P θ = f θ µ, c est la densité de P θ par rapport à µ. On appelle alors vraisemblance la variable aléatoire fonction de θ : Lθ) = f θ X), et log-vraisemblance la variable aléatoire fonction de θ : lθ) = log f θ X). 15

16 2 Construction d estimateurs Pour estimer θ, on peut choisir la valeur de θ qui rend la densité maximale en la valeur de l observation, c est ce que l on appelle l estimateur du maximum de vraisemblance : θ = argmax θ Θ Lθ) = argmax θ Θ lθ). Se posent alors les questions d existence et d unicité. Lorsque le modèle statistique est celui de n variables aléatoires indépendantes X 1,..., X n de loi P θ, θ Θ, si le modèle est dominé par la mesure µ), alors le modèle P n θ ) θ Θ est dominé par µ n. Si pour tout θ Θ, P θ = f θ µ, alors la vraisemblance est et la log-vraisemblance est : L n θ) = l n θ) = n f θ X i ), n log f θ X i ). Exemples Modèle de Bernoulli. Soit X 1,..., X n ) i.i.d. de loi de Bernoulli Bθ), θ [0, 1]. La loi de Bernoulli est absolument continue par rapport à µ = δ 0 + δ 1. Une façon pratique d écrire la vraisemblance est Lθ) = θ X 1 θ) 1 X. On a alors en notant S n = n X i : l n θ) = S n log θ + n S n ) log1 θ). Le maximum de vraisemblance est θ n = S n /n. Le démontrer). Modèle Gaussien. Soit X 1,..., X n ) i.i.d. de loi N m, σ 2 ), m R, σ 2 R +,. La loi gaussienne N m, σ 2 ) est absolument continue par rapport à Lebesgue, de densité 1 σ 2π e x m)2 /2σ 2, donc l n m, σ 2 ) = n X i m) 2 2σ 2 n 2 log2πσ2 ). Le maximum de vraisemblance est m n = 1 n n X i, σ 2 n = 1 n n Xi 2 1 n ) 2 n X i. Le démontrer). Il est clair que si l on change de mesure dominante, la vraisemblance change le voir sur les deux exemples). Que se passe-t-il alors pour l estimateur du maximum de vraisemblance? On peut voir sur les deux exemples que, en changeant de mesure dominante, on ne change pas l estimateur du maximum de vraisemblance Le faire! Et voir ce qui change et ce qui ne change pas!). En fait, c est un résultat général, qui justifie la notion intrinsèque) d estimateur du maximum de vraisemblance. 16

17 2.3 Maximum de vraisemblance Proposition Si un modèle X, A, P θ ) θ Θ ) est dominé, alors il existe une probabilité Q qui domine le modèle et qui vérifie A A, QA) = 0 θ Θ, P θ A) = 0. On dit alors que Q est une dominante privilégiée du modèle. Remarque : il n y a pas unicité de la dominante privilégiée, toute autre mesure de probabilité équivalente à Q est une dominante privilégiée. Preuve : Soit µ une mesure dominante. On commence par construire une probabilité P équivalente à µ et qui domine le modèle. La mesure µ est sigma-finie, donc il existe une collection au plus dénombrable d ensembles mesurables A n, n N, qui forme une partition de X et tels que pour tout n, µa n ) < +. On choisit λ n ) n N des réels tels que n N λ n = 1 et tels que n N, µa n ) > 0 λ n > 0. On pose P telle que dp dµ x) = λ n µa n ) 1 A n x). n N On a pour tout ensemble mesurable A, P A) = n N λ n µa A n ) µa n ) ce qui montre que P est une probabilité absolument continue par rapport à µ, et que si P A) = 0, alors pour tout n N, µa A n ) = 0, donc µa) = 0 et µ est absolument continue par rapport à P. Du coup aussi, pour tout θ Θ, P θ est absolument continue par rapport à P. Notons maintenant F θ = dp θ /dp. L ensemble A θ = {F θ > 0} est mesurable. Soit C la collection des réunions au plus dénombrables d ensembles A θ, et posons M = sup P C). C C On a M 1. Soit C n une suite d éléments de C tels que P C n ) M 1/n. Soit C = n 1 C n. C C, et P C ) M, donc P C ) = M. Comme C C, il existe une collection au plus dénombrable θ j ) j J d éléments de Θ tels que C = j J A θj. Soit ensuite λ j ) j J des réels strictement positifs tels que j J λ j = 1, et soit Q la mesure telle que dq dp x) = λ j F θj x). j J On a pour tout ensemble mesurable A, QA) = j J λ jp θj A), donc Q est une probabilité telle que si A est tel que, pour tout θ Θ, P θ A) = 0, alors QA) = 0. Il s agit 17

18 2 Construction d estimateurs maintenant de montrer la réciproque. Démontrons tout d abord que θ Θ, P A θ ) = P A θ C ). En effet, si ce n était pas le cas, pour un θ de Θ, on aurait P A θ C ) c ) > 0, donc P A θ C ) > M : contradiction. Soit maintenant A tel que QA) = 0. Pour tout θ Θ, on a P A θ C ) c ) = 0, et donc par domination P θ A θ C ) c ) = 0, et donc P θ A) = P θ A C ) = F θ dp = A C F θ dp. A A θ C On en déduit que P θ A) = F θ dp F θ dp = A A θ j J A θj ) j J A A θ A θj j J A A θ A θj Mais comme QA) = 0, on a pour tout j J, P θj A) = 0, donc A A θ A θj et donc P θ A) = 0. F θ F θj dp θj. F θ F θj dp θj = 0, Corollaire L estimateur du maximum de vraisemblance ne dépend pas du choix de mesure dominante. Preuve : Soient µ une mesure dominante. Notons Lθ) la vraisemblance obtenue avec µ. Soit Q une dominante privilégiée. Alors Q est absolument continue par rapport à µ, et l on a, en notant L Q θ) = dp θ dq X) : Lθ) = L Q θ) dq dµ X). Donc θ maximise Lθ) si et seulement si θ maximise L Q θ), qui est une quantité qui ne dépend pas de µ. On va maintenant justifier l usage du maximum de vraisemblance dans une situation très simple et en considérant le risque de test. On se place dans la situation où Θ est réduit à deux points, que l on peut noter Θ = {0, 1}. Le modèle est alors réduit à deux probabilités P 0 et P 1, et c est donc un modèle dominé. Une dominante privilégiée est µ = P 0+P 1 2. Alors : Proposition L estimateur du maximum de vraisemblance minimise la moyenne du risque de test en 0 et en 1. Preuve : On considère donc la fonction de perte 1 t θ, et pour tout estimateur T le risque RT, θ) = P θ T θ). Soit alors ST ) la moyenne 1 2 RT, 0) + RT, 1)). On a, 18

19 2.3 Maximum de vraisemblance comme T X) {0, 1}, ST ) = 1 2 { T x)f 0 x)dµx) + } 1 T x))f 1 x)dµx) = T x)f 0 x) f 1 x))dµx). 2 Soit θ l estimateur du maximum de vraisemblance. On a alors ST ) S θ) = 1 T x) 2 θx))f 0 x) f 1 x))dµx). Mais si f 0 x) f 1 x) < 0, alors θx) = 1, et T x) θx) 0. Et si f 0 x) f 1 x) > 0, alors θx) = 0, et T x) θx) 0. Donc dans tous les cas, T x) θx))f 0 x) f 1 x)) 0, et donc ST ) S θ) 0. On va calculer la moyenne du risque pour l estimateur du maximum de vraisemblance, et pour cela introduire la distance en variation. Définition Si P et Q sont deux probabilités sur X, A), la distance en variation totale entre P et Q est définie par d P ; Q) = sup P A) QA). A A Ceci définit une distance sur l ensemble des probabilités sur X, A) En effet, on vérifie la symétrie, le fait que si d P ; Q) = 0, alors P = Q, et l inégalité triangulaire. On a alors Proposition Si µ domine P et Q, alors la distance en variation totale entre P et Q vérifie d P ; Q) = 1 dp 2 dµ dq dµ = P A) QA) L 1 µ) où A = {x : dp dq dµ x) dµ x)}. La distance en variation totale entre P et Q est alors notée P Q V T. Remarque : au passage, on a montré que est une quantité qui ne dépend pas de la mesure dominante choisie. Preuve : Tout d abord, en posant dp dµ dq dµ L 1 µ) A = {x : dp dq x) dµ dµ x)}, 19

20 2 Construction d estimateurs on a Par ailleurs, donc dp dµ dq dµ = L 1 µ) A A dp dµ dq ) dp dµ dµ A c dµ dq ) dµ. dµ dp dµ dq ) dp dµ + dµ A c dµ dq ) dµ = 0, dµ dp dµ dq dµ = 2 L 1 µ) A dp dµ dq ) dµ. dµ Puis on a par définition P A) QA) d P ; Q). Maintenant, si B A, P B) QB) = P B A) + P B A c ) QB A) QB A c ) dp = A B dµ dq ) dp dµ + dµ A c B dµ dq ) dµ dµ dp A B dµ dq ) dµ dµ dp dµ dq ) dµ = P A) QA), dµ et de la même manière P B) QB) donc pour tout B A, A A c dp dµ dq ) dµ = [P A) QA)], dµ P B) QB) P A) QA), et en prenant le supremum en B A on obtient dp, Q) = P A) QA). On obtient maintenant, dans le cadre précédent : Proposition Si Θ = {0, 1}, la valeur minimale de la moyenne du risque de test en 0 et en 1, atteinte par le maximum de vraisemblance, vaut P 0 P 1 V T ). 20

21 3 Fonction de répartition et théorème de Glivenko-Cantelli Soit X une variable aléatoire réelle. Définition La fonction de répartition F X de X est la fonction de R dans [0, 1] donnée par t R, F X t) = P X t). On a les propriétés suivantes. Rappeler les preuves). F X est une fonction croissante, continue à droite, telle que et lim F Xt) = 0 t lim F Xt) = 1; t + Si on note F X t ) la limite à gauche de F X au point t dire pourquoi elle existe), F X t ) = P X < t) et F X t) F X t ) = P X = t). La fonction de répartition caractérise la loi. Autrement dit, si deux variables aléatoires ont même fonction de répartition, alors elles ont même loi. Par ailleurs, la première propriété est caractéristique des fonctions de répartition. Proposition Si F est une fonction de R dans [0, 1] qui est croissante, continue à droite, telle que lim t F t) = 0 et lim t + F t) = 1, alors il existe une variable aléatoire réelle X telle que F est la fonction de répartition de X. Rappeler la preuve) Définition Toute fonction de répartition F admet une inverse généralisée ou pseudo-inverse) définie par : u ]0, 1[, F u) = inf {x R : F x) u}. On dit aussi que F est la fonction quantile et que F u) est le quantile de u. On a alors : Proposition Pour tout x R et tout u ]0, 1[, u F x) F u) x. 21

22 3 Fonction de répartition et théorème de Glivenko-Cantelli F est une fonction croissante qui vérifie et u ]0, 1[, F F u)) u, x R, si F x) ]0, 1[, F F x)) x. Preuve :Commencer par regarder des exemples de cas F discontinue et F avec un plateau. Soit u ]0, 1[, on note I = {x R : F x) u}. Comme u < 1, I est non vide. Sinon on aurait pour tout réel x, P X x) < u < 1). Par ailleurs comme F est croissante, si x I et si y x, alors y I. Donc I est un intervalle semi-infini à droite, notons x 0 sa borne inférieure. I = x 0, + [. Montrons alors que x 0 I. En effet, pour tout t > 0, x 0 + t I, donc F x 0 + t) u et comme F est continue à droite, F x 0 ) u. Donc I = [x 0, + [ et donc F u) = x 0. L équivalence de la proposition s en déduit. La croissance de F en découle. Puis en prenant x = F u) on obtient la première inégalité, et en prenant u = F x) on obtient la deuxième inégalité. La fonction quantile permet de simuler une variable aléatoire de fonction de répartition connue à partir d une variable aléatoire de loi uniforme sur [0, 1]. Théorème Si U est une variable aléatoire de loi uniforme sur [0, 1], alors F U) est une variable aléatoire de fonction de répartition F. Preuve : En effet, pour tout réel x, en utilisant la proposition précédente on a P F U) x ) = P U F x)) = F x). Soit maintenant X n ) n 1 une suite de variables aléatoires indépendantes de même loi que X. On note P n la mesure empirique et F n la fonction de répartition empirique donnée par : t R, F n t) = 1 n 1 Xi t = 1 x t dp n x). n On a alors : Théorème Théorème de Glivenko-Cantelli). La fonction de répartition empirique converge P-presque sûrement uniformément vers la fonction de répartition, i.e. P p.s., lim sup F n t) F t) = 0 n + t R Preuve : Soit N un entier strictement positif. ) Notons pour 1 j N 1, x j,n = F j N, et x 0,N = et x N,N = +. On convient F n x 0,N ) = 0, F x 0,N ) = 0, F n x N,N ) = 1 et F x N,N ) = 1. On a alors pour tout j tel que 0 j N 1, t [x j,n ; x j+1,n [, F n x j,n ) F n t) F n x j+1,n ) et F x j,n ) F t) F x j+1,n ). 22

23 Donc t [x j,n ; x j+1,n [, F n x j,n ) F x j+1,n ) F n t) F t) F n x j+1,n ) F x j,n ). ) Comme x j,n = F j N, on a F x j,n ) j N F x j,n) pour tout j vérifier que aussi pour j = 0 et j = N), de sorte que t [x j,n ; x j+1,n [, F n x j,n ) F x j,n ) 1 N F nt) F t) F n x j+1,n ) F x j+1,n )+ 1 N. Donc sup F n t) F t) 1 t R N + max { F nx j,n ) F x j,n ) ; F n x j,n ) F x j,n ) }. 1 j N 1 Par la loi forte des grands nombres, pour tout j, F n x j,n ) F x j,n ) tend vers 0 P -p.s. et F n x j,n ) F x j,n ) tend vers 0 P -p.s. Si pour tout N on note A N l événement A N = lim sup sup F n t) F t) 1 ) n + t R N on a donc P A N ) = 1 préciser comment cela découle des LFGN citées précédemment). Alors, P N 1 A N ) = 1, et ) A N lim F n t) F t) = 0. N 1 sup n + t R On va maintenant s intéresser au cas où la fonction de répartition F est continue. Proposition Si F est continue, pour tout u ]0, 1[, F F u)) = u. Si X est de fonction de répartition F continue, alors F X) est de loi uniforme sur [0, 1]. Preuve : Reste à voir qu alors F F u)) u. Pour tout δ > 0, on a F u) δ < F u), donc, par contraposition de l équivalence de la proposition 3.0.6, F F u) δ) < u. Comme F est continue, on peut passer à la limite quand δ tend vers 0 et obtenir F F u)) u. Si maintenant X est de fonction de répartition F continue, X a même loi que F U) où U est de loi uniforme sur [0, 1], donc F X) a même loi que F F U)) = U. On a aussi : Théorème Si F est une fonction de répartition continue, si X 1,..., X n sont n variables aléatoires indépendantes de fonction de répartition F et si F n est la fonction de répartition empirique, alors la loi de ne dépend pas de F. D n = sup F n t) F t) t R 23

24 3 Fonction de répartition et théorème de Glivenko-Cantelli Preuve : Soit U 1,..., U n des variables aléatoires indépendantes de loi uniforme sur [0, 1]. Alors X 1,..., X n ) a même loi que F U 1 ),..., F U n )), et donc D n a même loi que D 0 n = sup t R n 1 F U i ) t F t). Mais on a alors, comme l événement F U i ) t) est égal à l événement F t) U i ) Dn 0 n = sup 1 t R Ui F t) F t) et comme F est continue croissante sur R, avec limite 0 en et limite 1 en +, F R) = 0, 1) l intervalle est ouvert ou semi-ouvert ou fermé), donc en posant u = F t), Dn 0 n = sup 1 Ui u u. u ]0,1[ Application : construction de bandes de confiance pour F : La loi de D 0 n peut être tabulée, donc si d n,α est tel que P D 0 n d n,1 α ) α, alors si F c désigne l ensemble des fonctions de répartition continues, on a, en utilisant le théorème précédent, F F c, P F F n F d n,1 α ) 1 α et l ensemble des fonctions comprises, pour tout t, entre F n t) d n,1 α et F n t) + d n,1 α est une bande de confiance pour F de niveau de confiance 1 α. 24

25 4 Construction de tests Se rappeler la notion de test, avec la définition La méthode indiquée par l exemple du sondage est : choisir une statistique de test, c est-à-dire une variable aléatoire, dont la loi est différente selon que l hypothèse nulle H 0 est vraie ou selon que c est l hypothèse alternative H 1 qui est vraie, choisir une région de rejet qui est conforme à ce changement qualitatif, et la calibrer en fonction du niveau souhaité revoir cela avec l exemple du sondage). 4.1 Test du rapport de vraisemblance Généralités Soit un modèle statistique dominé X, A, P θ ) θ Θ ). Soient Θ 0 et Θ 1 deux sous-ensembles disjoints de Θ. On veut tester H 0 : θ Θ 0 contre H 1 : θ Θ 1. Le test du rapport de vraisemblance consiste à prendre la décision en fonction de la valeur de la vraisemblance sur chacun des ensembles définissant l hypothèse nulle Θ 0 ) et l hypothèse alternative Θ 1 ). Soit donc µ une mesure dominante, et pour tout θ Θ, f θ la densité de P θ par rapport à µ. On note Lθ) la vraisemblance. Soit T X) = sup θ Θ 1 Lθ) sup θ Θ0 Lθ). Le test du rapport de vraisemblance est de la forme φx) = 1 T >s pour un seuil s fixé. Si on se fixe un niveau α ]0, 1[, alors on définit { } C α = inf C > 0 : sup P θ T > C) α. θ Θ 0 On a : Proposition Pour tout α ]0, 1[, si l ensemble { C > 0 : sup θ Θ0 P θ T > C) α } est non vide, alors le test du rapport de vraisemblance 1 T >Cα est de niveau α. Preuve : Soit θ Θ 0. Pour tout C > C α, on a P θ T > C) α. Comme la fonction C P θ T > C) est continue à droite, on a en faisant tendre C vers C α à droite, P θ T > C α ) α. Comme ceci est vrai pour tout θ Θ 0, on en déduit que le test du 25

26 4 Construction de tests rapport de vraisemblance 1 T >Cα est de niveau α. Exemple : modèle binomial et test de H 0 : θ θ 0 contre H 1 : θ > θ 0. Montrer que le test du rapport de vraisemblance prend la forme 1 Sn s n,α pour un s n,α bien choisi Optimalité dans le cas de deux hypothèses simples On considère le cas où Θ 0 = {θ 0 } et Θ 1 = {θ 1 }, θ 0 θ 1. On note f 0 resp. f 1 ) la densité de P θ0 resp. P θ1 ) par rapport à la mesure dominante. Le test du rapport de vraisemblance est de la forme φx) = 1 f1 X)>sf 0 X) et le seuil s est choisi en fonction du niveau souhaité α du test. La taille du test est P θ0 f 1 X) > sf 0 X)), sa puissance est P θ1 f 1 X) > sf 0 X)). On a le résultat d optimalité suivant. Proposition Si le test du rapport de vraisemblance est de taille α alors il est plus puissant que n importe quel test de niveau α de H 0 : θ = θ 0 contre H 1 : θ = θ 1. Preuve : Soient s et α tels que P θ0 f 1 X) > sf 0 X)) = α. Posons φx) = 1 f1 X)>sf 0 X). Soit ψ un test de niveau α de θ = θ 0 contre H 1 : θ = θ 1. On a E θ1 [φ ψ] se θ0 [φ ψ] = f 1 x) sf 0 x)) φx) ψx)) dµx) 0 car la fonction f 1 x) sf 0 x)) φx) ψx)) est toujours positive ou nulle le voir en distinguant les différents cas de signe possibles pour f 1 x) sf 0 x)). Donc E θ1 [φ] E θ1 [ψ] s E θ0 [φ] E θ0 [ψ]) 0 s α E θ0 [ψ]) car φ est de taille α donc E θ0 [φ] = α) et ψ est de niveau α donc E θ0 [ψ] α). Reprendre le cas du test de rapport de vraisemblance pour le modèle binomial. 4.2 Test de Kolmogorov-Smirnov On considère le modèle statistique R n, BR n ), P n F ) F F), où F est l ensemble des fonctions de répartition sur R. Si F 0 est une fonction de répartition fixée, on veut tester H 0 : F = F 0 contre H 1 : F F 0. L idée est de se baser sur la fontion de répartition empirique F n. On a alors : 26

27 4.2 Test de Kolmogorov-Smirnov Théorème Si F 0 est continue, le test est de niveau α. φ = 1 Fn F 0 d n,1 α On a déjà vu que si F 0 est continue, la loi de F n F 0 sous P n F 0 ne dépend pas de F 0. La preuve du théorème est alors immédiate. On appelle ce test test de Kolmogorov- Smirnov et D n = F n F 0 statistique de Kolmogorov. Le calcul de D n est simple. On a le démontrer) : { } i 1 D n = max 2 i n n F 0X i 1) ) ; i 1 n F 0X i) ) F 0 X 1) ) 1 F 0 X n) ) en notant X i) ) 1 i n la statistique de rang de X i ) 1 i n c est-à- dire X 1) X 2) X n). La loi de D n sous P n F 0 est continue. Le démontrer en l écrivant avec la loi uniforme). Si F F 0, on a pour tout t, F n t) F 0 t) = F n t) F t) + F t) F 0 t), donc F n F 0 F F 0 F n F et donc, si F est continue et F F 0 2d n,1 α 1 E F [φ] P F F n F F F 0 d n,1 α ) α, c est-à-dire que si F est continue et F F 0 2d n,1 α, la puissance en F est 1 α. On peut montrer que d n,1 α est d ordre 1/ n quand n tend vers l infini en montrant que sous F 0 continue, n F n F 0 converge en loi). On peut chercher à comparer la loi inconnue à F 0 en précisant sa position par rapport à F 0. Par exemple, si l on veut tester H 0 : t, F t) F 0 t) contre H 1 : t, F t) > F 0 t), on utilisera la statistique de Smirnov D n + = sup F n t) F 0 t)). t R On peut montrer que si F 0 est continue, sa loi ne dépend pas de F 0, et peut donc être tabulée. On peut donc choisir d + n,1 α tel que le test 1 D n + d + soit de niveau α. n,1 α Démontrer tout cela, et comment calculer D n + avec la statistique de rang). Noter que lorsque pour tout t, F t) F 0 t), l observation a tendance à être plus grande sous P F que sous P F0. 27

28 4 Construction de tests 4.3 Test du chi-deux d ajustement On vient de voir un test d ajustement pour décider si une loi est une loi donnée continue. Il s agit d un test non paramétrique. Que faire pour tester la même chose pour des lois discrètes? On va y répondre dans le cas paramétrique. On se place dans le cas où X = {1,..., k}. On note P l ensemble des probabilités p = p1),..., pk)) sur X, et P p la loi sur X induite par p. Le modèle statistique est alors X n, A, P n p ) p P ). On se donne p 0 P tel que p 0 j) > 0, j = 1,..., k, et on veut tester H 0 : p = p 0 contre H 1 : p p 0. On dispose de X 1,..., X n. Pour tout j = 1,..., k, on note N j = n 1 Xi =j la statistique de comptage remarquer qu elle dépend de n et X 1,..., X n même si la notation ne l indique pas). On se dit que N j n est un bon estimateur de pj), donc que pour tester p = p 0 contre p p 0 on pourrait se baser sur les différences N j n p 0j). On pose : k N j np 0 j)) 2 Z n =. np 0 j) j=1 On va avoir besoin de lois du Chi-deux. Définition Soit m un entier. La loi du Chi-deux à m degrés de liberté est la loi de la somme des carrés de m variables aléatoires indépendantes de loi N 0, 1). On note cette loi χ 2 m). On a alors : Théorème Sous P p0, Z n converge en loi quand n tend vers + vers une variable aléatoire de loi χ 2 k 1) loi du Chi-deux à k 1 degrés de liberté). On démontrera ce théorème au chapitre suivant. A partir de ce théorème, on peut construire un test qui soit asymptotiquement de niveau α et de puissance 1 Le faire! Démontrer les résultats de niveau et puissance!). 4.4 Lien entre tests et régions de confiance Lorsqu on a construit des tests, on est souvent parti du même point de départ que lorsqu on a construit des régions de confiance ; on est parti d un estimateur de ce qui est testé ou estimé, et fait ensuite des calculs analogues. Y a-t-il quelque chose de général 28

29 4.4 Lien entre tests et régions de confiance qui relie les deux procédures statistiques? Dire la définition d une région de confiance RX) pour θ, pas forcément un intervalle de R. Proposition Soit RX) une région de confiance pour θ de niveau de confiance 1 α. Alors, pour tout θ 0 Θ, φx) = 1 θ0 / RX) est un test de niveau α de H 0 : θ = θ 0 contre H 1 : θ θ 0 Preuve : Fixons θ 0 Θ. On a alors P θ0 θ 0 RX)) 1 α puisque RX) une région de confiance pour θ de niveau de confiance 1 α, et donc E θ0 [φx)] = P θ0 θ 0 / RX)) = 1 P θ0 θ 0 RX)) α. Proposition On suppose que pour tout θ 0 Θ, φ θ0 X) est un test de niveau α de H 0 : θ = θ 0 contre H 1 : θ θ 0, et que la fonction de Θ X dans R qui, à tout θ, X) associe φ θ X) est mesurable. Alors RX) = {θ Θ : φ θ X) = 0} est une région de confiance pour θ de niveau de confiance 1 α. Preuve : Soit θ 0 quelconque fixé dans Θ. Puisque φ θ0 X) est un test de niveau α de H 0 : θ = θ 0 contre H 1 : θ θ 0, on a E θ0 [φx)] α, soit P θ0 φ θ0 X) = 0) 1 α. Autrement dit, P θ0 θ 0 RX)) 1 α. Ceci étant vrai pour tout θ 0 Θ cela prouve que RX) est une région de confiance pour θ de niveau de confiance 1 α. Exemples : Modèle binomial : construire un test de H 0 : θ = θ 0 contre H 1 : θ θ 0 à partir de la région de confiance vue en introduction. Revisiter le test de Kolmogorov et la bande de confiance pour la fonction de répartition. A partir du test du chi-deux d ajustement, construire une région de confiance pour la probabilité p 1,..., p k ) dans le modèle multinomial. 29

30

31 5 Vecteurs gaussiens Ce qui suit sont surtout des rappels! Définition La loi gaussienne N m, σ 2 ), où m R et σ 2 R + est la probabilité de densité par rapport à Lebesgue ) 1 σ 2π exp x m)2 2σ 2. Un vecteur aléatoire X à valeurs dans R k est un vecteur gaussien si et seulement si toute combinaison linéaire de ses coordonnées est une variable aléatoire rélle gaussienne, autrement dit, si et seulement si, pour tout U R k, il existe m R et σ 2 R + tels que U T X soit de loi N m, σ 2 ). Si X est un vecteur gaussien, on peut alors définir EX) le vecteur des espérances des coordonnées de X, et V arx) la matrice k k de variance de X. Rappeler sa définition). La fonction caractéristique φ du vecteur gaussien d espérance m R k et de matrice de variance Σ est donnée par [ t R k, φ t) = exp im T t 1 ] 2 tt Σt. Rappeler la preuve.) En particulier, la loi d un vecteur gaussien est complètement déterminée par son espérance m R k et sa matrice de variance Σ, on note alors la loi N k m; Σ). Si Σ est inversible, la densité par rapport à Lebesgue sur R k est 1 2π) k/2 detσ) exp 1 ) 2 x m)t Σ 1 x m). Proposition Si X est un vecteur gaussien de loi N k m; Σ) et si A est une matrice p k, alors AX est un vecteur gaussien de loi N p Am; AΣA T ). Rappeler la preuve.) Proposition Si X est un vecteur gaussien et si sa variance est diagonale par blocs, alors les blocs de coordonnées correspondants forment des vecteurs gaussiens indépendants. 31

32 5 Vecteurs gaussiens Rappeler la preuve.) Définition Un n-échantillon gaussien est un vecteur gaussien de loi N n 0; Id), c est-à-dire un vecteur dont les n composantes sont des variables aléatoires indépendantes de loi gaussienne centrée réduite. Proposition Lorsqu on fait un changement de base orthonormée, un n-échantillon gaussien reste un n-échantillon gaussien. Rappeler la preuve.) Théorème Théorème de Cochran). Soit X un n-échantillon gaussien, et soient E 1,..., E p des sous-espaces vectoriels de R n orthogonaux, dont la somme est égale à R n. Notons Π j la projection orthogonale de R n sur E j, j = 1,..., p et k j = dime j ), j = 1,..., p. Alors les vecteurs Π j X), j = 1,..., p, sont des vecteurs gaussiens indépendants, et pour j = 1,..., p, Π j X) 2 suit la loi χ 2 k j ). Preuve : Soit e i,j ) 1 i p,1 j ki la base orthonormée de R n telle que, pour tout i = 1,..., p, e i,j ) 1 j ki est une base orthonormée de E i. Soit A la matrice de changement de base associée, de sorte que si Y = AX, Y 1,..., Y n sont les coordonnées de X dans la nouvelle base. Par les deux propositions qui précèdent, Y est un n-échantillon gaussien. Par ailleurs, pour tout i = 1,..., p, en notant k 0 = 0 : k i Π i X) = Y k k i 1 +je i,j. j=1 Donc k i Π i X) 2 = j=1 Y 2 k k i 1 +j et Π i X) 2 suit donc la loi χ 2 k i ). Par ailleurs, Π i X)) 1 i p est un vecteur gaussien de matrice de variance diagonale, donc les Π j X), j = 1,..., p, sont des vecteurs gaussiens indépendants Théorème Théorème de limite centrale multidimensionnel). Soit X n ) n 1 une suite de variables aléatoires à valeurs dans R k, indépendantes et de même loi de variance finie. Alors ) 1 n n X i EX 1 ) n converge en loi vers une variable U de loi N k EX 1 ), V arx 1 )). 32

33 Rappeler la preuve à partir du TLC unidimensionnel.) Preuve du Théorème : On a X 1,..., X n i.i.d. de loi P p0 sur {1,..., k}. Pour j = 1,..., k, on note n N j = et Z n = 1 Xi =j k N j np 0 j)) 2. np 0 j) j=1 Soit W n le vecteur de R k de j-ième coordonnée ) 1 N j np 0 j). n p0 j) Notons D le vecteur de R k de j-ième coordonnée p 0 j). Par le TLC multidimensionnel, le vecteur W n converge en loi sous P p0 vers une variable U de loi N k 0, Id DD T ). Donc, par image continue, Z n = W n 2 converge en loi sous P p0 vers U 2. Maintenant, A = Id DD T est la matrice de projection orthogonale sur l orthogonal de la droite engendrée par D. Donc AA T = A, et U a même loi que AV, où V est de loi N k 0, Id). Donc U 2 a même loi que AV 2, qui est de loi χ 2 k 1) d après le Théorème de Cochran. 33

34

35 6 Modèle linéaire gaussien 6.1 Définition et exemples Le modèle linéaire gaussien est R n, BR n ), P θ ) θ Θ ), où θ = m, σ 2 ), P θ = N n m, σ 2 Id), et Θ = V R +, V étant un sous-espace vectoriel de R n. Si l observation est Y, on peut écrire ou encore Y = m + ε, m V, ε N n 0, σ 2 Id), Y i = m i + ε i, i = 1,..., n, ε i, i = 1,..., n, i.i.d. de loi N 0, σ 2 ). Remarquer qu ici, les ε i ne sont pas observés, et que les Y i n ont pas même loi. Dans ce modèle, il y a deux parties : La modélisation de la variance : ε N n 0, σ 2 Id), les ε i ont même variance, ils sont indépendants, ils sont gaussiens. La modélisation de l espérance : choix du sous-espace vectoriel V tel que m V modèle linéaire). Une façon d écrire la modélisation de l espérance est d écrire que V est l image de X pour une matrice X n p, et donc qu il existe β R p tel que m = Xβ. Si X est injective, ou encore si V est de dimension p, alors ce β est unique et l on écrit le modèle Y = Xβ + ε, β R p, ε N n 0, σ 2 Id). Ici, X est connu car V est connu), et l on pose θ = β, σ 2 ), P θ Θ = R p R +. = N n Xβ, σ 2 Id), Exemples : Pour chaque exemple, expliciter le modèle sous ses deux formes, avec V et avec X. 1. Régression : On a des mesures Y i, on veut les expliquer par des variables connues. Par exemple : par le temps, si les mesures sont faites à des temps t i, on peut chercher à ajuster une parabole : Y i = a + bt i + ct 2 i + ε i, i = 1,..., n. 35

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq»

Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Tests statistiques Formation «Analyse de données RNA-seq/ChiP-seq» Guy Perrière Pôle Rhône-Alpes de Bioinformatique 14 novembre 2012 Guy Perrière (PRABI) Tests statistiques 14 novembre 2012 1 / 40 Plan

Plus en détail

Deuxième partie II. Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance

Deuxième partie II. Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance Deuxième partie II Cours 4 à 6 : Construction d estimateurs, Modèle linéaire, Tests et intervalles de confiance (version corrigée, 4 avril 27) Construction d estimateurs 4 Construction d estimateurs Estimateur

Plus en détail

Construction de la mesure de Lebesgue. 1 Mesure positive engendrée par une mesure extérieure.

Construction de la mesure de Lebesgue. 1 Mesure positive engendrée par une mesure extérieure. Université d Artois Faculté des Sciences Jean Perrin Analyse Fonctionnelle (Licence 3 Mathématiques-Informatique Daniel Li Construction de la mesure de Lebesgue 28 janvier 2008 Dans ce chapitre, nous allons

Plus en détail

Statistique (MATH-F-315, Cours #3)

Statistique (MATH-F-315, Cours #3) Statistique (MATH-F-315, Cours #3) Thomas Verdebout Université Libre de Bruxelles 2015 Plan de la partie Statistique du cours 1. Introduction. 2. Théorie de l estimation. 3. Tests d hypothèses et intervalles

Plus en détail

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.

Statistique. Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7. Statistique Jean-Yves Tourneret (1) (1) Université of Toulouse, ENSEEIHT-IRIT-TéSA Thème 1 : Analyse et Synthèse de l Information jyt@n7.fr Cours Statistique, 2010 p. 1/52 Plan du cours Chapitre 1 : Estimation

Plus en détail

1 Topologies, distances, normes

1 Topologies, distances, normes Université Claude Bernard Lyon 1. Licence de mathématiques L3. Topologie Générale 29/1 1 1 Topologies, distances, normes 1.1 Topologie, distances, intérieur et adhérence Exercice 1. Montrer que dans un

Plus en détail

1/4 2/4 3/4 4/4. 10. Estimation MTH2302D. S. Le Digabel, École Polytechnique de Montréal H2016. (v1) MTH2302D: estimation 1/50

1/4 2/4 3/4 4/4. 10. Estimation MTH2302D. S. Le Digabel, École Polytechnique de Montréal H2016. (v1) MTH2302D: estimation 1/50 10. Estimation MTH2302D S. Le Digabel, École Polytechnique de Montréal H2016 (v1) MTH2302D: estimation 1/50 Plan 1. Introduction 2. Estimation ponctuelle 3. Estimation par intervalles de confiance 4. Autres

Plus en détail

Topologie des espaces vectoriels normés

Topologie des espaces vectoriels normés Topologie des espaces vectoriels normés Cédric Milliet Version préliminaire Cours de troisième année de licence Université Galatasaray Année 2011-2012 2 Chapitre 1 R-Espaces vectoriels normés 1.1 Vocabulaire

Plus en détail

Cours Statistiques L2 Université Nice Sophia-Antipolis. François Delarue

Cours Statistiques L2 Université Nice Sophia-Antipolis. François Delarue Cours Statistiques L2 Université Nice Sophia-Antipolis François Delarue Table des matières Chapitre 1. Rappels de Probabilités 5 1. Espaces de probabilité et Variables aléatoires 5 2. Espérances et variances

Plus en détail

IV. Espaces L p. + tx 1. (1 t)x 0

IV. Espaces L p. + tx 1. (1 t)x 0 cours 13, le lundi 7 mars 2011 IV. spaces L p IV.1. Convexité Quand deux points x 0, x 1 R sont donnés, on peut parcourir le segment [x 0, x 1 ] qui les joint en posant pour tout t [0, 1] x t = (1 t)x

Plus en détail

Feuille d exercices n o 1. N(x i ). 4. On rappelle qu un espace normé est séparable s il contient une partie dénombrable dense.

Feuille d exercices n o 1. N(x i ). 4. On rappelle qu un espace normé est séparable s il contient une partie dénombrable dense. 1 Feuille d exercices n o 1 1. Deuxième forme géométrique du théorème de Hahn-Banach Soient A E et B E deux convexes, non vides, disjoints (E est une espace vectoriel normé). On suppose que A est fermé

Plus en détail

[http://mp.cpgedupuydelome.fr] édité le 29 décembre 2015 Enoncés 1. b) Soit (u n ) n N une suite d éléments de [0 ; 1]. Montrer

[http://mp.cpgedupuydelome.fr] édité le 29 décembre 2015 Enoncés 1. b) Soit (u n ) n N une suite d éléments de [0 ; 1]. Montrer [http://mp.cpgedupuydelome.fr] édité le 9 décembre 05 Enoncés Familles sommables Ensemble dénombrable a) Calculer n+ Exercice [ 03897 ] [Correction] Soit f : R R croissante. Montrer que l ensemble des

Plus en détail

Généralités sur les fonctions numériques

Généralités sur les fonctions numériques 7 Généralités sur les fonctions numériques Une fonction numérique est, de manière générale, une fonction d une variable réelle et à valeurs réelles. 7.1 Notions de base sur les fonctions Si I, J sont deux

Plus en détail

Intégrale de Lebesgue

Intégrale de Lebesgue Intégrale de Lebesgue ÉCOLE POLYTECHNIQUE Cours 4 : intégrale de Lebesgue Bertrand Rémy 1 / 50 1. Motivations et points de vue ÉCOLE POLYTECHNIQUE Cours 4 : intégrale de Lebesgue Bertrand Rémy 2 / 50 Deux

Plus en détail

Les espaces vectoriels

Les espaces vectoriels Agrégation interne UFR MATHÉMATIQUES 1. Généralités Les espaces vectoriels Dans tout le chapitre, K représente un corps commutatif. 1.1. Notion d espace vectoriel On considère un ensemble E sur lequel

Plus en détail

TOPOLOGIE DE LA DROITE REELLE

TOPOLOGIE DE LA DROITE REELLE TOPOLOGIE DE LA DROITE REELLE P. Pansu 16 mai 2005 1 Qu est-ce que la topologie? C est l étude des propriétés des objets qui sont conservées par déformation continue. Belle phrase, mais qui nécessite d

Plus en détail

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée

Cours 2 6 octobre. 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Introduction aux modèles graphiques 2010/2011 Cours 2 6 octobre Enseignant: Francis Bach Scribe: Nicolas Cheifetz, Issam El Alaoui 2.1 Maximum de vraisemblance pour une loi Gaussienne multivariée Soit

Plus en détail

PC* Espaces préhilbertiens réels

PC* Espaces préhilbertiens réels I. Espace préhilbertien réel................................... 3 I.1 Produit scalaire dans un espace vectoriel réel................... 3 I.2 Inégalités de Cauchy-Schwarz et de Minkowski..................

Plus en détail

Le théorème du point xe. Applications

Le théorème du point xe. Applications 49 Le théorème du point xe. Applications 1 Comme dans le titre de cette leçon, le mot théorème est au singulier, on va s'occuper du théorème du point xe de Picard qui a de nombreuses applications. Le cas

Plus en détail

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 2014 MATHS/STATS. Solution des exercices d algèbre linéaire

UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 2013 2014 MATHS/STATS. Solution des exercices d algèbre linéaire UNIVERSITÉ PARIS OUEST NANTERRE LA DÉFENSE U.F.R. SEGMI Année universitaire 3 4 Master d économie Cours de M. Desgraupes MATHS/STATS Document : Solution des exercices d algèbre linéaire Table des matières

Plus en détail

«Cours Statistique et logiciel R»

«Cours Statistique et logiciel R» «Cours Statistique et logiciel R» Rémy Drouilhet (1), Adeline Leclercq-Samson (1), Frédérique Letué (1), Laurence Viry (2) (1) Laboratoire Jean Kuntzmann, Dép. Probabilites et Statistique, (2) Laboratoire

Plus en détail

CHAPITRE 2 SUITES RÉELLES ET COMPLEXES

CHAPITRE 2 SUITES RÉELLES ET COMPLEXES CHAPITRE SUITES RÉELLES ET COMPLEXES Les suites sont un objet fondamental à la fois en mathématiques et dans l application des mathématiques aux autres sciences. Nous verrons dans ce cours et les travaux

Plus en détail

Statistique (MATH-F-315, Cours #1)

Statistique (MATH-F-315, Cours #1) Statistique (MATH-F-315, Cours #1) Thomas Verdebout Université Libre de Bruxelles 2015 Plan de la partie Statistique du cours 1. Introduction. 2. Théorie de l estimation. 3. Tests d hypothèses et intervalles

Plus en détail

Intégration de polynômes Points de Gauss

Intégration de polynômes Points de Gauss Intégration de polynômes Points de Gauss Commençons par un exercice classique de premier cycle. Problème 1 Trouver trois réels α, β et γ tels que, pour tout polynôme P de degré au plus 2, on ait : ( )

Plus en détail

2. Formalisation ... Or les variables sont indépendantes. Donc si

2. Formalisation ... Or les variables sont indépendantes. Donc si L'estimation 1. Concrètement... Dernièrement un quotidien affichait en première page : en 30 ans les françaises ont grandi de... je ne sais plus exactement, disons 7,1 cm. C'est peut-être un peu moins

Plus en détail

en dimension finie Table des matières

en dimension finie Table des matières Maths PCSI Cours Algèbre linéaire en dimension finie Table des matières 1 Rappels d algèbre linéaire 2 1.1 Applications linéaires......................................... 2 1.2 Familles libres, génératrices

Plus en détail

Définition d une norme

Définition d une norme Définition d une norme Définition E est un K-ev. L application N : E R + est une norme sur E ssi 1. x E, N(x) = 0 x = 0. 2. k K, x E, N(k.x) = k N(x). 3. x, y E, N(x + y) N(x) + N(y) Notation N,. Propriété

Plus en détail

Au menu. Cours 7: Classes Probabilistes. Application : Calcul de la médiane. Sous menu. Retours sur quelques algorithmes.

Au menu. Cours 7: Classes Probabilistes. Application : Calcul de la médiane. Sous menu. Retours sur quelques algorithmes. Au menu Cours 7: Classes Probabilistes Olivier Bournez bournez@lix.polytechnique.fr LIX, Ecole Polytechnique Retours sur quelques algorithmes Quelques résultats INF561 Algorithmes et Complexité 1 2 Sous

Plus en détail

Probabilités et Statistiques. Raphaël KRIKORIAN Université Paris 6

Probabilités et Statistiques. Raphaël KRIKORIAN Université Paris 6 Probabilités et Statistiques Raphaël KRIKORIAN Université Paris 6 Année 2005-2006 2 Table des matières 1 Rappels de théorie des ensembles 5 1.1 Opérations sur les ensembles................... 5 1.2 Applications

Plus en détail

Le Déterminant. par Alain Prouté Université Denis Diderot Paris 7. 1 Permutations. 1. 2 Application transposée, base duale. 3. 3 Mesures de volume.

Le Déterminant. par Alain Prouté Université Denis Diderot Paris 7. 1 Permutations. 1. 2 Application transposée, base duale. 3. 3 Mesures de volume. Ce cours peut être librement copié et distribué. Il est recommandé d en télécharger la version la plus récente à partir de : http://www.math.jussieu.fr/~alp. Toute remarque, correction ou suggestion doit

Plus en détail

Chapitre IV Bases et dimension d un espace vectoriel

Chapitre IV Bases et dimension d un espace vectoriel Chapitre IV Bases et dimension d un espace vectoriel Objectif : Nous allons voir comment fabriquer des systèmes de coordonnées pour les vecteurs d un espace vectoriel général. Dans ce chapitre désigne

Plus en détail

Arithmétique Algorithmique. http://www.math.univ-lyon1.fr/~roblot/ens.html

Arithmétique Algorithmique. http://www.math.univ-lyon1.fr/~roblot/ens.html Arithmétique Algorithmique http://www.math.univ-lyon1.fr/~roblot/ens.html Partie III Algorithmes classiques 1 Coût de la multiplication et de la division 2 Exponentiation rapide 3 Algorithme d Euclide

Plus en détail

Machines de Turing. Chapitre 14 14.1. DÉFINITION ET FONCTIONNEMENT

Machines de Turing. Chapitre 14 14.1. DÉFINITION ET FONCTIONNEMENT Chapitre 4 Machines de Turing Dans ce chapitre on présente un modèle de calcul introduit dans les années 3 par Turing, les machines de Turing. Ces machines formalisent la notion de calculabilité. La thèse

Plus en détail

Rapport de Recherche. 1 Estimation fonctionnelle en temps continu. 1.1 Vitesses de convergence pour l estimateur à noyau. (D. Blanke - Mars 2008)

Rapport de Recherche. 1 Estimation fonctionnelle en temps continu. 1.1 Vitesses de convergence pour l estimateur à noyau. (D. Blanke - Mars 2008) Rapport de Recherche (D. Blanke - Mars 2008) L essentiel de mes activités de recherche porte sur l estimation fonctionnelle ou paramétrique pour des processus. L ensemble de ces travaux peut se diviser

Plus en détail

Les théorèmes de Gerschgorin et de Hadamard

Les théorèmes de Gerschgorin et de Hadamard Localisation des valeurs propres : Quelques propriétés sur les disques de Gerschgorin. Jean-Baptiste Campesato 22 septembre 29 Gerschgorin est parfois retranscrit en Gershgorin, Geršgorin, Hershhornou

Plus en détail

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée

Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Techniques d estimation : Maximum de Vraisemblance et Méthode des Moments Généralisée Philippe Gagnepain Université Paris 1 Ecole d Economie de Paris Centre d économie de la Sorbonne-UG 4-Bureau 405 philippe.gagnepain@univ-paris1.fr

Plus en détail

Université de Cergy-Pontoise 2008-2009 Calcul Diff S6 M. Topologie

Université de Cergy-Pontoise 2008-2009 Calcul Diff S6 M. Topologie Université de Cergy-Pontoise 2008-2009 Calcul Diff S6 M Topologie 1 Espaces métriques 1.1 Distance Dans toute cette partie E représente un ensemble qui n est pas forcément un espace vectoriel. Définition

Plus en détail

Rappels d Algèbre Linéaire de P.C.S.I

Rappels d Algèbre Linéaire de P.C.S.I Rappels d Algèbre Linéaire de PCSI Table des matières 1 Structure d espace vectoriel sur IK 3 11 Définition et règles de calcul 3 12 Exemples de référence 3 13 Espace vectoriel produit 4 14 Sous-espaces

Plus en détail

Baccalauréat Série S Métropole, juin 2014

Baccalauréat Série S Métropole, juin 2014 Baccalauréat Série S Métropole, juin 4 Sujet et Corrigé Stéphane PASQUET Disponible sur http://www.mathweb.fr juin 4 Exercice (5 points) - Commun à tous les candidats Partie A Dans le plan muni d un repère

Plus en détail

EMLYON 2015 S. Éléments de correction

EMLYON 2015 S. Éléments de correction EMLYON 15 S Éléments de correction ECS Lycée La ruyère, Versailles Année 1/15 Premier problème Première partie 1. On peut vérifier le critère de sous-espace vectoriel E et, pour P 1, P E et λ R, λp 1 +

Plus en détail

Intégration et probabilités ENS Paris, 2013-2014. TD 5 Théorèmes de Fubini, calculs Corrigé

Intégration et probabilités ENS Paris, 2013-2014. TD 5 Théorèmes de Fubini, calculs Corrigé Intégration et probabilités NS Paris, 23-24 TD 5 Théorèmes de Fubini, calculs Corrigé xercices à préparer du TD 4 xercice. (Partiel 27 Soit (,,µ un espace mesuré et f : + une fonction mesurable.. On suppose

Plus en détail

Support du cours de Probabilités et Statistiques. IUT d Orléans, Département Informatique

Support du cours de Probabilités et Statistiques. IUT d Orléans, Département Informatique Support du cours de Probabilités et Statistiques IUT d Orléans, Département informatique Pierre Andreoletti IUT d Orléans, Département Informatique Laboratoire MAPMO (Bât. de Mathématiques UFR Sciences)

Plus en détail

Les espaces L p. Chapitre 6. 6.1 Définitions et premières propriétés. 6.1.1 Les espaces L p, avec 1 p < +

Les espaces L p. Chapitre 6. 6.1 Définitions et premières propriétés. 6.1.1 Les espaces L p, avec 1 p < + Chapitre 6 Les espaces L p 6.1 Définitions et premières propriétés 6.1.1 Les espaces L p, avec 1 p < + Soient (E, T,m) un espace mesuré, 1 p < + et f M = M(E, T) (c est-à-dire f : E R, mesurable). On remarque

Plus en détail

Indication Prendre une combinaison linéaire nulle et l évaluer par ϕ n 1.

Indication Prendre une combinaison linéaire nulle et l évaluer par ϕ n 1. 1 Définition Exercice 1 Déterminer si les applications f i suivantes (de E i dans F i ) sont linéaires : f 1 : (x, y) R 2 (2x + y, x y) R 2, f 2 : (x, y, z) R 3 (xy, x, y) R 3 f 3 : (x, y, z) R 3 (2x +

Plus en détail

Chapitre 8: Inférence, échantillonnage et estimation

Chapitre 8: Inférence, échantillonnage et estimation Chapitre 8: Inférence, échantillonnage et estimation 1. Echantillonnage aléatoire simple 2. Inférence statistique 3. Estimation 4. Evaluation graphique de l adéquation d un modèle de distribution 1 L inférence

Plus en détail

1 Définition, existence, unicité.

1 Définition, existence, unicité. Université Denis Diderot Paris 7 Espérance conditionnelle Ces rappels et compléments de cours sont inspirés de [1], [2], [3]. Il va de soi que pour une bonne connaissance des notions qui suivent, il est

Plus en détail

Bases du Modèle Linéaire

Bases du Modèle Linéaire AgroParisTech Bases du Modèle Linéaire J.J. Daudin, E. Lebarbier, C. Vuillet Table des matières 1 Introduction 3 2 Estimation des paramètres 5 2.1 Estimation des paramètres de l espérance......................

Plus en détail

Cours d Analyse Semestre 1. Stéphane Attal

Cours d Analyse Semestre 1. Stéphane Attal Cours d Analyse Semestre 1 Stéphane Attal 2 Contents 1 Les nombres réels 5 1.1 Les ensembles usuels de nombres................ 5 1.2 Ensembles ordonnés........................ 6 1.3 Le corps des nombres

Plus en détail

Théorème de Rolle et égalité des accroissements finis. Applications

Théorème de Rolle et égalité des accroissements finis. Applications 0 Théorème de Rolle et égalité des accroissements finis. Applications 0. Le théorème de Rolle sur un espace vectoriel normé Pour ce paragraphe, on se donne un espace vectoriel normé (E, ). Le théorème

Plus en détail

Sujets HEC B/L 2013-36-

Sujets HEC B/L 2013-36- -36- -37- Sujet HEC 2012 B/L Exercice principal B/L1 1. Question de cours : Définition et propriétés de la fonction de répartition d une variable aléatoire à densité. Soit f la fonction définie par : f(x)

Plus en détail

Estimation. Anita Burgun

Estimation. Anita Burgun Estimation Anita Burgun Estimation Anita Burgun Contenu du cours Sondages Mesures statistiques sur un échantillon Estimateurs Problème posé Le problème posé en statistique: On s intéresse à une population

Plus en détail

Seconde Partie. Cours de Mathématiques. Semestre

Seconde Partie. Cours de Mathématiques. Semestre Année 2009-2010 ntégration et Probabilités Seconde Partie Cours de Mathématiques Takéo Takahashi Première Année FICM Semestre Table des matières 5 Indépendance et Convolution 3 5.1 Indépendance..............................................

Plus en détail

Cours de Mathématiques II Chapitre 1. Algèbre linéaire

Cours de Mathématiques II Chapitre 1. Algèbre linéaire Université de Paris X Nanterre UFR Segmi Année 7-8 Licence Economie-Gestion première année Cours de Mathématiques II Chapitre Algèbre linéaire Table des matières Espaces vectoriels Espaces et sous-espaces

Plus en détail

Université Paris IX Dauphine UFR Mathématiques de la décision Notes de cours ALGEBRE 2. Guillaume CARLIER

Université Paris IX Dauphine UFR Mathématiques de la décision Notes de cours ALGEBRE 2. Guillaume CARLIER Université Paris IX Dauphine UFR Mathématiques de la décision Notes de cours ALGEBRE 2 Guillaume CARLIER L1, année 2006-2007 2 Ce support de cours est basé sur le poly de Tristan Tomala des années précédentes.

Plus en détail

geffray@math.unistra.fr Outils pour la statistique avancée Année 2015/2016 TD 1 : Bootstrap

geffray@math.unistra.fr Outils pour la statistique avancée Année 2015/2016 TD 1 : Bootstrap Université de Strasbourg Ségolen Geffray M2 - Statistique geffray@math.unistra.fr Outils pour la statistique avancée Année 2015/2016 TD 1 : Bootstrap Ces exercices seront effectués au moyen du logiciel

Plus en détail

Agrégation de Mathématiques Exercices d algèbre linéaire

Agrégation de Mathématiques Exercices d algèbre linéaire Agrégation de Mathématiques Exercices d algèbre linéaire P. HUBERT La plupart des exercices ci-dessous se trouvent dans les livres suivants : - E. Leichtnam, X. Schaeur, Exercices corrigés de mathématiques

Plus en détail

2 Ensembles convexes. 2.1 Définition et premières propriétés

2 Ensembles convexes. 2.1 Définition et premières propriétés 2 Ensembles convexes Les chapitres 2 et 3 présentent les éléments d analyse convexe qui nous seront utiles pour étudier les problèmes d optimisation et les algorithmes qui les résolvent. Le chapitre 2

Plus en détail

Réduction des endomorphismes et des matrices carrées

Réduction des endomorphismes et des matrices carrées 48 Chapitre 4 Réduction des endomorphismes et des matrices carrées La motivation de ce chapitre est la suivante. Étant donné un endomorphisme f d un espace E de dimension finie, déterminé par sa matrice

Plus en détail

Chapitre 01 : Intégrales généralisées. Objectifs : En première année, on a étudié l intégrale d une fonction définie et continue sur un intervalle

Chapitre 01 : Intégrales généralisées. Objectifs : En première année, on a étudié l intégrale d une fonction définie et continue sur un intervalle Chapitre 01 : Intégrales généralisées Objectifs : En première année, on a étudié l intégrale d une fonction définie et continue sur un intervalle fermé borné de Dans ce chapitre, on va étudier le cas d

Plus en détail

Un peu de topologie. Espaces métriques. Documents disponibles sur www.math.polytechnique.fr/ laszlo. Enseignants :

Un peu de topologie. Espaces métriques. Documents disponibles sur www.math.polytechnique.fr/ laszlo. Enseignants : Documents disponibles sur www.math.polytechnique.fr/ laszlo Un peu de topologie Enseignants : F. Golse (golse@math.polytechnique.fr), Y. Laszlo (laszlo@math.polytechnique.fr), C. Viterbo (viterbo@math.polytechnique.fr)

Plus en détail

Tests statistiques élémentaires

Tests statistiques élémentaires Résumé Il serait vain de chercher à présenter l ensemble des tests statistiques, la littérature est très abondante sur le sujet. Cette vignette introduit les plus couramment calculés par les logiciels

Plus en détail

Eléments de statistique Leçons 3 et 4 - Estimation

Eléments de statistique Leçons 3 et 4 - Estimation Eléments de statistique Leçons 3 et 4 - Estimation Louis Wehenkel Département d Electricité, Electronique et Informatique - Université de Liège B24/II.93 - L.Wehenkel@ulg.ac.be MATH0487-1 : 3BacIng, 3BacInf

Plus en détail

Statistiques appliquées (L3 d'économie) - Cours de Patrick Sevestre - TD 2 - Corrigé

Statistiques appliquées (L3 d'économie) - Cours de Patrick Sevestre - TD 2 - Corrigé Statistiques appliquées (L3 d'économie) - Cours de Patrick Sevestre - TD 2 - Corrigé Marc Sangnier - marc.sangnier@ens-cachan.fr 29 octobre 2007 Exercice 1 - Lien entre salaire et formation Remarques préliminaires

Plus en détail

Cours d analyse 1ère année. Rhodes Rémi

Cours d analyse 1ère année. Rhodes Rémi Cours d analyse 1ère année Rhodes Rémi 10 décembre 2008 2 Table des matières 1 Propriétés des nombres réels 5 1.1 Sous-ensembles remarquables de R........................ 5 1.2 Relations d ordre..................................

Plus en détail

Unicité et minimalité des solutions d une équation de Ginzburg-Landau.

Unicité et minimalité des solutions d une équation de Ginzburg-Landau. Unicité et minimalité des solutions d une équation de Ginzburg-Landau. Gilles arbou.m.l.a Ecole Normale Supérieure de achan 61, avenue du Président Wilson 9435 achan edex Résumé. - On étudie les solutions

Plus en détail

Estimateur et Estimation Prof Franck Bonnetain Unité de méthodologie & de qualité de vie en cancérologie (EA3181) CHRU Besançon

Estimateur et Estimation Prof Franck Bonnetain Unité de méthodologie & de qualité de vie en cancérologie (EA3181) CHRU Besançon PACES - APEMK UE 4 Evaluation des méthodes d analyses appliquées aux sciences de la vie et de la santé Estimateur et Estimation Prof Franck Bonnetain Unité de méthodologie & de qualité de vie en cancérologie

Plus en détail

Statistiques. IUT Biotechnologie 2ème année. Jean-Christophe Breton Université de La Rochelle Octobre-Novembre 2008

Statistiques. IUT Biotechnologie 2ème année. Jean-Christophe Breton Université de La Rochelle Octobre-Novembre 2008 Statistiques IUT Biotechnologie 2ème année Jean-Christophe Breton Université de La Rochelle Octobre-Novembre 2008 version du 04 octobre 2008 Table des matières 1 Lois de probabilité usuelles 1 1.1 Dénombrement................................

Plus en détail

DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES

DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES Université Paris1, Licence 00-003, Mme Pradel : Principales lois de Probabilité 1 DEFINITION et PROPRIETES des PRINCIPALES LOIS de PROBABILITES Notations Si la variable aléatoire X suit la loi L, onnoterax

Plus en détail

et Transversalité par Pierre Vogel

et Transversalité par Pierre Vogel Université Paris 7 Denis Diderot Institut de Mathématiques de Jussieu Géométrie des Variétés et Transversalité par Pierre Vogel Introduction Ce cours est destiné à l étude des variétés différentiables

Plus en détail

Espaces vectoriels normés

Espaces vectoriels normés Espaces vectoriels normés Essaidi Ali 19 octobre 2010 K = R ou C. E un K-espace vectoriel. 1 Normes et distances : 1.1 Normes et distances : Définition : On appelle semi-norme sur E toute application N

Plus en détail

2010/2011. Espaces vectoriels

2010/2011. Espaces vectoriels Université Paris-Est Marne-la-Vallée 010/011 M1 enseignement CD/Préparation au CAPES Espaces vectoriels Dans toute la suite on considèrera des espaces vectoriels sur un corps commutatif K de caractéristique

Plus en détail

ALGÈBRE BILINÉAIRE 1

ALGÈBRE BILINÉAIRE 1 3-8- 213 J.F.C. Eve p. 1 ALGÈBRE BILINÉAIRE 1 P mentionne des résultats particulièrement utiles et souvent oubliés dans la pratique de l algèbre bilinéaire... mentionne des erreurs à ne pas faire où des

Plus en détail

Recueil d annales en Mathématiques. Terminale S Enseignement obligatoire. Intégrales

Recueil d annales en Mathématiques. Terminale S Enseignement obligatoire. Intégrales Recueil d annales en Mathématiques Terminale S Enseignement obligatoire Frédéric Demoulin Dernière révision : 3 juin 2 Document diffusé via le site www.bacamaths.net de Gilles Costantini 2. frederic.demoulin

Plus en détail

Chapitre 6 TESTS STATISTIQUES

Chapitre 6 TESTS STATISTIQUES Statistique appliquée à la gestion et au marketing http://foucart.thierry.free.fr/statpc Chapitre 6 TESTS STATISTIQUES Les tests statistiques sont des méthodes de la statistique inférentielle qui, comme

Plus en détail

TD7. ENS Cachan M1 Hadamard 2015-2016. Exercice 1 Sous-espaces fermés de C ([0,1]) formé de fonctions régulières.

TD7. ENS Cachan M1 Hadamard 2015-2016. Exercice 1 Sous-espaces fermés de C ([0,1]) formé de fonctions régulières. Analyse fonctionnelle A. Leclaire ENS Cachan M Hadamard 25-26 TD7 Exercice Sous-espaces fermés de C ([,] formé de fonctions régulières. Soit F un sous-espace vectoriel fermé de C ([,] muni de la convergence

Plus en détail

Cours d Analyse Réelle 4M003

Cours d Analyse Réelle 4M003 Cours d Analyse Réelle 4M003 Jean SAINT RAYMOND Université Pierre et Marie Curie Avant-propos Ce texte a été rédigé pour servir de support écrit à un cours de Master 1 de l Université Pierre-et-Marie Curie.

Plus en détail

Résolution de systèmes linéaires : Méthodes directes. Polytech Paris-UPMC. - p. 1/51

Résolution de systèmes linéaires : Méthodes directes. Polytech Paris-UPMC. - p. 1/51 Résolution de systèmes linéaires : Méthodes directes Polytech Paris-UPMC - p. /5 Rappels mathématiques s Propriétés - p. 2/5 Rappels mathématiques Soit à résoudre le système linéaire Ax = b. Rappels mathématiques

Plus en détail

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I

ÉLÉMENTS D OPTIMISATION. Complément au cours et au livre de MTH 1101 - CALCUL I ÉLÉMENTS D OPTIMISATION Complément au cours et au livre de MTH 1101 - CALCUL I CHARLES AUDET DÉPARTEMENT DE MATHÉMATIQUES ET DE GÉNIE INDUSTRIEL ÉCOLE POLYTECHNIQUE DE MONTRÉAL Hiver 2011 1 Introduction

Plus en détail

4.1 Planification d une expérience complètement randomisée

4.1 Planification d une expérience complètement randomisée Chapitre 4 La validation des hypothèses d ANOVA à un facteur Dans le modèle standard d ANOVA, on a fait quelques hypothèses. Pour que les résultats de l analyse effectuée soient fiables, il est nécessaire

Plus en détail

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE

MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE MODELISATION DE DONNÉES QUALITATIVES PREMIÈRE PARTIE Pierre-Louis Gonzalez 1 I INTRODUCTION 1 variable qualitative. Tri à plat. Représentations graphiques. Modélisation : loi binomiale loi multinomiale

Plus en détail

Statistiques - Notes de cours - M1. Elisabeth Gassiat

Statistiques - Notes de cours - M1. Elisabeth Gassiat Statistiques - Notes de cours - M1 Elisabeth Gassiat Table des matières 1 Introduction 5 1.1 Estimation et régions de confiance...................... 5 1.2 Tests.......................................

Plus en détail

Échantillonnage et estimation

Échantillonnage et estimation Échantillonnage et estimation Dans ce chapitre, on s intéresse à un caractère dans une population donnée dont la proportion est notée. Cette proportion sera dans quelques cas connue (échantillonnage),

Plus en détail

Chapitre I Théorie de la ruine

Chapitre I Théorie de la ruine Chapitre I Théorie de la ruine Olivier Wintenberger ISUP 2, Université Paris VI (slides Olivier Lopez) Année universitaire 2013-2014 1 Risque collectif 2 Modélisation des coûts de sinistres 3 Probabilité

Plus en détail

Épreuve de Mathématiques 8

Épreuve de Mathématiques 8 Lycée La Prat s Vendredi 10 avril 2015 Classe de PT Épreuve de Mathématiques 8 Durée 4 h L usage des calculatrices est interdit. La présentation, la lisibilité, l orthographe, la qualité de la rédaction

Plus en détail

Cours de mathématiques

Cours de mathématiques Cours de mathématiques Ó Ø Ó Ö ¾¼½ PSI Aurélien Monteillet ii Ce document contient les notes d un cours de mathématiques pour la classe de PSI. Les démonstrations non exigibles ou hors programme sont explicitement

Plus en détail

Laurent Garcin MPSI Lycée Jean-Baptiste Corot

Laurent Garcin MPSI Lycée Jean-Baptiste Corot ESPACES VECTORIELS 1 Définition et exemples fondamentaux 1.1 Définition Définition 1.1 Espace vectoriel Soient K un corps et E un ensemble muni d une loi interne + et d une loi externe. i.e. d une application

Plus en détail

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Corrigé

Baccalauréat ES/L Amérique du Sud 21 novembre 2013 Corrigé Baccalauréat ES/L Amérique du Sud 2 novembre 2 Corrigé A. P. M. E. P. EXERCICE Commun à tous les candidats 5 points. Diminuer le budget de 6 % sur un an revient à multiplier par 6 =,94. Diminuer le budget

Plus en détail

Programmes des classes préparatoires aux Grandes Ecoles

Programmes des classes préparatoires aux Grandes Ecoles Programmes des classes préparatoires aux Grandes Ecoles Filière : économique et commerciale Option : Technologique (ECT) Discipline : Mathématiques- Informatique Seconde année Ministère de l enseignement

Plus en détail

StatEnAction 2009/10/30 11:26 page 111 #127 CHAPITRE 10. Machines à sous

StatEnAction 2009/10/30 11:26 page 111 #127 CHAPITRE 10. Machines à sous StatEnAction 2009/0/30 :26 page #27 CHAPITRE 0 Machines à sous Résumé. On étudie un problème lié aux jeux de hasard. Il concerne les machines à sous et est appelé problème de prédiction de bandits à deux

Plus en détail

Devoir maison n 5. MP Lycée Clemenceau. A rendre le 7 janvier 2014. Centrale

Devoir maison n 5. MP Lycée Clemenceau. A rendre le 7 janvier 2014. Centrale Devoir maison n 5 MP Lycée Clemenceau A rendre le 7 janvier 214 Centrale - Dans le problème, λ désigne toujours une application continue de IR + dans IR +, croissante et non majorée. - Dans le problème,

Plus en détail

Master 2 IMOI - Mathématiques Financières

Master 2 IMOI - Mathématiques Financières Master 2 IMOI - Mathématiques Financières Exercices - Liste 1 1 Comportement d un investisseur face au risque Exercice 1 Soit K la matrice définie par 1 2 [ 3 1 1 3 1.1 Montrer que K est la matrice de

Plus en détail

Analyse en composantes principales

Analyse en composantes principales Analyse en composantes principales Alain Rakotomamonjy - Gilles Gasso. INSA Rouen -Département ASI Laboratoire LITIS Analyse en composantes principales p. 1/18 Introduction Objectifs Soit {x i } i=1,,l

Plus en détail

Chapitre 7 Tests d hypothèse (partie 1)

Chapitre 7 Tests d hypothèse (partie 1) Chapitre 7 Tests d hypothèse (partie 1) I Qu est ce qu un test statistique? La philosophie est toujours la même : déterminer des informations sur une population à partir d informations sur un échantillon

Plus en détail

Classes Caratéristiques.

Classes Caratéristiques. Ce cours peut être librement copié et distribué. Il est recommandé d en télécharger la version la plus récente à partir de : http://www.math.jussieu.fr/~alp. Toute remarque, correction ou suggestion doit

Plus en détail

Chapitre : Fonctions convexes

Chapitre : Fonctions convexes Chapitre : Fonctions convexes I Définition Définition 1 Soit f : I R une fonction continue où I un intervalle de R On dit que f est une fonction convexe si (x, y I 2, λ [0, 1], f(λx + (1 λy λf(x + (1 λf(y

Plus en détail

Chapitre 5: Opérateurs dans les espaces de Hilbert. Notions d opérateur adjoint

Chapitre 5: Opérateurs dans les espaces de Hilbert. Notions d opérateur adjoint Chapitre 5: Opérateurs dans les espaces de Hilbert. Notions d opérateur adjoint 18 mars 2008 1 Généralités sur les opérateurs 1.1 Définitions Soient H et H deux espaces de Hilbert sur C. Définition 1.1

Plus en détail

Deuxième partie. Estimation ponctuelle et par intervalles

Deuxième partie. Estimation ponctuelle et par intervalles Deuxième partie Estimation ponctuelle et par intervalles CHAITRE 3 Estimation ponctuelle Résumé : Des chapitres précédents, il faut essentiellement retenir que dans la plupart des cas étudiés dans ce

Plus en détail

Autour de Perron, Frobenius et Markov

Autour de Perron, Frobenius et Markov Université Claude Bernard Lyon 1-2007/2008 Préparation Capes - Algèbre et Géométrie - Devoir à rendre le 12 février 2008 - Autour de Perron Frobenius et Markov Rappels et notations On note M mn (K) le

Plus en détail

1 Espaces vectoriels normés

1 Espaces vectoriels normés Université Paris 7 Denis Diderot Année 2005/2006 Licence 2 MIAS MI4 1 Espaces vectoriels normés 1.1 Définitions Soit E un espace vectoriel sur R. Topologie des espaces vectoriels de dimension finie Définition

Plus en détail

L2 2011/2012 USTV. Analyse. numérique M43. Recueil d exercices corrigés et aide-mémoire G. FACCANONI. Dernière mise-à-jour

L2 2011/2012 USTV. Analyse. numérique M43. Recueil d exercices corrigés et aide-mémoire G. FACCANONI. Dernière mise-à-jour L / Recueil d exercices corrigés et aide-mémoire USTV M Analyse numérique G FACCANONI Dernière mise-à-jour Jeudi mai Avertissement : ces notes sont régulièrement mises à jour et corrigées, ne vous étonnez

Plus en détail