Révision MAT1978. P (X = 0) = 1 p = q P (X = 1) = p, E(X) = p V ar(x) = p(1 p). ϕ(t) = q + pe t.

Documents pareils
4 Distributions particulières de probabilités

Moments des variables aléatoires réelles

Variables Aléatoires. Chapitre 2

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

STATISTIQUES. UE Modélisation pour la biologie

Simulation de variables aléatoires

Probabilités sur un univers fini

1 TD1 : rappels sur les ensembles et notion de probabilité

TSTI 2D CH X : Exemples de lois à densité 1

CONCOURS D ENTREE A L ECOLE DE 2007 CONCOURS EXTERNE. Cinquième épreuve d admissibilité STATISTIQUE. (durée : cinq heures)

Loi binomiale Lois normales

Couples de variables aléatoires discrètes

4. Martingales à temps discret

Projet Etienne Marceau Méthodes statistiques en assurance non vie

MÉTHODE DE MONTE CARLO.

3. Conditionnement P (B)

Lois de probabilité. Anita Burgun

Annexe commune aux séries ES, L et S : boîtes et quantiles

Loi d une variable discrète

Processus aléatoires avec application en finance

Actuariat I ACT2121. septième séance. Arthur Charpentier. Automne charpentier.arthur@uqam.ca. http ://freakonometrics.blog.free.

I. Polynômes de Tchebychev

Programmes des classes préparatoires aux Grandes Ecoles

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Introduction à la théorie des files d'attente. Claude Chaudet

Travaux dirigés d introduction aux Probabilités

Bases : Probabilités, Estimation et Tests.

Exemples d application

Texte Agrégation limitée par diffusion interne

Tests d indépendance en analyse multivariée et tests de normalité dans les modèles ARMA

Estimation: intervalle de fluctuation et de confiance. Mars IREM: groupe Proba-Stat. Fluctuation. Confiance. dans les programmes comparaison

LEÇON N 7 : Schéma de Bernoulli et loi binomiale. Exemples.

ENS de Lyon TD septembre 2012 Introduction aux probabilités. A partie finie de N

Chapitre 3. Les distributions à deux variables

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Probabilités sur un univers fini

Méthodes de Simulation

Tests non-paramétriques de non-effet et d adéquation pour des covariables fonctionnelles

MA6.06 : Mesure et Probabilités

Température corporelle d un castor (une petite introduction aux séries temporelles)

Méthodes de quadrature. Polytech Paris-UPMC. - p. 1/48

Probabilités et Statistiques. Feuille 2 : variables aléatoires discrètes

3 Approximation de solutions d équations

FORMULAIRE DE STATISTIQUES

PROBABILITES ET STATISTIQUE I&II

Cours de gestion des risques d assurances et de théorie de la ruine. Stéphane Loisel

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #4-5

Probabilités et statistique. Benjamin JOURDAIN

Que faire lorsqu on considère plusieurs variables en même temps?

3. Caractéristiques et fonctions d une v.a.

FIMA, 7 juillet 2005

Probabilités III Introduction à l évaluation d options

Introduction à la statistique non paramétrique

Cours 02 : Problème général de la programmation linéaire

MODELES DE DUREE DE VIE

Chapitre 3 : Principe des tests statistiques d hypothèse. José LABARERE

TABLE DES MATIERES. C Exercices complémentaires 42

Probabilités Loi binomiale Exercices corrigés

Correction du bac blanc CFE Mercatique

Correction de l examen de la première session

Cours de probabilité et statistique

Amphi 3: Espaces complets - Applications linéaires continues

Baccalauréat ES Pondichéry 7 avril 2014 Corrigé

Introduction à R. Florence Yerly. Dept. de mathématiques, Université de Fribourg (CH) SP 2011

Exercices sur le chapitre «Probabilités»

Indépendance Probabilité conditionnelle. Chapitre 3 Événements indépendants et Probabilités conditionnelles

Exercices supplémentaires sur l introduction générale à la notion de probabilité

Quantification Scalaire et Prédictive

Exercices - Polynômes : corrigé. Opérations sur les polynômes

Chapitre 7. Statistique des échantillons gaussiens. 7.1 Projection de vecteurs gaussiens

PROBABILITÉS: COURS DE LICENCE DE MATHÉMATIQUES APPLIQUÉES LM 390

Formes quadratiques. 1 Formes quadratiques et formes polaires associées. Imen BHOURI. 1.1 Définitions

Espérance conditionnelle

Intégration et probabilités TD1 Espaces mesurés Corrigé

Licence MASS (Re-)Mise à niveau en Probabilités. Feuilles de 1 à 7

Calcul différentiel sur R n Première partie

TABLE DES MATIÈRES. Bruxelles, De Boeck, 2011, 736 p.

Les devoirs en Première STMG

ACTUARIAT 1, ACT 2121, AUTOMNE 2013 #16

a et b étant deux nombres relatifs donnés, une fonction affine est une fonction qui a un nombre x associe le nombre ax + b

Cours d Analyse. Fonctions de plusieurs variables

Econométrie et applications

Exo7. Matrice d une application linéaire. Corrections d Arnaud Bodin.

1 TD n 1:dénombrement

Probabilités avancées. Florin Avram

Le modèle de Black et Scholes

Biostatistiques : Petits effectifs

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

I. Introduction. 1. Objectifs. 2. Les options. a. Présentation du problème.

Incertitudes expérimentales

Le Modèle Linéaire par l exemple :

FONCTIONS DE PLUSIEURS VARIABLES (Outils Mathématiques 4)

Introduction au pricing d option en finance

Apprentissage non paramétrique en régression

Chapitre 2. Matrices

Cours de Tests paramétriques

NOTE SUR LA MODELISATION DU RISQUE D INFLATION

Coefficients binomiaux

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

Bac Blanc Terminale ES - Février 2011 Épreuve de Mathématiques (durée 3 heures)

Transcription:

Révision MAT978 Chapitre 5. lois Bernoulli et binomiale Une épreuve de Bernoulli(p consiste à observer un succès ou un échec selon les probabilités où 0 p. La moyenne et la variance sont P (X = 0 = p = q P (X = = p, E(X = p V ar(x = p( p. La fonction génératrice des moments (fgm est ϕ(t = q + pe t. On obtient une variable binomiale(n, p lorsqu on observe le nombre de succès dans une suite de n épreuves de Bernoulli indépendantes. La fonction de masse est ( n P (X = i = p i ( p n i, i = 0,,..., n. i Une variable binomiale s écrit comme X = X i, i= où les variables X i sont iid de loi Bernoulli(p. Ceci donne la moyenne et la variance E(X = np V ar(x = np( p de même que la fgm ϕ(t = (q + pe t n. La formule récursive est aussi utile P (X = k + = p n k P (X = k. p k +

.2 loi de Poisson Une variable X suit la loi de Poisson(λ, λ > 0, si X a pour fonction de masse La fgm de cette loi est P (X = i = e ce qui procure la moyenne et la variance λ λi, i = 0,,... i! ϕ(t = exp[λ(e t ] E(X = λ V ar(x = λ. La loi binomiale(n, p, où n est grand et p est petit peut être approchée par une loi de Poisson(λ, où λ = np. Si X de loi Poisson(λ est indépendante de X 2 de loi Poisson(λ 2 alors, X + X 2 est de loi Poisson(λ +λ 2. C est cette propriété qu on invoque pour dire que si le nombre de particules alpha émises dans un intervalle d une seconde suit une loi de Poisson(3, 2 alors, le nombre de particules alpha émises dans un intervalle de 2 secondes suit une loi de Poisson(6, 4. Si X de loi Poisson(λ est indépendante de X 2 de loi Poisson(λ 2 alors, la loi conditionnelle de X, étant donnée que X + X 2 = n, est la loi binomiale(n, λ /(λ + λ 2. On a aussi la formule récursive.3 loi hypergéométrique P (X = i + = λ P (X = i. i + Une urne contient N boules rouges et M boules noires. On choisit au hasard (sans remise n boules de l urne. La fonction de masse de X, le nombre de boules rouges sélectionnées, est celle de la loi hypergéométrique(n, M, n ( N ( M i P (X = i = n i ( N+M n, max(0, n M i min(n, n. La moyenne de X est E(X = nn (N + M. Si la sélection était faite avec remise, la loi de X serait binomiale(n, N/(N + M. Si X de loi binomiale(n, p est indépendante de Y de loi binomiale(m, p alors, la loi conditionnelle de X, étant donnée que X + Y = k, est la loi hypergéométrique(n, m, k. 2

.4 loi uniforme La variable X de loi uniforme(α, β a pour densité f(x = β α, α < x < β. Si U est de loi uniforme(0, alors, X = α + (β αu est de loi uniforme(α, β. La moyenne et la variance sont.5 loi normale La variable X de loi N(µ, σ 2 a pour densité E(X = α + β 2 (β α2 V ar(x =. 2 f(x = 2π σ e (x µ2 /2σ 2. Si Z est de loi N(0, alors, X = µ + σz est de loi N(µ, σ 2. Réciproquement, si X est de loi N(µ, σ 2 alors, Z = (X µ/σ est de loi N(0,. Les tables de la loi N(0, donne la fonction de répartition Par symmétrie, Φ( z = Φ(z. Φ(z = z 2π e x2 /2 dx. Si X est de loi N(µ, σ 2 alors, ( ( b µ a µ P (a < X < b = Φ Φ. σ σ La fgm de la loi N(µ, σ 2 est ϕ(t = e tµ+σ2 t 2 /2. Si X i, i =,..., n, sont indépendantes de loi N(µ i, σ 2 i alors Σ n i=x i est de loi N(µ, σ 2 où µ = Σ n i=µ i et σ 2 = Σ n i=σ 2 i. Le quantile α de la loi N(0, est noté z α et satisfait P (Z > z α = Φ(z α = α. 3

.6 loi exponentielle La variable X de loi exponentielle(λ, λ > 0, a pour densité f(x = λe λx, x > 0. La fonction de répartition de X est F (x = e λx, x > 0. Si U est de loi exponentielle( alors, X = U/λ est de loi exponentielle(λ. La fgm de X est ϕ(t = λ/(λ t, t < λ. La moyenne et la variance de X sont E(X = /λ V ar(x = /λ 2. La variable X est dite sans mémoire puisque P (X > s + t X > t = P (X > s, s, t > 0. Si X i, i =,..., n, sont indépendantes de loi exponentielle(λ i alors, min(x,..., X n est de loi exponentielle(λ, où λ = Σ n i=λ i. Cette propriété permet de modéliser la durée de vie d un système de composantes indépendantes installées en série..7 loi du khi-deux Si Z,..., Z n sont iid N(0, alors, par définition, la loi de X = Z 2 + + Zn 2 est la loi du χ 2 n. Le quantile α de la loi du χ 2 n est noté χ 2 α,n et satisfait P (X > χ 2 α,n = α. la fgm de X est ϕ(t = ( 2t n/2, t < /2. Si X de loi χ 2 n est indépendante de Y de loi χ 2 m alors, X + Y est de loi χ 2 n+m. La moyenne et la variance de la loi du χ 2 n sont E(X = n V ar(x = 2n. 4

.8 la loi de Student Si Z de loi N(0, est indépendante de X n de loi χ 2 n alors, par définition, la loi de T n = Z Xn /n est la loi t n de Student à n degrés de liberté. La loi de T n est symétrique par rapport à 0. Lorsque n, la loi t n converge vers la loi N(0,. La moyenne et la variance sont E(T n = 0 V ar(t n = n/(n 2, n > 2. Le quantile α de la loi t n est noté t α,n et satisfait Par symétrie, t α,n = t α,n. P (T n > t α,n = α..9 la loi F Si X n de loi χ 2 n est indépendante de X m de loi χ 2 m alors, par définition, la loi de est la loi F avec n et m degrés de liberté. F n,m = X n/n X m /m Le quantile α de la loi F n,m est noté F α,n,m et satisfait P (F n,m > F α,n,m = α. Si F n,m est de loi F à n et m degrés de liberté alors, /F n,m est de loi F à m et n degrés de liberté. Cette propriété se traduit en terme des quantiles par 2 Chapitre 6 F α,n,m = F α,m,n. Un échantillon (aléatoire de taille n est représenté par des variables aléatoires X,..., X n iid d une certaine distribution de probabilité. 5

2. la moyenne Pour un échantillon de taille n d une distribution quelconque de moyenne µ et de variance σ 2, la moyenne échantillonale X a comme moyenne et variance 2.2 le TLC E( X = µ V ar( X = σ 2 /n. Pour un échantillon de taille n d une distribution quelconque de moyenne µ et de variance σ 2, ( X + + X n nµ P σ x Φ(x, n n ( X µ P σ/ n x Φ(x, n. Si X est de loi binomiale(n, p alors ( X np P x Φ(x, n. np( p 2.3 la variance La variance échantillonale est définie par S 2 = n i= (X i X 2 n et S = S 2 est l écart type. Pour un échantillon de taille n d une distribution quelconque de moyenne µ et de variance σ 2, E(S 2 = σ 2. 2.4 échantillon d une distribution normale Pour un échantillon de taille n d une distribution N(µ, σ 2, X est de loi N(µ, σ 2 /n, (n S 2 /σ 2 est de loi χ 2 n, X et S 2 sont des variables indépendantes, n( X µ/s est de loi t n. 6

3 Chapitre 7 3. estimateur de vraisemblance maximale On dispose d un échantillon de taille n d une distribution dont la densité (ou la fonction de masse est f(x θ. L EVM est obtenu en optimisant la vraisemblance ou parfois la log-vraisemblance L(θ = f(x θ... f(x n θ l(θ = log L(θ = log f(x i θ. i= 3.2 intervalle de confiance sur la moyenne X,..., X n iid N(µ, σ 2 0, variance connue. X,..., X n iid N(µ, σ 2, variance inconnue. IC(µ : X ± zα/2 σ 0 / n IC(µ : (, X + z α σ 0 / n IC(µ : ( X zα σ 0 / n, + IC(µ : X ± tα/2,n S/ n IC(µ : (, X + t α,n S/ n IC(µ : ( X tα,n S/ n, + X,..., X n (n grand iid d une distribution de moyenne µ et de variance σ 2 inconnue. IC(µ : X ± zα/2 S/ n IC(µ : (, X + z α S/ n IC(µ : ( X zα S/ n, + 3.3 intervalle de confiance sur la variance X,..., X n iid N(µ, σ 2. ( IC(σ 2 (n S 2 (n S2 :, χ 2 α/2,n χ 2 α/2,n ( (n S IC(σ 2 2 :, + IC(σ 2 : (0, χ 2 α,n (n S2 χ 2 α,n 7

3.4 Comparaison de deux moyennes, échantillons indépendants X,..., X n iid N(µ, σ 2 indépendant de Y,..., Y m iid N(µ 2, σ2, 2 les variances σ 2 et σ2 2 connues. σ IC(µ µ 2 : X 2 Ȳ ± z α/2 + σ2 2 n IC(µ µ 2 :, X Ȳ + z α σ 2 n 2 + σ2 2 n IC(µ µ 2 : σ X 2 Ȳ z α + σ2 2, + n n 2 X,..., X n iid N(µ, σ 2 indépendant de Y,..., Y m iid N(µ 2, σ 2, la variance σ 2 inconnue. On estime la variance commune avec Sp 2 = (n S2 + (m S2 2. n + m 2 n 2 IC(µ µ 2 : X Ȳ ± t α/2,n+m 2 S p + n n 2 IC(µ µ 2 : (, X Ȳ + t α,n+m 2 S p + n n2 ( IC(µ µ 2 : X Ȳ t α,n+m 2 S p +, + n n 2 3.5 Comparaison de deux moyennes, mesures répétées (X, Y,..., (X n, Y n iid d une distribution bivariée telle que les différences D i = X i Y i suivent la loi N(µ, σ 2. On calcule S 2 d = n i= (D i D 2. n IC(µ : D ± t α/2,n S d / n IC(µ : (, D + t α,n S d / n IC(µ : ( D tα,n S d / n, + 3.6 Intervalle de confiance pour une proportion X,..., X n (n grand iid Bernoulli(p. L estimateur de p est ˆp = X et n i= X i est de loi binomiale(n, p. En utilisant le TLC pour la binomiale, ˆp p N(0,. ˆp( ˆp n 8

IC(p : ˆp ± z α/2 ˆp( ˆp n On peut déterminer la taille n de sorte que la longueur de l intervalle est b pour un niveau donné α comme suit: n = (2z α/2 2 b 2 p( p ou n (z α/2 2 b 2, selon que l on dispose ou non d un estimé préliminaire de p. 3.7 Intervalle de confiance pour la moyenne d une distribution exponentielle X,..., X n iid exponentielle(/θ, de moyenne θ. Dans ce cas on utilise la distribution 4 Chapitre 9 IC(θ : 4. régression linéaire simple Le modèle de régression linéaire simple est 2 θ X i χ 2 2n. i= ( 2 n où les termes d erreur e,..., e n sont iid N(0,. i= X i χ 2 α/2,2n, 2 n i= X i χ 2 α/2,2n y i = α + βx i + e i, i =,..., n, 4.2 estimation de α et β par les moindres carrés La méthode des moindres consiste à estimer α, l ordonnée à l origine, et β, la pente, au moyen du critère (y i A Bx i 2. La solution de ce problème est min A,B i= B = S xy /S xx A = ȳ B x, 9

où S xx = S xy = x 2 i n x 2 i= x i y i n xȳ. i= 4.3 estimation de la variance σ 2 On aura besoin de S yy = yi 2 nȳ 2. On estime ensuite la variance σ 2 au moyen des résidus ê i = y i A Bx i, i= ˆσ 2 = SS R n 2, où SS R = n i= ê2 i est la somme de carrés résiduelle. On évalue SS R par la formule sans avoir à calculer tous les résidus. SS R = S yy B 2 S xx 4.4 estimation par maximum de vraisemblance Les estimateurs de α et β sont les mêmes que ceux des moindres carrés, à savoir A et B. L estimateur de σ 2 diffère un peu σ 2 = SS R n. En pratique, on utilise plutôt l estimateur sans biais ˆσ 2. 4.5 distributions d échantillonage B N (B, σ2 S xx A N (A, σ2 n i= x2 i ns xx (n 2ˆσ 2 /σ 2 χ 2 n 2 Le vecteur aléatoire (A, B est indépendant de ˆσ 2. Cependant, A et B ne sont généralement pas des variables indépendantes, sauf dans le cas où x = 0. 0

4.6 intervalles de confiance IC(α : A ± t α/2,n 2 ˆσ IC(β : B ± t α/2,n 2 ˆσ ( IC(σ 2 : n Sxx i= x2 i ns xx (n 2ˆσ 2 (n 2ˆσ2, χ 2 α/2,n 2 χ 2 α/2,n 2 4.7 intervalle de confiance sur la moyenne E(y x 0 = α + βx 0 Pour estimer la moyenne de la réponse y à une valeur donnée x = x 0 de la variable explicative on utilise la valeur sur la droite ajustée, à savoir A + Bx 0 dont la distribution est [ n A + Bx 0 N (α + βx 0, σ 2 + (x ] 0 x 2 S xx ce qui donne également l intervalle de confiance IC(α + βx 0 : A + Bx 0 ± t α/2,n 2 ˆσ [ n + (x ] 0 x 2 /2. S xx 4.8 intervalle de prévision d une observation future y 0 = α + βx 0 + e 0 à x = x 0 IP (y 0 : A + Bx 0 ± t α/2,n 2 ˆσ [ + n + (x ] 0 x 2 /2. S xx 4.9 Le coefficient de détermination R 2 Le coefficient de détermination R 2 est un indice de la qualité de l ajustement donné par R 2 = SS R S yy satisfaisant 0 R 2. L ajustement est d autant meilleur que la somme de carrés résiduelles SS R est petite. Un bon ajustement correspond donc à des valeurs de R 2 proches de. On peut aussi montrer qu en fait R 2 est le carré du coefficient de corrélation entre les x i et les y i. C est aussi le carré du coefficient de corrélation entre les y i et les valeurs prévues par le modèle, c est-à-dire ŷ i = A + Bx i.