You are on page 1of 8

Pontificia Universidad Cat´olica de Chile

Facultad de Matem´aticas
Departamento de Estad´ıstica
Profesora: Lorena Correa A.
Ayudante: Ana Maria Alvarado
Segundo Semestre 2005

GUIA 1 -METODOS ESTADISTICOS
ELM2400
Propiedades de los Estimadores
1. El n´
umero de huevos puestos por un insecto sigue una distribuci´on de Poisson con media λ
desconocida. Cada uno de estos tiene una probabilidad p desconocida de originar una larva,
comport´andose los huevos de manera independiente. Un entom´ologo estudia conjuntos de n
de tales insectos observando el n´
umero de huevos puestos y si nacen larvas o no. Identifique
la ley de probabilidad de los datos y el espacio param´etrico.
2. Sean X e Y variables aleatorias positivas con densidad:
fX (x) =

λ(λx)α−1 e−λx
λ > 0, α > 0
Γ(α)

y α−1 e−y/θ
θ > 0, α > 0.
Γ(α)θα
Verifique que estos modelos son efectivamente reparametrizaciones uno del otro.
fY (y) =

3. Encuentre estad´ıgrafos suficientes para estimar θ en base a una muestra de las siguientes
distribuciones con a conocido :
a) p(x, θ) = θxθ−1 ,
0 < x < 1, θ > 0.
a−1
a
b) p(x, θ) = θa x
exp{−θx }, x > 0, θ > 0, a > 0.
θ
c) p(x, θ) = xθa
,
x > a, θ > 0, a > 0,
θ+1
4. Sean X1 , X2 ∼ i.i.d. P (λ). Se desea estimar P (X1 = 0) = e−λ . Encuentre el E.C.M. de
los siguientes estimadores:
a.-

1 X1 +X2
2

b.- Proporci´on de Xi = 0 (puede ser 0, 1/2 ´o 1)
5. Sean X1 , X2 , ..., Xn iid con densidad λe−λx , x > 0, n > 2. Sea Sn = Σni=1 Xi . Es bien conocido
que Z = λSn tiene densidad
fZ (z) = z n−1 ez /(n − 1)! z ≥ 0
ˆ = (n − 1)/Sn .
Utilice esto para calcular el sesgo y el E.C.M. de λ

1

V (Y ) = σ 2 . Comente sus resultados. Sean X1 ..Para a fijo. de Sa (X) en funci´on de a y de λ.M. Compare los resultados. 8. b. Yn una muestra de la distribuci´on N (µ.Xn ∼ iid N (µ. 11. Se tiene una muestra aleatoria simple Y1 .. (c) Encuentre los valores de ai de manera que ECM (ˆ µ) sea m´ınimo. Escriba la funci´on verosimilitud y encuentre estad´ıgrafos suficientes para µ y Σ. (a) Grafique la funci´on de verosimilitud y su logaritmo si σ 2 = 1... (b) Encuentre la varianza de µ ˆ y determine los ai de modo que la varianza sea m´ınima. encuentre el valor de a que minimize el E. . .C...C.Encuentre el sesgo. (Yi − Y¯ )2 = 20. P (b) Grafique el logaritmo de la funci´on verosimilitud si Y¯ = 10. θˆ2 = 2X1 . .i. Se considera el estimador de λ.C. Sa = aX a. Estudie y compare las propiedades de los siguientes estimadores: θˆ1 = X1 ..d. Sea X ∼ P(λ).M.Para λ fijo. Sean X1 . (a) Determinar una condici´on para que µ ˆ sea un estimador insesgado.. (c) Repita (a) si el tama˜ no de la muestra es 100. Yn una muestra de la distribuci´on Normal bivariada con media µ y matriz de covarianzas Σ. X2 ∼ i. σ 2 ). 12. 10.. r= n X Xi ≥ k i=1 . r<k es insesgado. σ 2 ) y considere la familia de estimadores ¯ 2. . Sea Y1 . determine para qu´e valores de λ. varianza y E.. Se toma una muestra aleatoria de tama˜ no 1 para estimar θ.. 9. σ ˆα2 = αΣni=1 (Xi − X) Encuentre el valor de α que minimizeel E. 2 . Sea Y1 . Y¯ = 10. Yn de una variable aleatoria Y tal que E(Y ) = µ. . . Sa (X) es mejor.¯ 6.M. Considere el estimador de µ µ ˆ= X ai Yi . Verifique que el estimador de pk = P (X = k) pˆk =  r!(n − 1)r−k     r k!(r − k)!n     0 . θ). c. La variable aleatoria X est´a distribuida uniformemente en el intervalo (0. . P (λ). 7.

Sea Y1 . . ¿ Se puede concluir que S22 es mejor estimador que S12 ?. Mencione sus propiedades. . Sea Y1 . 2 y (a) Demuestre que π ˆ1 y π ˆ2 son estimadores insesgados de π. π). Demuestre que (a) S12 = (b) S22 = (c) S12 es 1 n Pn 2 2 i=1 (Yi − Y ) no es un estimador insesgado de σ . . Yn una muestra aleatoria de la variable Y tal que E(Y ) = µ y V (Y ) = σ 2 . Considere los estimadores π ˆ1 = n 1X Xi n i=1 1 π ˆ2 = (X1 + Xn ). Sea Y1 . . 1 Pn 2 2 i=1 (Yi − Y ) es un estimador insesgado de σ . (b) Proponga un estimador para el coeficiente de variaci´on CV = σ/µ. . . . . 16. Demuestre que µ ˆ1 = 1X Xi n y µ ˆ2 = X 2 iXi n(n + 1) son estimadores insesgados de µ. (a) ¿Son estos estimadores consistentes de µ y σ 2 ?. . (e) Proponga estimadores insesgados para las varianzas de π ˆ1 y π ˆ2 . . Estudie las propiedades del estimador θˆ = Y . donde π es un par´ametro desconocido. 17. Para estimar π se proponen los estimadores π ˆ1 = 1X Yi . (c) Encuentre el m´aximo de la varianza del estimador π ˆ1 para n fijo. (c) Suponga que µ = σ 2 = θ. n+2 n+2  Si n = 10.13. 15. Yn una muestra aleatoria de la variable Y ∼ B(1. Se tiene una muestra aleatoria de una variable indicatriz que toma valores 1 y 0 con probabilidades π y (1 − π) respectivamente. 14. Yn una muestra aleatoria de la variable X ∼ P(µ) donde µ es un par´ametro desconocido. Sea Y1 . n−1 un estimador asint´oticamente insesgado de σ 2 . . (b) Calcule la varianza de cada estimador y la eficiencia relativa de π ˆ1 respecto de π ˆ2 . estudie el comportamiento de la eficiencia relativa de π ˆ1 respecto de π ˆ2 para distintos valores de π. . 3 . . Calcule las varianzas de estos estimadores y compare sus propiedades. . . Sean Y = n1 Yi y S 2 = n1 (Yi − Y )2 la media y la varianza muestral respectivamente. . n  π ˆ2 = n 1 πˆ1 + . Yn una muestra aleatoria de la variable Y que tiene distribuci´on Normal con P P media µ y varianza σ 2 desconocidas. (d) Obtenga un estimador insesgado de V (Y ) en t´erminos de π ˆ1 .

cT es insesgado ? (b) ¿Para qu´e valor de c. Yn ∼ U [0. Demuestre que su estimador es mejor. σ 2 ) entregaron las siguientes estimaciones (en base al estimador insesgado usual con µ desconocido) : s21 = 12. Comente la significancia de este resultado. x > 0. (c) p(x. Sean Y1 . . P 2 σ ˆ = (b) Si µ es conocido.18. ... Sea Y1 . ECM (cT ) es m´ınimo ?. θˆ2 = 2X1 . . . Tres muestras independientes de tama˜ nos 10. θ]. . 19. Encuentre estad´ıgrafos suficientes para estimar θ en base a una muestra de las siguientes distribuciones con a conocido : (a) p(x. a > 0. x > a. (a) Considere el estimador (Yi − Y )2 . La variable aleatoria X est´a distribuida uniformemente en el intervalo (0. s23 = 20. (b) p(x. demuestre que (Yi − µ)2 n P 2 σ ˆ = alcanza la cota de Cramer–Rao.8. Yn ∼ N (µ. (a) Demuestre que para muestras grandes Tn converge a γ. θ > 0. 23.6. 21. . Sea T = max(Y1 . Yn ) y considere los estimadores de θ de la forma cT. β).8. . Yn una muestra aleatoria de una distribuci´on Log-Normal (α. (a) ¿Para qu´e valor de c. Proponga un estimador de σ 2 que supere a los tres estimadores propuestos. k y encuentre k de manera que ECM(ˆ σ 2 ) sea m´ınimo. θ) = θaθ xθ+1 . . . . 20. Estudie y compare las propiedades de los siguientes estimadores: θˆ1 = X1 . θ) = θxθ−1 . θ). Sea Tn la media geom´etrica de la muestra: n 1X Tn = exp logYi n i=1 ! y sea γ la mediana de la distribuci´on de los Yi . (b) Calcule el sesgo de Tn cuando se usa como estimador de γ. c > 0. . σ 2 ). 22. 0 < x < 1. s22 = 19. θ) = θa xa−1 exp{−θxa }. . θ > 0.. 20 y 20 de una distribuci´on N (µ. a > 0. θ > 0. 4 . Se toma una muestra aleatoria de tama˜ no 1 para estimar θ. Sean Y1 . .

Sea Y1 .. σ 2 ). π2 . Si µ1 = a + b + c. Yn una muestra de la distribuci´on Normal bivariada con media µ y matriz de covarianzas Σ. 6. σ 2 ). y en n4 ninguna de las medidas son satisfactorias (se verifica n1 + n2 + n3 + n4 = n). en n2 las longitudes son satisfactorias pero no los di´ametros. . Yn una muestra aleatoria de la distribuci´on Binomial(1. N ormal(µ4 .. . Calcule las varianzas de estos estimadores para muestras peque˜ nas y muestras grandes. 2. con σ 2 conocido y el estimador m´aximo veros´ımil para σ 2 . . Encuentre el estimador m´aximo veros´ımil de µ y el estimador m´aximo veros´ımil de la probabilidad de observar el valor 0. σ 2 ) (a) Encuentre el estimador m´aximo veros´ımil para µ. Suponga una muestra de tama˜ no n de la distribuci´on N ormal(µ. Calcule un estimador insesgado para las varianzas de estos estimadores. . Escriba la funci´on verosimilitud y encuentre estad´ıgrafos suficientes para µ y Σ. Donde i πi = 1. .24. Yn una muestra de la distribuci´on N (µ. Suponga que se eligen al azar n piezas cil´ındricas entre las producidas por cierta m´aquina y se miden sus di´ametros y longitudes. Calcule los estimadores m´aximo veros´ımil y de m´ınimos cuadrados de π. .. . . (Yi − Y¯ )2 = 20. . Calcule las varianzas de estos estimadores y estimaciones m´aximo veros´ımiles para estas varianzas.. π4 ). Aplique el m´etodo de χ2 m´ınimo y compare los resultados. donde µ es desconocido. σ 2 ) respectivamente. 25. ambos desconocidos. (b) Encuentre el estimador m´aximo veros´ımil para θ = (µ. P (b) Grafique el logaritmo de la funci´on verosimilitud si Y¯ = 10.. De cada una de cuatro poblaciones con distribuciones de probabilidad N ormal(µ1 . Yn una muestra aleatoria de la distribuci´on P oisson(µ). . 3. Cada pieza puede considerarse procedente de una poblaci´on con P distribuci´on M ultinomial(n. (a) Grafique la funci´on de verosimilitud y su logaritmo si σ 2 = 1. . Y¯ = 10. Se observ´o que en n1 ambas medidas son inferiores a los l´ımites de tolerancia. . Sea Y1 . Sea Y1 . 5 µ3 = a − b + c . π1 . n3 = 3 y n4 = 1?. en n3 los di´ametros pero no las longitudes. En particular obtenga el estimador m´aximo veros´ımil para el coeficiente de correlaci´on. π3 . .. con µ conocido. Compare los resultados. σ 2 ). . Extienda sus resultados para estimar los par´ametros de una distribuci´on N ormal bivariada a partir de una muestra de tama˜ no n. ¿Cu´ales son las estimaciones m´aximo veros´ımiles de los par´ametros de esta distribuci´on si n1 = 90. n2 = 6. se saca una muestra aleatoria de tama˜ no n. donde π es un par´ametro desconocido. 5. M´ etodos de Estimaci´ on 1. π). 4. Sea Y1 . (c) Repita (a) si el tama˜ no de la muestra es 100.

Suponga que se dispone de una muestra aleatoria de tama˜ no n de una variable con distribuci´ on Gamma(α. θ2 ) = 1) 1 − (y−θ e θ2 . construido a partir de una muestra aleatoria de tama˜ no n. . Yn una muestra aleatoria de una distribuci´on que tiene densidad f (y. c y σ 2 ?. Encuentre estimadores para ambos par´ametros a partir del m´etodo de momentos y el m´etodo de m´axima verosimilitud.µ2 = a + b − c. θ + 1]. caso contrario. .  f (y) = α r−1 e−αy Γ(r) (αy) 0 . 8. θ1 . . Sea Y1 . Suponga que la vida u ´til de un cierto tipo de ampolletas tiene distribuci´on exponencial de par´ametro λ. 7. 9. donde α y r son par´ametros desconocidos. Suponga que n ampolletas son probadas durante T horas y que x0 de ellas falla antes de completarse el per´ıodo de T horas. Encuentre los estimadores m´aximo veros´ımil de θ1 y θ2 . no es u ´nico. θ2 θ1 ≤ y < ∞. µ4 = a − b − c ¿Cu´ales son los estimadores de m´axima verosimilitud de a. 10. ¿ Cu´ales son los estimadores de m´ınimos cuadrados para estos par´ametros ?. r) con funci´on densidad. (b) Obtenga una estimaci´on de m´axima verosimilitud para λ usando la informaci´on dada. 11. Estime la varianza del estimador. 0 < θ2 < ∞. registr´andose cada vez la duraci´ on medida en horas : 1000 1327 1430 1540 1710 1010 1340 1445 1560 1720 1125 1348 1448 1580 1730 1181 1350 1502 1595 1780 1230 1365 1505 1602 1810 1250 1370 1507 1605 1815 1265 1380 1510 1608 1860 1270 1400 1515 1610 1940 1275 1406 1521 1620 1984 1285 1409 1525 1630 2000 (a) Grafique la funci´on verosimilitud usando s´olo las dos primeras columnas de observaciones y luego todas las observaciones. . con λ desconocido. Muestre que el estimador m´aximo veros´ımil de θ en la distribuci´on U [θ. 6 . Encuentre el estimador m´aximo veros´ımil de λ basado en los datos. La duraci´on de una cierta marca de ampolletas tiene una distribuci´on Exponencial con par´ametro λ y media 1/λ. Una muestra de 50 ampolletas es ensayada. − ∞ < θ1 < ∞. b.y>0 .

Sean Y1 . . Sea fθ (x) = θxθ−1 . Sea π(θ) = r π(θ − 1). Sean X1 . 13. . 4. . tal que X|p ∼ Bin(n. Se extrae una muestra de tama˜ no n obteni´endose 1 defectuoso (la muestra es con reemplazo). N . . (a) Si se inspeccionan n elementos de este proceso y se encuentran r defectuosos. Suponga que en un proceso productivo se desea estimar la tasa de falla π. 3. cosa que ocurre en el n-´esimo elemento ¿cu´al es el estimador m´aximo veros´ımil de π? ¿es insesgado?. . . p) donde p tiene una distribuci´ on a priori π(p) = cpα−1 (1 − p)β−1 . . 5. Una poblaci´on de N elementos tiene θ defectuosos (θ es desconocido). . 6. Encuentre E(θ|X). determine la funci´ on de probabilidad a posteriori λ(θ). θ ≥ 1. θ > 0. Se desea hacer inferencia sobre θ. . (b) Si se decide. Se se asume una funci´on de p´erdida cuadr´atica. (Deje λ expresado en funci´on de una sumatoria). Suponga que la distribuci´on a priori de µ es Gama con media 3 y varianza 18. . . Encuentre el riesgo a posteriori del estimador X y comp´arelo con el riesgo a posteriori de la decisi´on de Bayes. 0<x<1 y Π(θ) = α(αθ)β−1 e−αθ Γ(β) . Suponga una variable aleatoria X. . θ]. Estimaci´ on Bayesiana 1. 0<x<1 π(θ) = y α(αθ)β−1 e−αθ Γ(β) . con Xi ∼ Poisson (µ). . ¿cu´ al es el estimador m´aximo veros´ımil de π? ¿es insesgado?. encuentre la estimaci´on ´optima para p. Suponta una densidad a priori Π(θ) = 1/θ2 . θ = 1. Encuentre la media a posteriori de θ. Sea fθ (x) = θxθ−1 . continuar realiz´andolo hasta obtener el r´esimo defectuoso. ya avanzado el experimento. N . Calcule λ(θ + 1)/λ(θ) y examine su comportamiento para determinar la moda de la distribuci´on a posteriori. 2.12. θ>0. . 7 . iid 7. Xn independientes. En ambos casos suponga una funci´on de p´erdida cuadr´atica. Para una funci´on probabilidad a priori π(θ) definida para θ = 0. . Yn ∼ U [0. .

. Encuentre la familia de distribuciones conjugadas y el estimador de Bayes con respecto a una funci´on de p´erdida cuadr´atica. Xn variables aleatorias independientes. media y mediana a posteriori de θ dado T = t y discuta su aplicaci´ on en la estimaci´on de θ. . . . . Sean X1 . . 8. . . θ]. teniendo Xi dendidad gi (t) = ci −cj t e θ . . (c) Compare la moda de la distribuci´on a posteriori con el estimador de m´axima verosimitilud. 8 . Sea T = max(X1 . Sea X = (X1 . θ ≥ 1. Si la densidad a priori de θ es g(θ) = θ−2 . . Xn ) una muestra aleatoria de la distribuci´on U [0.(a) Encuentre la distribuci´on a posteriori. (c) Encuentre la moda. . 9. (a) Encuentre la densidad a posteriori de θ dado X = x. θ t > 0. . (b) Encuentre la densidad condicional de θ dado T = t y compare con el punto anterior. (b) Encuentre la media y varianza de la distribuci´on a posteriori. Xn ).