Estadistica Inferencial
J. UGARTE
Facultad de Ciencias - UNI (Clase 6)
October 2, 2019
Introducci6n
v
Intervalos de confianza para 07.
v
Propiedades de los estimadores puntuales y métodos de esti-
maci6n. Eficiencia relativa.
Consistencia y suficiencia.
Teorema de Rao-Blackwell.
Método de momentos.
vvvyv
Método de maxima verosimilitud.Intervalos de confianza para o”
> Sabemos que la varianza poblacional o? mide la variabilidad
de la poblacidn, con lo cual es un pardmetro importante en
la poblacién.
> Para v.a.i.id normales Y1,..., Yn con media ju y varianza o?
sabemos que S$? = my LA(¥% — Y)* es un estimador
2
insesgado para a
» Para la construccién de intervalos de confianza para jz hemos
usado la aproximacién o = S, cuando o era desconocida.
> Cuando tenemos una muestra dada un pardmetro importante
es la variabilidad de la caracteristica que estamos midiendo.
Por ejemplo: En la estatura de una poblacién dada, ademas
de saber la talla media de la poblacién es necesario saber que
tanto varia de una observaci6n a otra, esto se cuantifica
con la varianza o?.
Intervalos de confianza para o*
Teniendo en cuenta que :
Dia(%i - VP _ (n= 1)?
2
a2 o
tiene una distribucién x? con (n — 1) grados de libertad.
Por el método del pivote tenemos que :
(n-1)S?
vee
P(Xj_a/2 S € X32) = 1-0,
Finalmente, reordenando tenemos:
(n — 1)S?
xa/0
(n—1)S?
<0 La diferencia de las varianzas V(61) — V(62).
> La razén de las varianzas V(02)/V(61)
> Debemos de tener en cuenta el significado de la varianza para
ambos pardmetros.
Eficiencia relativa
Definicién
Dado dos estimadores puntuales insesgados 6, y 6 de un mismo
parametro objetivo 0, con varianzas V(61) y V(62)
respectivamente. Entonces definimos la eficiencia de 0; con
respecto a 0 como :
on Vv
eff.) = 7 2
)
> Si eff(H1, 62) <1 entonces debemos de dar preferencia al
parametro 6.
> Si eff(61, 62) > 1 entonces debemos de dar preferencia al
parametro 6}.
> Si eff(61, 62) = 1 entonces no hay preferencia.Eficiencia relativa
Ejemplo
Dado el parametro objetivo @ como Ia media poblacional, de una
poblacion normal. Consideramos dos estimadores 6, la mediana, y
by como la media muestral. Entonces tenemos que :
~ x, V(b) o2/n
fb, by) = 4 = __ 2 T*’ __,
eft, b2) VG) > CIBRFSTa 0.6366
De esta manera damos preferencia como estimador a 2 que es la
media muestral.
Aplicacién
Ejercicio
Sean Y;,..., Yn denotan una muestra aleatoria de una poblacién
con media 1 y con varianza 0”. Consideremos los siguientes
estimadores de la media 1:
1 Yo +-2-+Yp-1 1 G
~_1 a —
m= 3(+Y2); fig = quit 2n=2) a Hg = Y
» Demuestre que cada estimador es insesgado.
> Encuentre la eficiencia de ji3 con respecto a fiz y fir,
respectivamenteAplicacion
Ejercicio
Sean Y1,..., Yn denotan una muestra aleatoria de distribucién
uniforme en el intervalo [0,0 + 1]. Sean:
n
> il s
L=V-5, y 62 = max(Y1,.. Yn) a
>» Demuestre que cada estimador es insesgado.
> Encuentre la eficiencia de 6, con respecto a 02
Consistencia
Denominemos Experiencia (n) : E, al lanzamiento de una
moneda n veces, cuya probabilidad de salir cara es p, considerando
los tiros independientes. Denotamos por Y, como el numero de
caras obtenidas en la experiencia E,. Sabemos que la proporcion
muestral %* es un estimador de p.
Las siguientes preguntas son fundamentales
>» Y/n se acerca al valor de p cuando n tiende al infinito ?
Para responder hacemos dos experiencias tomando p = 0.5
1. Realizamos una vez la experiencia E000.
2. Realizamos 50 veces la experiencia Eioo0.Consistencia
En este caso obtenemos,
03
ot 11 1 4 4
on) 200 400 600 3001000 o 20 400 60080100
Consistencia
Vemos que en cada experiencia dada arriba tenemos que nuestro
estimador se acerca a nuestro pardmetro objetivo, con lo cual
tenemos que:
|(Y/n) — p| se hace cada vez mas pequefio aleatoriamente
Esto se puede expresar de forma probabilista, de esta manera
tenemos la definicién de consistencia que en teoria de
probabilidades es lo que se llama convergencia en probabilidad.
Definicién
Decimos que un estimador 6, es un estimador consistente de @ si,
para cualquier numero «,
lim P(\6, — |<) =1
n-900
o de forma equivalente,
lim P(\G, — 4] >) =0
300Consistencia: Teoremas
Teorema
Un estimador insesgado 0, para 0 es un estimador consistente de 0
si:
lim V(6,) =0
slim, V (Gn)
Ejemplo
Sea Y1,..., Yn una muestra aleatoria de una distribucién con
media jt y varianza 0? < 00. Demuestre que Yn = ty Yj es
un estimador consistente de ju.
Consistencia: Teoremas
Teorema . a
Supongamos que 6, converge en probabilidad hacia 6 y que 6,
converge en probabilidad hacia 0’.
. 6n +m, converge hacia 0 + 0!
a
b. 6, x On’ converge hacia 6 x 0"
f
Si 6’ £0, entonces 6n/6n, converge hacia 0/6’.
- Si g(.) es una funcion de valor real que es continua en 6,
entonces g(6,) converge en probabilidad hacia g(8).
aConsistencia: Teoremas
Ejemplo
Sea Y1,..., Y, una muestra aleatoria el cual posee hasta el cuarto
momento finito. Demostrar que :
i=l
Es un estimador consistente de a”
Realizar en clase
Consistencia: Teoremas
Teorema
Sea Un una sucesi6n de v.a.i.i.d cuya funcidn de distribucion
converge en hacia una funcion de distribucion estaéndar cuando
n—> oo. Si W, > 1 en probabilidad, entonces Ia funcién de
distribucion de a converge en una funcion de distribucion normal
estandar.
Ejemplo
Sea Y1,..., Y, una muestra aleatoria el cual posee hasta el cuarto
momento finito, con S? definido anteriormente. Demostrar que la
funcion de distribucion de :
Yn — Me
vale
)
converge hacia una funcidn de distribucion normal estandar.Consistencia: Teoremas
Con el ejemplo anterior tenemos dos casos:
Yp, eS una muestra cualquiera con n grande
En este caso tenemos que :
se puede aproximar con una distribucion normal estdndar .
Consistencia : Teoremas
Y, eS normal para cualquier n
En este caso tenemos que :
Yn =e
vale
)
sigue una distribucion t de Student con n— 1 grados de libertad .
Observacién
De lo anterior podemos concluir que para n suficientemente grande
podemos tomar a vn(“e#) como una distribucion normal.Suficiencia
En términos matematicos, dada una sucesién de v.a.i.i.d (X;,)y con
un pardmetro desconocido 9. Consideramos un estadistico U.
> Los datos proporcionados por U = g(X1,---,Xn) son mas que
suficientes para conocer 6?
> Dicho de otra manera no es necesario otra funcién de
(X%,..., Xp) nos dard mas informacién para 0.
Como ejemplo tenemos:
> (Xn)n una binomial cuya probabilidad de exito es p.
> Estadistico U = )77_, X; y pardmetro 0 = p.
> Si conocemos el valor U, entonces cualquier otra funcion de
X1,...Xq no proporcionara mas informacion esto lo vemos
con la probabilidad condicional:
1 i ye —
amiyanatoy Sean y
0, otro caso.
P(X = »,-
Suficiencia
> (Xn)n una binomial cuya probabilidad de exito es p.
> Estadistico U = >>?_, Xj y pardmetro 0 = p.
» Si conocemos el valor U, entonces cualquier otra funcion de
X1,...Xp no proporcionara mas informacion esto lo vemos
con la probabilidad condicional:
oO si Drax =y,
P(X = x1,---,Xn = Xl Y= y) =
0, otro caso.
Tenemos que esta probabilidad no depende del parametro
objetivo el cual es @ = p. Esto quiere decir que la informacion de
6 esta dentro del estadistico U = )7?_, Xj
Definicién
Sea Y,,..., Yn una muestra aleatoria de una distribucion de
probabilidad con parametro desconocido 0. Entonces se dice que el
estadistico U = g(Yi,..., Yn) es suficiente para 0 cuando la
distribucion condicional de Y1,..., Yn dado U no depende de 0Suficiencia
Para indicar que la distribucion de la muestra Y1,..., Yn depende
de un pardmetro @ lo indicaremos como sigue:
> Si Y es discreta, su funcién de masa de probabilidad se
denotara p(y|@).
> Si Y es continua, su funcién de densidad se denotara por
F(y/8).
> Sila muestra Yi,..., Yn es discreta, entonces la funcién de
probabilidad conjunta se denotara por p(y, .- - Yn|0).
> Sila muestra Y1,..., Yn es continua, entonces la funcién de
densidad conjunta se denotara por f(y1,.-- Ynl@).
Observacién
En cualquier caso, tenemos que la distribucion cambia
dependiendo del valor del pardmetro 0.
Suficiencia
Definicién
Sean y1,...,Yn observaciones de una muestra Y1,..., Yn cuya
distribucion depende de un pardmetro 0. Llamamos verosimilitud
de la muestra a /a probabilidad conjunta de y1,..., Yn denotada
por L(y1,.--; ¥n|9)-
> Caso discreto L(y1,...,¥n|9) = p(yil9) x ply2|8) x --. P(Ynl9).
» Caso continuo
L(yis--,YnlO) = (yl) x F(y2|8) x... F(ynl4).
En ciertos casos para simplificar denotaremos L(y1, ... , ¥n|#) como
L(0).Suficiencia
Teorema
Sea U un estadistico de la muestra Yi,..., Yn. Entonces U es un
estadistico suficiente para /a estimacion del parametro @ si y solo
si la verosimilitud L(y1,..., Yn|) se puede factorizar en dos
funciones :
L(ya,---+¥nl@) = g(u,) x h(n, --- 5 Yn)
Donde g(u, 0) es una funcion solamente de u y 0, y h(y1,---;¥n)
no es una funcion de 0.
Suficiencia
Ejemplo
Sea Y,,..., Yn) una muestra aleatoria con :
(1/d)e¥", O< yj; < 00,
F(yl0) = {
0, otro caso ,
donde 0 > 0, i =1,...,n. Demuestre que Y es un estadistico
suficiente para el pardmetro 0.Suficiencia
Tenemos que existen otros estadisticos suficientes:
>» La misma muestra Yj,..., Yn
> Los estadisticos de orden Yay < Y(2) < Y(3y Sed Yn)
Ejemplo
Dada la muestra Y1,..., Y, con funcion de densidad, para
a>0,0>0:
a-1/97, O Encontrar U estadistico suficiente el cual mejor resume los
datos(Determinado en general por el criterio de factorizacion).
> Si encontramos alguna funcion de U pongamos h(U) tal que
E(h(U)|U) = 0
> Entonces h(U) es el MVUE de nuestro parametro 0Teorema de Rao-Blackwell
Ejemplo
Dada la muestra Y1,..., Yn binomial con parametro p
desconocido.
> Enunciar el criterio de factorizacion. Solucién:
Lyi... ¥nlP) = P(Ya|p)P(Yalp) ---P(Yalp) =
p2Hyi(1— pyr Ly x1
> Determinar un estadistico suficiente. Solucién: U = 0 y;
> Determinar h(U) tal que E(h(U)|U) = p. Solucidn:
Tenemos que E(U) = np entonces E(U/n|U) = p por lo
tanto h(U) = U/n.
> Enunciar el teorema de Rao-Balckwell. Solucién:
0 insesgado y U suficiente entonces E(0|U) es insesgado con
varianza menor.
> Concluir Solucién:
Aplicamos el TRB a U/n y a U entonces tenemos que U/n es
un MVUE.
Teorema de Rao-Blackwell
Ejemplo
Dada la muestra Y;,..., Yn cuya funcion de densidad exponencial
esta dada por:
F(y|0) = {oem y>0,
0, en otro caso .
Encuentre un MVUE de V(Y;)..Teorema de Rao-Blackwell
Ejercicio
Sea Y1,..., Yn una mestra de Bernoulli con :
pile) = pp)”, y= 0,1
Esto es, P(Y; = 1) = p y P(Y; = 0) =1—p. Encuentre el MVUE
de p(1— p) siguiendo los siguientes pasos:
a. Sea
r={t si ¥j=1y Yo =0,
0, otro caso
Mostrar que E(T) = p(1— p).
b. Mostrar que
w(n—w)
P(T = |W = w) = 0
c. Mostrar que :
Metodo de momentos
En esta seccion deseamos dar metodos para obtener metodos para
obtener estimadores puntuales.
Recordamos que el k — esimo momento de una variable aleatoria,
tambien llamado k — esimo momento poblacional, es:
s_ k
Hy = E(Y*).
El k — esimo momento muestral es el proemdio:
k
dia NY) .
,
mi, =
k n
Teorema
Metodo de los momentos Los estimadores puntuales se escogen de
la resolucion del sistema de ecuaciones :
Hi, =m, donde t es el numero de parametros por estimar.Metodo de momentos
Ejemplo
Sea Yi, Y, una muestra cuya funcion de densidad es uniforme
dentro del intervalo [0,6] con @ desconocida. Estimar el parametro
0 por el metodo de los momentos.
a. Determinar el momento poblacional.
. Determinar el momento muestral.
. Resolver en la variable 0 la ecuacion: j= mi,
. Determinar un estimador puntual de 0.
eons
. Demostrar que dicho estimador es consistente.
Metodo de momentos
Ejercicio
Sea Y1,..., Yq, una muestra cuya funcion de densidad de
probabilidad esta dada por:
(@)O-y), OSy¥