Professional Documents
Culture Documents
PROBABILIDAD y ESTADISTICA
Carreras Ingenieras civiles
Profesor:
SONIA SALVO GARRIDO
Doctora en Estadstica
UNIVERSIDAD DE LA FRONTERA
Unidad 5
Estimaci
on de par
ametros
5.1.
Inferencia estadstica
La inferencia estadstica esta constituida por un conjunto de fundamentos, metodos y tecnicas que permiten describir y, en general, conocer las caractersticas de la poblacion a traves de la
informacion de la muestra (aleatoria). Considerando que la poblacion esta definida por parametros, en la muestra los elementos respectivos se llaman estadsticos, que son los utilizados para
obtener aproximaciones (bajo un nivel de confianza aceptable) de los parametros y/o para poner
a prueba creencias acerca de los mismos parametros (esta relacion se presenta en el esquema de
la Figura 5.1).
Ejemplo 5.1 Sea la variable aleatoria X: Tiempo de falla de un componente electronico, la cual
(en la poblacion) es X
f px|q 1 exp 1 x
, x 0. Se desea:
Objetivo:
Poblacin: ~(|)
Adquirir
informacin
acerca de
Permite:
Muestra
Adquirir
conocimiento
acerca de
1 , 2 , , (|)
Soluci
on: El tiempo medio de falla en la poblacion corresponde al valor esparado, el cual
es E pX q
. Si se cuenta con una muestra aleatoria cuyas componentes son X1, X2, , Xn
en la muestra
p
Xi
i 1
Xn.
(b) Determinar un intervalo que cubra al tiempo promedio de falla con un 95 % de confianza,
se puede obtener resolviendo la ecuacion de la probabilidad de que se encuentre entre dos
valores, a1 y a2 , sea de 0.95 en la cual las incognitas son a1 y a2 y se expresa como
P pa1
a2q 0,95
10000, para
Los tres problemas que aparecen en el Ejemplo 5.1 son los que resuelve la inferencia estadstica a traves de fundamentos teoricos y metodos o tecnicas de analisis de informacion.
Especficamente, (a) y (b) son problemas de Estimacion de parametros, mientras que (c) es un
problema de Pruebas de hipotesis.
5. Estimaci
on de par
ametros
5.2.
5.2.1.
Elementos previos
Poblaci
on
f px|q,
P .
Donde X
$
& 1 Presencia del atributo
%
,x
0, 1, 2, , 0; p0, 8q;
; x , 0,
0 (: parametro de
5.2.2.
Muestra aleatoria
Luego, p, F, tf p|q :
5.2.3.
Funci
on de verosimilitud
dada por
Lp q Lp |xi q
f pxi , q,
P .
i 1
5. Estimaci
on de par
ametros
(1) Sea X una observacion Binomialpn 2, pq. Luego la funcion de verosimilitud y el grafico
para p (Figura 5.2), estan dados por:
Lppq
(|)
2 x
p p1 pq2x ,
x
x 0, 1, 2.
(| = 0)
0,8
(| = 2)
0,6
0,4
(| = 1)
0,2
0
0
0,2
0,4
0,6
0,8
Binomialpn 2, pq
Xi
Notar que
xi
p1 pqn
xi
muestra.
5.2.4.
Definicion 5.2 Sea X1 , X2 , , Xn una muestra aleatoria, una estadstica T puede ser definida
como:
(1) T es una funcion de la muestra aleatoria, T
aleatoria que asume valores en alg
un espacio Y .
R
x y T pX q
T : Rn
5.2.5.
Xi
Distribuci
on del promedio y varianza desde una muestra aleatoria basada en distribuci
on normal
Definicion 5.3 El promedio de una muestra aleatoria esta definido como la media aritmetica de
un conjunto de variables aleatorias y se fundamenta en el hecho que un experimento aleatorio
puede reproducirse bajo las mismas caractersticas. El promedio esta dado por la expresion
1
Xi .
n i1
n
La idea es obtener la distribucion de una nueva variable aleatoria que representa al promedio. En efecto, a continuacion se presenta una propiedad mediante la cual se puede asociar la
distribucion de una muestra aleatoria, basada en una distribucion normal, con los parametros
de la distribucion del promedio.
5. Estimaci
on de par
ametros
N p, 2q. La distribu-
1
Xi
n i1
n
N
2
,
n
MT ptq E e
E
"
1
exp t
Xi
n i1
E exp nt X1
n
MX1 nt
exp
exp
"
1
2
*
n
+n
2
1 2 2
t
2 n
t
n
Esta u
ltima expresion corresponde a la distribucion de una variable aleatoria normal con los
parametros pedidos.
Adicionalmente, se puede estandarizar la distribucion del promedio y calcular probabilidades
al promedio de una muestra aleatodesde una distribucion normal estandar. Si llamamos X
ria X1 , X2 , , Xn , donde Xi
mediante
n 1 pXi X q2.
1
i 1
N p, 2q. Entonces la
n 2 1 S 2 Y 2pn 1q.
Demostracion: Para mostrar este resultado, hay que escribir una expresion equivalente a Y
de tal manera que aparezca y 2 . En efecto,
n1
Y 2 S2
12
i 1
n
12
pXi q pX q 2
i 1
n
12
n
1
pXi X q2
2 i1
pXi q2
i 1
pX q2 2pX q pXi q
i 1
Notar que en la u
ltima expresion
i 1
i 1
12 pXi q2 npX
i1
q2
i 1
Xi
2 .
n 2
1
Luego, analizando la u
ltima expresion
Xi
Xi N p, q
N p0, 1q
Xi
p1q
2
2 2p1q
n 2
1
2pn 1q.
i 1
Xi
2pnq
5. Estimaci
on de par
ametros
5.2.6.
Distribuci
on del Mnimo y M
aximo
(b) T
Luego, conociendo la funcion de densidad de las variables aleatorias Xi es de interes conocer la distribucion de la variable aleatoria M y T definidas anteriormente. Para tales fines a
continuacion se presenta una propiedad que permite solucionar esta inquietud.
rFX ptqsn
1
(5.1)
(5.2)
10
FM pmq P pM
1 r1 FX pmqsn
1
Expp q. Determinar la
1
1
fXi pxq exp x , x 0
"
*
"
*
x
1
1
1
exp t dt 1 exp x ,
FXi pxq
x0
"
*n1
1
1 exp t
1
exp
"
1 t ,
t0
5. Estimaci
on de par
ametros
11
"
*n1
1
fM pmq n 1 1 exp m
"
*
n exp n m , m 0.
De los resultados obtenidos es inmediato que M
5.3.
1
exp
"
1 m
Expp n q.
Estimaci
on puntual
Para realizar la estimacion se contara con la informacion de una variable aleatoria a traves de
una muestra aleatoria tomada desde una poblacion de interes. Es decir, sea la muestra aleatoria
X1 , X2 , , Xn , tomada desde una poblacion con distribucion conocida, los parametros asociados
a dicha distribucion, y que se pueden anotar como un vector de parametros , son los que
se estimaran. El proceso de asignar un valor (obtenido como funcion de la muestra aleatoria
u
nicamente) a un parametro es llamado Estimaci
on puntual y el valor obtenido es llamado
Estimador puntual, entendiendo como parametro a un vector cuyas componentes son los
parametros de la distribucion subyacente.
A continuacion se estudiaran algunos metodos para conseguir estimas de dichos parametros
(estimaciones puntuales).
5.3.1.
M
etodo de m
axima verosimilitud
Este metodo se basa en la maximizacion de la funcion de verosimilitud respecto de los parametros, este procedimiento determina funciones de la muestra como estimadores de los parametros
respectivos, que no dependen de los parametros. Estos estimadores son llamados estimadores de
maxima verosimilitud.
Definicion 5.5 (Estimaci
on de m
axima verosimilitud) A partir de la funcion de verosimilitud, se puede obtener un metodo para estimar los parametros conocido como metodo de maxima
12
5.3. Estimaci
on puntual
verosimilitud, y que consiste en obtener los valores de los parametros los cuales maximizan la
funcion de verosimilitud.
Observacion 5.1 Por motivos de simplicidad en los calculos y por las propiedades de la funcion
logaritmo, equivalente a maximizar la funcion de verosimilitud, es maximizar la funcion de logverosimilitud `p |xi q (que se obtiene producto de la aplicacion de la funcion logaritmo a la
verosimilitud).
`p |xi q log pLp |xi qq
f pxi , q.
i 1
maxtLp|xiqu maxt`p|Xiqu.
log
i 1
n
1 1 xi
e
logpq
i 1
n logpq
1
xi
1
xi
i1
n
La primera derivada de una funcion, respecto al valor que se quiere maximizar, igual a cero
arroja un valor candidato a valor extremo. Entonces
n
B `p|x q n 1
xi
B i
2 i1
n
B `p|x q 0 p 1
xi
MV
B i
n i1
5. Estimaci
on de par
ametros
13
B2 `p|x q
n3
i
n
B 2
p i1 xiq2 .
p
MV
Este u
ltimo es un valor negativo, luego pM V es un maximo de Lp|xi q y, por lo tanto, el estimador
de maxima verosimilitud del parametro .
log
i 1
n
? 1 2 exp
2
log
"
21 2 pxi q2
2 log 2
i 1
p, 2qT .
N p, 2q. Se desea
1
p
xi q 2
2
2
n
n
n
1
2
log 2 log 2 pxi q2 .
2
2
2 i1
12
xi n
(5.3)
(5.4)
i 1
B `p|x q n
i
B2
2 2
n
1
pxi q2.
2p 2 q2 i1
(5.5)
Luego, los candidatos a maximo se obtienen desde el sistema de ecuaciones formado al igualar
14
5.3. Estimaci
on puntual
n1 xi
i1
n
pM V
x
(5.6)
n1 pxi q2
i1
(5.7)
n1 pxi xq2
i1
(5.8)
pM
V
2
pM
pM V q, se tiene que
Evaluando
V p
n
pM
V
Para verificar que los valores dados por las expresiones 5.6 y 5.8 son, efectivamente, maximos
de la funcion de verosimilitud se debe tener que la matriz Hessina evaluada en pM V es definida
negativa (queda de ejercicio para el lector). Finalmente, se tiene que el estimador de maxima
verosimilitud de
p, 2qT
es
pM V
1 pXi X
q2
X,
n i1
n
1
` p |xij q
log ?
exp
2
2
i1 j 1
"
21 2 pxij
nk
1
nk
logp2 q
log 2 2
2
2
2
q
*
2
k
n
pxij iq2 .
i 1j 1
n
n
B ` p|x q 1
1
pxij iq 2
xij ni
ij
B i
2 j 1
j 1
k n
B ` p|x q nk
1
pxij iq2.
ij
B2
2 2 2p 2 q2 i1 j 1
(5.9)
(5.10)
5. Estimaci
on de par
ametros
15
p2
n1
xij
dados por
xi
j 1
1
nk
k
n
1
pxij piq2 nk
i 1j 1
k
n
pxij xiq2.
i 1j 1
2 .
Bernoullipq. Se desea
Soluci
on: Notar que el parametro se puede expresar como funcion de , siendo
2 . Luego, por la propiedad de invarianza se tiene que p gy
pq gppq.
gpq
xi
i 1
logp1 q pn
xi q
i 1
B `p|x q 1 x 1 pn x q
i
B i i1 i 1
i1
pM V X.
n
q X
Finalmente, p g pX
X 2.
En este caso, la Propiedad 5.4 de invarianza del estimador de maxima verosimilitud simplifica
el calculo para obtener el estimador.
Ejercicio propuesto 5.1 Sean X1 , X2 , , Xn una muestra aleatoria con Xi
1 exp t1 xi u , xi
tros:
Exppq f pxiq
16
5.3. Estimaci
on puntual
(a) 1
E pX q
(b) 2
F px, q P pX xq.
5.3.2.
M
etodo de los momentos
Este metodo a diferencia del metodo de maxima verosimilitud, no requiere conocer la distribucion de las variables aleatorias que componen la muestra aleatoria, sino que solo requiere
Definicion 5.8 (M
etodo de los momentos) Sean X1 , X2 , , Xn muestra aleatoria, donde se
conoce el valor esperado de Xir . Para obtener un estimador para el parametro de dimension
q 1, se resuelve el sistema de ecuaciones dado por
1
xi
n i1
n
E pX q
1 2
x
n i1 i
E pX 2q
1 q
x
n i1 i
E pX q q.
..
.
Este metodo es conocido como Metodo de los momentos y permite obtener las componentes
del vector de parametros estimados, llamado pM M .
5. Estimaci
on de par
ametros
17
1 2
x
n i1 i
n
E pX q
E pX 2q V pX q pE pX qq2 2
2 .
p2 M M
n1
n1
n1
i 1
n
i 1
n
xi
x
x2i
p2
x2i x2
i 1
n
n1 pxi xq2.
i 1
5.3.3.
M
etodo de mnimos cuadrados
Este metodo no requiere conocer la distribucion de la muestra aleatoria (como maxima verosimilitud), ni tampoco el momento de orden r (como de los momentos). El requerimiento aqu es
solo el valor esperado de la muestra aleatoria.
Definicion 5.9 (M
etodo de mnimos cuadrados) Sea X1 , X2 , , Xn una muestra aleatoria
rXi E pX qs2
i 1
Q
i 1
rx i s2 .
18
i 1
n
n
B
1
p
Entonces,
B Q 2 i1pxi q M C n i1 xi.
Ai , donde Ai
r xi p
p, qT .
Ai qs2 .
i 1
Ai qs
Ai qq Ai s .
pM C
Finalmente, pM C
5.4.
n pA1 Aq2
i
i1
X pM C A.
pM C
pM C A,
Ai xi x
i 1
Ai
i 1
Hasta el momento se han presentado metodos para obtener estimadores (puntuales) para un
parametro , en esta seccion se presentaran algunas propiedades que nos gustara que tuviera el
5. Estimaci
on de par
ametros
19
estimador. Ademas, estas propiedades pueden ser utilizadas para comparar dos o mas estimadores, bajo la premisa que un mejor estimador sera aquel que presente un mejor comportamiento,
el cual sera medido por las propiedades que se presentan en esta seccion.
Desde la Definicion 5.2 se tiene que un estimador es una funcion de la muestra aleatoria que
no depende de los parametros. Por ejemplo, si se tiene una muestra aleatoria X1 , X2 , , Xn
donde X
1
xi
n i1
n
n 1 pxi xq2.
1
i 1
Entonces, es de interes conocer que tan buenos son estos estimadores para los parametros
respectivos, para esto es necesario definir propiedades asociadas a la distribucion del estimador
del parametro (como variable aleatoria), el valor esperado debera ser el parametro y la varianza
peque
na.
Insesgamiento
Definicion 5.10 (Estimador insesgado) Sea p T pX1 , X2 , , Xn q un estimador del parametro . El estimador p se dice ser un estimador insesgado del parametro si y solo si
E ppq .
Este es el primer requisito que se le pide a un estimador: ser insesgado. Esta propiedad se
fundamenta en que, dada una muestra aleatoria esta se puede repetir en las mismas condiciones
y en cada una de ellas obtener un nuevo estimador, por lo que se tiene que este estimador tiene
una distribucion asociada, lo que se espera es que la esperanza de la distribucion del parametro
estimado sea el parametro.
Ejemplo 5.13 Sea X1 , X2 , , Xn una muestra aleatoria donde X
siste en verificar si los siguientes estimadores para los parametro 2 y e , respectivamente, son
insesgados
s2
n 1 1 pxi xq2
i 1
ex .
20
De este resultado, se tiene que E ps2 q 2 con lo cual se verifica que s2 es un estimador insesgado
para 2 .
Por su parte, E pex q, se puede obtener considerando que si X
exp t
1 2 2
t
2
y que X
N p, 2 n1q. Luego,
E e
MX pt 1q exp
"
1 2
2 n
8 entonces eX
1
p
xi xq2
n i1
n
2
E p
pM
Vq
n n 1 s2,
n1 2
.
n
n
Entonces, n
pM2 V es un estimador insesgado para el parametro 2.
1
5. Estimaci
on de par
ametros
21
Precisi
on de la estimaci
on (eficiencia)
Otra de las propiedades asociadas a un estimador es referida a la variabilidad. En palabras
simples, supongamos que se dispone de dos parametros ambos insesgados, sin embargo uno
presenta mayor variabilidad que el otro, entonces se dice que el segundo estimador es mas
eficiente que el primero.
Propiedad 5.5 (Estimador de mnima varianza) Sea p un estimador insesgado del parametro . El estimador p se dice de mnima varianza si y solo si
V arppq V arpp q,
donde p es otro estimador insesgado del parametro .
nE
B
B log f pxi q
2
1
2
n E BB2 log f pxi q
(que
El estimador de maxima verosimilitud, de momentos y de mnimos cuadrados para es X
es insesgado).
pq
Primero se tiene que, V arp
considerando
f p xq
"
1
a
exp
px q2
2
2
2
20
0
1
22
B log f pxq 1 px q
B
02
B2 log f pxq 1 .
B 2
02
Luego, CCR
02
.
n
Definicion 5.11 (Eficiencia relativa) En caso que la varianza del estimador sea mayor que la
cota de Cramer-Rao es conveniente definir un coeficiente de eficiencia. Se define la eficiencia
relativa de un estimador (ER) como
ER
CCR
V arppq
N p, 2q. se propone el
n 1 pxi X q2.
1
i 1
5. Estimaci
on de par
ametros
23
1
1
f pxq ?
exp 2 px q2
2
2 2
1
1
1
log f pxq logp2 q log 2 2 px q2
2
2
2
B log f pxq 1
1
px q2
B2
2 2 2p 2 q2
B2 log f pxq 1 1 px q2.
Bp2q2
2p 2 q2 p 2 q3
Luego, la Cota de Cramer-Rao es igual a
CCR
1
1
n 2p 2 q2
1
p2q3 E
px q
1
2pn q
2 2
De este resultado se tiene que la CCR no alcanza la varianza del estimador. Luego, puede
obtener la eficiencia relativa del estimador, la que esta dada por
ER
n1
.
n
Error cuadr
atico medio
Sea p un estimador cualquiera (posiblemente no insesgado) del parametro . El Error cuadratico medio (ECM ) del estimador p es dado por:
ECM ppq E
p
2
Propiedad 5.7
ECM ppq V arppq
E ppq
24
E
E
E
p
2
p E ppq
p E ppq
E ppq
pq
E p
pq
V ar p
2
2
E ppq
p q
E p
p q
E p
2
2E
pp E ppqqpE ppq q
e a p eX .
Soluci
on: El ECM ppq es
p q E pe q MX pt 1q exp
E p
"
1 2
2n
"
1 2
exp tu exp 2n
.
p q p q
V ar p
E p2
pq
E p
"
V arppq exp 2
2
2
n
exp
"
2 n . Luego
2
n
Con estos resultados se puede escribir una expresion para ECM ppq.
Ejemplo 5.17 Sea X1 , X2 , , Xn una muestra aleatoria donde X
n1 pxi X q2.
i 1
5. Estimaci
on de par
ametros
25
p2 q es
Soluci
on: El ECM p
p2 q
E p
n1 2
.
n
n2
2
pM
q
2pn 1q 4
n1 2
2
2
n
n
2
5.4.1.
Tirador 1
Tirador 2
Tirador 3
Insesgado
Poco preciso
Poco certero
No Insesgado
Preciso
Poco certero
Insesgado
Preciso
Certero
Estimadores consistentes
Esta propiedad controla tanto el valor esperado como la variabilidad del estimador y se fundamenta en que si la muestra es tan grande como la poblacion, el comportamiento del estimador
debera tender al parametro en el valor esperado y la varianza disminuir tendiendo a cero.
26
Definicion 5.12 (Estimador consistente) El estimador p del parametro es llamado un estimador consistente s
lm E p
lm V ar p
0.
2
pM
que
ametro 2 .
V es un estimador consistente del par
2
pM
Se sabe que
V
n n 1 2
2pn 1q 2 2
p q
n2
2
pM
lm V ar
V
2
0.
2
pM
ametro 2 .
Por lo tanto,
V es un estimador consistente del par
Ejercicio propuesto 5.2 Sea X1 , X2 , , Xn una muestra aleatoria donde la funcion de densidad
de las variables aleatoria Xi es
1 p1 1q
f pxi q xi
,
xi
1, 0.
5. Estimaci
on de par
ametros
5.5.
27
Estimaci
on por intervalos
(5.11)
2
0
1,96q 0,95
Reemplazando Z seg
un el resultado dado en la expresion 5.11, se tiene que
X
P 1,96 b 2
1,96
0
n
02
n
1,96 0,95
1,96
02
n
0,95.
De la u
ltima expresion se tiene que la probabilidad de que el parametro se encuentre entre
1,96
02
n
yX
1,96
02
n
se ha creado un intervalo de valores entre los que se encuentra un parametro de interes con un
cierto nivel de confianza, a esto se llamara estimacion por intervalos de confianza.
Ahora, el resultado anterior fue obtenido para un nivel de confianza particular, sin embargo, se
puede generalizar a un nivel de confianza cualquiera. En efecto, considerese un nivel de confianza
28
5.5. Estimaci
on por intervalos
P pz1 2
Z z1 q 1
z1
aleatoria Z
N p0, 1q.
2
-4
-3
2
-2
-1
00
12
Reemplazando Z seg
un el resultado dado en la expresion 5.11 y despejando , se tiene que
z1
02
n
z1 2
02
n
1 .
z1
02
,X
n
z1 2
02
.
n
Cantidad pivotal
Una de las claves para resolver la situacion anterior estuvo en considerar la distribucion de la
variable aleatoria Z seg
un la ecuacion 5.11, notar que en dicha ecuacion estan y el estimador de
y la distribucion asociada no depende de ning
maxima verosimilitud de , X
un parametro. Estos
tres elementos son justamente los que se deben considerar para la construccion de intervalos de
confianza para un parametro de interes. A continuacion se presenta el concepto de pivote el
cual es una expresion que contiene el parametro y al estimador de maxima verosimilitud del
parametro y sigue una distribucion que no depende de ning
un parametro.
Definicion 5.13 (Cantidad pivotal o pivote) Sea p un estimador del parametro . Una funp q, se conoce como una cantidad pivotal
cion f del estimador p y del parametro , es decir f p,
p q no depende del par
o pivote si y solo si la distribucion de f p,
ametro .
5. Estimaci
on de par
ametros
29
q Xb
f pX,
2
N p0, 1q.
0
n
N p0, 1q
(5.12)
2
n
n1 2
s
2
2pn 1q.
(5.13)
Por resultados anteriores se sabe que la siguiente funcion es pivote para el parametro y
sigue una distribucion t-Student (T S) con n 1 grados de libertad
q X?
f pX,
s n1
T S pn 1q.
(3) Observar que la expresion 5.13 del punto anterior, es una cantidad pivotal para el parametro 2 . Pues
p2 , 2 q
f p
n1 2
S
2
2pn 1q.
una
variables aleatorias independientes. Se desea construir una cantidad pivotal para el parametro
1 N p0, 1q
12
n1
2 N p0, 1q,
22
n2
30
5.5. Estimaci
on por intervalos
X N
2 1 , n11
22
n2
5.5.1.
p 2 1 q
b
X
N p0, 1q.
12
n1
22
n2
M
etodo del pivote para construir un intervalo de confianza
Los pivotes pueden ser utilizados para la construccion de intervalos de confianza para el
parametro del cual depende la funcion pivotal. Para la construccion de los intervalos se pueden
considerar los siguientes pasos
p q, para el par
Paso 1: Disponer de un pivote, f p,
ametro (de interes).
Paso 2: Fijar los valores de UI y de US de modo que el pivote se encuentre entre estos
valores, donde UI es el percentil de orden
P UI
p q US 1 .
p
f ,
P I ppq
S ppq 1 .
Finalmente, el intervalo de confianza para el parametro es dado por I ppq, S ppq con una
UI .
Ejemplo 5.20 Los siguientes intervalos de confianza se obtienen para parametros de interes y
pivotes dados en el Ejemplo 5.19.
5. Estimaci
on de par
ametros
31
()
()
P z1 2
b z1
2
0
1 .
z1
02
n
z1 2
02
n
1 .
Luego, el intervalo de confianza para con una confianza de 100 p1 q % es dado por
z1
02
,X
n
z1 2
02
.
n
(2) Dado que para este caso se dispone de una distribucion simetrica en torno a cero, se tiene
que
P t1 2 pn 1q b
s2
n
t1 pn 1q 1 .
t1 pn 1q
s2
n
t1 2 pn 1q
s2
n
1 .
Luego, el intervalo de confianza para , con una confianza de 100 p1 q %, esta dado por
t1 pn 1q
s2
,X
n
t1 2 pn 1q
s2
.
n
32
5.5. Estimaci
on por intervalos
(3) En este caso se tiene un pivote para 2 , teniendo en cuenta que la distribucion de la
pn 1q
2
n1 2
s
2
2 pn 1q
1
21
pn 1q s2 2 pn 1q s2 1 .
21 pn 1q
2 pn 1q
pn 1q s2 , pn 1q s2
2 P
21 pn 1q 2 pn 1q
(4) La distribucion de la funcion del pivote es simetrica en torno a cero, luego se tiene que
X p 2 1 q
Y b
z1
P z1 2
2
1
n1
2
2
n2
P Y
X z1
12
22
n1
n2
Y X
1 .
z1 2
12
22
n1
n2
1 .
Luego, el intervalo de confianza para 2 1 con una confianza de 100 p1 q %, es dado por
Y
X z1
12
22
n1
n2
, Y
X
z1 2
12
22
n1
n2
Ejemplo 5.21 Considerando los intervalos de confianza obtenidos en el Ejemplo 5.20 y la informacion emprica que se entrega a continuacion, se cuantificaran algunos resultados para los
parametros de interes, suponiendo en todos los casos que el nivel de confianza es de un 95 % (es
decir, 0,05).
12,1 1,96
1,35
35
12,1
1,96
1,35
35
12,1. Ademas, se
1 .
5. Estimaci
on de par
ametros
33
para esta dado por r11,72 ; 12,49s, con una confianza del 95 %.
(2) Considerando los siguientes datos: n
sabiendo que t0,975 p20q 2,093, se tiene que
10,3 2,093
10,3
0,79
20
2,093
0,79
20
0,95.
100
32
160
; 250 190
40
1,96
100
32
160
40
r54,77 ; 65,23s .
g ppM V q g pq
B gpq
B2
n E BB2 log f pxi q
N p0, 1q,
pM V
(5.14)
34
5.5. Estimaci
on por intervalos
p q es pivote para .
As, la funcion f p,
p1 q .
Soluci
on: Se sabe que la funcion de cuanta de la variable aleatoria es f pxi q xi p1 q1xi ,
logp1 q pn
xi
i 1
xi q
i 1
B `p|x q 1 x 1 pn x q
i
B i i1 i 1
i1
pM V X.
n
. Para
B2 `p|xq x 1 x
B 2
2 p1 q2
Considerando que E pX q y evaluando la expresion en pM V ,
2
B
n E B2 `p|xq p1n q
2
B
n E B2 `p|xq
X p1n X q .
pM V
p q una funci
Luego, reemplazando en la expresion 5.14, se obtiene f p,
on pivotal para
N p0, 1q.
p1X
q
X
p q bX
f p,
P z1 2
b X p1X q z1
1 .
5. Estimaci
on de par
ametros
z1
35
p1 X q X
z1 2
p1 X q 1 .
n
z1
p1 X q , X
n
z1 2
p1 X q
pq
B gpq 1 2 B gpq
B
B p 1 2X
MV
p q,
Con este resultado, mas los obtenidos en (1), se tiene que la funcion pivotal para : f p,
p1 X
q
X
p q b
f p,
p q p q
1 2X
2X
1 X
N p0, 1q.
p1 X
qq
Definiendo DE pX
p1 X
q z1 DE pX
P X
2
p1 X qq X p1 X q
z1 2 DE pX
p1 X qq 1 .
p1 X
q z1
X
2
p1 2X q Xn p1 X q , X p1 X q
z1 2
p1 X q Xn p1 X q
36
5.5. Estimaci
on por intervalos
5.5.2.
Propiedad 5.9 (Teorema central del lmite) Sean X1 , X2 , , Xn una muestra aleatoria desde una poblacion con media E pX q y varianza V arpX q. Luego, se define la variable aleatoria Zn
por la expresion
XbV EarppXXq q .
Zn
El Teorema central del lmite muestra que Zn tiene distribucion asintotica normal con media
0 y varianza 1. Es decir, Zn
N p0, 1q cuando n 8.
n
i1 Xi E p i1 Xi q
a
.
V ar p ni1 Xi q
Bernoullipp 0,20q. Se
1980
10000
Xi
2050
i 1
10000
i1 Xi , entonces Y Binomialpn 10000; p 0,20q. Desde
este u
ltimo resultado se conoce el valor esperado y la varianza de Y : E pY q 10000 0,20 2000
y V arpY q 10000 0,20 0,80 1600.
Soluci
on: Si se define Y
5. Estimaci
on de par
ametros
37
1980 E pY q
a
V arpY q
Zn
2050 E pY q
a
V arpY q
P
1980 2000
?
1600
Zn
2050 2000
?
1600
P p0,50 Zn 1,25q
Utilizando el hecho de que Zn
Observacion 5.7 Notar que para aplicar el teorema central del lmite es suficiente conocer el
valor esperado y la varianza. En el Ejemplo 5.23 si bien se conoce la distribucion de la variable
aleatoria y con esto se puede obtener directamente la probabilidad pedida mediante FX pxq, para
efectos de ejemplificacion de la Propiedad 5.9 se resuelve mediante la aproximacion asintotica a
la distribucion normal.
38
5.5. Estimaci
on por intervalos