You are on page 1of 39

Apuntes de curso

PROBABILIDAD y ESTADISTICA
Carreras Ingenieras civiles

Profesor:
SONIA SALVO GARRIDO
Doctora en Estadstica

Primer semestre 2014

UNIVERSIDAD DE LA FRONTERA

Unidad 5
Estimaci
on de par
ametros

5.1.

Inferencia estadstica

La inferencia estadstica esta constituida por un conjunto de fundamentos, metodos y tecnicas que permiten describir y, en general, conocer las caractersticas de la poblacion a traves de la
informacion de la muestra (aleatoria). Considerando que la poblacion esta definida por parametros, en la muestra los elementos respectivos se llaman estadsticos, que son los utilizados para
obtener aproximaciones (bajo un nivel de confianza aceptable) de los parametros y/o para poner
a prueba creencias acerca de los mismos parametros (esta relacion se presenta en el esquema de
la Figura 5.1).

Ejemplo 5.1 Sea la variable aleatoria X: Tiempo de falla de un componente electronico, la cual
(en la poblacion) es X

 f px|q  1 exp  1 x

, x 0. Se desea:

(a) tener conocimiento acerca del tiempo medio de falla.


(b) contar con un intervalo que cubra al tiempo medio de falla con un 95 % de confianza
(c) verificar que el tiempo promedio de falla es mayor o igual a 10.000 horas.
1

5.1. Inferencia estadstica

Objetivo:

Poblacin: ~(|)

Adquirir
informacin
acerca de

Permite:

Muestra

Adquirir
conocimiento
acerca de

1 , 2 , , (|)

Figura 5.1: Esquema del proceso de inferencia estadstica

Soluci
on: El tiempo medio de falla en la poblacion corresponde al valor esparado, el cual
es E pX q

 . Si se cuenta con una muestra aleatoria cuyas componentes son X1, X2,    , Xn

independientes e identicamente distribuidas que siguen la misma distribucion que la variable en


la poblacion. Entonces,
p est
(a) Una estimacion de (denotada por )
a dada por el tiempo de falla medio observado

en la muestra
p 

 Xi

i 1

 Xn.

(b) Determinar un intervalo que cubra al tiempo promedio de falla con un 95 % de confianza,
se puede obtener resolviendo la ecuacion de la probabilidad de que se encuentre entre dos
valores, a1 y a2 , sea de 0.95 en la cual las incognitas son a1 y a2 y se expresa como
P pa1

a2q  0,95

(c) Aqu se puede enfrentar este problema obteniendo la probabilidad de que

10000, para

lo cual se debe asumir algun supuesto adicional para especificar la incognita.

Los tres problemas que aparecen en el Ejemplo 5.1 son los que resuelve la inferencia estadstica a traves de fundamentos teoricos y metodos o tecnicas de analisis de informacion.
Especficamente, (a) y (b) son problemas de Estimacion de parametros, mientras que (c) es un
problema de Pruebas de hipotesis.

5. Estimaci
on de par
ametros

En esta unidad se presentan fundamentos y metodos (tecnicas) para obtener estimaciones


puntuales e intervalos en que se encuentre un parametro. Ademas, see estudia el comportamiento
del parametro estimado bajo supuestos de muestreo aleatorio, referido a consistencia y eficiencia
en el contexto estadstico.

5.2.
5.2.1.

Elementos previos
Poblaci
on

La poblacion se define como el conjunto universo en estudio (individuos u objetos).


Un elemento observable llamado variable aleatoria, X, que es lo relevante para el estudio.
La variable aleatoria posee una densidad (cuanta), la cual depende de un parametro () desconocido, es de naturaleza no-observable y es una caracterstica de la poblacion. Esto se denota
por
X

 f px|q,

P .

donde es el espacio parametrico, el cual es un subconjunto de Rp .


En la literatura, el parametro es conocido como el estado de la naturaleza.

Ejemplo 5.2 Algunos ejemplos de poblacion asociada a un experimento aleatorio son


(1) Sea la variable aleatoria X definida como

Donde X

$
& 1 Presencia del atributo

%

0 Ausencia del atributo

 Bernoullippq; p P p0, 1q y f px|pq  pxp1  pq1x; E pX q  p, V arpX q  p  p1  pq.

p: proporcion de individuos u objetos que poseen el atributo.


(2) La variable aleatoria X es N
umero de clientes que llegan a la fila de un banco en un

5.2. Elementos previos

cierto periodo. Entonces X

 Poissonpq, f px|q  x!e


x

,x

E pX q  , V arpX q  y : tasa media de llegada.

 0, 1, 2,    , 0;  p0, 8q;

(3) La variable aleatoria X es Tiempo de falla de un cierto componente de un sistema.


Entonces X

 Expp, q y f px|, q  1 exp  1 px  q

; x , 0,

0 (: parametro de

escala, : parametro de posicion).


(4) Modelo Normal: X

 N p, 2q, donde X: puntaje obtenido en un test o tension a la que

es sometida una viga.

5.2.2.

Muestra aleatoria

Una muestra aleatoria es obtenida por medio de la realizacion de un experimento aleatorio

 f px|q, la cual es un vector aleatorio X  pX1, X2,    , XnqT donde


las variables aleatorias X1 , X2 ,    , Xn son independientes y poseen densidad f px|q. Entonces
X P (: espacio muestral).

desde una poblacion X

Luego, p, F, tf p|q :

P uq es un modelo estadstico, es decir, una familia de espacios de

probabilidad indexada por el parametro.

5.2.3.

Funci
on de verosimilitud

Definicion 5.1 La funcion de verosimilitud de asociada a una muestra aleatoria


X

 pX1, X2,    , XnqT

proveniente de la poblacion X con funcion de densidad f px|q, viene

dada por
Lp q  Lp |xi q 

f pxi , q,

P .

i 1

El principio de verosimilitud dice que la informacion que entrega la muestra aleatoria X

pX1, X2,    , XnqT

acerca del parametro esta representada en la funcion de verosimilitud.

Ejemplo 5.3 Algunos ejemplos de funcion de verosimilitud

5. Estimaci
on de par
ametros

(1) Sea X una observacion Binomialpn  2, pq. Luego la funcion de verosimilitud y el grafico
para p (Figura 5.2), estan dados por:
Lppq 

(|)

2 x
p p1  pq2x ,
x

x  0, 1, 2.

(| = 0)

0,8

(| = 2)

0,6
0,4

(| = 1)
0,2

0
0

0,2

0,4

0,6

0,8

Figura 5.2: Grafico de Lpp|xq para X


(2) Sea la muestra aleatoria X

 Binomialpn  2, pq

 pX1, X2,    , XnqT

Xi

 Bernoullippq, la funcion densidad

es ppx|pq  px p1  pq1x . As la funcion de verosimilitud esta dada por


Lppq  p

Notar que

xi

p1  pqn

xi

Xi es una funcion de la muestra, que representa la cantidad de exitos en la

muestra.

5.2.4.

Estadstica (estadstico, estadgrafo)

Definicion 5.2 Sea X1 , X2 ,    , Xn una muestra aleatoria, una estadstica T puede ser definida
como:
(1) T es una funcion de la muestra aleatoria, T
aleatoria que asume valores en alg
un espacio Y .

 T pX q luego tambien es una variable

5.2. Elementos previos


(2) T es una funcion definida sobre el espacio muestral y asumiendo valores en Y .

R
x y  T pX q

T : Rn

Ejemplo 5.4 Sea X


(a) T

 pX1, X2,    , XnqT  Bernoullippq

 T pX q  Xi  Binomialpn, pq y asume valores en t0, 1,    , nu.


(b) T : tp0, 1q,    , p0, 1qu t0, 1, 2,    , nu
x  pX1 , X2 ,    , Xn q y

5.2.5.

 T pX1, X2,    , Xnq 

Xi

Distribuci
on del promedio y varianza desde una muestra aleatoria basada en distribuci
on normal

La distribucion del promedio y de la varianza muestral son elementos previos al Captulo de


estimacion de parametros. En este sentido, si bien el promedio como la varianza muestral son
elementos puntuales de una distribucion, se pueden entender como variables aleatorias toda vez
que el experimento de obtener una muestra aleatoria puede repetirse en las mismas condiciones
repetidas veces, puede obtenerse (teoricamente) un conjunto de valores puntuales que constituyen
las variables aleatorias.

Definicion 5.3 El promedio de una muestra aleatoria esta definido como la media aritmetica de
un conjunto de variables aleatorias y se fundamenta en el hecho que un experimento aleatorio
puede reproducirse bajo las mismas caractersticas. El promedio esta dado por la expresion
1
Xi .
n i1
n

La idea es obtener la distribucion de una nueva variable aleatoria que representa al promedio. En efecto, a continuacion se presenta una propiedad mediante la cual se puede asociar la
distribucion de una muestra aleatoria, basada en una distribucion normal, con los parametros
de la distribucion del promedio.

5. Estimaci
on de par
ametros

Propiedad 5.1 Sean X1 , X2 ,    , Xn una muestra aleatoria, donde Xi

 N p, 2q. La distribu-

conocida como el promedio de la muestra aleatoria sigue


cion de la nueva variable aleatoria X
una distribucion normal dada por

1
Xi
n i1
n

N

2
,
n

Demostracion: Se tiene que



tT

MT ptq E e


E

"

1
exp t
Xi
n i1

 E exp nt X1


n
 MX1 nt


exp

 exp

"

1
2

*
n

+n


2

1 2 2
t
2 n

t
n

Esta u
ltima expresion corresponde a la distribucion de una variable aleatoria normal con los
parametros pedidos.
Adicionalmente, se puede estandarizar la distribucion del promedio y calcular probabilidades
al promedio de una muestra aleatodesde una distribucion normal estandar. Si llamamos X
ria X1 , X2 ,    , Xn , donde Xi

 N p, 2q. La distribucion Z estandarizada se puede construir

mediante

 Xb  N p0, 1q.

Definicion 5.4 La varianza muestral, denotada por S 2 , basada en X1 , X2 ,    , Xn una muestra


aleatoria esta dada por la expresion
S

 n  1 pXi  X q2.
1

i 1

5.2. Elementos previos

Propiedad 5.2 Sea X1 , X2 ,    , Xn una muestra aleatoria donde Xi

 N p, 2q. Entonces la

variable aleatoria Y , que contiene la varianza muestral S 2 , tiene distribucion

 n 2 1 S 2 Y  2pn  1q.

Demostracion: Para mostrar este resultado, hay que escribir una expresion equivalente a Y
de tal manera que aparezca y 2 . En efecto,
n1
Y  2 S2

 12

pXi  q2 pX  q2  2pXi  qpX  q

i 1

n

 12

pXi  q  pX  q 2

i 1
n

 12

n
1
pXi  X q2
2 i1

pXi  q2

i 1

pX  q2  2pX  q pXi  q


i 1

Notar que en la u
ltima expresion

i 1

 pXi  q  nX  n  npX  q. Con lo cual se tiene

i 1

 12 pXi  q2  npX
i1

 q2

Finalmente, Y se puede reexpresar como


Y

i 1

Xi 


2 .

 n 2
1

Luego, analizando la u
ltima expresion
Xi 
Xi  N p, q

 N p0, 1q

Xi 

 p1q
2

Efectuando un analisis similar al anterior, se puede obtener que





2  2p1q

 n 2
1

Con lo cual finalmente se tiene que


Y

 2pn  1q.

i 1

Xi 

 2pnq

5. Estimaci
on de par
ametros

5.2.6.

Distribuci
on del Mnimo y M
aximo

Sean X1 , X2 ,    , Xn variables aleatorias independientes, donde Xi tiene funcion de densidad

fXi pxi q, se conoce como el Mnimo a la variable aleatoria mas peque


na (en el sentido matematico
de la expresion) y al Maximo como la variable aleatoria de mayor valor. El mnimo y el maximo
se denotan respectivamente por
(a) M

 mn tX1, X2,    , Xnu

(b) T

 max tX1, X2,    , Xnu

Luego, conociendo la funcion de densidad de las variables aleatorias Xi es de interes conocer la distribucion de la variable aleatoria M y T definidas anteriormente. Para tales fines a
continuacion se presenta una propiedad que permite solucionar esta inquietud.

Propiedad 5.3 La funcion de densidad de la variable aleatoria M y T , conocidas como el Mnimo


y el Maximo de las variables aleatorias X1 , X2 ,    , Xn , estan dadas por:
fT ptq n  rFX1 ptqsn1  fX1 ptq

fM pmq n  r1  FX1 pmqsn1  fX1 pmq.


Demostracion: (5.1) En este caso se tiene que
FT ptq P pT

tq  P pmax tX1, X2,    , Xnu tq


P ptX1 tu X tX2 tu X    X tXn tuq

Como las variables aleatorias Xi son independientes se tiene que

P pX1 tq  P pX2 tq    P pXn tq


FX ptq  FX ptq    FX ptq
1

Asumiendo que las variables aleatorias Xi son id, se tiene que

 rFX ptqsn
1

(5.1)
(5.2)

10

5.2. Elementos previos

Realizando la derivada parcial respecto a t, se tiene que


fT ptq n  rFX1 ptqsn1  fX1 ptq.
(5.2) Para obtener la funcion de densidad del mnimo se tiene

mq  P pmn tX1, X2,    , Xnu mq


1  P pmn tX1, X2,    , Xnu mq
1  P ptX1 mu X tX2 mu X    X tXn muq

FM pmq P pM

Como las variables aleatorias Xi son independientes, entonces

1  P pX1 mq  P pX2 mq    P pXn mq


1  p1  FX pmqq  p1  FX pmqq    p1  FX pmqq
1

Asumiendo que las variables aleatorias Xi son id

1  r1  FX pmqsn
1

Realizando la derivada parcial respecto a m


fM pmq n  r1  FX1 pmqsn1  fX1 pmq.
Ejemplo 5.5 Sean X1 , X2 ,    , Xn una muestra aleatoria, donde Xi

 Expp q. Determinar la

funcion de densidad del mnimo y del maximo.


Soluci
on: Para obtener las funciones de densidad para las variables aleatorias se utiliza la
Propiedad 5.3. En efecto, dado que Xi
"

 Expp q se tiene que


*

1
1
fXi pxq  exp  x , x 0

"
*
"
*
x
1
1
1
exp  t dt  1  exp  x ,
FXi pxq 

x0

Luego, la funcion de densidad del maximo es


fT ptq n 

"

*n1

1
1  exp  t

1
exp

"

 1 t ,

t0

5. Estimaci
on de par
ametros

11

Por su parte la funcion de densidad del mnimo es




"

*n1

1
fM pmq n  1  1 exp  m

"
*
 n  exp  n m , m 0.
De los resultados obtenidos es inmediato que M

5.3.

1
exp

"

 1 m

 Expp n q.

Estimaci
on puntual

Para realizar la estimacion se contara con la informacion de una variable aleatoria a traves de
una muestra aleatoria tomada desde una poblacion de interes. Es decir, sea la muestra aleatoria
X1 , X2 ,    , Xn , tomada desde una poblacion con distribucion conocida, los parametros asociados
a dicha distribucion, y que se pueden anotar como un vector de parametros , son los que
se estimaran. El proceso de asignar un valor (obtenido como funcion de la muestra aleatoria
u
nicamente) a un parametro es llamado Estimaci
on puntual y el valor obtenido es llamado
Estimador puntual, entendiendo como parametro a un vector cuyas componentes son los
parametros de la distribucion subyacente.
A continuacion se estudiaran algunos metodos para conseguir estimas de dichos parametros
(estimaciones puntuales).

5.3.1.

M
etodo de m
axima verosimilitud

Este metodo se basa en la maximizacion de la funcion de verosimilitud respecto de los parametros, este procedimiento determina funciones de la muestra como estimadores de los parametros
respectivos, que no dependen de los parametros. Estos estimadores son llamados estimadores de
maxima verosimilitud.
Definicion 5.5 (Estimaci
on de m
axima verosimilitud) A partir de la funcion de verosimilitud, se puede obtener un metodo para estimar los parametros conocido como metodo de maxima

12

5.3. Estimaci
on puntual

verosimilitud, y que consiste en obtener los valores de los parametros los cuales maximizan la
funcion de verosimilitud.
Observacion 5.1 Por motivos de simplicidad en los calculos y por las propiedades de la funcion
logaritmo, equivalente a maximizar la funcion de verosimilitud, es maximizar la funcion de logverosimilitud `p |xi q (que se obtiene producto de la aplicacion de la funcion logaritmo a la
verosimilitud).
`p |xi q  log pLp |xi qq 

f pxi , q.

i 1

Definicion 5.6 (Par


ametro estimado) Sea un vector de parametros asociado a una cierta
funcion de densidad para una muestra aleatoria X1 , X2 ,    , Xn . El vector pM V es el vector que
contiene los valores estimados para el parametro mediante el metodo de maxima verosimilitud.
Definicion 5.7 (Estimador de m
axima verosimilitud) Sea X1 , X2 ,    , Xn una muestra aleatoria, donde la variable de interes tiene una cierta distribucion asociada (conocida). El estimador
de maxima verosimilitud del parametro es definido como
pM V

 maxtLp|xiqu  maxt`p|Xiqu.

Ejemplo 5.6 Sean X1 , X2 ,    , Xn una muestra aleatoria, donde Xi


el estimador de maxima verosimilitud del parametro .
`p|xi q 

log

i 1
n 

1  1 xi
e

 logpq 

i 1

  n logpq 

 Exppq. Se desea obtener

1
xi

1
xi
i1
n

La primera derivada de una funcion, respecto al valor que se quiere maximizar, igual a cero
arroja un valor candidato a valor extremo. Entonces
n
B `p|x q   n 1
xi
B i
2 i1
n
B `p|x q 0 p  1
xi
MV
B i
n i1

5. Estimaci
on de par
ametros

13

Luego, evaluando el candidato a maximo en la segunda derivada de la funcion se obtiene que


es efectivamente un maximo,
n
B2 `p|x q  n  2
B 2 i 2 3 i  1 xi ,

B2 `p|x q
n3



i
n

B 2
p i1 xiq2 .
p
MV

Este u
ltimo es un valor negativo, luego pM V es un maximo de Lp|xi q y, por lo tanto, el estimador
de maxima verosimilitud del parametro .

Ejemplo 5.7 Sean X1 , X2 ,    , Xn una muestra aleatoria de una variable X


obtener el estimador de maxima verosimilitud del parametro
`p |xi q 

log

i 1
n 

? 1 2 exp
2

 log

"

 21 2 pxi  q2

2  log 2 

i 1



 p, 2qT .

 N p, 2q. Se desea

1
p
xi  q 2
2
2

n
n
n
1
2
log 2  log  2 pxi  q2 .
2
2
2 i1

La primera derivada de la funcion de log-verosimilitud, respecto al vector que se quiere


maximizar, igual a cero arroja un vector candidato a valor extremo. Como se trata de un vector,
se deben hacer las derivadas parciales respecto de cada uno de los componentes del vector.
Entonces
n
B `p|x q  1
p xi  q
i
B
2 i1

 12

xi  n

(5.3)

(5.4)

i 1

B `p|x q   n
i
B2
2 2

n
1
pxi  q2.
2p 2 q2 i1

(5.5)

Luego, los candidatos a maximo se obtienen desde el sistema de ecuaciones formado al igualar

14

5.3. Estimaci
on puntual

a cero las ecuaciones 5.4 y 5.5. Con lo cual se tiene que

 n1 xi
i1
n

pM V

 x

(5.6)

 n1 pxi  q2
i1

(5.7)

 n1 pxi  xq2
i1

(5.8)

pM
V

2
pM
pM V q, se tiene que
Evaluando
V p 
n

pM
V

Para verificar que los valores dados por las expresiones 5.6 y 5.8 son, efectivamente, maximos
de la funcion de verosimilitud se debe tener que la matriz Hessina evaluada en pM V es definida
negativa (queda de ejercicio para el lector). Finalmente, se tiene que el estimador de maxima
verosimilitud de

 p, 2qT

es
pM V

1 pXi  X
q2
X,
n i1
n

 p1, 2,    , k , 2qT , de dimension pk 1, 1q, es decir q  k 1.


Se sabe que Xij  N pi , 2 q, i  1, 2,    , k, j  1, 2,    , n. Se desea obtener el estimador de

Ejemplo 5.8 Sea el vector

maxima verosimilitud para . La funcion de log-verosimilitud esta dada por


k
n

1
` p |xij q 
log ?
exp
2
2
i1 j 1

"

 21 2 pxij

nk
1
  nk
logp2 q 
log 2  2
2
2
2

Luego, las derivadas respecto a los k

 q

*
2

k
n

 

pxij  iq2 .

i 1j 1

1 parametros son las siguientes




n
n
B ` p|x q  1
1
pxij  iq  2
xij  ni
ij
B i
2 j 1
j 1
k n
B ` p|x q   nk
1
pxij  iq2.
ij
B2
2 2 2p 2 q2 i1 j 1

(5.9)

(5.10)

5. Estimaci
on de par
ametros

15

En la ecuacion 5.9 el resultado es valido para i

 1, 2,    , k. Luego, igualando a cero las

derivadas y resolviendo el sistema de ecuaciones, se obtienen las componentes del vector de


pM V
parametros ,

 pp1, p2,    , pk , p2qT


pi

p2

 n1

xij

dados por

 xi

j 1

1
 nk

k
n

 

1
pxij  piq2  nk

i 1j 1

k
n

 

pxij  xiq2.

i 1j 1

Propiedad 5.4 (Invarianza del estimador de m


axima verosimilitud) Sea pM V el estimador de maxima verosimilitud para el parametro . Luego el estimador de maxima verosimilitud
para g pq esta dado por g ppM V q, donde g pq es una funcion real valuada.
Ejemplo 5.9 Sean X1 , X2 ,    , Xn una muestra aleatoria, donde X
obtener el estimador de maxima verosimilitud para el

  2 .

Bernoullipq. Se desea

Soluci
on: Notar que el parametro se puede expresar como funcion de , siendo
 2 . Luego, por la propiedad de invarianza se tiene que p  gy
pq  gppq.

 gpq 

En efecto, el analisis anterior implica obtener el estimador de maxima verosimilitud de , as


`p|xi q  log 

xi

i 1

logp1  q  pn 

xi q

i 1

B `p|x q  1  x  1  pn  x q
i
B i i1 i 1 
i1

pM V  X.
n

q  X

Finalmente, p  g pX

 X 2.

En este caso, la Propiedad 5.4 de invarianza del estimador de maxima verosimilitud simplifica
el calculo para obtener el estimador.
Ejercicio propuesto 5.1 Sean X1 , X2 ,    , Xn una muestra aleatoria con Xi
1 exp t1 xi u , xi
tros:

 Exppq f pxiq 

0. Encontrar los estimadores de maxima verosimilitud para los parame-

16

5.3. Estimaci
on puntual

(a) 1

 E pX q

(b) 2

 F px, q  P pX xq.

5.3.2.

M
etodo de los momentos

Este metodo a diferencia del metodo de maxima verosimilitud, no requiere conocer la distribucion de las variables aleatorias que componen la muestra aleatoria, sino que solo requiere

 1, 2,    , q donde el vector de parametros es de dimension


q  1. Es decir, si el parametro tiene solo un componente, es de 1  1, entonces se requiere conocer
E pXi q.

conocer el valor esperado de Xir , r

Definicion 5.8 (M
etodo de los momentos) Sean X1 , X2 ,    , Xn muestra aleatoria, donde se
conoce el valor esperado de Xir . Para obtener un estimador para el parametro de dimension
q  1, se resuelve el sistema de ecuaciones dado por
1
xi
n i1
n

E pX q

1 2
x
n i1 i

E pX 2q

1 q
x
n i1 i

E pX q q.

..
.

Este metodo es conocido como Metodo de los momentos y permite obtener las componentes
del vector de parametros estimados, llamado pM M .

Ejemplo 5.10 Sea X1 , X2 ,    , Xn muestra aleatoria, donde E pX q  y la varianza V pX q  2 .


Se desea encontrar un estimador para el vector

 p, 2qT , que como tiene dimension 2 esa

5. Estimaci
on de par
ametros

17

sera tambien la cantidad de ecuaciones que compongan el sistema. Entonces


1
xi
n i1
n

1 2
x
n i1 i
n

E pX q 
E pX 2q  V pX q pE pX qq2  2

2 .

De estas ecuaciones se tiene que el estimador de momentos esta dado por


pM M

p2 M M

 n1
 n1
 n1

i 1
n

i 1
n

xi

 x

x2i 
p2
x2i  x2

i 1
n

 n1 pxi  xq2.


i 1

5.3.3.

M
etodo de mnimos cuadrados

Este metodo no requiere conocer la distribucion de la muestra aleatoria (como maxima verosimilitud), ni tampoco el momento de orden r (como de los momentos). El requerimiento aqu es
solo el valor esperado de la muestra aleatoria.
Definicion 5.9 (M
etodo de mnimos cuadrados) Sea X1 , X2 ,    , Xn una muestra aleatoria

proveniente de una variable aleatoria, donde el valor esperado de la variable X, E pX q, depende


de q parametros 1 , 2 ,    , q . El metodo de mnimos cuadrados es definido como el mnimo con
respecto a los q parametros de la expresion
Qp |xi q 

rXi  E pX qs2

i 1

Ejemplo 5.11 Sea X1 , X2 ,    , Xn una muestra aleatoria, donde X


que E pX q  . Entonces

Q

i 1

rx i  s2 .

 Expp q. Luego, se sabe

18

5.4. Propiedades de los estimadores


Por la definicion del metodo de mnimos cuadrados, el estimador de esta dado por
pM C

 mnt rxi  s2u.




i 1

n
n

B
1
p
Entonces,
B Q  2 i1pxi  q M C  n i1 xi.

Ejemplo 5.12 Sea X1 , X2 ,    , Xn una muestra aleatoria, tal que E pX q

Ai , donde Ai

son constantes positivas (no son variables aleatorias) y el vector de parametros es


Luego,
Q

r xi  p

 p, qT .

Ai qs2 .

i 1

Las derivadas respecto de son


n
B Q 2
r xi  p
B
i1
n
B Q 2
rpxi  p
B
i1

Ai qs
Ai qq  Ai s .

Igualando a cero y resolviendo se tiene que


pM C

pM C

Finalmente, pM C

5.4.

 n pA1  Aq2
i
i1
X  pM C A.

pM C
pM C A,

Ai xi  x

i 1

Ai

i 1

Propiedades de los estimadores

Hasta el momento se han presentado metodos para obtener estimadores (puntuales) para un
parametro , en esta seccion se presentaran algunas propiedades que nos gustara que tuviera el

5. Estimaci
on de par
ametros

19

estimador. Ademas, estas propiedades pueden ser utilizadas para comparar dos o mas estimadores, bajo la premisa que un mejor estimador sera aquel que presente un mejor comportamiento,
el cual sera medido por las propiedades que se presentan en esta seccion.
Desde la Definicion 5.2 se tiene que un estimador es una funcion de la muestra aleatoria que
no depende de los parametros. Por ejemplo, si se tiene una muestra aleatoria X1 , X2 ,    , Xn
donde X

 N p, 2q. Son estimadores de los parametros y 2, respectivamente


x 

1
xi
n i1
n

 n  1 pxi  xq2.
1

i 1

Entonces, es de interes conocer que tan buenos son estos estimadores para los parametros
respectivos, para esto es necesario definir propiedades asociadas a la distribucion del estimador
del parametro (como variable aleatoria), el valor esperado debera ser el parametro y la varianza
peque
na.
Insesgamiento
Definicion 5.10 (Estimador insesgado) Sea p  T pX1 , X2 ,    , Xn q un estimador del parametro . El estimador p se dice ser un estimador insesgado del parametro si y solo si
E ppq  .
Este es el primer requisito que se le pide a un estimador: ser insesgado. Esta propiedad se
fundamenta en que, dada una muestra aleatoria esta se puede repetir en las mismas condiciones
y en cada una de ellas obtener un nuevo estimador, por lo que se tiene que este estimador tiene
una distribucion asociada, lo que se espera es que la esperanza de la distribucion del parametro
estimado sea el parametro.
Ejemplo 5.13 Sea X1 , X2 ,    , Xn una muestra aleatoria donde X

 N p, 2q. El ejercicio con-

siste en verificar si los siguientes estimadores para los parametro 2 y e , respectivamente, son
insesgados
s2

 n 1 1 pxi  xq2


i 1

ex .

20

5.4. Propiedades de los estimadores


Para obtener E ps2 q es conveniente recordar que si X

 N p, 2q, entonces n1 s2  2 pn1q.


2

De este resultado, se tiene que E ps2 q  2 con lo cual se verifica que s2 es un estimador insesgado
para 2 .
Por su parte, E pex q, se puede obtener considerando que si X
exp t

1 2 2
t
2

y que X

 N p, 2  n1q. Luego,


E e

 MX pt  1q  exp

"

 N p, 2q, entonces MX ptq 

1 2
2 n

Por lo tanto, eX no es un estimador insesgado de e .

Observacion 5.2 (Estimador asint


oticamente insesgado) En el ejemplo anterior, se puede
observar que si n

8 entonces eX

es un estimador insesgado de e . Este resultado lleva al

concepto de estimador asintoticamente insesgado, entonces, un estimador p es un estimador


asintoticamente insesgado para el parametro si
lm E ppq  .

La observacion anterior, dice que si no se dispone de un estimador insesgado una alternativa


es que el valor esperado del estimador converja al parametro en la medida que n es grande. Por
lo tanto, en estos casos se requiere de una muestra aleatoria de un n suficientemente grande.

Observacion 5.3 En ciertos casos cuando no se dispone de un estimador insesgado es posible


construir estimadores insesgados. Por ejemplo, en el caso en que se tenga una muestra aleatoria
X1 , X2 ,    , Xn con X

 N p, 2q y el estimador de maxima verosimilitud de 2 sea pM2 V . Donde


2
pM

1
p
xi  xq2
n i1
n

2
E p
pM
Vq 

 n n 1 s2,

n1 2
.
n

n
Entonces, n
 pM2 V es un estimador insesgado para el parametro 2.
1

5. Estimaci
on de par
ametros

21

Precisi
on de la estimaci
on (eficiencia)
Otra de las propiedades asociadas a un estimador es referida a la variabilidad. En palabras
simples, supongamos que se dispone de dos parametros ambos insesgados, sin embargo uno
presenta mayor variabilidad que el otro, entonces se dice que el segundo estimador es mas
eficiente que el primero.
Propiedad 5.5 (Estimador de mnima varianza) Sea p un estimador insesgado del parametro . El estimador p se dice de mnima varianza si y solo si
V arppq V arpp q,
donde p es otro estimador insesgado del parametro .

Para medir la eficiencia de un estimador se presenta un indicador con el cual comparar la


variabilidad del estimador, llamada Cota de Cramer-Rao.
Propiedad 5.6 (Cota de Cramer-Rao) Sea X1 , X2 ,    , Xn una muestra aleatoria, donde X
tiene una distribucion conocida (y luego tambien es conocida la funcion de densidad). Ademas,
sea p un estimador insesgado del parametro . Entonces
V arppq CCR.
Donde, CCR es la cota de Cramer-Rao y se define por
CCR 

nE

B
B log f pxi q

2 

1


2
n  E BB2 log f pxi q

Ejemplo 5.14 Sea X1 , X2 ,    , Xn una muestra aleatoria, donde X

 N p, 02q, con 02 conocido.

(que
El estimador de maxima verosimilitud, de momentos y de mnimos cuadrados para es X
es insesgado).
pq
Primero se tiene que, V arp

 V arpX q  n . Segundo, la cota de Cramer-Rao se obtiene


2
0

considerando
f p xq 

"

1
a
exp

px  q2
2
2
2
20
0
1

22

5.4. Propiedades de los estimadores


1
1
1
log f pxq   logp2 q  log 02  2 px  q2
2
2
20

B log f pxq  1 px  q
B
02
B2 log f pxq   1 .
B 2
02
Luego, CCR 

02
.
n

pq  CCR, se dice que el estimador es eficiente.


Como V arp

Observacion 5.4 En la Propiedad 5.6 la expresion de la Cota de Cramer-Rao es la primera


expresion (basada en la primera derivada de la funcion de log-verosimilitud), la segunda igualdad
se cumple bajo ciertas condiciones de regularidad, para los casos en estudio de este texto se han
seleccionado los casos en que se cumplen las condiciones[?].

Definicion 5.11 (Eficiencia relativa) En caso que la varianza del estimador sea mayor que la
cota de Cramer-Rao es conveniente definir un coeficiente de eficiencia. Se define la eficiencia
relativa de un estimador (ER) como
ER 

CCR

V arppq

Observacion 5.5 Desde la Propiedad 5.6, se tiene que ER 1.

Ejemplo 5.15 Sea X1 , X2 ,    , Xn una muestra aleatoria, donde X

 N p, 2q. se propone el

siguiente estimador insesgado para el parametro 2


S

 n  1 pxi  X q2.
1

i 1

Dado que n21 S 2

 2pn  1q, entonces V arpS 2q  2p2q2  pn  1q1. Por su parte, la cota de

5. Estimaci
on de par
ametros

23

Cramer-Rao se obtiene mediante


"

1
1
f pxq  ?
exp  2 px  q2
2
2 2
1
1
1
log f pxq   logp2 q  log 2  2 px  q2
2
2
2
B log f pxq   1
1
px  q2
B2
2 2 2p 2 q2
B2 log f pxq  1  1 px  q2.
Bp2q2
2p 2 q2 p 2 q3
Luego, la Cota de Cramer-Rao es igual a
CCR  

1
1
n 2p 2 q2

1
p2q3 E

px  q


 1

 2pn q

2 2

De este resultado se tiene que la CCR no alcanza la varianza del estimador. Luego, puede
obtener la eficiencia relativa del estimador, la que esta dada por
ER 

n1
.
n

Error cuadr
atico medio
Sea p un estimador cualquiera (posiblemente no insesgado) del parametro . El Error cuadratico medio (ECM ) del estimador p es dado por:
ECM ppq  E



p 

2 

Propiedad 5.7
ECM ppq  V arppq

E ppq 

24

5.4. Propiedades de los estimadores


Demostracion: El resultado se obtiene a partir de la Definicion 5.7. En efecto,
ECM ppq  E

E
E
E




p 

2 



p  E ppq



p  E ppq



E ppq 

 pq
E p


pq

V ar p

2 

2 

E ppq 


p q

E p

2pp  E ppqqpE ppq  q

p q

E p

2 

2E

Ejemplo 5.16 Sea X1 , X2 ,    , Xn una muestra aleatoria donde X


estimador del parametro

pp  E ppqqpE ppq  q

 e a p  eX .

 N p, 2q. Se propone como

Soluci
on: El ECM ppq es

p q  E pe q  MX pt  1q  exp

E p

"

1 2

2n

"

1 2
 exp tu  exp 2n
.

Notar del resultado anterior que p no es insesgado

p q p q

V ar p

E p2

pq

E p

Donde, E pp2 q  E pe2X q  MX pt  2q  exp 2

"

V arppq  exp 2

2
2
n

 exp

"

2 n . Luego
2
n

Con estos resultados se puede escribir una expresion para ECM ppq.
Ejemplo 5.17 Sea X1 , X2 ,    , Xn una muestra aleatoria donde X

 N p, 2q. Encontrar una

expresion para el EMC del estimador de maxima verosimilitud de 2 , dado por


2
pM

 n1 pxi  X q2.


i 1

5. Estimaci
on de par
ametros

25

p2 q es
Soluci
on: El ECM p
p2 q 
E p

Sabiendo que n21 S 2

n1 2
.
n

 2pn  1q, la varianza es


2pn  1q 4
p2 q 
V arp
.
MV

n2

Con estos resultados el ECM es


ECM p

2
pM

q

2pn  1q 4
n1 2
 2


2
n
n

2

En resumen, un estimador p de es Insesgado si E ppq  , Preciso si V arppq es peque


na y es

Certero si ECM ppq es peque


no; en resumen estas son las tres caractersticas que se esperan de
un estimador de un parametro. En la figura se presenta la analoga con tres Tiradores de arco
donde se muestran las tiradas a un blanco (figura adaptada de Sampling: Design and Analysis,
Sharon L. Lohr, Arizona State University).

5.4.1.

Tirador 1

Tirador 2

Tirador 3

Insesgado
Poco preciso
Poco certero

No Insesgado
Preciso
Poco certero

Insesgado
Preciso
Certero

Estimadores consistentes

Esta propiedad controla tanto el valor esperado como la variabilidad del estimador y se fundamenta en que si la muestra es tan grande como la poblacion, el comportamiento del estimador
debera tender al parametro en el valor esperado y la varianza disminuir tendiendo a cero.

26

5.4. Propiedades de los estimadores

Definicion 5.12 (Estimador consistente) El estimador p del parametro es llamado un estimador consistente s


lm E p


lm V ar p

 0.

Es decir, p es un estimador consistente para el parametro si es asintoticamente insesgado


y la variabilidad asintotica tiende a cero.
Ejemplo 5.18 Sea X1 , X2 ,    , Xn una muestra aleatoria, donde X

 N p, 2q. Se quiere probar

2
pM
que
ametro 2 .
V es un estimador consistente del par
2
pM
Se sabe que
V

 n1 ni1pxi  X q2. Entonces


2
pM
E
V
2
pM
V ar
V

 n n 1 2
 2pn  1q 2 2
p q


n2

Aplicando lmites de n 8 a las expresiones anteriores, se tiene que


2
pM
lm E
V

2
pM
lm V ar
V

2

0.

2
pM
ametro 2 .
Por lo tanto,
V es un estimador consistente del par

Ejercicio propuesto 5.2 Sea X1 , X2 ,    , Xn una muestra aleatoria donde la funcion de densidad
de las variables aleatoria Xi es
1 p1 1q
f pxi q  xi
,

xi

1, 0.

(a) Estudiar la consistencia del estimador de maxima verosimilitud de .


(b) Determinar si el estimador de maxima verosimilitud de es el mejor estimador dentro de
todos los estimadores insesgados del parametro .

5. Estimaci
on de par
ametros

5.5.

27

Estimaci
on por intervalos

En la seccion anterior se estudiaron metodos para obtener estimaciones puntuales para un


parametro de una variable aleatoria por medio de una muestra (ademas de las propiedades que
se esperan para dichos estimadores). Ahora, se estudiaran metodos para obtener un intervalo en
que se encuentre el valor del parametro, con una cierta probabilidad (o confianza) de acertar; es
decir, aqu la estimacion no se hace mediante un valor puntual sino que mediante un conjunto
de valores y es por ello que estos metodos se llaman estimacion por intervalos de confianza.
A modo de introduccion a la seccion consideremos el siguiente caso, sea X1 , X2 ,    , Xn una

 N p, 02q, donde 02 es un valor conocido. Se sabe que X es un


 N p, 02  n1 q. Aplicando una transformacion se
buen estimador del parametro , ademas X

muestra aleatoria, donde X

puede obtener una nueva variable aleatoria Z tal que:

 Xb Z  N p0, 1q.

(5.11)

2
0

Por otra parte, si Z

 N p0, 1q se tiene que


P p1,96 Z

1,96q  0,95

Reemplazando Z seg
un el resultado dado en la expresion 5.11, se tiene que



X
P 1,96 b 2


 1,96 

0
n

02
n

1,96  0,95

1,96 

02
n

 0,95.

De la u
ltima expresion se tiene que la probabilidad de que el parametro se encuentre entre

 1,96 

02
n

yX

1,96 

02
n

es de un 95 %. De esta interpretacion se puede entender que

se ha creado un intervalo de valores entre los que se encuentra un parametro de interes con un
cierto nivel de confianza, a esto se llamara estimacion por intervalos de confianza.
Ahora, el resultado anterior fue obtenido para un nivel de confianza particular, sin embargo, se
puede generalizar a un nivel de confianza cualquiera. En efecto, considerese un nivel de confianza

28

5.5. Estimaci
on por intervalos

1  y una variable aleatoria Z

 N p0, 1q, con lo que se tiene que

P pz1 2

Z z1 q  1 

El grafico muestra la region donde se calcula


la probabilidad, la cual esta definida entre

z1

y z1 2 en el recorrido de la variable

aleatoria Z

 N p0, 1q.

2
-4

-3

2
-2

-1

00

12

Reemplazando Z seg
un el resultado dado en la expresion 5.11 y despejando , se tiene que


 z1 

02
n

z1 2

02
n

 1  .

Luego, el intervalo de confianza del 100  p1  q % para el parametro es dado por




 z1 

02
,X
n

z1 2

02
.
n

Cantidad pivotal
Una de las claves para resolver la situacion anterior estuvo en considerar la distribucion de la
variable aleatoria Z seg
un la ecuacion 5.11, notar que en dicha ecuacion estan y el estimador de
y la distribucion asociada no depende de ning
maxima verosimilitud de , X
un parametro. Estos
tres elementos son justamente los que se deben considerar para la construccion de intervalos de
confianza para un parametro de interes. A continuacion se presenta el concepto de pivote el
cual es una expresion que contiene el parametro y al estimador de maxima verosimilitud del
parametro y sigue una distribucion que no depende de ning
un parametro.
Definicion 5.13 (Cantidad pivotal o pivote) Sea p un estimador del parametro . Una funp q, se conoce como una cantidad pivotal
cion f del estimador p y del parametro , es decir f p,
p q no depende del par
o pivote si y solo si la distribucion de f p,
ametro .

5. Estimaci
on de par
ametros

29

Ejemplo 5.19 Las siguientes funciones son ejemplos de pivotes

 N p, 02q, donde 02 es un valor


es un buen estimador del parametro , ademas X
 N p, 02  n1 q. Sea
conocido. Se sabe que X
(1) Sea X1 , X2 ,    , Xn una muestra aleatoria, donde Xi

q  Xb
f pX,
2

 N p0, 1q.

0
n

q, satisface las condiciones para ser funcion pivote.


Entonces f pX,
(2) Sea X1 , X2 ,    , Xn una muestra aleatoria, donde Xi

 N p, 2q. Se sabe de las variables

aleatorias independientes siguientes que,

  N p0, 1q

(5.12)

2
n

n1 2
s
2

 2pn  1q.

(5.13)

Por resultados anteriores se sabe que la siguiente funcion es pivote para el parametro y
sigue una distribucion t-Student (T S) con n  1 grados de libertad

q  X?
f pX,
s  n1

 T S pn  1q.

(3) Observar que la expresion 5.13 del punto anterior, es una cantidad pivotal para el parametro 2 . Pues
p2 , 2 q 
f p

n1 2
S
2

 2pn  1q.

(4) Sea X1 , X2 ,    , Xn1 una muestra aleatoria, donde X


muestra aleatoria, donde Y

 N p2, 22q, donde 12

 N p1, 12q y Y1, Y2,    , Yn

una

y 22 son valores conocidos y X y Y son

variables aleatorias independientes. Se desea construir una cantidad pivotal para el parametro

 2  1. Se puede demostrar que p  Y  X como un estimador de . Ademas, a partir de

 1  N p0, 1q

12
n1

 2  N p0, 1q,

22
n2

30

5.5. Estimaci
on por intervalos

se puede mostrar que Y

 X  N

2  1 , n11

22
n2

. Finalmente, recordando que 12 y 22 son

valores conocidos, se obtiene el pivote que se buscaba


p q 
f p,

5.5.1.

 p 2  1 q
b
X
 N p0, 1q.
12
n1

22
n2

M
etodo del pivote para construir un intervalo de confianza

Los pivotes pueden ser utilizados para la construccion de intervalos de confianza para el
parametro del cual depende la funcion pivotal. Para la construccion de los intervalos se pueden
considerar los siguientes pasos
p q, para el par
Paso 1: Disponer de un pivote, f p,
ametro (de interes).

Paso 2: Fijar los valores de UI y de US de modo que el pivote se encuentre entre estos
valores, donde UI es el percentil de orden

 100 % y US el percentil de orden p1  2 q  100 % de

p q. Entonces, se puede determinar la probabilidad de que el par


la distribucion de f p,
ametro se

encuentre entre UI y US , la cual es 1  , es decir




P UI

p q US  1  .
p
f ,

Paso 3: Despejar el parametro desde la cantidad pivotal hasta dejarlo expresado de la


siguiente forma


P I ppq

S ppq  1  .


Finalmente, el intervalo de confianza para el parametro es dado por I ppq, S ppq con una

probabilidad o confianza de 100  p1  q % (ver Figura 5.3).

Observacion 5.6 Para distribuciones simetricas en torno a cero, se tiene que US

 UI .

Ejemplo 5.20 Los siguientes intervalos de confianza se obtienen para parametros de interes y
pivotes dados en el Ejemplo 5.19.

5. Estimaci
on de par
ametros

31

()

()

Figura 5.3: Intervalo de confianza para el parametro


(1) Como se dispone del pivote y este tiene asociada una distribucion simetrica en torno a
cero, en el paso 2 de la construccion de un intervalo de confianza se tiene que


P z1 2

b z1

2
0

 1  .

Despejando el parametro de interes, , se tiene que




 z1 

02
n

z1 2

02
n

 1  .

Luego, el intervalo de confianza para con una confianza de 100  p1  q % es dado por


 z1 

02
,X
n

z1 2

02
.
n

(2) Dado que para este caso se dispone de una distribucion simetrica en torno a cero, se tiene
que


P t1 2 pn  1q b

s2
n

t1 pn  1q  1  .

Despejando el parametro de interes, , se tiene que




 t1 pn  1q 

s2
n

t1 2 pn  1q 

s2
n

 1  .

Luego, el intervalo de confianza para , con una confianza de 100  p1  q %, esta dado por


 t1 pn  1q 

s2
,X
n

t1 2 pn  1q 

s2
.
n

32

5.5. Estimaci
on por intervalos
(3) En este caso se tiene un pivote para 2 , teniendo en cuenta que la distribucion de la

funcion pivotal no es simetrica, la construccion del intervalo de confianza es la siguiente




pn  1q
2

n1 2
s
2

 2 pn  1q

1

21

pn  1q  s2 2 pn  1q  s2  1  .
21 pn  1q
2 pn  1q

Finalmente, con 100  p1  q % se tiene que




pn  1q  s2 , pn  1q  s2
2 P
21 pn  1q 2 pn  1q

(4) La distribucion de la funcion del pivote es simetrica en torno a cero, luego se tiene que


X  p 2  1 q
Y b
z1

P z1 2

2
1
n1

2
2
n2

Despejando el parametro de interes, 2  1 , se tiene que




P Y

 X  z1 

12

22

n1

n2

Y  X

 1  .

z1 2

12

22

n1

n2

 1  .

Luego, el intervalo de confianza para 2  1 con una confianza de 100  p1  q %, es dado por


Y

 X  z1 

12

22

n1

n2

, Y

 X

z1 2

12

22 

n1

n2

Ejemplo 5.21 Considerando los intervalos de confianza obtenidos en el Ejemplo 5.20 y la informacion emprica que se entrega a continuacion, se cuantificaran algunos resultados para los
parametros de interes, suponiendo en todos los casos que el nivel de confianza es de un 95 % (es
decir,  0,05).

(1) Se tiene una muestra aleatoria para la variable X donde n  35 y X


sabe por estudios anteriores que la varianza de la poblacion es 1.35 ( 2
tiene que

12,1  1,96 

1,35
35

12,1

1,96 

1,35
35

 12,1. Ademas, se

 1,35). Con lo cual se

 1  .

5. Estimaci
on de par
ametros

33

Este resultado se tiene del hecho de que z1 2

 z0,975  1,96. Luego, el intervalo de confianza

para esta dado por r11,72 ; 12,49s, con una confianza del 95 %.
(2) Considerando los siguientes datos: n
sabiendo que t0,975 p20q  2,093, se tiene que


10,3  2,093 

 20, x  10,3, s2  0,79 y  0,05. Ademas,

10,3

0,79
20

2,093 

0,79
20

 0,95.

Finalmente, con una confianza del 95 % P r9,88 ; 10,72s.

 N p1, 100q y Y  N p2, 160q indepen  190. Entonces,


dientes, donde n1  32 y n2  40. Las medias de las muestras son Y  250 y X
(3) Considerar dos muestras aleatorias, tal que X

se tiene que el intervalo de confianza, es




250  190  1,96 

100
32

160
; 250  190
40

1,96 

100
32

160
40

 r54,77 ; 65,23s .

Intervalos de confianza asint


oticos
En caso que se disponga de una muestra suficientemente grande, es posible construir intervalos
de confianza asintoticos para el parametro de interes. Estos intervalos de confianza se obtienen
mediante la construccion de una cantidad pivotal que se aproxima a la distribucion normal. Esta
propiedad es bastante u
til en casos en que sea complejo obtener una cantidad pivotal y que se
disponga de una muestra aleatoria con un n grande.
Propiedad 5.8 Sean X1 , X2 ,    , Xn una muestra aleatoria, donde la variable aleatoria X tiene
alguna distribucion (conocida) que depende de un parametro . Sea pM V el estimador de maxima
verosimilitud del parametro . Entonces,
p q  d
f p,

g ppM V q  g pq



B gpq
 B2

n E BB2 log f pxi q 

 N p0, 1q,

pM V

(5.14)

 simboliza distribucion aproximada (o distribucion


asintotica, es decir, se cumple cuando n 8). Por lo tanto, la expresion 5.14 es valida solo si
n es grande (n 8).

donde g pq es una funcion real valuada y

34

5.5. Estimaci
on por intervalos
p q es pivote para .
As, la funcion f p,

Ejemplo 5.22 Sean X1 , X2 ,    , Xn una muestra aleatoria, donde la variable aleatoria X


Bernoullipq. Se quiere construir intervalos de confianza para los parametros y

 p1  q .

Soluci
on: Se sabe que la funcion de cuanta de la variable aleatoria es f pxi q  xi p1  q1xi ,

 1,    , n. A partir de la cual se puede obtener la funcion de log-verosimilitud y luego el

estimador de maxima verosimilitud. En efecto,


`p|xi q  log 

logp1  q  pn 

xi

i 1

xi q

i 1

B `p|x q  1  x  1  pn  x q
i
B i i1 i 1 
i1

pM V  X.
n

(1) Para construir el intervalo de confianza para , se define la funcion g pq

. Para

obtener el valor esperado que aparece en el denominador de la expresion 5.14, se necesita la


segunda derivada de la funcion de log-verosimilitud, realizado el calculo es

B2 `p|xq   x  1  x
B 2
2 p1  q2
Considerando que E pX q  y evaluando la expresion en  pM V ,

 2
B
n  E B2 `p|xq   p1n q
 2



B
n  E B2 `p|xq 
 X  p1n X q .


pM V

p q una funci
Luego, reemplazando en la expresion 5.14, se obtiene f p,
on pivotal para

  N p0, 1q.
p1X
q
X

p q  bX
f p,

p q se puede construir un intervalo de confianza. El cual est


Utilizando f p,
a dado por


P z1 2

b X p1X q z1

 1  .

5. Estimaci
on de par
ametros


 z1 

35

 p1  X q X

z1 2

 p1  X q  1  .
n

Entonces, el intervalo en que se encuentra el parametro , con una confianza aproximada de


100  p1  q %, es

 z1 

 p1  X q , X
n

z1 2

 p1  X q

(2) Para construir el intervalo de confianza para el parametro , se considera que g pq

pq

  p1  q. El estimador de maxima verosimilitud de , pM V , se obtiene considerando la


 p1  X
q.
Propiedad 5.4, con lo que pM V  g ppM V q  pM V  p1  pM V q  X
El pivote para el parametro se puede obtener desde la expresion 5.14, para lo cual se
necesita obtener una expresion para

B gpq  1  2 B gpq

B
B p  1  2X
MV

p q,
Con este resultado, mas los obtenidos en (1), se tiene que la funcion pivotal para : f p,

esta dada por

p1  X
q 
X
p q  b
f p,

p q p q

1 2X

2X

1 X

 N p0, 1q.

p1  X
qq 
Definiendo DE pX
p1  X
q  z1  DE pX

P X
2

p12X q2 X p1X q . Finalmente se tiene


n

 p1  X qq X p1  X q

z1 2  DE pX

 p1  X qq  1  .


Entonces, el intervalo en que se encuentra el parametro , con una confianza aproximada de


100  p1  q %, es


p1  X
q  z1
X
2

 p1  2X q Xn  p1  X q , X p1  X q

z1 2

 p1  X q Xn  p1  X q

 Exppq y considerar los estimadores


de maxima verosimilitud de los parametros 1  E pX q y 2  F px, q  P pX xq. Obtener
Ejercicio propuesto 5.3 Sea la muestra aleatoria con Xi

intervalos de confianza aproximados para estos dos parametros.

36

5.5. Estimaci
on por intervalos

5.5.2.

Teorema central del lmite

El teorema central de lmite es de gran importancia para el desarrollo de la estadstica


inferencial pues permite, a partir de una muestra aleatoria con cualquier distribucion, obtener
una nueva variable aleatoria mediante una transformacion lineal que siga una distribucion normal
estandar. Ya hemos visto las ventajas que presenta la distribucion normal estandar para el calculo
de probabilidades y para la obtencion de intervalos de confianza.

Propiedad 5.9 (Teorema central del lmite) Sean X1 , X2 ,    , Xn una muestra aleatoria desde una poblacion con media E pX q y varianza V arpX q. Luego, se define la variable aleatoria Zn

por la expresion

 XbV EarppXXq q .

Zn

El Teorema central del lmite muestra que Zn tiene distribucion asintotica normal con media
0 y varianza 1. Es decir, Zn

 N p0, 1q cuando n 8.

Una forma alternativa de expresar Zn , derivada de la expresion anterior, es


Zn

n
i1 Xi  E p i1 Xi q
a
.

V ar p ni1 Xi q

Ejemplo 5.23 Sean Y1 , Y2 ,    , Y10000 una muestra aleatoria donde Yi

 Bernoullipp  0,20q. Se

desea calcular la probabilidad




1980

10000

Xi

2050

i 1

 10000
i1 Xi , entonces Y  Binomialpn  10000; p  0,20q. Desde
este u
ltimo resultado se conoce el valor esperado y la varianza de Y : E pY q  10000  0,20  2000
y V arpY q  10000  0,20  0,80  1600.
Soluci
on: Si se define Y

5. Estimaci
on de par
ametros

37

Utilizando el Teorema central del lmite, se tiene que




1980  E pY q
a
V arpY q

Zn

2050  E pY q
a
V arpY q

P

1980  2000
?
1600

Zn

2050  2000
?
1600

P p0,50 Zn 1,25q
Utilizando el hecho de que Zn

 N p0, 1q, entonces


p1,25q  p0,50q  0,5859.

Observacion 5.7 Notar que para aplicar el teorema central del lmite es suficiente conocer el
valor esperado y la varianza. En el Ejemplo 5.23 si bien se conoce la distribucion de la variable
aleatoria y con esto se puede obtener directamente la probabilidad pedida mediante FX pxq, para
efectos de ejemplificacion de la Propiedad 5.9 se resuelve mediante la aproximacion asintotica a
la distribucion normal.

38

5.5. Estimaci
on por intervalos

You might also like