You are on page 1of 17

Probabilidades y Estadstica (Computacin)

Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires


Ana M. Bianco y Elena J. Martnez 2004


Inferencia estadstica - Estimacin puntual


La estadstica provee tcnicas que permiten obtener conclusiones generales a partir de un
conjunto limitado pero representativo de datos. Cuando inferimos no tenemos
garanta de que la conclusin que obtenemos sea exactamente correcta. Sin embargo, la
estadstica permite cuantificar el error asociado a la estimacin.

La mayora de las distribuciones de probabilidad dependen de cierto nmero de
parmetros. Por ejemplo: etc. Salvo que estos parmetros se
conozcan, deben estimarse a partir de los datos.
), , ( ), , ( ), (
2
p n Bi N P

El objetivo de la estimacin puntual es usar una muestra para obtener nmeros que, en
algn sentido, sean los que mejor representan a los verdaderos valores de los parmetros
de inters.

Supongamos que se selecciona una muestra de tamao n de una poblacin. Antes de
obtener la muestra no sabemos cul ser el valor de cada observacin. As, la primera
observacin puede ser considerada una v.a. X
1
, la segunda una v.a. X
2
, etc. Por lo tanto,
antes de obtener la muestra denotaremos X
1
, X
2
,...., X
n
a las observaciones y, una vez
obtenida la muestra los valores observados los denotaremos x
1
, x
2
,...., x
n
.

Del mismo modo, antes de obtener una muestra, cualquier funcin de ella ser una v.a.,
por ejemplo: ), ,..., ( max , ,
~
,
1
2
n
X X S X X etc. Una vez obtenida la muestra los valores
calculados sern denotados ), ,..., ( max , ,
~
,
2
s x x
1 n
x x etc.

Definicin: Un estimador puntual de un parmetro es un valor que puede ser
considerado representativo de y se indicar . Se obtiene a partir de alguna funcin de
la muestra.


Ejemplo: Con el fin de estudiar si un dado es o no equilibrado, se arroja el dado 100 veces
en forma independiente, obtenindose 21 ases. Qu valor podra utilizarse, en base a
esa informacin, como estimacin de la probabilidad de as? Parece razonable utilizar la
frecuencia relativa de ases.
En este caso, si llamamos p a la probabilidad que queremos estimar, 21 . 0
100
21
= = p

Mtodos de estimacin puntual

Cmo obtener estimadores para un problema dado? Estudiaremos dos mtodos que
proporcionan estimadores puntuales: el mtodo de momentos y el mtodo de mxima
verosimilitud.

Mtodo de momentos: La idea bsica consiste en igualar ciertas caractersticas
muestrales con las correspondientes caractersticas poblacionales. Recordemos la
siguiente definicin.
161
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004




Definicin: Sea X una v.a. con funcin de probabilidad puntual en el caso discreto
o funcin de densidad en el caso continuo. Se denomina momento de orden k
(k N) o momento poblacional de orden k a E(X
) (x p
X
) (x f
X
k
), es decir

continuo caso el en
discreto caso el en
-
) (
) (
) (
dx x f x
x p x
X E
X
k
x
X
k
k

si esas esperanzas existen.

Como ya hemos visto cuando estudiamos funcin generadora de momentos de una
variable aleatoria, los momentos estn relacionados con los parmetros de la distribucin
asociada.

Definicin: Dada una muestra aleatoria , se denomina momento muestral
de orden k a
n
X X X ,..., ,
2 1


n
X
n
i
k
i

=1



Definicin: Sea una m.a. de una distribucin con funcin de probabilidad
puntual o funcin de densidad que depende de m parmetros
n
X X X ,..., ,
2 1
m
,...., ,
2 1
. Los
estimadores de momentos de
m
,...., ,
2 1
son los valores que se obtienen
igualando m momentos poblacionales con los correspondientes momentos muestrales. En
m

,....,

2 1
general, se obtienen resolviendo el siguiente sistema de ecuaciones

( ) m k X E
n
X
k
n
i
k
i
,..., 2 , 1
1
= =

=



Ejemplos: 1) Sea una m.a. de una distribucin exponencial de parmetro .
Como hay un solo parmetro a estimar, basta plantear una ecuacin basada en el primer
momento.
n
X X X ,..., ,
2 1

162
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004


( )
1


1

1
1 1
X
X
n
n
X
X E
n
X
n
i
i
n
i
i
n
i
i
= = = =


=
= =



2) Sea una m.a. de una distribucin (, ). Como hay dos parmetros a
estimar, planteamos un sistema de ecuaciones basadas en el primer y en el segundo
momento.
n
X X X ,..., ,
2 1

Usando que si X ~ (, ),

= ) ( X E y
2
) (

= X V y la relacin:
, ( )
2 2
) ( ) ( ) ( X E X E X V =

|
.
|

\
|
+ =
=

=
=

=
=
=
=
2
2
1
2
1
2 1
2
1


) (
) (

n
X
n
X
X E
n
X
X E
n
X
n
i
i
n
i
i
n
i
i
n
i
i



Reemplazando X =

, en la segunda ecuacin, se obtiene:




2 1
2
X
X
n
X
n
i
i
+ =



y, despejando :


2 1
2
2 1
2


X
n
X
X
X
n
X
X
n
i
i
n
i
i

= =

=
=



Finalmente, reemplazando el estimador de en la primera ecuacin, obtenemos el
estimador de :

163
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004



2 1
2
2

X
n
X
X
n
i
i

=



3) Sea una m.a. de una distribucin U(0,). Como hay un nico parmetro
a estimar, planteamos una ecuacin basada en el primer momento.
n
X X X ,..., ,
2 1

X X E
n
X
n
i
i
2


2
) (
1
= = =




4) Veamos por ltimo un ejemplo que nos muestra que no siempre podemos utilizar los
momentos en el orden natural. Sea una m.a. de una distribucin U(-,).
Como hay un nico parmetro a estimar, parece natural plantear una ecuacin basada en
el primer momento. Sin embargo, si lo hacemos,
n
X X X ,..., ,
2 1

0 ) (
1
= =

=
X E
n
X
n
i
i



Observamos que el primer momento poblacional no depende de y por lo tanto no
podemos despejar a partir de esta ecuacin el estimador del parmetro. En este caso, es
necesario plantear una ecuacin basada en el segundo momento:


( )
n
X
X E
n
X
n
i
i
n
i
i
= =
= = = =
1
2
2 2
2 1
2
3


3 12
2
) (





Mtodo de mxima verosimilitud: Este mtodo fue introducido por Fisher en la dcada
de 1920. Se basa en la idea de, dada una muestra, hallar los valores de los parmetros
que hacen que la probabilidad de obtener dicha muestra sea mxima.

Ejemplo: Se realiza una encuesta de opinin a una m.a. de 20 personas. Se les formula
una nica pregunta que ser respondida por Si o por NO. Sean las v.a.
correspondientes a la respuesta, tales que
20 2 1
,..., , X X X

164
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004


=
NO responde persona la si
SI responde persona la si
i
i
X
i
0
1

para i =1, 2, ..., 20 y sea ) 1 ( = =
i
X P p .

Observemos que las v.a. son independientes y cada una de ellas tiene distribucin
Bi(1,p). Entonces, la funcin de probabilidad conjunta del vector
i
X
( )
20 2 1
,..., , X X X es


20 20 2 2 1 1
20 2 1
1
) 1 ( ...
1
) 1 (
1
) 1 ( ) ,..., , (
x
p
x
p
x
p
x
p
x
p
x
p x x x p

=


Si en la muestra obtenida se observan 7 NOs (0) y 13 SIs (1), sera


7 13
20 2 1
) 1 ( ) ,..., , ( p p x x x p =

La pregunta es: qu valor de p hace que los valores muestrales obtenidos sean los ms
probables?

Es decir, buscamos el valor de p que hace mxima o equivalentemente
ya que ln es una funcin montona creciente. Debemos maximizar la
siguiente funcin de p
) ,..., , (
20 2 1
x x x p
) ,..., , ( ln
20 2 1
x x x p

) 1 ln( 7 ) ln( 13 ) ,..., , ( ln ) (
20 2 1
p p x x x p p g + = =

Para ello, como esta funcin es derivable respecto de p, buscamos los posibles puntos
crticos, igualando a 0 la derivada primera.


20
13
0 20 13
) 1 (
20 13
) 1 (
7 ) 1 ( 13
1
7 13 ) (
= =

0

=

= p p -
p p
p
p p
p p
p p p
p g


Este valor es en efecto el que maximiza g(p) pues

0
) 1 (
7 13 ) (
20 / 13
2 2
20 / 13
2
2
<

= = p p
p p p
p g



Definicin: Sean v.a. con funcin de probabilidad conjunta
o funcin de densidad conjunta que depende de k
parmetros
n
X X X ,..., ,
2 1
m
) ,..., , (
2 1 n
x x x p
X
r
) ,..., , (
2 1 n
x x x f
X
r
,..., ,
2 1
. Cuando son los valores observados y la funcin ) ,..., ,
2 1 n
x x x (
165
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004


de probabilidad o de densidad conjunta se considera funcin de los parmetros
m
,..., ,
2 1
, se denomina funcin de verosimilitud y se denota ) ,..., , (
2 1 m
L .
m
,...,
2
m

m

,...,

2 1
~
,...,
~
2
i
x

Los estimadores de mxima verosimilitud (EMV) de ,
1
son los valores
que maximizan la funcin de verosimilitud, o sea los valores tales que


m m
L L ,
~
)
~
,...,
~
,
~
( )

,...,

(
1 2 1 2 1


La forma general de los EMV se obtiene reemplazando los valores observados x
i
por las
v.a. X
i
.

Ejemplos: 1) Sea una m.a. de una distribucin exponencial de parmetro .
n
X X X ,..., ,
2 1



= =


=
= = =
n
i
n
i
n x
i X n
n
i
e e x f x x x f
i
i
1 1
2 1
1
) ( ) ,..., , (




por lo tanto, la funcin de verosimilitud es

=
n
i
i
x
e L
n
1
) (



Observemos que no incluimos los indicadores porque, dado que el rango de la v.a. no
depende del parmetro a estimar, podemos suponer que todas las observaciones son no
negativas.

ln

=
=
n
i
i
x n L
1
) ln( ) (


X
X
n
x
n L
n
i
i
n
i
i
1

0
) ( ln
1
1
= = = =

=
=





Verificar que el punto crtico obtenido es en efecto un mximo.

Observemos que en este caso el EMV coincide con el de momentos.

2) Sea una m.a. de una distribucin N(,
n
X X X ,..., ,
2 1
2
).


( )
2
2
2

1 1
2 1

2
1
) ( ) ,..., , (

= =

= =
i
x
e x f x x x f
n
i
n
i
i X n
i


166
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004


=

|
|
.
|

\
|
=
n
i
i
x
e
n
n
1
2
) (
2
2
1
1
2
1





Por lo tanto la funcin de verosimilitud es

=

|
|
.
|

\
|
=
n
i
i
x
e L
n
n
1
2
) (
2
2
1
1
2
1
) , (





y maximizarla equivale a maximizar su logaritmo

( )

=
=
n
i
i
x n n L
1
2
2
) (
2
1
) ln( 2 ln ) , ( ln



( )
( )
( )
( )

= +
=

= + =

= =

=
=
=
=
0
0

0
1 ) , ( ln
0
1 ) , ( ln
1
2 2
1
1
2
3
1
2
n
i
i
n
i
i
n
i
i
n
i
i
x n
x
x
n L
x
L









( )

=
=

=
=
n
x
n
x
n
i
i
n
i
i
1
2
1



y, reemplazando el valor estimado de en la segunda ecuacin, se obtienen los EMV de
los parmetros


( )
n
X X
X
n
i
i
=

= =
1
2




3) Sea una m.a. de una distribucin U(0,).
n
X X X ,..., ,
2 1

167
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004





= = =
= = =
n
i
n
i
n
i
i
n
i i n
x I x I x f x x x f
1 1 1
2 1
) (
1
) (
1
) ( ) ,..., , (
) , 0 ( ) , 0 (




y la funcin de verosimilitud es

=
=
n
i
i
n
x I L
1
) (
1
) (
) , 0 (



Observemos que, en este caso, no es posible tomar logaritmo ni derivar porque el
parmetro (argumento de la funcin de verosimilitud) determina el soporte de la densidad.
Analicemos cmo es esta funcin para hallar su mximo

<
=

< <
=
contrario caso en
si
contrario caso en
si
0
) ( max
1

0
0
1
) ( n i 1

i
n
i
n
x i x
L


>
=


) ( max 0
) ( max
1
1
1
i
n i
i
n i
n
x
x

si
si


Grafiquemos ) ( L como funcin de .

Como se puede observar, el mximo de la funcin de verosimilitud se alcanza en
) ( max
2 1
i
n
x

= y por lo tanto el EMV del parmetro es

) ( max

1
i
X
n i
=
168
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004



Propiedad de Invarianza de los EMV: Sea el EMV de

y sea una funcin


inyectiva con dominio en el rango de valores posibles de , entonces el EMV de
h
) ( h es
. Por ejemplo, en el caso de una m.a. de una distribucin N(, )

( h
2
) hemos visto que el
EMV de es


( )
n
X X
n
i
i
=

=
1
2


entonces el EMV de
2
es


n
X X
n
i
i
=

=
1
2
2
) (


pues la funcin h(x)=x
2
es inyectiva si su dominio se restringe a los reales positivos, es
decir si h :
0
.

En general, sean los EMV de
m

,...,

1 m
,...,
1
y sea una funcin , bajo qu
condiciones el EMV de

k
h:
) ,..., (
1 m
h es ? Esta propiedad, denominada
propiedad de invarianza de los EMV, se cumple si la funcin h puede ser completada a
una funcin inyectiva.
)

,...,
1 m

( h


Propiedades de los estimadores y criterios de seleccin

Observemos que, dada una muestra , donde , un estimador
puntual del parmetro
n i
X X X ,..., ,
2
~
i
F X
, obtenido en base a ella, es una v.a. . La diferencia


es el error de estimacin y una estimacin ser ms precisa cuanto menor sea este error.
Este error es tambin una v.a. dado que depende de la muestra obtenida. Para algunas
muestras ser positivo, para otras negativo. Una propiedad deseable es que la esperanza
del error sea 0, es decir que en promedio el error obtenido al estimar a partir de
diferentes muestras sea cero.

Definicin: Un estimador puntual del parmetro

es insesgado si

( = E

169
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004


Si no es insesgado, se denomina

sesgo de a b .



= )

( )

( E

Por lo tanto, un estimador es insesgado si su distribucin tiene como valor esperado al
parmetro a estimar.

Definicin: Un estimador puntual del parmetro

basado en una muestra ,es


asintticamente insesgado si
n
X X ,...,
1

(
n
E


Ejemplos: 1) Sea X: nmero de xitos en n repeticiones de un experimento binomial con
probabilidad de xito igual a p. Entonces X ~ Bi(n,p) y hemos visto que el EMV de p es
, o sea la frecuencia relativa de xitos. Verifiquemos que este estimador es
insesgado.
n X p / =

p p
n
np
n
X E
n
X
E p E
P
P P

) (
) ( = = = |
.
|

\
|
=

y, por lo tanto, es insesgado.

2) Sea una m.a. de una distribucin N(,
n
X X X ,..., ,
2 1
2
). Los EMV de y
2
son


( )
n
X X
X
n
i
i
=

= =
1
2
2


Como

) (
2
,
= E , este estimador es insesgado.

Verifiquemos que el estimador de la varianza no lo es.


( )
( )|
.
|

\
|
+ =
|
|
|
|
.
|

\
|

=

=
=
n
i
i i
n
i
i
X X X X E
n n
X X
E E
1
2 2 1
2
2
2
1
) (
2
,
2
,
2
,


|
.
|

\
|
+ = |
.
|

\
|
+ =

= = =
n
i
i
n
i
n
i
i i
X n X n X E
n
X n X X X E
n
1
2 2 2
1 1
2 2
2
1
2
1
2
,
2
,


170
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004



) ( ) ( ) (
1 1
2 2
1
2
1
2
1
2 2
2
,
2
,
2
,
2
,
2
,
X E X E
n
n
X E X E
n
X n X E
n
n
i
i
n
i
i

= |
.
|

\
|
= |
.
|

\
|
=

= =



( ) | | ( ) | |
2 2
2
2 2
2
2
1 1
1
) ( ) ( ) ( ) (
2
,
2
,
2
,
2
,



n
n
n
X E X V X E X V

= + = + + =


Por lo tanto el EMV de la varianza no es insesgado, pero es asintticamente insesgado ya
que su esperanza tiende a cuando el tamao de la muestra tiende a infinito.
2


Ejercicio: Verificar que la varianza muestral
( )
1
1
2
2

=
n
X X
S
n
i
i
es un estimador
insesgado de la varianza poblacional cualquiera sea la distribucin.

3) Sea una m.a. de una distribucin U(0,). El estimador de momentos de
es
n
X X X ,..., ,
2 1
X 2

= y el EMV es . ) ( max

1
i
X
n i
=

El estimador de momentos es insesgado. En efecto,



2
2 ) ( 2 )

( = = = X E E

Verificaremos que el EMV no lo es. Para ello, necesitamos obtener la densidad de la v.a.
. ) ( max
1
i
X U
n i
=

Recordemos que, si es una m.a. de una distribucin U(0,), entonces
n
X X X ,..., ,
2 1

( )

< < |
.
|

\
|

= =

u
u
u
u
u F u F
n
n
X U
si 1
0 si
0 si 0
) ( ) (

entonces

) (
1
) (
) , 0 (
1
u I
u
n u f
n
U

|
.
|

\
|
= .

Calculemos la esperanza del EMV.

171
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004


( )



1 1
1
) ( ) ( max
0
1
0 0
1
+
=
+
= =
|
.
|

\
|
= =
+


n
n
n
u n
du u
n
du
u
n u U E X E
n
n
n
n
n
i


Entonces, el EMV no es insesgado pero es asintticamente insesgado.


Cuando hay ms de un estimador insesgado para un mismo parmetro, cmo decidimos
cul conviene usar? Por ejemplo, sea una m.a. de una distribucin N(,
n
X X X ,..., ,
2 1
2
).
Es inmediato verificar que los siguientes son todos estimadores insesgados de :


1 3
2 1
2
1

X
X X
X
=
+
=
=



Las varianzas de estos estimadores son


2
3
2
2
2
1
) (
2
) (
) (
2
,
2
,
2
,




=
=
=
V
n
V
V

y parece natural elegir el estimador ms preciso, es decir el de menor varianza.

Principio de estimacin insesgada de mnima varianza: Entre todos los estimadores
insesgados de , elegir el de menor varianza. El estimador resultante se denomina IMVU
(insesgado de mnima varianza uniformemente). Existe una metodologa que permite
hallar estimadores IMVU en muchas situaciones.

Teorema: Sea una m.a. de una distribucin N(,
n
X X X ,..., ,
2 1
2
). Entonces X es
estimador IMVU de .

A partir de este resultado deducimos que, si se tiene evidencia de que la m.a. proviene de
una distribucin Normal, parece conveniente usar X como estimador de . Sin embargo,
si los datos no son Normales este estimador podra llegar a ser una psima eleccin.

Ejemplo: Sean las siguientes distribuciones simtricas alrededor del parmetro

a) N(,
2
) :
2
2
1
2
1
) (
|
|
.
|

\
|


x
e x f
172
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004



b) Cauchy de parmetro :
( )
2
) ( 1
1
) (
+
=
x
x f


c) U( -1, +1) : ) (
2
1
) (
) 1 , 1 (
x I x f
+
=



La distribucin de Cauchy tiene forma de campana como la distribucin Normal, pero
tiene colas ms pesadas que sta. La distribucin Uniforme no tiene colas, por lo tanto
podramos decir que tiene colas ms livianas que la Normal.

Consideremos los siguientes estimadores de :


2
) ( min ) ( max

~

3 2 1
i i
X X
X X
+
= = =

En el caso a),
1
es IMVU y por lo tanto, es la eleccin correcta.

En el caso b),
1
y
3
son malos porque ambos son muy sensibles a la presencia de
observaciones atpicas y la distribucin Cauchy produce una importante proporcin de
ellas. Por lo tanto la mejor eleccin entre estos tres estimadores sera
2

. Tambin
podramos utilizar una media podada.

En el caso c) el mejor estimador es
3
porque la distribucin no tiene colas.

Error standard de un estimador: Al informar el resultado de una estimacin puntual es
necesario brindar informacin sobre la precisin de la estimacin.

Definicin: El error standard de un estimador es su desviacin standard, es decir

V =

Si el error standard depende de parmetros desconocidos, stos se reemplazan por un
estimador y se obtiene el error standard estimado.

Ejemplo: Sea una m.a. de una distribucin N(,
n
X X X ,..., ,
2 1
2
). Entonces X es el
EMV de y su error standard es

n
X V
X
2
) (
2
,


= =

173
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004


Como depende del parmetro , podemos reemplazarlo por la varianza muestral y
obtenemos el error standard estimado

( )
) 1 (

1
2
2

= =

=
n n
X X
n
S
n
i
i
X
X



Definicin: Sea un estimador de

, su error cuadrtico medio es



( )
(

=
2

(

E ECM

Si el estimador es insesgado el error cuadrtico medio es igual a la varianza del
estimador.


Proposicin: | |
2
)

( )

( )

(

b V ECM + = , siendo b el sesgo del estimador.

= )

( )

( E

Dem:

( ) ( )
(

+ =
(

=
2 2
)

( )

(

)

(

E E E E ECM

( ) ( ) ( )( )
(

+ +

)

( )

2 )

( )

2 2
E E E E E =

( ) ( ) ( )( ) | |

+
(

+
(

( )

2 )

( )

2 2
E E E E E E E =


Usando que la esperanza de una v.a. es una constante y la esperanza de una constante
es igual a sta, se obtiene

( ) ( )
( )
( )( )
4 4 3 4 4 2 1 43 42 1
4 4 4 3 4 4 4 2 1
0 2
)

(
)

(
)

( )

( )

( 2 )

( )

(
2 2

E E E E E E ECM
b
V
+ +
(

=

y, por lo tanto, | |
2
)

( )

( )

(

b V ECM + = , como queramos demostrar.





174
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004


Principio de estimacin de menor error cuadrtico medio: Dados dos o ms estimadores
del parmetro , elegir el de menor ECM.

Este principio se reduce, en el caso de estimadores insesgados, al de mnima varianza
entre los insesgados mencionado ms arriba, ya que el error cuadrtico medio se reduce
a la varianza cuando un estimador es insesgado. Sin embargo, nos permite adems
seleccionar, por ejemplo, entre un estimador insesgado y otro que no lo es, en base a la
varianza y al sesgo. Si el estimador sesgado tiene una varianza mucho menor que el
insesgado, podra ser preferible su uso.


Definicin: Sea una m.a de una distribucin que depende de un parmetro
n
X X X ,..., ,
2 1
y sea un estimador puntual de
n

basado en esa muestra. Diremos que { }


n

es una
sucesin consistente (o ms brevemente que es un estimador consistente de
n

) si


p
n



es decir, si ( ) 0

, 0 > >
n
n
P .

Ejemplo: Sea una m.a de una distribucin con
n
X X X ,..., ,
2 1
= ) (
i
X E y
, entonces < =
2
) (
i
X V X es un estimador consistente de . En efecto, aplicando la
desigualdad de Chebyshev,

( ) 0 0
) (
2
2
2
> = >


n
n
X V
X P

Ejercicio: Verificar que, en este ejemplo,
2

2 1
X X +
= no es consistente de .

Proposicin: Sea una m.a de una distribucin que depende de un
parmetro
n
X X X ,..., ,
2 1
y sea un estimador de
n

basado en la muestra de tamao n. Si



a) (o sea, si el estimador es asintticamente insesgado)


n
n
E )

(

b) V 0 )

(
n
n


entonces, es consistente de
n

.

Dem: Si el estimador es insesgado, la demostracin es inmediata, a partir de la
desigualdad de Chebyshev,. No daremos la demostracin en el caso general.

175
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004


Ejemplos: 1) Sea una m.a de una distribucin con
n
X X X ,..., ,
2 1
= ) (
i
X E y
, entonces < =
2
) (
i
X V X es un estimador consistente de . En efecto, = ) ( X E y
n
X V
2
) (

= . Por lo tanto, se satisfacen las dos condiciones de la Proposicin.

2) Sea una m.a. de una distribucin U(0,). Hemos demostrado antes que
el EMV de , es asintticamente insesgado pues
n
X X X ,..., ,
2 1

1
= ) ( max
i
X
n i

1
)

(
+
=
n
n
E . Para
probar que es consistente, verificaremos que su varianza tiende a cero cuando el tamao
de la muestra tiende a infinito. Pero

| |
2
2
2
2
1
)

( )

( )

( )

(
(

+
= =

n
n
E E E V

entonces, debemos calcular la esperanza del cuadrado de la v.a. U .
Recordando que su densidad est dada por
) ( max
1
i
X
n i
=

) (
1
) (
) , 0 (
1
u I
u
n u f
n
U

|
.
|

\
|
=



2
0 0
2
1
0
1
2 2
2 2
1
) (


+
=
+
= =
|
.
|

\
|
=

+
+

n
n
n
u n
du u
n
du
u
n u U E
n
n
n
n
n
.

Entonces,


( )
0
) 1 )( 2 ( 1
2 1 2
)

(
2
2
2
2
2
2
2
2

+ +
=
|
|
.
|

\
|
+

+
=
|
.
|

\
|
+

+
=
n
n n
n
n
n
n
n
n
n
n
n

V

Por lo tanto, el EMV es consistente.

3) El ltimo ejemplo que veremos ilustra como demostrar la consistencia de un estimador
a partir de la Ley de los Grandes Nmeros y de las propiedades de la convergencia en
probabilidad.

En primer lugar recordemos que si e Y son sucesiones de
v.a. tales que e , entonces:
,.... ,..., ,
2 1 n
X X X
b
p

,... ,..., ,
2 1 n
Y Y
a X
p
n
Y
n


a) b a Y X
p
n n

b) ab Y X
p
n n

176
Probabilidades y Estadstica (Computacin)
Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires
Ana M. Bianco y Elena J. Martnez 2004


c) 0 b
b
a
Y
X
p
n
n
si
d) en . continua funcin una es si ) ( ) ( g a g X g
p
n
a
e) si c es una sucesin numrica tal que c , entonces c
n
c
n
ca X
p
n n



Sea una m.a de una distribucin con
n
X X X ,..., ,
2 1
= ) (
i
X E y V ,
demostraremos que la varianza muestral es un estimador consistente de la varianza
poblacional.
< =
2
) (
i
X
2
X
S

( )
|
|
|
|
.
|

\
|

= |
.
|

\
|

=
=
= 2 1
2
1
2 2 1
2
2
1 1
1
1
X
n
X
n
n
X n X
n n
X X
S
n
i
i
n
i
i
n
i
i
X


Por la Ley de los Grandes Nmeros
p
X , entonces por la propiedad d)
2 2

p
X .

Por otra parte, aplicando nuevamente la Ley de los Grandes Nmeros

| |
2 2 2 2 1
2
) ( ) ( ) (
2
,
2
,
2
,


+ = + =

=
X E X V X E
n
X
p
n
i
i


Como adems 1
1

n
n
, se obtiene


2 2 2 2 2 1
2
2
1
= +
|
|
|
|
.
|

\
|

=

= p
n
i
i
X
X
n
X
n
n
S
y por lo tanto la varianza muestral es un estimador consistente de .
2

177