You are on page 1of 51

13.

MUESTREO Y ESTIMACIN

MUESTREO

Muestra Aleatoria de tamao n es una coleccin de n variables aleatorias, todas con


la misma distribucin y todas independientes. La coleccin de donde extraemos la
muestra aleatoria, se denomina Poblacin. Nuestra intencin al tomar una muestra, es
la de hacer Inferencia. Este trmino lo usamos en estadstica para denotar al
procedimiento con el que hacemos afirmaciones acerca de valores generales de la
poblacin mediante los nmeros que observamos en la muestra.

A un valor calculado con los datos de una muestra es el Estadstico. Al valor del
parmetro en la poblacin es el Estimador. Y es Estimador Puntual cuando se
estima el parmetro poblacional a partir de un valor nico).

Caractersticas probabilsticas de un estimador. Cuando se tiene una frmula para


estimar y se aplica a una muestra aleatoria, el resultado es aleatorio, es decir los
estimadores son variables aleatorias. Por ejemplo si se recibe un embarque de objetos
que pueden estar listos para usarse defectuosos. Podemos seleccionar, al azar,
algunos de ellos para darnos una idea de la proporcin de defectuosos en el
embarque. El parmetro de inters es la proporcin de defectuosos en toda la
poblacin, pero lo que observamos es la proporcin de defectuosos en la muestra.

Valor esperado de un estimador y sesgo. El valor esperado de un estimador nos da


un valor alrededor del cual es muy probable que se encuentre el valor del estimador.
Para poner un ejemplo, si supiramos que el valor esperado de un estadstico es 4,
esto significara que al tomar una muestra: No creemos que el valor de la estadstica
vaya a ser 4, pero tampoco creemos que el valor de la estadstica vaya a estar lejos de
4.

Ya que es muy probable que el valor del estimador est cerca de su valor esperado,
una propiedad muy deseable es que ese valor esperado del estimador coincida con el
del parmetro que se pretende estimar. Al menos, quisiramos que el valor esperado
no difiera mucho del parmetro estimado. Por esa razn es importante la cantidad
que, tcnicamente llamamos sesgo.

Convencin, para efectos del estudio de ahora en adelante se presentan la siguiente

convencin, y representan, el parmetro que estamos midiendo y el valor

obtenido en la medida o muestreado, respectivamente

1
El sesgo es la diferencia entre el valor esperado del estimador y el parmetro que
estima. E x , Sesgo E ()

Si el sesgo 0, se dice que el estimador es insesgado y sta es una caracterstica buena


para un estimador. Un estimador que es insesgado tiene una alta probabilidad de
tomar un valor cercano al valor del parmetro.

Varianza de un estimador. Otra propiedad importante de un estimador es su


varianza. La importancia de la desviacin estndar es que nos permite darle un
sentido numrico a la cercana del valor del estimador a su valor esperado. Entre
menor sea la desviacin estndar de un estimador, ser ms probable que su valor en
una muestra especfica se encuentre mas cerca del valor esperado.

Para aclarar esto, considere dos estimadores T1 y T2, suponga que ambos son
insesgados y suponga que la varianza de T1 es menor que la de T2, lo cual quiere decir
que los valores de T1 son ms probables que los de T2. O sea que vamos a encontrar a
T1 ms cerca del valor del parmetro que a T2. Esto hace que nuestras preferencias
estn con T1.

Cuando un estimador tiene una varianza menor que otro decimos que el estimador es
ms eficiente.

La distribucin de probabilidad de un estadstico. Quiz el resultado ms


importante para la estadstica es el Teorema del Lmite Central. Este resultado nos
indica que, para el estadstico promedio de la muestra

- el valor esperado es la media de la poblacin.


- la varianza es igual a la de la poblacin dividida por el nmero de elementos de la
muestra.
- la distribucin de probabilidad es la normal.

Este teorema es muy importante porque permite calcular probabilidades acerca de


dnde se encuentra el valor promedio muestra. Es slo cuestin de usar la tabla
normal teniendo cuidado al estandarizar de usar la desviacin estndar adecuada que
es la de la poblacin dividida por la raz cuadrada del nmero de elementos de la
muestra.

Estimacin del error de una medida directa. La estimacin del error de una medida
tiene siempre una componente subjetiva. En efecto, nadie mejor que un observador
experimentado para saber con buena aproximacin cul es el grado de confianza que
le merece la medida que acaba de tomar. No existe un conjunto de reglas bien

2
fundadas e inalterables que permitan determinar el error de una medida en todos los
casos imaginables.

Muchas veces es tan importante consignar cmo se ha obtenido un error como su


propio valor. Sin embargo, la aplicacin de algunos mtodos estadsticos permite
objetivar en gran medida la estimacin de errores aleatorios. La estadstica permite
obtener los parmetros de una poblacin (en este caso el conjunto de todas las
medidas que es posible tomar de una magnitud), a partir de una muestra (el nmero
limitado de medidas que podemos tomar).

Mejor valor de un conjunto de medidas. Supongamos que medimos una magnitud


un nmero n de veces. Debido a la existencia de errores aleatorios, las n medidas
x 1, x 2 ,..., x n sern en general diferentes. El mtodo ms razonable para determinar
el mejor valor de estas medidas es tomar el valor medio. En efecto, si los errores son
debidos al azar, tan probable es que ocurran por defecto como por exceso, y al hacer
la media se compensarn, por lo menos parcialmente, y este es el valor que deber
darse como resultado de las medidas.
1

n
x x
i 1 i
n

Tipos de estimacin estadstica. Un problema importante de la inferencia estadstica


es la estimacin de parmetros de la poblacin, brevemente parmetros (tales como la
media y la variacin de la poblacin), de los correspondientes estadsticos mustrales,
o simplemente estadsticos (tales como la media y la variacin de la muestra).

Estimaciones sin sesgo. Si la media de las dispersiones de muestreo con un


estadstico es igual que la del correspondiente parmetro de la poblacin, el
estadstico se llamara estimador sin sesgo o insesgado del parmetro; si no, si no se
llama estimador sesgado. Los correspondientes valores de tal estadstico se llaman
estimacin sin sesgo, y estimacin con sesgo respectivamente.

Ejemplo, la media de las distribuciones de muestreo de medias x o , media de la


poblacin. Por lo tanto, la media muestral es una estimacin sin sesgo de la media de
la poblacin.

Ejemplo, las medias de las distribuciones de muestreo de las variables son


n 1 2
s2
n
En donde, s 2 sea una estimacin sin sesgo, sin embargo, s es una estimacin
sesgada, pues, en trminos del valor esperado es insesgado
E (X) E(S 2 ) 2

3
Estimacin Eficiente. Si las distribuciones de muestreo de dos estadsticos tienen la
misma media (o esperanza), el de menor varianza se llama un estimador eficiente de
la media, mientras que el otro se llama un estimador ineficiente, respectivamente. Si
consideramos todos los posibles estadsticos cuyas distribuciones de muestreo tiene la
misma media, aquel de varianza mnima se llama a veces, el estimador de mxima
eficiencia, sea el mejor estimador.

Ejemplo, Las distribuciones de muestreo de media y mediana tienen ambas la misma


media, a saber, la media de la poblacin. Sin embargo, la varianza de la distribucin
de muestreo de medias es menor que la varianza de la distribucin de muestreo de
medianas. Por tanto, la media muestral da una estimacin eficiente de la media de la
poblacin, mientras la mediana de la muestra da una estimacin ineficiente de ella.

De todos los estadsticos que estiman la media de la poblacin, la media muestral


proporciona la mejor (la ms eficiente) estimacin. En la prctica, estimaciones
ineficientes se usan con frecuencia a causa de la relativa sencillez con que se obtienen
algunas de ellas. Estimaciones de punto y estimaciones de intervalo, su fiabilidad,
una estimacin de un parmetro de la poblacin dada por un solo nmero se llama
una estimacin de punto del parmetro. Una estimacin de un parmetro de la
poblacin dada por dos puntos, entre los cuales se pueden considerar encajado al
parmetro, se llama una estimacin del intervalo del parmetro. Las estimaciones de
intervalo que indican la precisin de una estimacin y son por tanto preferibles a las
estimaciones de punto

La Inferencia Estadstica comprende los mtodos que son usados para sacar
conclusiones de la poblacin en base a una muestra tomada de ella. Incluye los
mtodos de estimacin de parmetros y las pruebas de hiptesis.

La Estimacin de parmetros comprende a su vez la Estimacin Puntual, en donde


se estudian los diversos mtodos de encontrar estimadores y las propiedades ptimas
que deben tener stos, y la Estimacin por Intervalos de Confianza, en donde se
estima un parmetro usando un intervalo centrado en un estimado del parmetro y de
longitud igual a dos veces el error de estimacin. El Error de estimacin depende del
nivel de confianza deseado, usualmente, 90, 95 99 por ciento.

En este texto solamente se tratar el clculo de intervalos de confianza. Los diversos


mtodos de encontrar estimadores y, las propiedades de estimadores ptimos son
discutidos en un curso de Estadstica Matemtica.

Una Hiptesis Estadstica es una afirmacin que se hace acerca de un parmetro


poblacional. La afirmacin que est establecida y que se espera sea rechazada
despus de aplicar una prueba estadstica es llamada la hiptesis nula y se

4
representa por Ho. La afirmacin que se espera sea aceptada despus de aplicar una
prueba estadstica es llamada la hiptesis alterna y se representa por Ha.

Una prueba estadstica es una frmula, basada en la distribucin del estimador del
parmetro que aparece en la hiptesis y que va a permitir tomar una decisin acerca
de aceptar o rechazar una hiptesis nula.

Al igual que una prueba de laboratorio para detectar cierta enfermedad, una prueba
estadstica no es ciento por ciento segura y puede llevar a una conclusin errnea.
Hay dos tipos de errores que pueden ocurrir. El error tipo I, que se comete cuando se
rechaza una hiptesis nula que realmente es cierta y el error tipo II que se comete
cuando se acepta una hiptesis nula que realmente es falsa.

El nivel de significacin, representada por , es la probabilidad de cometer error tipo


I, y por lo general se asume que tiene un valor de 0.05 0.01.Tambin puede ser
interpretado como el rea de la regin que contiene todos los valores posibles donde
la hiptesis nula es rechazada.

La probabilidad de cometer error tipo II, se representa por y al valor 1- se le llama


la potencia de la prueba. Una buena prueba estadstica es aquella que tiene una
potencia alta. En este captulo, primero se discutir el clculo de intervalos de
confianza y pruebas de hiptesis para la media poblacional, para una proporcin y
finalmente para la varianza de una poblacin. Luego se tratar los intervalos de
confianza y prueba de hiptesis para la razn de dos varianzas poblacionales, para la
diferencia de dos medias poblacionales y por ltimo para la diferencia de dos
proporciones.

Estimaciones de Intervalos de Confianza para parmetros de poblacin. Sean


s y s la media y la desviacin tpica (error tpico) de la distribucin de muestreo
de un estadstico S. Entonces, si la distribucin de muestreo de s es aproximadamente
normal (que como hemos visto es cierto para muchos estadsticos si el tamao de la
muestra es N , entonces, podemos esperar hallar un estadstico muestral real S
que est en el intervalo s s , s , s 2 s , 2 s , s 3 s , 3 s
en un 68.27%, 95.45% y 99.70 %, respectivamente.

En la tabla siguiente, se muestran los niveles de confianza usados en la prctica. Para


niveles de confianza que no aparecen en la tabla, los valores Z c se pueden encontrar
gracias a las tablas de reas bajo la curva Normal.

Nivel de
confianza 99.70 99.00 98.00 96.00 95.45 95.00 90.00
% 80.00 68.27 50.00

5
Zc
3.00 2.58 2.33 2.05 2.00 1.96 1.645 1.28
1.00 0.6745

Intervalos de confianza para la media. Si el estadstico es de la media de X de la


muestra, entonces los limites de confianza 1.9 x y 2.58 x ,
respectivamente. Si el muestreo de la poblacin es infinita por lo tanto viene dado por

X Z
N

Ejemplo. Halar los lmites de confianza de 98% y 90%. Lo anterior tiene la solucin,
sea Z =Z tal que, al rea bajo la curva Normal a la derecha sea 1%, entonces, por
simetra el rea del lado izquierdo de Z=-Z . como el rea total bajo la curva es 1,

Z=0.49 por tanto, Z=2.33, luego el limite de confianza para el 98% es, 2.33
n

Generalmente, la desviacin tpica de la poblacin no es conocida. As pues, para


obtener los limites usamos la estimacin s o S es satisfactorio si N 30, si a
aproximacin es pobre y debe de empleare la teora de pequeas muestras.

Clculo del tamao de la muestra. A la hora de determinar el tamao que debe


alcanzar una muestra hay que tomar en cuenta varios factores, el tipo de muestreo, el
parmetro a estimar, el error muestral admisible, la varianza poblacional y el nivel de
confianza. Por ello antes de presentar algunos casos sencillos de clculo del tamao
muestral delimitemos estos factores.

Parmetro. Son las medidas o datos que se obtienen sobre la poblacin.

Estadstico. Los datos o medidas que se obtienen sobre una muestra y por lo tanto
una estimacin de los parmetros.

Error Muestral. Es la diferencia entre un estadstico y su parmetro correspondiente.


Es una medida de la variabilidad de las estimaciones de muestras repetidas en torno al
valor de la poblacin, nos da una nocin clara de hasta dnde y con qu probabilidad
una estimacin basada en una muestra se aleja del valor que se hubiera obtenido por
medio de un censo completo. Siempre se comete un error, pero la naturaleza de la
investigacin nos indicar hasta qu medida podemos cometerlo (los resultados se
someten a error muestral e intervalos de confianza que varan muestra a muestra).
Vara segn se calcule al principio o al final. Un estadstico ser ms preciso en
cuanto y tanto su error es ms pequeo. Podramos decir que es la desviacin de la
distribucin muestral de un estadstico y su fiabilidad.

6
Nivel de Confianza. Probabilidad de que la estimacin efectuada se ajuste a la
realidad. Cualquier informacin que queremos recoger est distribuida segn una ley
de probabilidad, as llamamos nivel de confianza a la probabilidad de que el intervalo
construido en torno a un estadstico capte el verdadero valor del parmetro.

Varianza Poblacional. Cuando una poblacin es ms homognea la varianza es


menor y el nmero de entrevistas necesarias para construir un modelo reducido del
universo, o de la poblacin, ser ms pequeo. Generalmente es un valor desconocido
y hay que estimarlo a partir de datos de estudios previos.

Tamao de muestra para estimar la media de la poblacin. Veamos los pasos


necesarios para determinar el tamao de una muestra empleando el muestreo aleatorio
simple. Para ello es necesario partir de dos supuestos: en primer lugar el nivel de
confianza al que queremos trabajar; en segundo lugar, cual es el error mximo que
estamos dispuestos a admitir en nuestra estimacin. As pues los pasos a seguir son:

Obtener el tamao muestral imaginando que n , siendo Z / 2 el Z con el valor


del nivel de confianza elegido, 2 varianza poblacional y e el error mximo
Z2 2
n / 22 o aplicar
e
n
n
1 n / n

Para obtener el tamao de la muestra si hay grandes diferencias en el tamao muestral


o hay escasez de informacin

Ejemplo, Una poblacin a encuestar tiene 10000 personas y una varianza de 9.648.
Trabajando con un nivel de confianza de 0.95 y estando dispuestos a admitir un error
mximo del 10%, cul debe ser el tamao muestral para trabajar?
En las tablas de la curva Normal el valor de Z / 2 que corresponde con el nivel de
confianza elegido, Z / 2 1.96
n 1.96 2 9.648 / 0.12 3.706

Comprobamos que no se cumple, pues en este caso 10.000 < 3.706 (3.706 - 1);
10.000 < 13.730.730, por tanto, usamos
n 3.706 /(1 (3.706 / 10.000)) 2.704

Tamao de muestra para estimar la proporcin de la poblacin. Para calcular el


tamao de muestra para la estimacin de proporciones poblaciones hemos de tener en
cuenta los mismos factores que en el caso de la media. La frmula que nos permitir
determinar el tamao muestral es la siguiente,

7
N Z 2 / 2 P (1 P)
n
( N 1) e 2 Z 2 / 2 P (1 P)

Donde, Z / 2 correspondiente al Z con el nivel de confianza elegido, P es la


proporcin de una categora de la variable, e es el error mximo, y N es el tamao de
la poblacin.

Una parte fundamental para realizar un estudio estadstico de cualquier tipo es


obtener unos resultados confiables y que puedan ser aplicables. Como ya se coment
anteriormente, resulta casi imposible o imprctico llevar a cabo algunos estudios
sobre toda una poblacin, por lo que la solucin es llevar a cabo el estudio basndose
en un subconjunto de sta denominada muestra. Sin embargo, para que los estudios
tengan la validez y confiabilidad buscada es necesario que tal subconjunto de datos, o
muestra, posea algunas caractersticas especficas que permitan, al final, generalizar
los resultados hacia la poblacin en total.

Esas caractersticas tienen que ver principalmente con el tamao de la muestra y con
la manera de obtenerla. El muestro, implica algo de incertidumbre que debe ser
aceptada para poder realizar el trabajo, pues aparte de que estudiar una poblacin
resulta ser un trabajo en ocasiones demasiado grande, por tanto, se ofrecen las
siguientes razones extras:

- Recursos limitados. Es decir, no existen los recursos humanos, materiales o


econmicos para realizar el estudio sobre el total de la poblacin. Es como cuando
se compra un aparato, un automvil usado (por ejemplo), que se prueba unos
minutos (el encendido, una carrerita, etc.) para ver si funciona correctamente y
luego se adquiere, pero no se espera a probarlo toda la vida (encendindolo y
apagndolo o, simplemente, dejndolo encendida) antes de realizar la adquisicin.

- Escasez. Es el caso en que se dispone de una sola muestra. Por ejemplo, para el
estudio paleontolgico de los dinosaurios sera muy bueno contar con, al menos,
muchos restos fsiles y as realizar tales investigaciones; sin embargo, se cuenta
slo con una docena de esqueletos fosilizados (casi todos incompletos) de esas
criaturas en todo el mundo.

- Pruebas destructivas. Es el caso en el que realizar el estudio sobre toda la


poblacin llevara a la destruccin misma de la poblacin.

- El muestreo puede ser ms exacto. Esto es en el caso en el que el estudio sobre


la poblacin total puede causar errores por su tamao o, en el caso de los censos,
que sea necesario utilizar personal no lo suficientemente capacitado; mientras que,

8
por otro lado, el estudio sobre una muestra podra ser realizada con menos
personal pero ms capacitado.

Para calcular el tamao de una muestra hay que tomar en cuenta tres factores:
- El porcentaje de confianza con el cual se quiere generalizar los datos desde la
muestra hacia la poblacin total.
- El porcentaje de error que se pretende aceptar al momento de hacer la
generalizacin.
- El nivel de variabilidad que se calcula para comprobar la hiptesis.

La confianza o el porcentaje de confianza es el porcentaje de seguridad que existe


para generalizar los resultados obtenidos. Esto quiere decir que un porcentaje del
100% equivale a decir que no existe ninguna duda para generalizar tales resultados,
pero tambin implica estudiar a la totalidad de los casos de la poblacin. Para evitar
un costo muy alto para el estudio o debido a que en ocasiones llega a ser
prcticamente imposible el estudio de todos los casos, entonces se busca un
porcentaje de confianza menor. Comnmente en las investigaciones sociales se busca
un 95%.

El error o porcentaje de error equivale a elegir una probabilidad de aceptar una


hiptesis que sea falsa como si fuera verdadera, o la inversa: rechazar a hiptesis
verdadera por considerarla falsa. Al igual que en el caso de la confianza, si se quiere
eliminar el riesgo del error y considerarlo como 0%, entonces la muestra es del
mismo tamao que la poblacin, por lo que conviene correr un cierto riesgo de
equivocarse. Comnmente se aceptan entre el 4% y el 6% como error, tomando en
cuenta de que no son complementarios la confianza y el error.

La variabilidad es la probabilidad (o porcentaje) con el que se acept y se rechaz la


hiptesis que se quiere investigar en alguna investigacin anterior o en un ensayo
previo a la investigacin actual. El porcentaje con que se acept tal hiptesis se
denomina variabilidad positiva y se denota por p, y el porcentaje con el que se
rechaz se la hiptesis es la variabilidad negativa, denotada por q. Hay que
considerar que p y q son complementarios, es decir, que su suma es igual a la unidad:
p+q=1. Adems, cuando se habla de la mxima variabilidad, en el caso de no existir
antecedentes sobre la investigacin (no hay otras o no se pudo aplicar una prueba
previa), entonces los valores de variabilidad es p=q=0.5.

Una vez que se han determinado estos tres factores, entonces se puede calcular el
tamao de la muestra como a continuacin se expone. Hablando de una poblacin de
alrededor de 10,000 casos, o mnimamente esa cantidad, podemos pensar en la
manera de calcular el tamao de la muestra a travs de las siguientes frmulas. Hay
que mencionar que estas frmulas se pueden aplicar de manera aceptable pensando en

9
instrumentos que no incluyan preguntas abiertas y que sean un total de alrededor de
30.

Vamos a presentar dos frmulas, siendo la primera la que se aplica en el caso de que
no se conozca con precisin el tamao de la poblacin, y es:
z 2 pq
n 2
e

Donde, n es el tamao de la muestra; z es el nivel de confianza; p es la variabilidad


positiva; q es la variabilidad negativa; y e es la precisin o error.

Ejemplo: Si se quiere un porcentaje de confianza del 95%, entonces hay que


considerar la proporcin correspondiente, que es 0.95. Lo que se buscara en seguida
es el valor z para la variable aleatoria z tal que el rea simtrica bajo la curva normal
desde -z hasta z sea igual a 0.95, es decir, P(-z<Z<z)=0.95.

Utilizando las tablas de la funcin de distribucin Normal se puede calcular el valor


de z, que sera 1.96 (con una aproximacin a dos decimales). Esto quiere decir que
P(-1.96<Z<1.96)=0.95.

En el caso de que s se conozca el tamao de la poblacin entonces se aplica


z 2 pqN
n
Ne 2 z 2 pq

Donde, n es el tamao de la muestra; z es el nivel de confianza; p es la variabilidad


positiva; q es la variabilidad negativa; y e es la precisin o error.

Ejemplo: Un Colegio desea realizar una investigacin sobre los alumnos inscritos en
primer y segundo aos, para lo cual se aplicar un cuestionario de manera aleatoria a
una muestra, pues los recursos econmicos y el tiempo para procesar la informacin
resultara insuficiente en el caso de aplicrsele a la poblacin estudiantil completa. En
primera instancia, suponiendo que no se conoce el tamao exacto de la poblacin,
pero con la seguridad de que sta se encuentra cerca a los diez millares, se aplicar la
primera frmula.

Se considerar una confianza del 95%, un porcentaje de error del 5% y la mxima


variabilidad por no existir antecedentes en la institucin sobre la investigacin y
porque no se puede aplicar una prueba previa. Primero habr que obtener el valor de
Z de tal forma que la confianza sea del 95%, es decir, buscar un valor de Z tal que P(-
z<Z<z)=0.95. Entonces, z=1.96. Resultando, n=384.16

10
Las tcnicas de muestreo probabilstica son aquellas en las que se determina al azar
los individuos que constituirn la muestra. Estas tcnicas nos sirven cuando se desean
generalizar los resultados que se obtienen a partir de la muestra hacia toda la
poblacin. Lo anterior se dice dado que se supone que el proceso aleatorio permitir
la obtencin de una muestra representativa de la poblacin.

Los muestreos probabilsticas pueden ser con o sin reemplazo. Los muestreos con
reemplazo son aquellos en los que una vez que ha sido seleccionado un individuo (y
estudiado) se le toma en cuenta nuevamente al elegir el siguiente individuo a ser
estudiado. En este caso cada una de las observaciones permanece independiente de
las dems, pero con poblaciones pequeas tal procedimiento debe ser considerado
ante la posibilidad de repetir observaciones. En el caso de poblaciones grandes no
importa tal proceder, pues no afecta sustancialmente una repeticin a las frecuencias
relativas.

Los muestreos sin reemplazo son los que una vez que se ha tomado en cuenta un
individuo para formar parte de la muestra, no se le vuelve a tomar en cuenta
nuevamente. En este caso, y hablando especficamente para el caso de poblaciones
pequeas, las observaciones son dependientes entre s, pues al no tomar en cuenta
nuevamente el individuo se altera la probabilidad para la seleccin de otro individuo
de la poblacin. Para el caso de las poblaciones grandes (por ejemplo la poblacin de
un pas) dicha probabilidad para la seleccin de un individuo se mantiene
prcticamente igual, por lo que se puede decir que existe independencia en las
observaciones.

Las tcnicas de muestreo probabilstica que mencionaremos sern bsicamente tres:


el aleatorio simple, el aleatorio estratificado y el sistemtico.

- Muestreo aleatorio simple. Podemos aqu mencionar que para el caso de que se
estuviese estudiando un propocin dentro de la poblacin (una eleccin de
candidato, la aceptacin o rechazo de una propuesta en una comunidad, la
presencia o ausencia de una caracterstica hereditaria), y el en caso de un muestreo
aleatorio simple, la estimacin que se puede hacer de la proporcin buscada a
partir de la proporcin hallada en la muestra se obtiene mediante la construccin
de un intervalo de confianza:
= P tolerancia de la muestra

Donde es la proporcin buscada en la poblacin y P es la proporcin presente en la


muestra. Por otro lado, la tolerancia de la muestra est relacionada directamente con
el nivel de confianza y se obtiene a partir de la distribucin normal al igual que como
se obtuvo para el clculo del tamao de las muestras. La representaremos con z para
obtener,

11
pq
Pz
n

- Muestras aleatorias. Para que las conclusiones de la teora del muestreo y de la


inferencia estadstica sean validas, las muestras deben escogerse representativas de
la poblacin. El anlisis de los mtodos de muestreo y problemas relacionados se
llaman el diseo del experimento.

- Muestras no aleatorias. Cuando el mtodo de extraccin de las muestras no


asegure a cada individuo de la poblacin o del estrato, igual probabilidad de ser
elegido, entonces la muestra obtenida no es aleatoria. A veces, esto se hace por
razones de practicidad en el sentido del costo o del tiempo. Si se desea tomar una
muestra probabilstica de la poblacin argentina no parece razonable usar a cada
individuo como unidad de muestreo. Lo mismo cuando se desea hacer un
muestreo a los escolares de una provincia, es muy difcil empadronar a todos
primero para luego sortear, y se tardara demasiado para ubicarlos uno por uno
hasta terminar el trabajo.

- En el muestreo de etapas mltiples se utiliza para el caso de grandes poblaciones


humanas. Ac, la unidad de muestreo en la primera etapa son los departamentos de
cada provincia. Se los lista y se hace un primer sorteo para la seleccin. En una
segunda etapa se distingue la poblacin rural de la urbana, subdividiendo en
fracciones (diferentes superficies con densidad de poblacin semejante). Otra vez
se sortea para elegir, y se contina con otra divisin en radios dentro de las
fracciones, segmentos dentro de radios, y as sucesivamente. La razn es repartir
equitativamente el trabajo del encuestador.

- En el muestreo por conglomerados se eligen conjuntos donde naturalmente se


agrupan los individuos. Es, por ejemplo, el caso de las escuelas para hacer un
muestreo alumnos en el sistema educativo, o las facultades para los universitarios.
Si se trata de estudiar las condiciones laborales de los empleados de comercio que
trabajan en supermercados, primero se empadronan a los lugares naturales de
trabajo (supermercados), y luego se sortea entre estos conglomerados para elegir a
uno. Luego se entrevista a todos los empleados del supermercado elegido, y se
acepta esto como una muestra representativa del sector.

- El muestreo sistemtico se usa para el caso de sucesiones de elementos. Por


ejemplo, el caso de las historias clnicas de pacientes, certificados de nacimiento,
tarjetas de catlogo en una biblioteca, etc. Son los casos donde la informacin est
en archivos y hay que trabajar con estos para obtenerlas. Se elige una cifra entera,
razonable, tomando en cuenta el tamao de la muestra y el de la poblacin. Por
ejemplo, hay que tomar una muestra de tamao 25 de un archivo que contiene 488

12
fichas; luego, el cociente entre poblacin y muestra es 488 /25, aproximadamente
19. Notar que si se elige 20 el tamao muestral no llega a 25. Entonces, se cuentan
las fichas y a llegar a la dcimo novena se la extrae, se sigue hasta la nmero 38
que ser la segunda escogida, y as sucesivamente hasta tener las 25 fichas
necesarias. Es tambin el caso de los soldados que se numeran de 1 en adelante y
cada 5 (u otro nmero cualquiera) dan un paso al frente. Es un mtodo sencillo y
rpido de seleccin.

a. Nmeros Aleatorios. Una forma para obtener una muestra representativa es


mediante el muestreo aleatorio, de acuerdo con el cual, cada miembro de la
poblacin tiene la misma probabilidad de ser incluido en la muestra. Un mtodo
para lograrlo es asignarle a cada uno un nmero, escribir cada nmero en una
papeleta, y realizar en una urna un soporte justo en ella. Un mtodo alternativo
consiste en recurrir una tabla de nmeros aleatorios.

b. Sistemtico. Es anlogo al anterior, aunque resulta ms cmoda la eleccin de los


elementos. Si hemos de elegir 40 elementos de un grupo de 600, se comienza por
calcular el cociente 600/40 que nos dice que existen 40 grupos de 15 elementos
entre los 600. Se elige un elemento de salida entre los 15 primeros, y suponiendo
que sea el k-simo, el resto de los elementos sern los k-simos de cada grupo. En
concreto, si el elemento de partida es el nmero 6, los restantes sern los que
tengan los nmeros: 15+6 ,2x15+6,......,39x15+6

Este procedimiento simplifica enormemente la eleccin de elementos, pero puede


dar al traste con la representatividad de la muestra, cuando los elementos se hayan
numerados por algn criterio concreto, y los k-simos tienen todos una
determinada caracterstica, que haga conformarse una muestra no representativa.

c. Estratificado. A veces nos interesa, cuando las poblaciones son muy grandes,
dividir stas en sub-poblaciones o estratos, sin elementos comunes, y que cubran
toda la poblacin. Una vez hecho esto podemos elegir, por muestreo aleatorio
simple, de cada estrato, un nmero de elementos igual o proporcional al tamao
del estrato. Este procedimiento tiene la gran ventaja de que se puede obtener una
mayor precisin en poblaciones no homogneas (aunque en este curso no
estudiaremos los mtodos necesarios) Si decidiramos hacer una encuesta sobre la
incidencia del tabaco en nuestro centro, podramos razonar de la siguiente forma:

MUESTRA CON Y SIN REPOSICION

Si sacamos el nmero de una urna, podemos volverlos en ella o no, antes de la


siguiente extraccin. En el primer caso, ese nmero puede salir de nuevo ms veces,
mientras que en el segundo pueda salir cada nmero una vez. Estos dos tipos de
muestras se llaman, respectivamente, Muestras con reposicin y muestra sin

13
reposicin. Las poblaciones son finitas o infinitas. Si por ejemplo, sacamos 10 bolas
sucesivamente, sin reposicin, de una urna que contiene 100 bolas, estamos tomando
muestra de poblacin finita; mientras que si lanzamos 50 veces una moneda contamos
el nmero de caras, estamos ante una muestra poblacin infinita. Una poblacin finita
en la que se efecta muestra con reposicin, puede considerarse infinita tericamente,
ya que puede tomar cualquier nmero de muestras sin agotarla. Para muchos efectos
prcticos, una poblacin muy grande se puede considerar como si fuera infinita.

PEQUEAS MUESTRAS

En este captulo se presentan tres nuevos modelos estadsticos: el llamado t-Student,


el modelo de la Chi-cuadrado 2 y el modelo F-Fisher. Los tres no requieren ya ms
del supuesto de un tamao muestral grande. Ahora con dos o ms mediciones se
puede trabajar; por eso se usa la expresin Teora de pequeas muestras para este
tema. El empleo de cualquiera de ellos es enteramente similar al visto en el captulo
anterior. Cambia la manera de calcular el estadgrafo de comparacin y su respectiva
tabla de valores crticos de la distribucin muestral.

Mientras que el modelo de la t se aplica a medias y proporciones, los dos ltimos se


usan para el estudio de las desviaciones o dispersiones. Tambin se la llama
Teora Exacta del Muestreo, pues ahora no hay que efectuar la aproximacin
ya que el valor muestral viene en la frmula de clculo del estadgrafo de
comparacin, en lugar del poblacional. Eso hace que no sea necesario efectuar
una estimacin y se tiene una mayor exactitud que con la gaussiana. Es
importante destacar que los tres modelos son vlidos tanto para pequeas como
para grandes muestras. Esto ampla el campo de aplicacin del modelo de Gauss.
Adems, al no tener que hacer tantas pruebas disminuye el costo y se gana en
tiempo. Todas estas ventajas tienen una contrapartida: se pierde un poco de
precisin pues, como se ver, el intervalo de confianza se hace ms grande para
un mismo caso.

El propsito de un estudio estadstico suele ser, como hemos venido citando, extraer
conclusiones acerca de la naturaleza de una poblacin. Al ser la poblacin grande y
no poder ser estudiada en su integridad en la mayora de los casos, las conclusiones
obtenidas deben basarse en el examen de solamente una parte de sta, lo que nos
lleva, en primer lugar a la justificacin, necesidad y definicin de las diferentes
tcnicas de muestreo.
Los primeros trminos obligados a los que debemos hacer referencia, definidos en el
primer captulo, sern los de estadstico y estimador.

Dentro de este contexto, ser necesario asumir un estadstico o estimador como una
variable aleatoria con una determinada distribucin, y que ser la pieza clave en las

14
dos amplias categoras de la inferencia estadstica: la estimacin y el contraste de
hiptesis.
El concepto de estimador, como herramienta fundamental, lo caracterizamos
mediante una serie de propiedades que nos servirn para elegir el ``mejor" para un
determinado parmetro de una poblacin, as como algunos mtodos para la
obtencin de ellos, tanto en la estimacin puntual como por intervalos.
Cmo deducir la ley de probabilidad sobre determinado carcter de una poblacin
cuando slo conocemos una muestra?

Este es un problema al que nos enfrentamos cuando por ejemplo tratamos de estudiar
la relacin entre el fumar y el cncer de pulmn e intentamos extender las
conclusiones obtenidas sobre una muestra al resto de individuos de la poblacin. La
tarea fundamental de la estadstica inferencial, es hacer inferencias acerca de la
poblacin a partir de una muestra extrada de la misma.

TCNICAS DE MUESTREO SOBRE UNA POBLACIN

La teora del muestreo tiene por objetivo, el estudio de las relaciones existentes entre
la distribucin de un carcter en dicha poblacin y las distribuciones de dicho carcter
en todas sus muestras. Las ventajas de estudiar una poblacin a partir de sus muestras
son principalmente:

Coste reducido: Si los datos que buscamos los podemos obtener a partir de una
pequea parte del total de la poblacin, los gastos de recogida y tratamiento de los
datos sern menores. Por ejemplo, cuando se realizan encuestas previas a un
referndum, es ms barato preguntar a 4.000 personas su intencin de voto, que a
30.000.000;

Mayor rapidez: Estamos acostumbrados a ver cmo con los resultados del escrutinio
de las primeras mesas electorales, se obtiene una aproximacin bastante buena del
resultado final de unas elecciones, muchas horas antes de que el recuento final de
votos haya finalizado;

Ms posibilidades: Para hacer cierto tipo de estudios, por ejemplo el de duracin de


cierto tipo de bombillas, no es posible en la prctica destruirlas todas para conocer su
vida media, ya que no quedara nada que vender. Es mejor destruir slo una pequea
parte de ellas y sacar conclusiones sobre las dems. De este modo se ve que al hacer
estadstica inferencial debemos enfrentarnos con dos problemas:
- Eleccin de la muestra (muestreo), que es a lo que nos dedicaremos en este
captulo.
- Extrapolacin de las conclusiones obtenidas sobre la muestra, al resto de la
poblacin (inferencia).

15
El tipo de muestreo ms importante es el muestreo aleatorio, en el que todos los
elementos de la poblacin tienen la misma probabilidad de ser extrados; Aunque
dependiendo del problema y con el objetivo de reducir los costes o aumentar la
precisin, otros tipos de muestreo pueden ser considerados como veremos ms
adelante: muestreo sistemtico, estratificado y por conglomerados.

Muestreo aleatorio. Consideremos una poblacin finita, de la que deseamos extraer


una muestra. Cuando el proceso de extraccin es tal que garantiza a cada uno
de los elementos de la poblacin la misma oportunidad de ser incluidos en
dicha muestra, denominamos al proceso de seleccin muestreo aleatorio.
El muestreo aleatorio se puede plantear bajo dos puntos de vista:
- Sin reposicin de los elementos;
- Con reposicin.

Muestreo aleatorio sin reposicin. Consideremos una poblacin E formada por N


elementos. Si observamos un elemento particular, e pertenece a E, en un
muestreo aleatorio sin reposicin se da la siguiente circunstancia:
- La probabilidad de que e sea elegido en primer lugar es 1/N;
- Si no ha sido elegido en primer lugar (lo que ocurre con una probabilidad de (N-
1)/N, la probabilidad de que sea elegido en el segundo intento es de 1/(N-1).
- en el (i+1)-simo intento, la poblacin consta de N-i elementos, con lo cual si e no
ha sido seleccionado previamente, la probabilidad de que lo sea en este momento
es de 1/(N-i).

Si consideramos una muestra de nN elementos, donde el orden en la eleccin de los


mismos tiene importancia, la probabilidad de eleccin de una muestra M=(e 1,,en)
cualquiera es
P(M)=P(e1,,en)=P(e1)*P(e2/e1)*P(en/e1,...,en-1)
1 1 1 ( N n )! 1
P(M )
N N 1 N ( n 1) N! VN , n

lo que corresponde en el sentido de la definicin de probabilidad de Laplace a un caso


posible entre las VN,n posibles n-uplas de N elementos de la poblacin. Si el orden no
interviene, la probabilidad de que una muestra M=(e1,,en) sea elegida es la suma de
las probabilidades de elegir una cualquiera de sus n-uplas, tantas veces como
permutaciones en el orden de sus elementos sea posible, es decir
P(M)=P(e1,,en)=n!*P(e1,...,en)
( N n )! 1
P (M ) n!
N! C N ,n

Muestreo aleatorio con reposicin. Sobre una poblacin E de tamao N podemos


realizar extracciones de n elementos, pero de modo que cada vez el elemento

16
extrado es repuesto al total de la poblacin. De esta forma un elemento puede
ser extrado varias veces. Si el orden en la extraccin de la muestra interviene,
la probabilidad de una cualquiera de ellas, formada por n elementos es:
1 1 1
n
N N N

Si el orden no interviene, la probabilidad de una muestra cualquiera, ser la suma de


la anterior, repitindola tantas veces como manera de combinar sus elementos sea
posible. Es decir,
- sea n1 el nmero de veces que se repite cierto elemento e1 en la muestra;
- sea n2 el nmero de veces que se repite cierto elemento e2;
- sea nk el nmero de veces que se repite cierto elemento ek,
de modo que n=n1+...+nk. Entonces la probabilidad de obtener la muestra n1 veces e1,
n2 veces e2, y as sucesivamente hasta tener nk veces ek, es
1
* k!*n 1!* n k !
Nn

El muestreo aleatorio con reposicin es tambin denominado muestreo aleatorio


simple, que como hemos mencionado se caracteriza por que
- cada elemento de la poblacin tiene la misma probabilidad de ser elegido, y
- las observaciones se realizan con reemplazo. De este modo, cada observacin es
realizada sobre la misma poblacin (no disminuye con las extracciones sucesivas).

Sea X una variable aleatoria definida sobre la poblacin E, y f(x) su ley de


probabilidad.
e1 x 1 f ( x 1 )
e x f (x / x )
2 2 2 1
E n exp erimentos aleatorios

e n x n f (x n / x1 ,..., x n1 )

En una muestra aleatoria simple, cada observacin tiene la distribucin de


probabilidad de la poblacin: f(x1)=f(x2)=f(xn)=f. Adems todos las observaciones
de la variable aleatoria son independientes, es decir, f=f(x1,xn)=f(x1)*f(xn)

Tablas de nmeros aleatorios. Un ejemplo de una tabla de nmeros aleatorios


consiste en la lista de los nmeros de Lotera Nacional premiados a lo largo de
su historia, pues se caracterizan por que cada dgito tiene la misma
probabilidad de ser elegido, y su eleccin es independiente de las dems
extracciones. Un modo de hacerlo es el siguiente. Supongamos que tenemos

17
una lista de nmeros aleatorios de k=5 cifras (00000-99.999), una poblacin
de N=600individuos, y deseamos extraer una muestra de n=6 de ellos. En este
caso ordenamos a toda la poblacin (usando cualquier criterio) de modo que a
cada uno de sus elementos le corresponda un nmero del 1 al 600. En segundo
lugar nos dirigimos a la tabla de nmeros aleatorios, y comenzando en
cualquier punto extraemos un nmero t, y tomamos como primer elemento de
la muestra al elemento de la poblacin:
t * 600 t * 600
1 k 1
10 100.000

El proceso se repite tomando los siguientes nmeros de la tabla de nmeros


aleatorios, hasta obtener la muestra de 10 individuos. Las cantidades u=t/(10k) pueden
ser consideradas como observaciones de una variable aleatoria U, que sigue una
distribucin uniforme en el intervalo [0,1]

Mtodo de Montecarlo. El mtodo de Montecarlo es una tcnica para obtener


muestras aleatorias simples de una variable aleatoria X, de la que conocemos
su ley de probabilidad (a partir de su funcin de distribucin F). Con este
mtodo, el modo de elegir aleatoriamente un valor de X siguiendo usando su
ley de probabilidad es:
1. Usando una tabla de nmeros aleatorios se toma un valor u de una variable
aleatoria.
2. Si X es continua tomar como observacin de X, la cantidad x=F-1(u). En el caso en
que X sea discreta se toma x como el percentil 100-u de X, es decir el valor ms
pequeo que verifica que F(x)u

Este proceso se debe repetir n veces para obtener una muestra de tamao n.

Ejemplo, Si queremos extraer n=10 muestras de una distribucin N(0,1) podemos


recurrir a una tabla de nmeros aleatorios de k=5cifras, en las que observamos
las cantidades, por ejemplo, 76.293, 31.776, 50.803, 71.153, 20.271, 33.717,
17.979, 52.125, 41.330, 95.141
A partir de ellas podemos obtener una muestra de X~N(0,1) usando una tabla de la
distribucin normal:

Nmeros aleatorios Muestra U(0,1) Muestra N(0,1)


ti ui=ti/105 xi = F-1(ui)
76.293 0.76 0.71
31.776 0.32 (=1-0'68) -0.47
50.803 0.51 0.03
71.153 0.71 0.55
20.271 0.20(=1-0'80) -0.84

18
33.717 0.34(=1-0'66) -0.41
17.979 0.18(=1-0'82) -0.92
52.125 0.52 0.05
41.330 0.41(=1-0'59) -0.23
95.141 0.95 1.65

Obsrvese que como era de esperar, las observaciones xi tienden a agruparse


alrededor de la esperanza matemtica de Xi~N(0,1). Por otra parte, esto no implica
que el valor medio de la muestra sea necesariamente cero. Sin embargo como
sabemos por el teorema de Fisher que
10
X
X i N(0,0.1)
i 1 N

su dispersin con respecto al valor central es pequea, lo que implica que


probablemente el valor medio estar muy prximo a 0, cuyo valor es 0.012

Obsrvese que si el problema fuese el inverso, donde nicamente conocisemos las


observaciones xi y que el mecanismo que gener esos datos hubiese sido una
distribucin normal de parmetros desconocidos, con la media obtenida hubisemos
tenido una buena aproximacin del parmetro m desconocido.

Muestreo aleatorio estratificado. Un muestreo aleatorio estratificado es aquel en el


que se divide la poblacin de N individuos, en k subpoblaciones o estratos,
atendiendo a criterios que puedan ser importantes en el estudio, de tamaos
respectivos N1, ..., Nk, tal que N= N1+ ...+Nk

y realizando en cada una de estas subpoblaciones muestreos aleatorios simples de


tamao ni , de donde i=1,,k.

Ejemplo, Supongamos que realizamos un estudio sobre la poblacin de estudiantes


de una Universidad, en el que a travs de una muestra de 10 de ellos queremos
obtener informacin sobre el uso de barras de labios. En primera
aproximacin lo que procede es hacer un muestreo aleatorio simple, pero en
su lugar podemos reflexionar sobre el hecho de que el comportamiento de la
poblacin con respecto a este carcter no es homogneo, y atendiendo a l,
podemos dividir a la poblacin en dos estratos:
- Estudiantes masculinos (60% del total);
- Estudiantes femeninos (40% restante).
de modo que se repartan proporcionalmente ambos grupos el nmero total de
muestras, en funcin de sus respectivos tamaos (6 varones y 4 mujeres). Esto es
lo que se denomina asignacin proporcional.

19
Si observamos con ms atencin, nos encontramos (salvo sorpresas de probabilidad
reducida) que el comportamiento de los varones con respecto al carcter que se
estudia es muy homogneo y diferenciado del grupo de las mujeres. Por otra parte,
con toda seguridad la precisin sobre el carcter que estudiamos, ser muy alta en el
grupo de los varones aunque en la muestra haya muy pocos (pequea varianza),
mientras que en el grupo de las mujeres habr mayor dispersin. Cuando las
varianzas poblacionales son pequeas, con pocos elementos de una muestra se
obtiene una informacin ms precisa del total de la poblacin que cuando la varianza
es grande. Por tanto, si nuestros medios slo nos permiten tomar una muestra de 10
alumnos, ser ms conveniente dividir la muestra en dos estratos, y tomar mediante
muestreo aleatorio simple cierto nmero de individuos de cada estrato, de modo que
se elegirn ms individuos en los grupos de mayor variabilidad. As probablemente
obtendramos mejores resultados estudiando una muestra de 1 varn y 9 hembras.
Esto es lo que se denomina asignacin ptima.

Asignacin proporcional. Sea n el nmero de individuos de la poblacin total que


forman parte de alguna muestra: n=n1++nk. Cuando la asignacin es
proporcional el tamao de la muestra de cada estrato es proporcional al
tamao del estrato correspondiente con respecto a la poblacin total:
ni=n*Ni/N

Asignacin ptima. Cuando se realiza un muestreo estratificado, los tamaos


muestrales en cada uno de los estratos, ni, los elige quien hace el muestreo, y
para ello puede basarse en alguno de los siguientes criterios:
- Elegir los ni de tal modo que se minimice la varianza del estimador, para un coste
especificado, o bien,
- habiendo fijado la varianza que podemos admitir para el estimador, minimizar el
coste en la obtencin de las muestras.

As en un estrato dado, se tiende a tomar una muestra ms grande cuando:


- El estrato es ms grande;
- El estrato posee mayor variabilidad interna (varianza);
- El muestreo es ms barato en ese estrato.
Para ajustar el tamao de los estratos cuando conocemos la dispersin interna de cada
uno de los mismos, tenemos el siguiente resultado:

Teorema de Neyman. Sea E una poblacin con N elementos, dividida en k estratos,


con Ni elementos cada uno de ellos, i=1,,k
E E1 E 2 E k N N1 N 2 N k

Sea n el nmero total de elementos al realizar el muestreo, y que se dividen en cada


estrato como n=n1++nk

20
Sea X la variable aleatoria que representa el carcter que intentamos estudiar. Sobre
cada estrato puede definirse entonces la variable aleatoria X i como el valor medio
de X obtenida en una muestra de tamao ni en el estrato Ei. Sea V( X i ) la varianza
de dicha variable aleatoria; Entonces
k

V( X )
i 1
i se minimiza cuando

N i s i
ni n 1 Ni
k
donde s i x ij x i
2

N js j
j i
N 1 j1

es la cuasi-varianza del estrato Ei.

Muestreo sistemtico. Cuando los elementos de la poblacin estn ordenados en


fichas o en una lista, una manera de muestrear consiste en,
- Sea k=N/n;
- Elegir aleatoriamente un nmero m, entre 1 y k;
- Tomar como muestra los elementos de la lista: (em,em+k,em+2k,,em+(n-1)k)

Esto es lo que se denomina muestreo sistemtico. Cuando el criterio de ordenacin


de los elementos en la lista es tal que los elementos ms parecidos tienden a estar ms
cercanos, el muestreo sistemtico suele ser ms preciso que el aleatorio simple, ya
que recorre la poblacin de un modo ms uniforme. Por otro lado, es a menudo ms
fcil no cometer errores con un muestreo sistemtico que con este ltimo.

El mtodo tal como se ha definido anteriormente es sesgado si N/n no es entero, ya


que los ltimos elementos de la lista nunca pueden ser escogidos. Un modo de evitar
este problema consiste en considerar la lista como si fuese circular (el elemento N+1
coincide con el primero) y:
- Sea k el entero ms cercano a N/n;
- Se selecciona un nmero al azar m, entre 1 y N;
- Se toma como muestra los elementos de la lista que consisten en ir saltando de k
elementos en k, a partir de m, teniendo en cuenta que la lista es circular.
Se puede comprobar que con este mtodo todos los elementos de la lista tienen la
misma probabilidad de seleccin.

Muestreo por conglomerados. Si intentamos hacer un estudio sobre los habitantes


de una ciudad, el muestreo aleatorio simple puede resultar muy costoso, ya que
estudiar una muestra de tamao n implica enviar a los encuestadores a n puntos
distintos de la misma, de modo que en cada uno de ellos slo se realiza una
entrevista. En esta situacin es ms econmico realizar el denominado
muestreo por conglomerados, que consiste en elegir aleatoriamente ciertos

21
barrios dentro de la ciudad, para despus elegir calles y edificios. Una vez
elegido el edificio, se entrevista a todos los vecinos.

Propiedades deseables de un estimador. Sea X una variable aleatoria cuya funcin


de probabilidad (o densidad de probabilidad si es continua) depende de unos
parmetros 1 ,..., k desconocidos. f ( x , 1 ,..., k ) . Representamos mediante
X1,,Xn una muestra aleatoria simple de la variable. Denotamos mediante fc a la
funcin de densidad conjunta de la muestra, que por estar formada por
observaciones independientes, puede factorizarse del siguiente modo:
f c ( x 1 ,..., x n , 1 ,..., k ) f ( x 1 , 1 ,..., k ) * f ( x 2 , 1 ,..., k ) * * f ( x n , 1 ,..., k )

Se denomina estimador de un parmetro i, a cualquier variable aleatoria que se


i

exprese en funcin de la muestra aleatoria y que tenga por objetivo aproximar el valor
de qi, i ( X 1 ,..., X n )

Obsrvese que el estimador no es un valor concreto sino una variable aleatoria, ya


que aunque depende unvocamente de los valores de la muestra observados (Xi=xi), la
eleccin de la muestra es un proceso aleatorio. Una vez que la muestra ha sido
elegida, se denomina estimacin el valor numrico que toma el estimador sobre esa
muestra.
Intuitivamente, las caractersticas que seran deseables para esta nueva variable
aleatoria (que usaremos para estimar el parmetro desconocido) deben ser:

- Consistencia. Cuando el tamao de la muestra crece arbitrariamente, el valor


estimado se aproxima al parmetro desconocido.

- Carencia de sesgo. El valor medio que se obtiene de la estimacin para diferentes


muestras debe ser el valor del parmetro.

- Eficiencia. Al estimador, al ser variable aleatoria, no puede exigrsele que para


una muestra cualquiera se obtenga como estimacin el valor exacto del parmetro.
Sin embargo podemos pedirle que su dispersin con respecto al valor central
(varianza) sea tan pequea como sea posible.

- Suficiencia. El estimador debera aprovechar toda la informacin existente en la


muestra.

Ejemplo, Consideremos una variable aleatoria de la que slo conocemos que su ley
de distribucin es gaussiana, X~N(), con 1= y 2=2 desconocidos

22
Para muestras aleatorias de tamao n=3, X1,X2,X3~N() un posible estimador del
parmetro es
(X1 X 2 X 3 )
1 ( X 1 , X 2 , X 3 ) X N ,
3 3

Carencia de sesgo. Se dice que un estimador de un parmetro es insesgado si


. La carencia de sesgo puede interpretarse del siguiente modo:
E ()
Supongamos que se tiene un nmero indefinido de muestras de una poblacin,
todas ellas del mismo tamao n. Sobre cada muestra el estimador nos ofrece
una estimacin concreta del parmetro que buscamos. Pues bien, el estimador
es insesgado, si sobre dicha cantidad indefinida de estimaciones, el valor medio
obtenido en las estimaciones es (el valor que se desea conocer).

es un estimador consistente con el parmetro si


Consistencia. Decimos que


0, lim P 0 o 0, lim P 1
n n

Teorema. Como consecuencia de de la desigualdad de Chebyshev se puede
demostrar el siguiente resultado y condiciones,
lim E ( ) y lim V( ) 0 entonces es consistente.
n n

Eficiencia. Dados dos estimadores 1 y 2 de un mismo parmetro , diremos


es ms eficiente que
que si V ( ) V( )
1 2 1 2

Suficiencia. Diremos que (X 1 ,.., X n ) es un estimador suficiente del parmetro


si P( X 1 x 1 ,..., X n x n ) no dependa de para todo posible valor de .

Teorema de Fisher-Neyman. Sea f ( x 1 ,..., x n , ) la distribucin conjunta para las


muestras de tamao n, X1,,Xn. Entonces ( X 1 ,.., X n ) es un estimador
suficiente si y solo si se cumple,

f ( x 1 ,..., x n , ) h ( x 1 ,..., x n ) * r (X 1 ,..., X n ), , siendo h una funcin no
negativa que no depende de y r una funcin que slo depende del
parmetro y de la muestra a travs del estimador.

CURVA CARACTERSTICA Y FUNCIN DE POTENCIA

23
Para calcular el error tipo II o se debe especificar la hiptesis alternativa como una
hiptesis simple. Sin embargo, en la mayora de los casos, esta hiptesis se plantea
como compuesta. Al plantearse la hiptesis alternativa como compuesta, no se puede
calcular el error tipo II asociado con la prueba. Sin embargo, para obviar esta
dificultad lo que se hace es asignarle varios valores a la hiptesis alternativa, calcular
el error tipo II y realizar una curva con estos valores. Esta curva recibe el nombre de
"Curva Caracterstica Operativa o Curva OC", y es muy empleada principalmente en
estudios de control de calidad.

Considrese la hiptesis alternativa de la siguiente manera:


Ho: = 0 = 10 H1: > 0 n = 9, = 0.05

La regin crtica de esta prueba est en c = 10.548, es decir, se rechaza H0 = 10 si la


media de la muestra es mayor de 10.548. Para construir la curva OC se presentan en
la tabla siguiente diferentes valores de la hiptesis alternativa con sus respectivas
probabilidades de aceptacin.
9.6 9.8 10.0 10.2 10.4 10.6 10.8 11.0 11.2 11.4 11.6
0.998 0.988 0.950 0.852 0.672 0.438 0.225 0.088 0.025 0.005 0.001

La siguiente es la Curva Caracterstica Operativa ( vs ) de la prueba de hiptesis


planteada.

Si se tiene la hiptesis nula Ho: = 0 contra la hiptesis alternativa H1: = 1 el valor


del error tipo II se obtiene como una funcin de los valores alternativos de bajo H1,
es decir, para cada valor de 1 se calcula , valor que a veces denotamos por (). La
grfica vs () recibe, como ya se dijo, el nombre de Curva Caracterstica
Operativa, Curva OC, o curva CO.

Recordemos que ( es la probabilidad de aceptar la hiptesis nula H0 cuando la


verdadera es la hiptesis alternativa H1. Por lo tanto, 1-() representa la probabilidad

24
de rechazar la hiptesis nula cuando la verdadera es la hiptesis alternativa, es decir,
representa la probabilidad de rechazar hiptesis falsas. Sin embargo, en la mayora de
estudios diferentes a los de control de calidad, en vez de la curva caracterstica
operativa se emplea la grfica denominada "Funcin de Potencia", donde se grafica
vs 1-( ).

Funcin de Potencia de una prueba. La funcin P() = 1-() recibe el nombre de


funcin de potencia, y representa la probabilidad de rechazar la hiptesis nula cuando
sta es falsa, es decir, mide la probabilidad de rechazar hiptesis falsas.

El valor de la potencia es 1- y puede interpretarse como la probabilidad de rechazar


de manera correcta una hiptesis falsa. La potencia es una medida muy descriptiva y
concisa de la sensibilidad de una prueba estadstica, donde por sensibilidad se
entiende la capacidad de una prueba para detectar diferencia. Considere la siguiente
prueba de hiptesis:
Ho: = 0 = 10 H1: > 0 n = 9, = 0.05, = 1.

Considere tambin las siguientes regiones crticas:


A: Rechazar Ho si > 10.65 B: Rechazar Ho si > 10.45

Para calcular () es necesario darle valores a , y de ah calcular la potencia 1-


().P() = P( >c/ = 1) = 1-()
Las tablas siguientes presentan los valores de los errores tipo II y de la potencia para
las pruebas planteadas.

Potencia de la prueba P()


10.0 10.2 10.4 10.6 10.8 11.0 11.2 11.4 11.6 11.8
Prueba A 0.026 0.089 0.227 0.440 0.674 0.853 0.951 0.988 0.998 1.000
Prueba B 0.089 0.227 0.440 0.674 0.853 0.951 0.988 0.998 1.000 1.000
Error tipo II ()
10.0 10.2 10.4 10.6 10.8 11.0 11.2 11.4 11.6 11.8
Prueba A 0.974 0.911 0.773 0.560 0.326 0.147 0.049 0.012 0.002 0.000
Prueba B 0.911 0.773 0.560 0.326 0.147 0.049 0.012 0.002 0.000 0.000

ESTIMACIN CONFIDENCIAL

La estimacin confidencial consiste en determinar un posible rango de valores o


intervalo, en los que pueda precisarse --con una determinada probabilidad-- que el
valor de un parmetro se encuentra dentro de esos lmites. Este parmetro ser
habitualmente una proporcin en el caso de variables dicotmicas, y la media o la
varianza para distribuciones gaussianas.

25
La tcnica de la estimacin confidencial consiste en asociar a cada muestra un
intervalo que se sospecha que debe contener al parmetro. A ste se le denomina
intervalo de confianza. Evidentemente esta tcnica no tiene porqu dar siempre un
resultado correcto. A la probabilidad de que hayamos acertado al decir que el
parmetro estaba contenido en dicho intervalo se la denomina nivel de confianza.
Tambin se denomina nivel de significacin a la probabilidad de equivocarnos.

Estimacin Puntual. La inferencia estadstica est relacionada con los mtodos para
obtener conclusiones o generalizaciones acerca de una poblacin. Estas conclusiones
sobre la poblacin pueden estar relacionadas con la forma de la distribucin de una
variable aleatoria, con los valores de uno o varios parmetros de la misma.

El campo de la inferencia estadstica se divide en dos: Por un lado tenemos el


problema de la estimacin de los parmetros de una distribucin, y por el otro, las
pruebas de hiptesis. En el problema de estimacin se trata de elegir el valor de un
parmetro de la poblacin, mientras que en las pruebas de hiptesis se trata de decidir
entre aceptar o rechazar un valor especificado (por ejemplo, si la marca A es superior
a la marca B).

A su vez el problema de la estimacin se puede dividir en dos reas: La estimacin


puntual, y la estimacin por intervalos de confianza. En forma similar, en el campo de
las pruebas de hiptesis se pueden considerar dos reas: Pruebas de hiptesis sobre
parmetros, para determinar si un parmetro de una distribucin toma o no un
determinado valor, y Pruebas de Bondad de Ajuste, para definir si un conjunto de
datos se puede modelar mediante una determinada distribucin.
Inferencia Estadstica Estimacin Puntual

26
Intervalos de Confianza
Pruebas de Hiptesis Sobre Parmetros
Sobre Distribuciones

En este captulo trataremos el problema de la estimacin (mediante un solo valor) de


los parmetros de una distribucin, y en el captulo siguiente la estimacin de
parmetros mediante un intervalo, denominado intervalo de confianza.

Estimacin. En el problema de estimacin se trata de elegir el valor de un parmetro


de la poblacin, segn una estrategia de la naturaleza.

Estimacin puntual. La estimacin puntual consiste en utilizar el valor de una


estadstica o un valor estadstico para calcular el parmetro de una poblacin. Por
ejemplo, cuando usamos la media muestral x para estimar la media de una
poblacin (), o la proporcin de una muestra P para estimar el parmetro de una
distribucin binomial .
Una estimacin puntual de algn parmetro de una poblacin es un solo valor
obtenido a partir de un estadstico.

Estimador. Se denomina estimador de un parmetro a un estadstico T =


t(X1,X2,..., Xn) que es usado para estimar el valor del parmetro de una poblacin.
Al valor observado del estadstico t = t(x 1,x2,...,xn) se le denomina estimativo de .
Cuando hablamos del parmetro nos podemos estar refiriendo a un solo parmetro,
o a un conjunto de parmetros desconocidos. Si el parmetro es estimado, lo
representamos como . Es decir,
= T = t(X1,X2,...,Xn)

Los estimadores son variables aleatorias, y por lo tanto tienen una funcin de
densidad, correspondiente a las distribuciones mustrales. Por lo tanto, no hay ningn
estimador perfecto, ya que siempre habr algn error en el proceso de estimacin.
Segn lo anterior, deben estudiarse distintas propiedades estadsticas de los
estimadores para decidir cual es el ms apropiado. Algunas de las propiedades a
estudiar corresponden al sesgo, mnima varianza, consistencia, eficiencia relativa y
suficiencia.

Para tratar de responder intuitivamente qu es un buen estimador, considere tres


productos A, B y C para los cuales se hacen proyecciones de demanda. Suponga que
al analizar la informacin histrica de cada producto, se calcula la diferencia entre el
pronstico y el valor real para cada producto, y sus distribuciones resultantes son las
siguientes:

27
A: El mtodo usado para pronosticar la demanda de A es el que mejor hace su
trabajo, ya que queda ms cerca del valor real y tiene una menor varianza.

B: Su pronstico es aproximadamente igual al valor real, pero tiene una mayor


varianza.

C: Peor proyeccin ya que sobrestima la demanda.

En conclusin, si se desea estimar una parmetro , entonces el estimador debe estar


distribuido alrededor de , y tener mnima varianza. Sea X1,X2,...,Xn una muestra
aleatoria proveniente de una poblacin cuya funcin de densidad es f(x, ). Sea T =
t(X1,X2,...,Xn) un estadstico usado para estimar el parmetro . Nuestro problema
consiste en encontrar la "funcin t" que proporcione la mejor estimacin del
parmetro .

PROPIEDADES DE LOS ESTIMADORES

Estimadores insesgados. Como no hay ningn estimador perfecto que de siempre la


respuesta correcta, debera hacerlo por lo menos en promedio. El valor esperado del
estimador debera ser igual al parmetro que trata de estimar. En caso de que lo sea,
se dice que el estimador es insesgado, en caso contrario se dira que es sesgado.

Definicin. Un estadstico T es un estimador insesgado del parmetro si y solo si


E(T)= para todo . En caso contrario decimos que es un estimador sesgado.

Sesgo. Si T es un estimador sesgado, la diferencia E(T) - recibe el nombre de sesgo.

28
Ejemplo. La media muestral es un estimador insesgado de la media poblacional
ya que E( )=.

Ejemplo. T=X1 es un estimador insesgado de ya que E(X1)=

Ejemplo. Si X es Binomial (n,), demostrar que X/n es un estimador insesgado del


parmetro .
X X 1 1
Solucin. Sea P E( P) E (X) n por lo tanto es insesgado
n n n n

Ejemplo. Sea X1, X2,..., Xn una muestra aleatoria con E(Xi)=. Demostrar que si

N
i 1
a i 1 entonces T = a1X1 + a2X2 +...+anXn es un estimador insesgado de .

Ejemplo: Si S es la varianza de una muestra tomada al azar de una poblacin infinita,


entonces S es un estimador insesgado de . Previamente habamos demostrado que
E(S) = .

1 n

2
Ejemplo. Si V 2
n i 1
X i X , ser un estimador insesgado de ?. Se puede
n 1 2
demostrar que E (V 2 )
n

1 n 2
Ejemplo. Sea W 2 i 1
X i , ser un estimador insesgado de si es un
n
parmetro conocido?.

1
X i X , un estimador insesgado de la varianza
2

n
Ejemplo. Ser S 2
n 1 i 1

de una poblacin finita?. No, si la poblacin es finita de tamao N, se puede


demostrar que el estimador insesgado de Aunque S es un estimador insesgado de
la varianza de una poblacin infinita, no es un estimador insesgado de la varianza de
una poblacin finita. En ningn caso S es un estimador insesgado de

Ejemplo. Suponga que X, el tiempo de reaccin a cierto estmulo, tiene una


distribucin uniforme en el intervalo de 0 a un lmite superior (desconocido). Es
decir,

29
Se desea estimar el parmetro con base en una muestra aleatoria X1, X2, ..., Xn de
tiempos de reaccin. Como es el tiempo mximo de reaccin, para toda la
poblacin, se cumple que (X1, X2, ..., Xn), por lo cual podemos considerar como
un primer estimador el siguiente estadstico:
T1 = Mximo(X1, X2, ..., Xn).

Por ejemplo, si n = 5, y X = (12.4, 13.2, 15,7, 6.4, 10.7)


= X3 = 15.7.
Es T1 un estimador insesgado de ?. S puede demostrar que
n
E (T1 )
n 1
n 1
El sesgo b est dado por . Considere T2 Max (X 1 , , X n ) . Es T2 un
n 1 n
estimador insesgado de? Si se tienen varios estimadores insesgados de un parmetro
por lo general se escoge el que tenga la menor varianza.

Estadsticos de orden. Sea X1, X2, ..., Xn una muestra aleatoria de tamao n. Los
valores se presentan de acuerdo al orden en que son tomados. Suponga que la muestra
se ordena de menor a mayor. Sea X(1) el menor valor de la muestra, sea X(2) es
segundo valor, X(i) el valor que ocupa el puesto i al ordenar la muestra de menor a
mayor, y finalmente sea X(n) el mayor valor de la muestra. Esta muestra ordenada,
X(1), X(2),..., X(i),..., X(n) recibe el nombre de "estadsticos de orden". De acuerdo
con lo anterior, los estadsticos T1 y T2 formulados en el prrafo anterior se pueden
reformular como:
n 1
T1 = X(n) T2
n
Los estadsticos de orden son variables aleatorias, y como tales tienen una funcin de
densidad, y se pueden usar para estimar los parmetros de las distribuciones.

Estimadores con mnima varianza. Si T1 y T2 son dos estimadores insesgados con


varianzas V(T1)y V(T2), respectivamente, y V(T1) < V(T2), se dice que T1 es ms
eficiente que T2.
Sea X1, X2, ..., Xn una muestra aleatoria de tamao n. Sabemos que tanto X como X1
son estimadores insesgados de . Sin embargo es ms eficiente que X1 para estimar
ya que V( X ) = /n < V(X1) = .

Eficiencia Relativa. Los estimadores insesgados suelen compararse en trminos de


sus respectivas varianzas. Si T1 y T2 son dos estimadores insesgados de un parmetro
y la varianza de T1 es menor que la varianza de T2, se dice que T1 es ms eficiente
que T2. Tambin se puede usar la siguiente relacin V(T1)/V(T2) para medir la
eficiencia relativa de T2 con respecto a T1.

30
Ejemplo. Al calcular la media de una poblacin normal sobre la base de una muestra
de tamao 2n+1, cul es la eficiencia de la mediana con relacin a la media?
Se sabe que la varianza de la media X est dada por /(2n+1). Para una muestra
aleatoria de tamao 2n+1 de una poblacin normal se sabe que el valor esperado y la
varianza de la mediana estn dados por:
~ ~ ~ 2
E(X) V(X)
4n

La eficiencia relativa est dada por:

La eficiencia asinttica de la mediana con respecto a la media est dada por:

la media muestral es un estimador ms eficiente de la media poblacional que la


mediana muestral.

La media requiere slo el 64% de las observaciones que requiere la mediana para
estimar la media poblacional con la misma confiabilidad. Estimador insesgado de
mnima varianza. Para saber si un estimador insesgado es de mnima varianza o con
sesgo mnimo, se usa la desigualdad de Crmer-Rao, dada en el siguiente teorema.

Teorema. Si T es un estimador insesgado de y


1
V (T ) 2
ln f ( x , )
nE

entonces, T es el estimador insesgado de mnima varianza de . La cantidad en el


denominador se denomina la "informacin" que da la muestra acerca del parmetro .

Ejemplo. Demuestre que X es el estimador insesgado de mnima varianza de la


media de una poblacin normal.

31
Por lo tanto se tiene que

Como sabemos que X es un estimador insesgado y su varianza es igual /n entonces


X es el estimador insesgado de mnima varianza de .

Teorema. Sea X1, X2, ..., Xn una muestra aleatoria de tamao n de una poblacin
normal con media y varianza . Entonces el estimador T X es el "estimador
insesgado de mnima varianza" de , tambin denominado Minimum Variance
Unbiased Estimator.

Error cuadrtico medio. Si T es un estimador sesgado de un parmetro es


preferible juzgar sus mritos y realizar las comparaciones de eficiencia sobre la base
del "error cuadrtico medio".

Definicin. Sea T cualquier estimador de un parmetro . Se define el error


cuadrtico medio como el valor esperado del cuadrado de la diferencia entre el
estimador T y el parmetro que trata de estimar. ECM(T) = E{(T - )2}

Para saber por qu es tan importante el error cuadrtico medio ECM, veamos cmo se
puede expresar: ECM(T) = E{(T - )} = E(T - 2T + ) = E(T) - 2E(T) +
Sumando y restando [E(T)] a ambos lados de la ecuacin se tiene que:
ECM(T) = {E(T) - [E(T)]}+ {[E(T)] - 2E(T) + }
ECM(T) = V(T) + [ - E(T)]

De lo anterior se concluye que el ECM est compuesto por dos cantidades no


negativas, que son:
- La varianza del estimador T.
- El cuadrado del sesgo del estimador.

Es decir, el ECM involucra las dos propiedades ms importantes de un estimador


la varianza del estimador debe ser lo ms pequea posible, y la distribucin de
muestreo del estimador debe concentrarse alrededor del parmetro.

32
Error estndar. Es un indicador de la precisin de un estimador (reporte de una
estimacin puntual).
Definicin. El error estndar de un estimador T es su desviacin estndar
T V(T ) . Para la media el error estndar sera T n .

Aunque en el clculo del error estndar intervienen parmetros desconocidos cuyos


valores se pueden estimar, la sustitucin de estas estimaciones en el clculo
produce el "error estndar estimado" del estimador. El error estndar estimado se
puede denotar por .

Ejemplo. Si la duracin de un servicio se distribuye normalmente, entonces X .


Si = 2.5 minutos, y se usan muestras de tamao 16, entonces T= 2.5/4 = 0.625
minutos. Si es desconocido y usamos como estimador una desviacin estndar
muestral de 2.8, entonces el error estndar estimado estar dado por 2.8/4 = 0.70
minutos.

Si estamos estimando una proporcin , entonces su mejor estimativo ser la


proporcin muestral, es decir y el error estndar ser

El error mximo ocurre cuando = 0.5, y ser

Si n = 50 el error mximo ser

Estimadores consistentes. Es razonable esperar que un estimador mejore a medida


que se aumenta el tamao de la muestra. Cuando el tamao de la muestra es muy
grande los estimadores tomarn, por lo general, valores muy prximos a los
parmetros respectivos. Este concepto de proximidad se generalizar mediante la
siguiente definicin de consistencia.

Definicin. El estadstico T es un "estimador consistente" del parmetro si y solo si


para cualquier constante positiva c se cumple que

en forma equivalente

33
Ejemplo. La media muestral es un estimador consistente de , y la proporcin
muestral P = X/n es a su vez un estimador consistente de la proporcin poblacional .
(Ver Ley de los grandes nmeros).
La consistencia es una propiedad asinttica (propiedad lmite).

Teorema. El estadstico T es un "estimador consistente" del parmetro si


1) T es un estimador insesgado.
2) V(T) 0 cuando n.

Las dos condiciones anteriores son suficientes, pero no son necesarias. Es decir, si un
estimador cumple las dos condiciones, entonces ese estimador es consistente, pero el
hecho de no cumplirlas, no quiere decir que no lo sea. Un estimador sesgado puede
ser consistente solo si es asintticamente insesgado, es decir, que se vuelve insesgado
cuando n .

Ejemplo. Es T = X1 un estimador consistente de la media poblacional ?


Solucin. Tenemos que E(T) =E( X1) = , es decir es insesgado, y V(T) = V(X1) =
2. Como la varianza del estimador no tiende a cero, entonces no es consistente, lo
cual se puede verificar al aplicar la desigualdad de Chebyshev, que expresa lo
siguiente:

la cual no tiende a cero cuando n , es decir, que X1 no tiende a cuando n es


grande.
Problema. Demostrar que la proporcin muestral P = X/n es un estimador consistente
de la proporcin poblacional .

Ejemplo. Demostrar que S es un estimador consistente de cuando se toman


muestras de una poblacin normal.
Solucin: Sabemos que:

E(S) =
Se observa que V(S) 0 cuando n .

Ejemplo. Demuestre que es un estimador consistente de .

Estimadores suficientes. Se dice que un estimador T es suficiente si utiliza toda la


informacin relevante de la muestra para estimar el parmetro de la poblacin. Es

34
decir, un estimador T es suficiente si todo el conocimiento que se obtiene acerca del
parmetro es mediante la especificacin real de todos los valores de la muestra.

Ejemplo. Se tiene una muestra aleatoria (X1, X2, ..., Xn) de tamao 30 tomada de una
poblacin exponencial f(x, ), donde es un parmetro desconocido. Considere las
dos estadsticos siguientes:
1 1
T1 T2
X1 X 3 X 5 X 29 X1 X 2 X 3 X 30

El estadstico T1 no es un estimador suficiente del parmetro mientras que T2 s lo


es.

Definicin. Se dice que un estadstico T = t(X1, X2, ..., Xn) es suficiente para un
parmetro si la distribucin conjunta de X 1, X2, ..., Xn dado T se encuentra libre de
, es decir, si se afirma T, entonces X1, X2, ..., Xn no tienen nada ms que decir acerca
de .

Formalmente esto puede expresarse en trminos de la distribucin condicional de los


valores de la muestra, dado que = T. Esta cantidad est dada por,
f ( x 1 ,.., x n , t ) f ( x 1 ,.., x n )
f (X 1 ,..., X N n / t )
g( t ) g( t )
donde la expresin final del numerador se sigue de la condicin de suficiencia.

Utilidad. Si un estimador insesgado T de un parmetro es una funcin de un


estadstico suficiente, entonces tendr la varianza ms pequea entre todos los
estimadores insesgados de . Adems, si existe el estimador ms eficiente de , ste
ser un estadstico suficiente.

Teorema de factorizacin de Neyman. Sea X1, X2, ..., Xn una muestra aleatoria de
una distribucin con funcin de densidad f(x,). Se dice que el estadstico T = t(X1,
X2, ..., Xn) es un estadstico suficiente para si y solo si la funcin de verosimilitud se
puede factorizar de la siguiente manera:
L(X,) = h(t, ) g(x1, x2, ..., xn)
para cualquier valor t(x1, x2, ..., xn) de T y donde g(x1, x2, ..., xn) no contiene el
parmetro .

Ejemplo. Sea X1, X2, ..., Xn una muestra aleatoria de tamao n de una distribucin
gama, cuya funcin de densidad est dada por,
(t ) k 1
f ( t ) e t , t0
( k )

35
La funcin de verosimilitud est dada por:
n n
nk e t i t i
L( X, ) i 1 i 1

(k )

Ejemplo. Sea X1, X2, ..., Xn una muestra aleatoria de tamao n de una distribucin de
Poisson con parmetro cuya funcin de densidad est dada por,
x e
f (t)
x!

Demostrar que el estimador eficiente para es a su vez un estimador suficiente. La


funcin de verosimilitud est dada por:

, donde

ESTIMADORES DE MXIMA VEROSIMILITUD

Sea X una variable aleatoria con funcin de probabilidad f(x,). Las muestras
aleatorias simples de tamao n, X1,..,Xn tienen por distribucin de probabilidad
conjunta
f c ( x 1 ,.., x n ; ) f ( x 1 ,..., x n ; ) f ( x 1 , ) f ( x 2 , ) f ( x n , )

Esta funcin que depende de n+1 cantidades podemos considerarla de dos maneras:
- Fijando es una funcin de las n cantidades xi. Esto es la funcin de probabilidad
o densidad.
- Fijados los xi como consecuencia de los resultados de elegir una muestra mediante
un experimento aleatorio, es nicamente funcin de . A esta funcin de la
denominamos Funcin de Verosimilitud.

En este punto podemos plantearnos el que dado una muestra sobre la que se ha
observado los valores xi, una posible estimacin del parmetro es aquella que
maximiza la funcin de verosimilitud (cuidado no confundir V() con la varianza. En
algunos textos aparece la funcin de verosimilitud como L())
x1,,xn fijados Verosimilitud: V()=f(x1,..,xn;)

36
La funcin de verosimilitud se obtiene a partir de la funcin de densidad,
intercambiando los papeles entre parmetro y estimador. En una funcin de
verosimilitud consideramos que las observaciones x1, ..., xn, estn fijadas, y se
representa la grfica con el valor de los valores que tomara la funcin de densidad
para todos los posibles valores del parmetro . El estimador mximo verosmil del
parmetro buscado,
mv es aquel que maximiza su funcin de verosimilitud, V().

Como es lo mismo maximizar una funcin que su logaritmo (al ser este una funcin
estrictamente creciente), este mximo puede calcularse derivando con respecto a la
funcin de verosimilitud (bien su logaritmo) y tomando como estimador mximo
verosmil al que haga la derivada nula:
log V
( mv ) 0

De modo ms preciso, se define el estimador mximo verosmil como la variable


aleatoria mv max

f (X 1 ,..., X n ; ) . Los estimadores de mxima verosimilitud

tienen ciertas propiedades en general que a continuacin enunciamos:

1. Son consistentes;
2. Son invariantes frente a transformaciones biunvocas, es decir, si es el
mv

estimador mximo verosmil de y g (


) es una funcin biunvoca de ,

entonces g ( mv ) es el estimador mximo verosmil de g().
3. Si es un estimador suficiente de , su estimador mximo verosmil, es
mv

funcin de la muestra a travs de ;


4. Son asintticamente normales;
5. Son asintticamente eficientes, es decir, entre todos los estimadores consistentes
de un parmetro , los de mxima verosimilitud son los de varianza mnima.
6. No siempre son insesgados.

Algunos estimadores fundamentales. Vamos a estudiar las propiedades de ciertos


estimadores que por su importancia en las aplicaciones resultan fundamentales:

37
estimadores de la esperanza matemtica y varianza de una distribucin de
probabilidad.

Estimador de la esperanza matemtica. Consideremos las muestras de tamao n,


X1,,Xn, de un carcter sobre una poblacin que viene expresado a travs de
una variable aleatoria X que posee momentos de primer y segundo orden, es
decir, existen E(X) y V(X):
E(Xi)= V(Xi)=2

El estimador media muestral que denotaremos normalmente como X (en lugar de


1

es X ( X1 X n ) verifica:
n
E(X ) V( X ) 2 n

Por tanto es un estimador insesgado. Si adems sabemos que X se distribuye segn


una ley gaussiana, es sencillo comprobar que coincide con el estimador de mxima
verosimilitud,

Proposicin. X i N(, ) X mv N, / n

La demostracin es, La funcin de densidad de una observacin cualquiera de la


muestra es: Xi~N() para todo x que pertenezca al conjunto de los reales.
Por tanto la distribucin conjunta de la muestra es
f c ( x 1 ,.., x n ; , 2 ) ( x 1 , , 2 ) f ( x 2 , , 2 ) f ( x n , , 2 )

Para unos valores x1,,xn fijados, la funcin de verosimilitud es


V ( , 2 ) ( x 1 , , 2 ) f ( x 2 , , 2 ) f ( x n , , 2 )
1 1 1
e x1 e x 2 e x n
2 2 2
/ 2 2 / 2 2 / 22
V(, 2 ) * **
2 2 2
2
n 1 x i
i 1
n
1


e
2

(en principio escribimos tambin el otro parmetro desconocido, 2, aunque no nos


interesamos en su estimacin por el momento). La expresin de la funcin de
verosimilitud es algo engorrosa. Por ello es preferible trabajar con su logaritmo:
2
n 1 n x
log V(, ) log(2 2 ) i
2

2 2 i 1

38
El mximo de la funcin de verosimilitud se alcanza donde lo hace su logaritmo
(monotona), por tanto derivando con respecto a e igualando a cero se llega a:
log V n n 1 n
0 ( mv , 2 ) 2 x i mv 2 x i n mv
i 1 i 1
Es decir, el estimador mximo verosmil de la media poblacional, , coincide con la
media muestral
1 n
mv x i como queramos demostrar
n i 1

El estimador de mxima verosimilitud de para una variable gaussiana es la media


muestral.

La distribucin del estimador muestral X del parmetro poblacional , tiene por


valor esperado al mismo (insesgado), y su dispersin disminuye a medida que
aumenta el nmero de observaciones

39
Estimador de la varianza. A la hora de elegir un estimador de 2=V(X), podemos
comenzar con el estimador ms natural:
s2 xi X
n
1 2

n i 1

Podemos comprobar que cuando el carcter que se estudia sobre la poblacin es


gaussiano, en realidad este es el estimador mximo verosmil para la varianza. Sin
embargo se comprueba tambin su falta de sesgo, lo que hace mas adecuado que se
utilice como estimador de la varianza al siguiente concepto: cuasivarianza muestral

Proposicin. Xi~N(), entonces, s mv


2 2

Demostracin: Recuperamos el logaritmo de la funcin de verosimilitud, donde en


esta ocasin el primer parmetro ya fue obtenido por el mtodo de mxima
verosimilitud (y vimos que era la media muestral) y tratamos de maximizarla con
respecto al segundo parmetro:
2
2 n
1 n
log V(x, ) log(2) log 2 x i x
2

2 2 i1
Derivando con respecto a 2 e igualando a cero se obtiene el estimador mximo
verosmil:
2
log V n 1 1 n
(, 2mv ) 2 2 x x
2
0 i
2
2 mv 2 mv i 1

Despejando de esta ecuacin se obtiene que el estimador mximo verosmil coincida


con la varianza muestral,
1 n
2mv ( x i x ) 2
2 i 1

Proposicin. El valor esperado del estimador


1 n
s 2 (X i X ) 2
n i 1

no es 2, y por tanto el estimador mximo verosmil para la varianza no es insesgado.


Ms an, E(2)=(n-1)2/n

Demostracin. Comenzamos escribiendo los valores esperados

40
1 n 2 1 n 2 2 1 n
E (s 2 ) E
n i 1
( X i X )

E
n i 1
X i X
n i 1
E (X i2 ) E ( X 2 )

V(X i ) E (X i2 ) E (X i ) 2 E (X i2 ) 2 2
2
V( X ) E( X i2 ) E ( X i ) 2 E ( X i2 ) 2
n

Luego
1 n 2 n 1 2
E (s 2 )
n i 1
( 2
2
)
n
2
n

Cuasivarianza muestral. Para tener un estimador insesgado de la varianza


introducimos la cuasivarianza muestral s 2 que se define como
n 2 1 n
s 2
n 1
s
n 1 i 1
(X i X ) 2

Es inmediato comprobar que realmente este estimador es insesgado


n 2 n n 1 2
E (s 2 ) E s 2
n 1 n 1 n

Esa esperanza puede ser calculada de un modo ms directo, ya que la distribucin del
estimador 2 es conocida usando el teorema de Cochran:
2
ns 2 n
Xi X
2n 1
2
i 1

luego
ns 2 n 1 2 ns 2 2( n 1) 4
E n 1 E(s 2 ) V 2( n 1) V (s 2 )

2 2
n n2

La distribucin de la cuasivarianza muestral es tal que


(n 1)s 2
2n 1
2

Funcin de densidad del estadstico que relaciona s 2 , 2 y los grados de libertad de


la muestra (n-1). La falta de simetra del mismo hace que su valor esperado (n-1) se
desplace a la derecha de la moda (asimetra positiva).

41
Teorema: Sean X1, X2 y X3 variables aleatorias que tienen una distribucin conjunta
absolutamente continua, tambin la tiene un pare de ellas X 1,X3 y una funcin de
densidad de conjunta para estas dos puede escribirse,

f X 1,X 3 ( x 1 , x 3 )

f X 1X 2 X 3 ( x1, x 2 , x 3 )dx 2

Teorema: Sean X1,...,X3 variables aleatorias que tienen una distribucin conjunta
absolutamente continua, la condicin suficiente y necesaria qpara que sean
independientes es que la densidad conjunta de ellas sea,
n
f X 1,...,X n ( x 1,..., x n ) fXj (x j )
j 1

La funcin de distribucin condicional de un variable aleatoria X, con la condicin de


que otra variable aleatoria Y tome el valor de y, Y=y, es
FX / Y ( x / y) Lim P X x y Y y siempre y cuando este lmite exista.
0
x
Adems se debe cumplir que, FX / Y ( x / y)

f X / Y ( t / y)dt

Teorema: Si X y Y son variables aleatorias que tiene una distribucin conjunta


absolutamente continua, entonces, en todo punto (x,y) en el que f X,Y(x,y) sea continua
y, adems, sea fY(y)>0 continua, existe una densidad condicionada de X dada Y,
f X , Y ( x , y)
f X / Y ( x / y)
f Y ( y)

Densidades de funciones de variables aleatorias. Sean las variables aleatorias X 1,...Xn


que tienen distribucin conjunta absolutamente continua, y es necesario calcular la
densidad de una variable aleatoria Y que es funcin de X 1,...,Xn, siendo ella suma de
stas. Sea S E( n) un conjunto incluido en el espacio Euclideo E de dimensin n, el
cual se define como

42
S {( x 1 ,..., x n ) u 1 ( x 1 ,..., x n ) a 1 ,..., u n ( x 1 ,...x n ) a n }
con ai constantes. Las probabilidades
P[(X 1 ,..., X n ) S] ... f X ,..., x ( x 1 ,..., x n )dx 1 ...dx n
1 n
S

Y sea que el determinante del Jacobiano no sea nulo para (u1,..., u n ) , siendo

{(u1,. .u n ) a i x i (u1 ,. ., u n ) bi , 1 i n}
x 1 x 1 x 1
...
u 1 u 2 u n
x 2 x 2 x 2
( x 1 ,.., x n ) ...
u u 2 u n
(u 1 ...u n ) 1
... ... ... ...
x n x n x n
...
u 1 u 2 u n

El cual se transforma mediante el cambio de variables en las integrales mltiples para


la caso particular de coordenadas polares,
( x , y) cos rsen
=r,
(r , ) sen r cos

para n=2, u1=r, u2= , x1=X=rcos , x2=y=rsen , y por consiguiente,

x x y y
cos , rsen, sen y r cos
r r
y por tanto se tendr
b1 b2

a1 a2
H ( x , y)dxdy H(r cos , rsen)rdrd
R

de donde R (r, ) a 1 r cos b1 , a 2 rsen b 2

Teorema: Sean X1,...,Xn variables aleatorias que tienen una distribucin conjunta
absolutamente continua, y sean u1(x1,...,xn),...,un(x1,...,xn) una aplicacin en el espacio
E(n) en s mismo que satisface a las condiciones exigidas en el teorema anterior con
cambio de variables en las integrales mltiples. Sea U i=ui(X1,..,Xn), Entonces,
U1,...,Un tiene distribucin conjunta absolutamente continua y densidad,

43
( x 1 ,..., x n )
f U1 ,..., U n (u 1 ,.., u n ) f X1 ,.., X n x 1 ( u 1 ,.., u n ),..., x n ( u 1 ,.., u n )
( u 1 ,..., u n )

Teorema: Sean X1,...,Xn variables aleatorias independientes, cada una de ellas con
una distribucin absolutamente continua, y sean r 1,...,rk, k enteros positivos, tales que,
r1+...+rk=n. Entonces, la k variables aleatorias

X1 . . Xr1 , Xr11 . .Xr1r2 ,. ., Xnrk1 . . Xn


son independientes.

ESTIMACIN PUNTUAL

Sea un conjunto fundamental de probabilidades asociado con una sigma - algebra


de sucesos w y probabilidad P, y se tendr en X una variable aleatoria definida sobre
.
( n) est constituido por todos los posibles (w1,...,wn) para todas las elecciones
posibles w1,...,w2 en . Se trabajar con w(n) al elemento de ( n)

El sigma - anillo de sucesos compuestos por los sucesos elementales de este


conjunto fundamental de probabilidad ( n) , entonces para toda A 1 ,.., A n , se
define,
A 1 A n { w ( n) ( n) w 1 A 1,..., w n A n }
Este suceso es el suceso compuesto que sigue: A1 ocurre en la primera prueba, A2 en
la segunda, y as sucesivamente. A un suceso compuesto as, es lo llamado suceso
rectangular, y es necesario que la sigma algebra contenga todos estos sucesos.

Sea ( n ) el conjunto de todos los sucesos rectangulares y sea ( n ) el mnimo sigma


anillo de subconjuntos de ( n ) que contienen a ( n ) , esto significa que ( n ) son
la interseccin de todos los sigma anillos de subconjuntos de ( n ) que contienen a
( n ) . Por lo anterior solo hay que demostrar,
- La interseccin de cualquier sigma anillo de ( n ) es un sigma - anillo
- El conjunto de sigma anillos que contienen a ( n ) no es vaco

Lema: Sea { , } el conjunto no vaco de sigma anillos de subconjuntos de


es un sigma anillo.
( n) , entonces,

44
Otro problema importante, es definir la probabilidad P(n) sobre ( n) , y para cada
suceso rectangular en ( n) , A 1 A n lo que se define como
n
P ( n ) (A 1 A n ) P(A i )
i 1

Al tomar una muestra con restitucin, permite manejar elementos independientes,



n
entonces, P( n ) A i ,i P(A i ) . Esto es, P (A 1 A n ) P(A i )
(n) (n)

i 1

Teorema: Las funciones X1,..,Xn definidas sobre ( n) como se ha explicado


anteriormente, son variables aleatorias independientes entre s y cada una con la
misma funcin que X

Las variables aleatorias X1,..,Xn independientes e idnticamente distribuidas, indica


que en n observaciones de la variable X no guardan relacin entre s.

Si tomamos la muestra sin restitucin de elementos de , cada n-upla w(n) vendra


constituida por n elementos procedentes de la poblacin , entonces ( n) sera el
conjunto de estas n-uplas.

Sea la sucesin infinita X1,..,Xn de variables aleatorias, como observaciones


independientes, w ( ) ( w 1 ,.., w n ,...) ( ) y se define
X n w ( ) X n ( w n ) para todo n positivo y entero.

Estimaciones Imparciales y Consistentes. Sea una poblacin con una variable


aleatoria X definida sobre ella, y sea una constante asociada a ella, que se pretende
valorar. Sea la extensin de la muestra n, y considerando la variable aleatoria U
definida sobre ( n) .

Una variable aleatoria U es una estimacin Imparcial de , sui la esperanza de U


existe y es E[U]= , cualquiera sea el valor de este parmetro: E[U/ ]=

Una sucesin {Un} es Consistente de estimaciones de la constante , si Un P ,

cualquiera sea . En otras palabras, P U n 0, para n , con

0,

45
Teorema: Sea una poblacin y X una variable aleatoria observada definida sobre
la misma poblacin, la cual tiene distribucin discreta o absolutamente continua y
donde existe el segundo momento de orden finito. Si X1,..,Xn son n observaciones
independientes de X y s X=(X1+...+Xn)/n, entonces, Xn es una estimacin imparcial y
consistente de E[X]

Teorema: Tanto n2 como s n2 son estimaciones consistentes de Var[X]. Demostrar


que s n2 es una estimacin imparcial de Var[X], pero no n2 , siendo Var[X[ una
estimacin imparcial.

Teorema: Sea Un una variable aleatoria definida sobre ( n) , y supongamos que ella
es una estimacin imparcial de y adems que E[Un2 ] . Si V1,V2,... es una
sucesin de observaciones independientes de Un, y sea Zn=(V1+...Vn)/n para todo n,
entonces la sucesin {Zn} es una sucesin consistente de

Sea una poblacin y sean ligadas a ella una serie de constantes 1,..., k que estn
por conocerse, y no se pueden medir directamente, entonces, sea X una variable
aleatoria definida sobre la poblacin de tamao n, y {X n} es una sucesin de
observaciones independientes de X, y sobre la cual conocemos la distribucin
FX ( x / i ) . El problema consiste en hallar las estimaciones.

El gran problema reside, y para ello trabajemos con dos variables desconocidas 1, 2
, en que se debe suponer que E[ X ] y que se conocen los dos primeros
4

momentos m1 y m2 y que son funciones de 1 y 2 . Adems hay que suponer que


1 n 2 P
X n P m1 y Vn
n
X m2
k 1 k

y por ltimo, que las funciones 1 ( x, y) y 2 ( x, y) son tales que

1 (Xn , Vn ) P 1 (m1 , m 2 ) y 2 (X n , Vn ) P 2 (m1 , m 2 ) ,


con lo cual finalmente se demuestra que, (X , V ) y (X , V )
1 n n 2 n n
son

sucesiones consistentes de estimaciones de 1 y 2 , respectivamente.

Teorema: Sea f(x,y) una funcin y sean {X n} y {Yn} unas sucesiones de las variables
aleatorias tales que X n P a yYn P b , siendo a y b constantes, entonces, f es continua
en (a,b) y si f(Xn,Yn) es variable aleatoria para cualquier n, entonces,

46

f X n , Yn P f (a , b)

Estimacin de Varianza Mnima. Trabajando con la distribucin de Poisson como


ejemplo. Sea X una variable aleatoria definida sobre una poblacin , con
distribucin de Poisson P[X x ] e x / x!, x 0,1... ,
siendo 0 la constante desconocida, entonces al realizar n pruebas independientes
de X, sean X1,...,Xn y a partir de ellas hacer la estimacin de esta variable.

Se calcula E[X] y E[X2] y se tienen unos valores de y 2+ , de donde la varianza


resulta ser , y por tanto, X n como s n2 son estimadores consistentes e imparciales de

Sea X una variable aleatoria definida sobre la poblacin y sean X1,...,Xn sus n
observaciones independientes, y supongamos que la funcin de distribucin de X es
absolutamente continua (lo cual es vlido para el caso discreto), entonces la funcin
fX(x) es la densidad de X que es de una variable desconocida , f(x/ ).

Para trabajar con un ejemplo, sea X N(0,1) , entonces la funcin de densidad puede
1 ( x ) 2
ser, f ( x / ) exp 1 , x
2 2

Sea = (X1,...,Xn) una estimacin imparcial de . Y adems, para mnima varianza


de lo anterior se debe cumplir: El conjunto A de todos los valores posible de mes
f ( x / )
un intervalo abierto, acotado o no; debe existir para todo x ; las

n

expresiones
...
i 1
f ( x i / ) dx 1 ...dx n

y

( x ,..., x )
n

1
... n f ( x i dx 1 ...dx n
i 1

puedan derivarse bajo el signo integral con respecto a ; y finalmente,


2
Logf ( X )
E
para todo A

Teorema. (Desigualdad de Cramer Rao): Con las hiptesis mencionadas


anteriormente, demostrar,

47
2

1 n
( X ,..., X ) 1 E Logf ( X )
Var
n A ,

teniendo en cuanta que el signo igual solo es vlido cuando exista una constante k,
que depende de y n, tal que la probabilidad
2
1 Logf ( X )
k 1 Logf (X k ) n E
n

Principio de Mxima Probabilidad. Sea X una variable aleatoria definida sobre una
poblacin con una distribucin discreta o absolutamente continua. Sea f(x/ ) la
densidad dependiente de x y de desconocido. El problema es estimar . Sean
X1,...,Xn observaciones de X con una densidad conjunta f(x1,...,xn/ )

Se debe procurar siempre encontrar una estimacin (X1,...,Xn) de para la cual


f(X1,...,Xn/ ) sea mximo. En la prctica es hallar como una funcin de x1,...,xn
( X ,..., X ) para qua la funcin f(x1,...,xn/ ) resulte maximizada y entonces se
1 n

sustituyen las observaciones.

Teorema: Supuestas las condiciones impuestas en al numeral anterior, relativo ala


estimacin de la varianza, si ( X ,..., X ) es una estimacin imparcial de con
1 n

varianza mnima en el sentido dela desigualdad de Cramer Rao, entonces,


( X ,..., X ) es una estimacin de ( X ,..., X ) con mxima probabilidad.
1 n 1 n

Sea X una variable aleatoria discreta o continua cuya funcin de probabilidad f(x)
depende de un parmetro . Se efecta n veces un experimento y se obtiene x 1,...,xn
resultados independientes

La probabilidad de que la muestra conste de n elementos es f ( x 1 ) f ( x n ) y en el


caso continuo de que la muestra conste de pequeos valores
x 1 x x 1 x, x 2 x x 2 x,... es f ( x 1 )xf ( x 2 ) x ( x ) n

S estn dados y son fijos los x1,x2,... entonces es una funcin de y es la funcin
de verosimilitud

Se trata de escoger la aproximacin para , para que sea tan pequeo como sea

posible (el cual debe ser derivable), 0 para que exista el mximo, lo cual

conduce a la solucin y es la estimacin de mxima verosimilitud para :

0, , 0
1 r

48
Intervalo de Confianza: Es la estimacin por intervalos teniendo en cuenta el error
mximo, intervalo en le cual est el valor exacto. Se escoge una probabilidad

cercana a 1 y se determinan dos cantidades 1 y 2 , tal que, que la probabilidad


de que incluyan el valor exacto desconocido del parmetro sea igual a
P ( 1 2 )
y este es el intervalo de confianza Conf {1 2 } que son los limites de confianza

Ejemplo, para el valor medio de la distribucin normal con varianza conocida y un

nivel de confianza del 95%, tenemos, con 0,95, c 1,96 y calculamos el valor
c
medio de la muestra x1,...,xn de tamao n, y luego, k , quedando el nivel de
n
confianza Conf {x k x k}

Si es grande, una observacin de X ser til para reducir la incertidumbre en la


prediccin de Y

La independencia indica que las variables no estn relacionadas, y por tanto, el


coeficiente de correlacin tiende a cero. Lo anterior es vlido en este sentido, pero no
existe el reciproco.

El coeficiente de correlacin mide la dependencia lineal entre dos variables


aleatorias, y si y solo s, existe relacin funcional lineal entre las variables, de la
forma Y=a+bX

Propiedades
E[ Z] ( x y)p XY ( x , y)
x y

E[g 1 (X, Y ) g 2 (X, Y )] E[g 1 (X, Y )] E[g 2 (X, Y )]


Cov[ X, Y ] E[( X m x )(Y m y )] E[XY] E[ X ]E[ Y ]

n
Teorema: Si Y g ( X1 ,..., X n ) a i X i , entonces,
i 1

n
n
E[Y] E i i
i 1
a X
i 1
a i E[X i ]
n n n

y V[Y] a i V[X i ] 2 a i a j Cov[X i , Y j ]


2

i 1 i 1 j i 1

49
Teorema: Sea Z=aX+bY, entonces se cumple que,
V[ Z] a 2 V[ X ] b 2 V[ Y ] 2abCov[ X, Y ]

Teorema: Si Z=XY, entonces, E[ Z] Cov[ X, Y ] E[ X ]E[ Y ] ,


y s X y Y estn correlacionadas, entonces, E[Z]=E[X]E[Y].
Y si X y Y son independientes, entonces, E[ XY] m x y m y x x y
2 2 2 2 2 2

La esperanza condicional es til para la prediccin. La medida es la prediccin de Y


que tiene un error cuadrtico esperado mnimo E[(Y m y ) ]
2

Aproximaciones: Y=g(X) si esta relacin se comporta bien y el coeficiente de


variacin de X no es muy grande, entonces son vlidas las aproximaciones
E[Y] = E[g(X)] g(E[X])
2
dg ( x )
V[Y] = V[g(X)] V[X ] mx
dx
dg ( x )
lo cual se puede expresar en otras palabras como, y mx x que es la
dx
derivada de g(x) con respecto a x calculada en mx.

Si el coeficiente de variacin es menos que el 10%, es claro que el error de esta


aproximacin es menor que el 1%. Si el valor de Vx es pequeo, X es probablemente
muy cercano a mx, entonces, es aplicable la serie de Taylor,
dg ( x ) (X m x ) 2 d 2 g( x )
g(X) g(m x ) ( X m x ) mx
dx 2 dx 2
para encontrar la distribucin aproximada de Y, al menos en la regin media.

Desarrollando Taylor de Y=g(X) dejando los dos primeros trminos lineales de X:


dg ( x ) dg ( x )
Y g(m x ) m x m m X
dx dx
x x

1 y a
que es de la forma Y=a+bX y sabiendo que f y ( y) fx , tenemos entonces,
b b
dg ( x )
1 ya 1 y g(m x ) m x mx
f y ( y) dx
fx fx
b b dg ( x ) dg ( x )
mx mx
dx dx

Un estimador de mxima verosimilitud de una muestra aleatoria X1,...,Xn es el


valor de que maximiza a L(X1,...,Xn; ) con L(X1,...,Xn; )=f(X1; )f(X2;

50
)...f(Xn; ) siendo f(x; ) la funcin de distribucin de probabilidad de X calculada
en x, como para P[X=x] si X es discreta

Sea X1,..,Xn la muestra aleatoria de la variable aleatoria X y x 1,...,xn sus valores


mustrales, la funcin de probabilidad L, L(X1,...,Xn; )=f(X1; )...f(Xn; )

Si X es discreta L(x1,...,xn; ) representa P[X1=x1,X2=x2,...,Xn=xn]


Si X es continua L(x1,...,xn; ) representa la funcin de distribucin de probabilidad
conjunta de (X1,X2,...,Xn)

Propiedades: El estimador puede ser sesgado, el cual se puede evitar multiplicacin


por una constante apropiada. En condiciones generales son convergentes, esto es, si n
es muy grande, el estimador tiende al valor del parmetro.

Si es un estimador para definido sobre la muestra aleatoria X 1,...,Xn de una


variable aleatoria X, entonces, para n grande, la variable aleatoria tiene
aproximadamente una distribucin N ,1 / B siendo
2

B nE Lnf ( X; ) ,

f es la funcin de probabilidad puntual o funcin de distribucin de probabilidad de X


dependiendo de s X es discreta o continua y se supone que es un nmero real.

51