You are on page 1of 58

TEMA 4: INFERENCIA ESTADÍSTICA

 Introducción a la Inferencia Estadística. Muestreo

 Estimación Puntual
 Introducción
 Métodos para la obtención de estimadores
 Propiedades de los estimadores
 Estimadores de la media, la varianza y de una proporción

 Intervalos de Confianza
 Introducción
 Intervalos de confianza para poblaciones Normales
 Intervalos de confianza para muestras grandes
 Intervalos de confianza para proporciones

 Contrastes de Hipótesis
 Introducción
 Como realizar un contraste. Estadístico de contraste y p-valor
 Contrastes para muestras de poblaciones normales
 Contrastes de Hipótesis para proporciones

1

INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA. MUESTREO

La Estadística actual es el resultado de la unión en el siglo XIX de:

 La Estadística (del latín "status", se remonta a la antigüedad).
Interés de los gobiernos por los censos de los recursos.

 El Cálculo de Probabilidades (XVII).

2

La Inferencia Estadística puede definirse como el conjunto de
métodos mediante los cuales podemos extraer información sobre
distintas características de interés de una cierta distribución de
probabilidad de la cual se ha observado una serie de datos y por lo
tanto condicionada a una medida de riesgo.

Estos métodos pueden servir para
 estimar parámetros desconocidos,
 construir intervalos de confianza para dichos parámetros,
 contrastar hipótesis sobre ellos,
 predecir futuros valores de alguna variable,
 contrastar si los datos son independientes, homogéneos, etc.

3

Conceptos generales
 Se denomina población a un conjunto homogéneo de individuos sobre
los que se estudian una o varias características que son, de alguna
forma, observables.
 Un parámetro es cualquier característica medible (normalmente
numérica) de la población
 Una muestra es un subconjunto de la población, y el tamaño muestral
es el número de elementos de la muestra, que denotaremos
habitualmente por {𝑥1, 𝑥2, ⋯ , 𝑥𝑛}, siendo 𝑛 el tamaño muestral.
Lo deseable es que la muestra sea lo más representativa posible de la
población de la que se ha extraída.
Un método de muestreo no es más que el procedimiento empleado para
la obtención de la muestra, y la teoría que estudia los métodos
adecuados a cada modelo es la teoría del muestreo o técnicas de
muestreo.

4

TÉCNICAS DE MUESTREO
Existen varias técnicas de muestreo, y según la población y el estudio
que queramos realizar, son más apropiadas unas que otras. Podemos
destacar:

 Muestreo aleatorio con reemplazamiento
 Muestreo aleatorio sin reemplazamiento
 Muestreo aleatorio estratificado (edad joven, media y alta)
 Muestreo por conglomerados (barrios, calles)
 …..

5

Los resultados obtenidos del estudio de una muestra no son del todo fiables. Muestra 1 muestreo Muestra 2 Población ……………. Muestra k 6 . Los parámetros que se obtienen de una muestra (estimadores) nos permitirán arriesgarnos a PREDECIR O INFERIR una serie de resultados para toda la población. ……. De estas predicciones y del riesgo que conllevan se ocupa la Inferencia Estadística. pero sí en buena medida.

a los que a una mitad se les suministra el antibiótico y a la otra mitad un placebo. El antibiótico es probado en 100 voluntarios. ¿qué conclusiones podemos obtener? 7 .EJEMPLOS:  Deseamos estimar la proporción de españoles que fuman.  Un centro de investigación afirma que un antibiótico es muy efectivo para prevenir una determinada enfermedad.

y obtendremos otro valor para el porcentaje. Si seleccionamos una muestra. Pero podemos seleccionar otra muestra distinta de tamaño 1000.Cuando aplicamos la técnica de muestreo aleatorio simple se obtiene una serie de datos que son resultado de medir la variable que nos interesa sobre la muestra. Por ejemplo: para conocer el porcentaje de españoles que son del Madrid. sino que seleccionamos una muestra. El conjunto de todos los españoles sería la población. 8 . por ejemplo de tamaño 1000. y les preguntamos si son del Madrid o no. tenemos 1000 valores distintos de la variable SER DEL MADRID (si o no). y podemos CALCULAR el porcentaje de “Madridistas” de esa muestra. no preguntamos a todos los españoles.

𝑋1000 . que son idénticas a la variable de partida: 𝑋1 . …. … . se obtiene un valor distinto del porcentaje. por eso para estudiar las propiedades de los estimadores. Muestra k 𝑝𝑘 = 0. 𝑋2 .49 𝑋 = "𝐸𝑠 𝑑𝑒𝑙 𝑀𝑎𝑑𝑟𝑖𝑑 𝑜 𝑁𝑜" La variable que nos interesa es X= Ser del Madrid (1:Si. y ver cuál es el más adecuado. a los valores de la muestra se les denota como variables aleatorias. 0:No) Dada una muestra.35 muestreo Población todos los Muestra 2 𝑝2 = 0.25 españoles …………….. 9 . Muestra 1 𝑝1 = 0. la fórmula (estimador) más adecuado para calcular el porcentaje de seguidores del Madrid es : 𝑛 1 número de seguidores del Madrid en la muestra 𝑝= 𝑋𝑖 = 𝑛 número total de individuos en la muestra 𝑖=1 Pero para cada posible muestra que saquemos.

a. es una colección de n variables aleatorias 𝑋1 . … . 𝑋2 . m. 𝑋𝑛 = 𝐹𝜃 𝑋1 × ⋯ × 𝐹𝜃 𝑋𝑛 10 . Son independientes 2.Si al obtener la muestra hemos utilizado el método de muestreo aleatorio simple. … .s. la muestra resultante es una MUESTRA ALEATORIA SIMPLE. 𝑋𝑛 tales que: 1.. MUESTRA ALEATORIA SIMPLE Formalmente una muestra aleatoria simple. Todas las 𝑋𝑖 tienen la misma distribución que la variable aleatoria de partida 𝑋: 𝐹𝜃 𝑋1 .

para saber cuales son los más adecuados.ESTIMACION PUNTUAL OBJETIVO: El objetivo de la estimación puntual es buscar estimadores que asignen un valor puntual a una característica desconocida de la población a partir de una muestra aleatoria. porcentaje de mujeres en la política. Casos de especial relevancia son los estimadores relacionados con la distribución Normal. Por ej. etc. salario medio de los españoles. 11 . Para ello tenemos que buscar métodos para construir dichos estimadores y luego estudiar sus propiedades.

como no sabemos qué valores nos van a salir. 100 tiempos correspondientes a 100 clientes escogidos al azar y se calcula la media de estos tiempos. se denota a dicha muestra como “copias idénticas a la variable” 𝑋1 . 100 1 𝑋= 𝑋𝑖 Média muestral 100 𝑖=1 Este valor es la media muestral y es una estimación del verdadero valor de la media del tiempo que un cliente pasa en la cola de un banco. 12 . 𝑋𝑛 Por ejemplo queremos estimar el tiempo medio que un cliente pasa en la cola de un banco. para denotar una muestra aleatoria. Para obtener una estimación del tiempo medio que un cliente pasa en la cola de un banco se obtienen. 𝑋2 .Como decíamos en el tema anterior. Para obtener tal información se extrae una muestra de la población (todos los posibles clientes) y se realiza una estimación del parámetro que nos interese. … . mediante muestreo aleatorio.

8. … . Ejemplo: media muestral para Ejemplo: La media muestral la muestra 5. 𝑥2 . 𝑋𝑛 : Estadístico 𝑇(𝑥1 . … .25.3.236} 𝑇 𝑋1 . Antes de tomar la muestra Después de tomar la muestra 𝑋1 . 𝑥2 . ejemplo: {5.4 : 100 1 1 𝑥 = 5+3+4 =4 𝑋= 𝑋𝑖 3 100 𝑖=1 13 .0. … . variable aleatoria. 𝑥𝑛 Muestra aleatoria: “copias de la Valores de la muestra variable aleatoria p.98.25. 𝑋2 . 𝑋𝑛 𝑥1 . 𝑋2 . … . 𝑥𝑛 ) : Valor del Es una función de variables Estadístico en una determinada aleatorias ⇒ es una nueva muestra.

El proceso consiste en seleccionar una función llamada estadístico o estimador que nos permita estimar el valor del parámetro a partir de los valores obtenidos de la muestra. El objetivo de la estimación puntual es emplear una muestra para calcular un número que represente en algún sentido el verdadero valor de ese parámetro. 𝑋𝑛 . … . 𝑋𝑛 de la muestra 𝑋1 . … .Se está interesado en el estudio de una variable aleatoria 𝑋 cuya función de distribución es 𝐹𝜃 (𝑥) y que depende de un parámetro desconocido 𝜃. Ejemplo: 𝑋 puede ser una variable Normal y los parámetros desconocidos pueden ser la media 𝜇 y la varianza 𝜎 2 de dicha variable. un estadístico o estimador es cualquier función 𝑇 𝑋1 . 𝑋2 . Por tanto. 𝑋2 . 14 . es también una variable aleatoria con una distribución de probabilidad llamada distribución en el muestreo de 𝑇. Ejemplo: la media muestral Por tanto.

𝑋2 . 𝑋𝑛 Máximo:𝑋 𝑛 = max 𝑋1 . 𝑋2 . 15 . … .Algunos ejemplos de estadísticos: 𝑛 1 Media muestral: 𝑋 = 𝑋𝑖 𝑛 𝑖=1 𝑛 1 Varianza muestral: 𝑆𝑋 = 2 𝑋𝑖 − 𝑋 2 𝑛 𝑖=1 𝑛 1 Cuasivarianza muestral: 𝑆𝑋2 = 𝑋𝑖 − 𝑋 2 𝑛−1 𝑖=1 Mínimo: 𝑋(1) = min 𝑋1 . … . 𝑋𝑛 Etc.

Pero esto ocurre muy pocas veces. también son variables aleatorias. si estamos calculando la media muestral de variables aleatorias normales. y generalmente el proceso para conocer la distribución del estadístico es complejo. bajo ciertas condiciones.Los estadísticos. 16 . como son funciones de variables aleatorias. Existen varias variables aleatorias que están muy relacionadas con los principales estadísticos que vamos a ver. ¿Cuál se comporta mejor? Por ejemplo. Uno de los problemas más importantes de la inferencia estadística es saber cuál es la distribución de dichos estadísticos. En este tema nos centraremos en estadísticos basados en muestras de una variable Normal. la media muestral es una nueva variable normal. en el caso de tener varios. Por ello veremos primero estas variable y a continuación los estadísticos. ¿Qué variable aleatoria siguen? Para así saber.

17 .

18 .

01 𝑃 𝜒82 > 1.   n2.646 = 1 − 0.646 = 0.99 19 .01 = 0. 𝑃 𝜒82 ≤ 1.

Cálculo de Cuantiles de la distribución Chi cuadrado con R-commander: 2 𝑃 𝜒10 ≤ 𝑎 = 0.95 𝑎 = 18.30704 20 .

97499=0.02500977 21 .180 = 0.9749902 𝑃 𝜒82 < 2.180 = 1 − 0. Cálculo de Probabilidades de la distribución Chi cuadrado con R-commander: 𝑃 𝜒82 > 2.

Cuando 𝑛 > 500 se utiliza que 2𝜒𝑛2 ∼ 𝑁 2𝑛 − 1.La forma de la densidad de una distribución Chi cuadrado de Pearson varía según los grados de libertad. 1 22 .

𝑍 23 .

la distribución 𝑡 -Student se aproxima cada vez más a la distribución 𝑁(0. 24 . Es decir : 𝑃 𝑋 > 0 = 0.5 𝑃 𝑋 < 𝑎 = 𝑃(𝑋 > −𝑎) Al aumentar los grados de libertad. Verifica las hipótesis de simetría que verifica la normal.La función de densidad de una distribución 𝑡 de Student es muy parecida a la de la distribución Normal con media 0. Es simétrica en torno al cero.1).

2 25 .9195 = 𝑃 𝑡5 ≥ −0.9195 = 1 − 0.8 𝑃 𝑡5 > 0.𝛼 𝑃 𝑡5 ≤ 0.𝛼 𝑡𝑛.8 = 0.9195 = 0.9195 = 𝑃 𝑡5 ≤ −0.

Cálculo de Cuantiles de la distribución T-Student con R-commander: 𝑃 𝑡5 ≤ 𝑎 = 0.9195438 26 .8 𝑎 = 0.

Cálculo de Probabilidades de la distribución T-Student con R-commander: 𝑃 𝑡8 < 0.2935341 27 .7064659 𝑃 𝑡8 > 0.58 = 1 − 0.58 = 0.7064659=0.

28 .

𝛼 𝐹𝑛.𝑚.𝛼 29 .

9 𝑃 𝐹3.1 30 .9 = 0.2 < 9.2 > 9.16 = 0.16 = 1 − 0.𝑃 𝐹3.

Cálculo de Cuantiles de la distribución F de Fisher Snedecor con R-commander: 𝑃 𝐹4.243416 31 .2 ≤ 𝑎 = 0.9 𝑎 = 9.

46 = 1 − 0.3 < 5.8999486 = 0.8999486 32 .46 = 0.1000514 𝑃 𝐹2. Cálculo de Probabilidades de la distribución F de Fisher Snedecor con R-commander: 𝑃 𝐹2.3 > 5.

Métodos para la obtención de los estimadores Veremos dos técnicas para obtener estimadores puntuales:  MÉTODO DE LOS MOMENTOS  MÉTODO DE MÁXIMA VEROSIMILITUD 33 .

𝜃𝑘 = 𝑎𝑗 34 . 𝜃2 .MÉTODO DE LOS MOMENTOS Momentos Momentos poblacionales muestrales Centrados en el origen Centrados en la media Y luego despejar del sistema de ecuaciones 𝛼𝑗 𝜃1 . … .

estimar el parámetro b por el método de los momentos.Ejemplo: Dada una m. 1. 10. 𝑏 . {𝑋1 .s. 4. 3. … . 𝑋 ∼ 𝑈 0.a.a. 35 . 𝑋𝑛 } de una v. Calcular su valor exacto para la muestra 2.

𝜃 = 𝑃𝜃 𝑋1 = 𝑥1 ⋅ 𝑃𝜃 𝑋2 = 𝑥2 ⋅ … ⋅ 𝑃𝜃 𝑋𝑛 = 𝑥𝑛 • Si 𝑋 es continua: 𝐿 𝑋1 = 𝑥1 . como • Si 𝑋 es discreta: 𝐿 𝑋1 = 𝑥1 . Así se considera esa función 𝑳. Para ello necesitamos saber qué es la Función de Verosimilitud. 𝑋𝑛 = 𝑥𝑛 . 𝑋𝑛 = 𝑥𝑛 . y se maximiza en 𝜽. Se define la función de verosimilitud. como función de 𝜽. 36 . 𝜃 = 𝑓𝜃 𝑥1 ⋅ 𝑓𝜃 𝑥2 ⋅ … ⋅ 𝑓𝜃 𝑥𝑛 El objetivo es buscar aquel valor de 𝜽 que maximiza la función de verosimilitud. … .MÉTODO DE MÁXIMA VEROSIMILITUD Este método consiste en buscar los valores de los parámetros que hacen que la muestra observada sea lo más creíble posible. … .

Esto es debido a que la transformación del logaritmo neperiano es creciente. se deriva respecto de 𝜽.  Si la función es derivable.  Luego se calcula la derivada segunda y se evalúa en el extremo para comprobar que es un máximo. y se iguala a cero para calcular el extremo de la función. porque esto simplifica los cálculos. 37 . y entonces el máximo de la función y de su logaritmo neperiano son el mismo.  Si la función no es derivable tendremos que buscar otro método para calcular el máximo.Para maximizar la función de verosimilitud L con respecto a 𝜽. IMPORTANTE: Muchas veces. tenemos que comprobar primero si la función es derivable. en vez de derivar la función de verosimilitud directamente. se deriva el logaritmo neperiano de la función de verosimilitud.

𝑛 𝑓𝜃 𝑥1 . … . 4. Paso 1: Calcular la función de verosimilitud: 𝑓𝜃 𝑥 = 𝜃𝑒 −𝜃𝑥 . 𝑥 ≥ 0. 5. … . 𝑥𝑛 ) 𝑛 𝜕 𝜕 𝑛 1 ln 𝑓𝜃 𝑥1 . … . … . 3. 4. 4. 𝑥𝑛 = 𝑓𝜃 𝑥1 ⋅ ⋯ ⋅ 𝑓𝜃 𝑥𝑛 = 𝜃𝑒 −𝜃𝑥1 ⋯ 𝜃𝑒 −𝜃𝑥𝑛 = 𝜃 𝑛 𝑒 −𝜃 𝑖=1 𝑥𝑖 Paso 2: Aplicar Logaritmos a la función de verosimilitud 𝑛 𝑛 ln 𝑓𝜃 𝑥1 . … . 6. … . 𝑥𝑛 = ln 𝜃 𝑛 𝑒 −𝜃 𝑖=1 𝑥𝑖 = 𝑛 − 𝑥𝑖 𝜕𝜃 𝜕𝜃 𝜃 𝑖=1 𝑛 𝜕 1 𝑛 ln 𝑓𝜃 𝑥1 . 5. 𝑥𝑛 = ln 𝜃 𝑛 𝑒 −𝜃 𝑖=1 𝑥𝑖 = 𝑛 ln 𝜃 − 𝜃 𝑥𝑖 𝑖=1 Paso 3: Calcular el máximo de ln 𝑓𝜃 (𝑥1 . 𝑥𝑛 𝑛 = − 𝑛 <0 ∀𝜃 𝜕𝜃 2 𝜃= 𝑛 𝑥 𝜃2 𝜃= 𝑛 38 𝑖=1 𝑖 𝑖=1 𝑥𝑖 . 7 Estimar 𝜃 por el método de máxima verosimilitud. Se ha observado una muestra de 10 impresoras con los siguientes resultados de vida media en años: 2. 𝑥𝑛 = 0 ⇔ 𝑛 − 𝑥𝑖 = 0 ⇔ 𝜃𝑀𝑉 = 𝑛 𝜕𝜃 𝜃 𝑖=1 𝑥𝑖 𝑖=1 Paso 4: Comprobar que 𝜃𝑀𝑉 es un máximo: 𝜕2 𝑛 ln 𝑓 𝑥 𝜃 1 .Ejemplo: La vida de una impresora sigue una distribución 𝐸𝑥𝑝 𝜃 . 3.

4. 5. 6. 4. 3. 7} es: 𝑛 10 𝜃𝑀𝑉 = 𝑛 = = 0.El valor del estimador para la muestra {2. 5. 4.2325 𝑥 𝑖=1 𝑖 2 + 4 + 3 + 5 + 6 + 4 + 3 + 4 + 5 + 7 39 . 3.

¿con cual nos quedamos? A continuación veremos algunas propiedades de los estimadores y estableceremos criterios para saber con qué estimador quedarnos si tenemos más de uno. 40 . qué pasa si tenemos varios estimadores para el mismo parámetro.Propiedades de los estimadores Dado que existen varios métodos para calcular los estimadores.

 Si un estimador tiene sesgo cero se dice que es insesgado. se dice que el estimador es asintóticamente insesgado. por tanto tiene media. 𝑋𝑛 −𝜃 El estadístico que estima el parámetro es una función de la muestra. es decir lim 𝑆𝑒𝑠𝑔𝑜 𝑇 = 0 𝑛→∞ 41 . 𝑋𝑛 un estimador del parámetro 𝜃.SESGO Sea 𝑇 𝑋1 . por lo tanto es una variable aleatoria. Se denomina sesgo del estimador a la cantidad: 𝑆𝑒𝑠𝑔𝑜 𝑇 = 𝐸 𝑇 𝑋1 .  Si el sesgo del estimador tiende a cero cuando 𝑛 → ∞. … . … .

¿cuál parece mejor? 42 .2 Pero.La propiedad de que un estimador sea centrado es deseable. T2 T1  0 Los dos estadísticos 𝑇1 y 𝑇2 estiman el valor 𝜃 = 0  El primer estimador se observa que es centrado (función de densidad simétrica con respecto al 0) mientras que  el segundo tiene un sesgo de -0. a simple vista.

A continuación se muestran de nuevo dos estadísticos 𝑇1 y 𝑇2 que estiman el valor 0. El primero sigue siendo centrado pero ahora el segundo tiene un sesgo de -1. ¿cuál parece mejor? T2 T1 Está claro que deberíamos combinar criterios. interesan estimadores con baja varianza pero no demasiado sesgados. 43 . Interesan estimadores centrados pero no con demasiada varianza y viceversa. Ahora.

Estimadores consistentes Se dicen que el estimador es Consistente si lim 𝑉𝑎𝑟 𝑇 𝑋1 . … . 𝑋𝑛 como estimador de 𝜃 a la inversa de la varianza. 𝑋𝑛 =0 𝑛→∞ 44 . que un estimador 𝑇1 es más eficiente o más preciso que 𝑇2 si. … . para cualquier tamaño muestral la varianza de 𝑇1 es más pequeña que la varianza de 𝑇2 . … . es decir: 1 𝐸𝑓𝑖𝑐𝑖𝑒𝑛𝑐𝑖𝑎 𝑇 = 𝑉𝑎𝑟 𝑇 𝑋1 . por tanto. 𝑋𝑛 Se dice. Estimadores eficientes Se denomina precisión o eficiencia del estimador 𝑇 𝑋1 .

 ¿Qué nos interesa más. Se denomina Error Cuadrático Medio del estimador a la cantidad: 2 𝐸𝐶𝑀 𝑇 = 𝑆𝑒𝑠𝑔𝑜 𝑇 + 𝑉𝑎𝑟 𝑇 A continuación veremos algunos estimadores de interés relacionados con la distribución Normal. un estimador con poco sesgo o con poca varianza?  ¿Qué pasa si uno de los estimadores es mejor en cuanto sesgo y el otro es mejor en cuanto a varianza? ¿Con cuál nos quedamos? Una medida que engloba los dos criterios es el ERROR CUADRÁTICO MEDIO ERROR CUADRÁTICO MEDIO Sea 𝑇 𝑋1 . 45 . 𝑋𝑛 el estimador del parámetro 𝜃 . … .

El estimador de la media poblacional 𝝁. … .Estimador de la media poblacional Sea 𝑋1 . con media poblacional 𝐸 𝑋 = 𝜇 y varianza poblacional 𝑉𝑎𝑟 𝑋 = 𝜎 2 Es decir. 𝑋𝑛 una muestra aleatoria de una variable 𝑋 . 𝐸 𝑋𝑖 = 𝜇 y 𝑉𝑎𝑟 𝑋𝑖 = 𝜎 2 para todos los índices 𝑖. y además son todas independientes. es la media muestral 𝑛 𝑖=1 𝑋𝑖 𝑋= 𝑛 46 .

Se verifican las siguientes propiedades:  Es un estimador insesgado 𝑛 𝑛 𝑛 𝑛 𝑖=1 𝑋𝑖 1 1 1 1 𝐸 𝑋 =𝐸 = 𝐸 𝑋𝑖 = 𝐸 𝑋𝑖 = 𝜇= 𝑛𝜇 = 𝜇 𝑛 𝑛 𝑛 𝑛 𝑛 𝑖=1 𝑖=1 𝑖=1 𝑆𝑒𝑠𝑔𝑜 𝑋 = 𝐸 𝑋 − 𝜇 = 𝜇 − 𝜇 = 0  Es un estimador consistente 𝑛 𝑛 𝑛 𝑛 𝑖=1 𝑋𝑖 1 1 1 1 𝑉𝑎𝑟 𝑋 = 𝑉𝑎𝑟 = 2 𝑉𝑎𝑟 𝑋𝑖 = 2 𝑉𝑎𝑟 𝑋𝑖 = 2 𝜎2 = 2 𝑛𝜎 2 𝑛 𝑛 𝑛 𝑛 𝑛 𝑖=1 𝑖=1 𝑖=1 𝜎2 = 𝑛 𝜎2 𝑉𝑎𝑟 𝑋 = 0 𝑛 𝑛→∞  Su error cuadrático medio es: 2 𝜎2 𝐸𝐶𝑀 𝑋 = 𝑆𝑒𝑠𝑔𝑜 𝑋 + Var 𝑋 = 47 𝑛 .

… . 𝑛 𝑖=1 𝑋𝑖 𝜎2 𝑋= 𝑛 Sigue una distribución Normal de media 𝜇 y varianza . es decir. Entonces.Tenemos dos resultados muy importantes con respecto a la distribución de este estadístico: Teorema 1: Sea 𝑋1 . 𝜎). 𝑋 ∼ 𝑁(𝜇. 𝑋2 . con media poblacional 𝐸 𝑋 = 𝜇 y varianza poblacional Var 𝑋 = 𝜎 2 conocida. es 𝑛 decir. 𝑋𝑛 una muestra aleatoria de una variable 𝑋 que sigue una distribución Normal. 𝜎 𝑋 ∼ 𝑁 𝜇. 𝑛 48 .

es decir. 49 .Teorema 2: Sea 𝑋1 . 𝑋 ∼ 𝑁(𝜇. 𝑋𝑛 una muestra aleatoria de una variable 𝑋 que sigue una distribución F (cualquiera). … . Entonces. 𝑛→∞ 𝑛 Esta aproximación es buena para muestras grandes (n≥30) y es una consecuencia del Teorema Central del Límite. es decir. 𝑛 𝑖=1 𝑋𝑖 𝑋= 𝑛 se aproxima a una distribución Normal de media 𝜇 y varianza 𝜎2 . 𝑋2 . con media poblacional 𝐸 𝑋 = 𝜇 y varianza poblacional Var 𝑋 = 𝜎 2 . 𝑛 𝜎 𝑋 𝑁 𝜇. 𝜎).

Es decir. … . Sea 𝑋1 . 𝐸 𝑋𝑖 = 𝜇 y 𝑉𝑎𝑟 𝑋𝑖 = 𝜎 2 para todos los índices 𝑖 y además son todas independientes.Estimador de la varianza poblacional. 𝑋2 . 𝑋𝑛 una muestra aleatoria de una variable 𝑋. con media poblacional 𝐸 𝑋 = 𝜇 y varianza poblacional 𝑉𝑎𝑟 𝑋 = 𝜎 2 . el estimador más razonable de la varianza poblacional 𝝈𝟐 es la varianza muestral 𝑺𝟐𝑿 : 𝑛 𝑛 2 1 𝑖=1 𝑋𝑖 𝑆𝑋2 = 𝑋𝑖 − 𝑋 2 = − 𝑋2 𝑛 𝑛 𝑖=1 50 . Entonces.

se verifica 1 n   2  n  1    2 E  S   E   X i  X 2    n  2 2  n i 1  n 2 NO ES INSESGADO Sesgo  S   E  S      2 2 2 n Pero si consideramos n Sˆ 2  S2  n  1 Luego  n  n n  n  1 2 E  Sˆ 2   E  S2  E  S 2    2   n  1   n  1  n  1 n Entonces el estimador más adecuado para la varianza poblacional es la CUASIVARIANZA MUESTRAL  X  n 2 X   i n 2 n 1 n  2 Sˆ 2  S  i 1  Xi  X n 1 n 1 n n  1 i 1 51 .Sin embargo.

N   . 2  X  n i X i 1 sigue una distribución Chi Cuadrado con n -1 grados de libertad  2 2  X  n X i n 1 ˆ 2 n 2 i 1  S  2 S   n2-1 2  2  52 . En cuanto a la distribución asintótica se verifica: Teorema 3 (Fisher) Sea  X1 .. X n  una muestra aleatoria de una variable X que sigue una distribución Normal con media poblacional E  X    y varianza poblacional Var  X    . es decir... X 2 .   2 Entonces..Se verifica que la CUASIVARIANZA MUESTRAL ES INSESGADO Y CONSISTENTE.

Corolario: Si la media poblacional es conocida. la varianza muestral podemos estimarla por n  Xi    2 i 1 n 1 n  X i   2 i 1 sigue una distribución Chi Cuadrado con n grados de libertad  2 n  Xi    2 i 1   n2 2 53 .

¿Qué ocurre cuando queremos estimar la media pero no conocemos la varianza poblacional?.  o equivalentemente n N  0. μ. Hemos visto antes que    X  X N  . Hemos visto antes que para estimar la varianza. σ2.1  n  Si la varianza poblacional es desconocida. el mejor estimador es   n n 1  2 Sˆ  2 S  2 Xi  X n 1 n  1 i 1 Por lo tanto vamos a considerar un nuevo estadístico X  X  n n  Sˆ Estadístico para la Estadístico para la media con varianza media con varianza conocida desconocida 54 . este resultado no nos sirve para estimar y hacer inferencia sobre la media. Así pues tenemos que estimar la varianza.

… . 𝑋𝑛 una muestra aleatoria de una variable 𝑋 que sigue una distribución Normal con media poblacional 𝐸 𝑋 = 𝜇 y varianza poblacional 𝑉𝑎𝑟 𝑋 = 𝜎 2 . 𝑁 𝜇. es decir. 𝑋−𝜇 𝑋−𝜇 𝑛 𝑆 = 𝑛−1 𝑆 sigue un distribución 𝑡 de Student con 𝑛 − 1 grados de libertad.Como se verifica : Entonces n Sˆ 2  S2  n  1 X  X  n  n-1 Sˆ  n S Sˆ S  n  1 Teorema 4 Sea 𝑋1 . 𝑋−𝜇 𝑋−𝜇 𝑛 = 𝑛−1 ∼ 𝑡𝑛−1 𝑆 𝑆 55 . Entonces. 𝜎 . 𝑋2 .

se tiene una muestra aleatoria  X1 ..p EX   p Var  X   p 1  p  56 .. X n  de una distribución Binomial(1. Para ello se toma una muestra aleatoria de elementos de la población. anotando un 1 si dicho elemento tiene la característica. y 0 en otro caso..p) o equivalentemente Bernoulli(p)  1 si tiene la característica con probabilidad p X  0 si NO tiene la característica con probabilidad 1.Estimación de una proporción para muestras grandes Se desea estimar la proporción p de individuos de una población que tiene una determinada característica. X 2 .. es decir.

es decir. es la proporción MUESTRAL. dividido por el número total de individuos de la muestra.El estimador más razonable para la proporción p. número de individuos de la muestra que verifican una condición. Ejemplo: Número de Empresas españolas endeudadas en más de 1 millón de € p Número de Empresas españolas Población: Empresas de España N: nº Empresas Muestra: 2000 de España Empresas españolas p=PROPORCIÓN escogidas al de Empresas azar españolas endeudadas en más n: 2000 de 1 millón de € Número de Empresas de la muestra endeudadas en más de 1 millón de € pˆ  2000 57 .

 X n  1 1 E  pˆ   E  1   n E  X 1  X 2  .Formalmente.  n   n    58 .. X 1  X 2  ..  X n  1 1 1 Var  pˆ   Var  1   n2 Var  X 1  X 2  ....  X n   np 1  p   p 1  p    2 n n n Luego es un estimador consistente La distribución asintótica  p 1  p   pˆ  N  p..  X n pˆ  n Verificando  X  X 2  ..  X n   np  p  n  n Luego es un estimador insesgado  X  X 2  ....