MUESTREO

MUESTREO (TEMA 1)
o CONCEPTOS FUNDAMENTALES:  MUESTREO: Cómo obtener muestras para, a través de ellas, estudiar una población.  Se debe intentar que sean muestras representativas de la población que queremos estudiar.  INFERENCIA: En base a los resultados obtenidos de una muestra, hacer una afirmación sobre la población de la que la muestra ha sido extraída.  CENSO: Si la muestra es tan grande que coincide con la población no tenemos peligro de equivocarnos, pero eso ya no es inferencia.  Lo que realmente le interesa al investigador es trabajar con muestras reducidas pero que sean representativas y, para obtener el tamaño ideal no existe un número mágico..  Es función, entre otras cosas, de la variabilidad de la población en la variable estudiada. Cuanto mayor sea la variabilidad mayor será el número de elementos que debamos entresacar de la población al formar la muestra para poder asegurarnos que representan a aquella.  Si no hay variabilidad cualquier elemento de la población que elijamos, representará a toda la población.  Uno de los problemas mayores con los que nos encontramos, suponiendo que el tamaño de la muestra sea el adecuado, es el de cómo han sido obtenidas esas muestras, es decir qué método de muestreo hemos utilizado.  La inferencia estadística, es decir, las afirmaciones que hacemos sobre la población sobre la base del estudio de una muestra, se hace siempre, en términos probabilísticos.  Para que podamos hacer una inferencia con una probabilidad conocida de éxito, es necesario que nuestra muestra haya sido obtenida aleatoriamente.  Una de las implicaciones del muestreo probabilístico (y sólo de él) es que se puede estimar el error muestral.  ERROR MUESTRAL: Es la diferencia entre el resultado obtenido en la muestra y el que se habría obtenido si hubiésemos hecho un censo con la población siguiendo los mismos procedimientos que en la muestra.  POBLACIÓN: Es el conjunto de elementos, finito o infinito, definido por una o más características, de las que gozan todos los elementos que lo componen, y sólo ellos.  En muestreo se entiende por población la totalidad del universo que interesa considerar, y que es necesario que esté bien definido para que se sepa en todo momento que elementos lo componen.  La población es el conjunto de los elementos que en cada momento interesa estudiar, pero eso no quiere decir que los elementos que lo componen pertenezcan sólo a ese conjunto, sino que depende de la definición que hagamos de la población para cada estudio particular.  CENSO: En ocasiones resulta posible estudiar cada uno de los elementos que componen la población, realizándose lo que se denomina un censo, es decir, el estudio de todos los elementos que componen la población.  La realización de un censo no siempre es posible por: - Economía, si la población es muy grande es muy costoso. - Si las pruebas a las que se someten a los individuos son destructivas. - Si la población es infinita.  MUESTRA: Es el subconjunto de elementos de una población.  La característica más importante que debe cumplir una muestra es la
1

representatividad, esto es que sus elementos representen al conjunto de los elementos que componen la población.  INFERENCIA: Afirmación hecha sobre una población a partir de los resultados de una muestra obtenida de ella.  MUESTREO: Es el procedimiento por medio del cual es elegida la muestra. o

o  

TIPOS DE MUESTREO. MUESTREO PROBABILÍSTICO: Es aquel en el que se puede calcular de antemano la probabilidad de obtener cada una de las muestras que sea posible seleccionar, para lo cual es necesario que la selección de la muestra pueda considerarse como un experimento aleatorio. Es el único tipo de muestreo que es capaz de darnos el riesgo (error muestral) que cometemos en la inferencia. Este tipo de muestreo, por el hecho de basarse en la Teoría de la Probabilidad, nos puede dar, al tiempo que la muestra, la probabilidad de error que con ella cometemos, es decir, su grado de representatividad. MUESTREO INTENCIONAL U OPINATICO: En el cual la persona que selecciona la muestra procura que esta sea representativa según su criterio, dependiendo, por lo tanto, de su intención u opinión sobre qué es representativo en cada caso. MUESTRO SIN NORMAS, CIRCUNSTANCIAL O ERRATICO: Es aquel en el que se toma la muestra de cualquier manera, por razones de comodidad o capricho. TABLAS DE NUMEROS ALEATORIOS. Se utilizan en la selección de la muestra. Consisten en una serie de dígitos (en más o menos cantidad según de qué tabla se trate) dispuestos en páginas y presentados por grupos de filas y columnas, de modo que puedan leerse, cómodamente los números.

o DISTRIBUCIONES EN MUESTREO. ⊕ Distribución poblacional.  Si tomamos todos los elementos de la población que interesa estudiar y medimos en ellos una característica, podemos realizar una distribución de frecuencias de esos resultados, que será la distribución de frecuencias de esa característica en la población, definida por su media y su varianza.  PARÁMETROS: Son las medidas realizadas en la población y se designan con letras griegas. μ = media de la población. σ2 = varianza poblacional. ⊕ Distribución de la muestra.  Si en la muestra elegida medimos la característica que interesa obtenemos unos resultados, cuya distribución de frecuencias constituye la distribución de la característica en la muestra, definida por su media y su varianza.  ESTADÍSTICOS: Son las medidas realizadas en la muestra y se designan por letras latinas mayúsculas. X = media de la muestra. S2 = varianza de la muestra. ⊕ Distribución muestral o distribución del estadístico <<1>> en el muestreo. o A partir de una población que tengamos definida, podemos obtener todas las muestras posibles, de un determinado tamaño, de esa población y medir en ellas una determinada característica, pudiendo obtener un resultado numérico o función para cada muestra; la distribución de frecuencias de estos valores constituye la distribución muestral de esa característica llamada también distribución del estadístico <<1>> a partir de los
2

o o o o

resultados de las muestras. ERROR TIPICO: La desviación típica de la distribución muestral de un estadístico (es decir; la raíz cuadrada de su varianza), suele ser conocida como error típico de ese estadístico. ESTIMACIÓN: Es el resultado numérico de cada uno de los valores de la función estimadora, es decir, los valores numéricos parciales de cada muestra posible. ESTIMADOR INSESGADO: Cuando tengamos un estadístico tal que su media coincide con el parámetro poblacional que queremos estimar. ACURACIDAD: Se da cuando los estimadores sean insesgados, y además, en lo posible, tengan una varianza pequeña para que estén muy centrados en torno al valor central.

3

ESTIMACIÓN Y CONTRASTE DE HIPOTESIS
TÉCNICAS DE MUESTREO ALEATORIO (TEMA 2)
o DISTRIBUCIONES EN MUESTREO.  Una característica esencial del muestreo aleatorio es que todas las muestras posibles son equiprobables, es decir, tienen la misma probabilidad de ser elegidas, pero la probabilidad de cada una de ellas y la probabilidad de pertenencia de los sujetos, será distinta en función de que realicemos el muestreo con o sin reposición.  MUESTREO ALEATORIO CON REPOSICIÓN o muestreo aleatorio simple: El tamaño de la población es exactamente el mismo para cada extracción. Lo cual supone que un elemento seleccionado puede volver a formar parte de la muestra. Dado que las extracciones se realizan al azar, la probabilidad de cada elemento de la población (N) de pertenecer a la muestra (n), en cualquiera de las extracciones será siempre la misma: 1/N.  MUESTREO ALEATORIO SIN REPOSICIÓN o irrestrictamente aleatorio: El tamaño de la población cambia con cada extracción, dado que cada vez que realicemos una extracción, el elemento seleccionado ya no puede volver a formar parte de la población para la siguiente extracción. No puede volver a formar parte de la muestra. En este tipo de muestreo, el resultado de una extracción no es independiente del resultado obtenido en las demás, por lo que ahora la función de probabilidad conjunta de las variables es diferente del producto de sus funciones individuales. o    MUESTREO ALEATORIO SISTEMATICO. Se necesita un listado de los elementos de la población. No hay que tomar n números aleatorios, tan sólo hay que tomar uno (k). Siendo k un número entero resultado de dividir el tamaño de la población entre el tamaño de la muestra: k=N/n.  Si el resultado fuese un decimal, habría que redondear al entero inmediatamente inferior.  En este tipo de muestreo hay que tener mucho cuidado con la presentación de periodicidades en la población, ya que entonces la muestra puede no ser representativa. o MUESTREO ALEATORIO ESTRATIFICADO.  Si se sabe que una población puede dividirse en partes o estratos de forma que en cada uno de ellos, los elementos posean una gran homogeneidad con respecto al carácter que se estudia, entonces se aumenta la precisión de las estimaciones tomando una muestra en cada estrato, es decir actuando separadamente en cada estrato.  También es necesario un listado de todos los elementos de la población.  Todas las partes en que ésta puede ser dividida estarán representadas adecuadamente.  Dentro de cada estrato se puede aplicar el muestreo aleatorio simple o el sistemático. En ambos casos la selección es aleatoria y se tiene el muestreo aleatorio sistemático.  MUESTREO ESTRATIFICADO CON AFIJACION PROPORCIONAL: Cuando las variables en los estratos no difieren mucho entre sí, el tamaño de la muestra se toma proporcional al tamaño del estrato.  MUESTREO ESTRATIFICADO CON AFIJACION NO PROPORCIONAL: Suele utilizarse cuando las varianzas de los estratos difieren mucho entre sí. En tal caso puede tomarse en consideración tal varianza, y así en los estratos en que ésta es grande, se tomará una muestra mayor, para aumentar la precisión.

4

sin importar el resto. estos grupos o conglomerados tienen existencia real.  La unidad muestral es un grupo de elementos de la población a la que llamamos conglomerado. también llamado polietápico.  Sólo se necesita el listado de los elementos de la población que integran los conglomerados de la última etapa. tiene la ventaja de que en cada etapa se puede aplicar el muestreo aleatorio (simple.  LA MEDIA: La media de la distribución muestral de la media (la media de todas las medias posibles). de un determinado tamaño. dado que. lo que hacemos.  MUESTREO POR AREAS: Cuando los conglomerados son áreas geográficas.  En la primera etapa se selecciona una serie de conglomerados o unidades muestrales primarias. ⊕ Distribución muestral de la media. de esa población y medir en ellas una determinada característica. Y así sucesivamente tantas etapas como sea necesario.  Es una generalización del muestreo por conglomerados.  El muestreo por conglomerados consiste en seleccionar aleatoriamente cierto número de conglomerados y en investigar después todos los elementos pertenecientes a los conglomerados elegidos.o MUESTREO POR CONGLOMERADOS. pudiendo obtener un resultado numérico o función para cada muestra. • La esperanza de una suma es igual a la suma de las esperanzas. o unidades muestrales secundarias. o MUESTREO POR ETAPAS. no tenemos más que conocer a los sujetos que forman los conglomerados seleccionados.  En una segunda etapa se seleccionan conglomerados más pequeños. y una vez que un determinado número ha sido seleccionado estudiar a todos los elementos que lo componen. o ALGUNAS DISTRIBUCIONES MUESTRALES. pertenecientes a los anteriores. • La esperanza de una constante es ella misma. • La media de la distribución muestral de la media es la media de la población.  El muestreo por etapas. muestrear aleatoriamente un número de ellos.  Se tiene la ventaja de que no es necesario tener un listado de todos los elementos de la población. estratificado.  A partir de una población que tengamos definida.  LA VARIANZA: De la distribución muestral de la media. sistemático) que se considere más adecuado al tipo de conglomerados de que se trate.  Normalmente. 5 . sino que consiste en dividir a la población en grupos o conglomerados. • La esperanza de una suma es igual a la suma de las esperanzas. es obtener o calcular el estadístico <<1>> a partir de los resultados de las muestras. podemos obtener todas las muestras posibles. que son los que se van a investigar. la distribución de frecuencias de estos valores constituye la distribución muestral de esa característica llamada también distribución del estadístico <<1>> en el muestreo.

 El cociente entre dos formas cuadráticas se distribuye según una distribución Chi cuadrado. se distribuye normal con parámetros poblacionales. aunque la aproximación no es lo suficientemente buena hasta tamaños muy grandes (n>100). la distribución Chi cuadrado se aproxima a la distribución normal. es decir. con tantos grados de libertad como sumandos menos los parámetros que haya que estimar.  La esperanza de la proporción de la muestra coincide con la proporción de la población.  Cuando trabajamos con proporciones. entonces. ⊕ Distribución muestral de la varianza. lo que tenemos no son variables a las que podamos atribuir número en un continuo sino la presentación o no de un determinado atributo.  A medida que aumenta el tamaño de la muestra. Si la variable estudiada (Y). podemos obtener en todas esas muestras posibles el estadístico varianza y ver cual es su distribución. la distribución muestral de la media es también normal con los parámetros que acabamos de ver. ⊕ Distribución muestral de la proporción.  Se trata de variables dicotómicas o dicotomizadas. 6 . la distribución muestral de la varianza.  Al igual que hemos obtenido el estadístico media y hemos visto sus distribución en todas las muestras posibles de tamaño n que se pueden obtener de una población de tamaño N. para poder utilizar la distribución normal como una forma de aproximación de la distribución binomial requiere la utilización de una corrección por continuidad.  Si el tamaño de la muestra no es muy grande.

es estimar los parámetros desconocidos de la distribución de una variable en la población mediante valores concretos obtenidos en una muestra.  Se usan letras griegas como referencia a los parámetros de la población.  También su utilizaran letras latinas minúsculas como referencia a las observaciones de una muestra concreta. a cualquier función de dichas variables aleatorias que. y se reserva el término estimación puntual o sencillamente estimación.  Uno de los objetivos fundamentales de la estimación puntual.  El problema fundamental de la estimación puntual es estimar parámetros desconocidos de la población.  ESTIMADOR: De un parámetro.  La hipótesis estadísticas son propuestas que se hacen sobre determinadas características (parámetro. puntuaciones. que sea un buen estimador del parámetro que se quiere estimar.) de una distribución.  Al estadístico utilizado para estimar el parámetro correspondiente se le llama estimador.  Propiedades básicas de un buen estimador:  CARENCIA DE SESGO: La media de un número infinito de valores de un estimador sea igual al parámetro.  El valor del estimador se toma como la mejor estimación del parámetro de la distribución de la variable en la población. debemos estimar la media de la población y la varianza muestral.  Como un estimador es una función de variables aleatorias también es una variable aleatoria y el valor que toma en una muestra dada es el llamado valor muestral de dicho estimador. Por ello uno de los problemas que se plantea en la estimación de parámetros es elegir buenos estimadores. etc.  Un determinada característica de una población se distribuye siguiendo una distribución dada por una función f(y). que depende de uno o más parámetros. en general. o sea.  Interesa que el estimador de un parámetro represente correctamente a ese parámetro. lo cual se hace por sus propiedades.  Se usan letras latinas mayúsculas para las variables de una población y los estimadores.  La distribución normal tiene dos parámetros. para el valor que toma ese estimador en una muestra particular.  Para contrastar la hipótesis.ESTIMACIÓN DE PARÁMETROS (TEMA 3) o DISTRIBUCIONES EN MUESTREO. o PROPIEDADES DE LOS ESTIMADORES. la media y la varianza. Es un estadístico que utilizamos para estimar parámetros. datos o valores muestrales. a partir de una muestra  A los valores que toman las variables aleatorias en una muestra se les llama medidas. de forma que la distribución queda totalmente determinada dado el valor del o los parámetros. 7 . supondremos independientes. estos últimos considerados como función de variables aleatorias. observaciones.  HIPÓTESIS ESTADÍSTICAS: Son la hipótesis científicas formuladas en términos estadísticos. forma. no sus valores concretos que se simbolizarán con letras latinas minúsculas.

mayor es la eficiencia. distribución. Insesgado (o centrado): Un estimador es insesgado cuando la media (esperanza matemática) de los valores tomados por el estimador en las infinitas muestras de tamaño n extraídas de una población. La varianza insesgada se distingue de la sesgada (varianza muestral) en que el cálculo de la primera. a medida que se dispone de más información. cuando la distribución de la población es simétrica.  La decisión de utilizar uno u otro estimador. mientras que la varianza muestral es un estimador sesgado de la varianza poblacional. 8 . se dice que es una propiedad asintótica.  La mediana y la moda son también estimadores insesgados de la media poblacional.  Comprobamos que la media y la proporción de una muestra son estimadores insesgados de los parámetros correspondientes. en el límite de la varianzas respectivas valen cero.  Cuanto menor es la varianza de la distribución muestral del estimador. al cuadrado.  CONSISTENCIA: Un estimador es consistente si al incrementar n. cuando la varianza del primer parámetro es menor que la varianza del segundo parámetro.  La media aritmética es más eficiente que la mediana. la proporción y la varianza insesgada son consistentes porque además de ser estimadores insesgados de los parámetros correspondientes. se divide por n1. para un mismo tamaño muestral.  EFICIENCIA: Se denomina precisión o eficiencia de un estimador a la inversa de la varianza de su distribución muestral.  SUFICIENCIA: Un estimador suficiente es aquel que utiliza la información de la muestra para estimar el parámetro. el sumatorio de las diferencias entre cada puntuación y la media. etc. lo cual es razonable pues menos varía el valor del estimador de una muestra a otra. mayor es la eficiencia. aumenta la probabilidad de que la estimación coincida con el parámetro.  Cuanto mayor es el cociente. porque en este caso las dos varianzas son iguales.). dándose esta propiedad sólo cuando la distribución de probabilidad propuesta es correcta.  La media. no viene dictado tanto por la propiedades de los estimadores como por las características de la variables (nivel de medida. La proporción muestral es la media aritmética de la muestra cuando los elementos de la misma sólo toman valores 0 y 1.  Otros estadísticos muy utilizados como la ordenada en el origen y la pendiente de una recta de regresión.  Un estimador insesgado de la varianza poblacional es la varianza insesgada. son también estimadores insesgados de los parámetros correspondientes.  Cuando el cociente es igual a 1. la eficiencia de las dos varianzas es la misma. mientras que en el cálculo de la segunda.  La varianza muestral es un estimador sesgado de la varianza poblacional. pues su distribución es menos variable que la de la mediana. es decir. pues la esperanza de la varianza de la muestra no es igual al parámetro correspondiente.  Desviación típica insesgada es la raíz cuadrada de la varianza insesgada.  También la proporción muestral es un estimador insesgado.  Puesto que la consistencia está definida para n tendiendo al infinito. pues el sesgo disminuye cuando se incrementa el tamaño de la muestra.  La media aritmética muestral es un estimador insesgado de la media poblacional.  La varianza muestral sabemos que es un estimador sesgado de la varianza. coincida con el valor del parámetro que queremos estimar. es por n.  Eficiencia relativa: Un estimador de un parámetro es mas eficaz que otro.

 Un supuesto distribucional de la población. 5.  Una probabilidad (nivel de confianza).  Una estimación por intervalos expresa. Calcular la desviación típica de la distribución muestral del estimador. No obstante para grados de libertad mayores de 30. menor será el intervalo de confianza.  Una forma de reducir la desviación típica es aumentando el tamaño muestral. ganaríamos en precisión manteniendo constantes los demás factores.  Una estimación por intervalos o un intervalo confidencial depende de cuatro parámetros:  Una estimación puntual del parámetro.  El término probablemente nos indica que una estimación por intervalos viene acompañada de una probabilidad. porque el intervalo que esperamos esté el parámetro.  Para la construcción de un intervalo confidencial en torno a la media de una población normal con varianza conocida.  La estimación por intervalos va más allá al establecer un rango de valores dentro del cual estaría el valor del parámetro.  Se elabora un intervalo en el que se espera se encuentre el parámetro desconocido. Se hallan los límites inferior y superior del intervalo . llamado también error típico de la media. la media. la distribución T de Student se aproxima a la normal por lo que.  El intervalo para la media poblacional depende de la desviación típica de la distribución muestral de la media. hay que estimarla mediante su estimador insesgado. li y ls. Se obtiene el error máximo . mayor es la precisión del intervalo y mayor es la precisión de nuestra estimación.  Cuando se desconoce la varianza poblacional. se puede determinar el tamaño muestral necesario para alcanzar una determinada precisión en la estimación de la media. debemos elegir el que tenga mejores propiedades. 2.  Conociendo la varianza poblacional y habiendo establecido un nivel de confianza y el error máximo. de alguna manera. sería más pequeño. se seguirían los siguientes pasos: 1. 4. y por lo tanto más preciso. cuanto mayor es el tamaño de la muestra. el grado de confianza con el que se espera esté el valor del parámetro en el intervalo. con una cierta probabilidad. Es decir zα/2. σY. por lo que se suele llamar intervalo confidencial. cuanto más pequeña sea la desviación típica. acudiremos a esta última. 3. o TAMAÑO DE LA MUESTRA. Determinar α o el nivel de confianza (1-α). Cuando tengamos dos o más estimadores apropiados para un mismo caso.  Si bajamos el porcentaje del nivel de confianza. en esos casos. Buscar en la tabla de la curva normal (Tabla A.  Una medida de variabilidad. o ESTIMACIÓN POR INTERVALOS. pero disminuiría la probabilidad asociada a dicho intervalo. Emáx = | zα/2 | σY. 9 .1) el valor z correspondiente a α/2. en este caso. En este caso el estadístico no sigue el modelo de probabilidad normal sino de la T de Student con n-1 grados de libertad.

 A mayor tamaño muestral. eficientes y normales. el estimador es aquel que hace más verosímil los datos obtenidos en la muestra. suficientes e invariantes. Tanto por el método de máxima verosimilitud como por el de los mínimos cuadrados. por lo que mayor será la precisión del mismo. la cual es la proporción de la muestra. En este caso el estadístico no sigue el modelo de probabilidad normal sino de la T de Student con n-1 grados de libertad. Según el primer método lo que se hace es elegir como estimación la que maximice la probabilidad de los datos muestrales. 10 . ⊕ Método de los mínimos cuadrados. por tanto. se estiman los parámetros α y β a partir de una muestra aleatoria extraída de la población de la variable que se está estudiando. presenta graves inconvenientes en muestras pequeñas por las propiedades asintóticas de la mayoría de sus estimadores.  Mediante este método lo que se pretende es elegir como estimación la que haga máxima la probabilidad de obtener los datos muestrales  El método de máxima verosimilitud nos dice que debemos estimar el valor de P mediante el valor que haga máxima la probabilidad conjunta de la muestra.  Este método si bien es el que tiene mayores aplicaciones cuando trabajamos con muestras grandes.  Es elegir como estimador de un parámetro aquel que maximice la probabilidad de lo que de hecho se ha observado en la muestra.  Explicado el año pasado. o APÉNDICE: METODOS DE ESTIMACION. menor es el intervalo que esperamos esté el parámetro manteniendo constantes los demás factores. mientras que según el segundo se trata de estimar los estimadores que hagan mínima la suma de los errores al cuadrado.  El método de máxima verosimilitud proporciona estimadores que son asintóticamente insesgados. ⊕ Método de máxima verosimilitud. se debe estimar esta mediante su estimador insesgado.  La estimación y. Si se desconoce la varianza poblacional.  Los estimadores de máxima verosimilitud de la media y la varianza de una población normal son precisamente la media y la varianza de la muestra.

 HIPÓTESIS NULA (H0): Es la hipótesis que se acepta provisionalmente y se somete a contrastación empírica. cuando la hipótesis alternativa es mayor que la hipótesis nula.  Se aplicarán contrastes unilaterales cuando se tenga información y/o idea sobre la dirección del efecto o cuando consideremos relevante el efecto sólo en una dirección.  La idea general del contraste de hipótesis es hallar la probabilidad asociada al valor muestral del estadístico. ⊕ Hipótesis estadísticas.  HIPÓTESIS ALTERNATIVA (H1): Es la sustitutiva de la H0.CONTRASTE DE HIPOTESIS (TEMA 4) o INTRODUCCIÓN AL CONTRASTE DE HIPÓTESIS. o cuando se considera relevante el efecto tanto en una dirección como en otra.  Se aplicarán contrastes bilaterales cuando no tengamos información y/o idea sobre la dirección del efecto que se está estudiando. y en caso contrario no se rechaza (se acepta).  HIPÓTESIS ESTADÍSTICA: Es la hipótesis referida a algún aspecto de la distribución de una población.  El conocimiento de la distribución muestral de un estadístico nos permite dar el salto de la muestra a la población.  HIPÓTESIS UNIDIRECCIONALES O UNILATERALES: Pueden ser contraste unilateral izquierdo.  En el contraste de hipótesis estadísticas se formulan dos hipótesis exhaustivas y mutuamente exclusivas. convirtiéndose así en hipótesis estadísticas.  La hipótesis científicas deben formularse en términos estadísticos.  Se parte de la idea de que la información procedente de la muestra es suficiente para sacar conclusiones sobre la población. ⊕ Distribución muestral y nivel critico p. Nos permite inferir determinadas características de la población a 11 .  Si dicha probabilidad es muy pequeña se rechaza la H 0. cuando la hipótesis alternativa es menor que la hipótesis nula o bien contraste unilateral derecho.  DISTRIBUCIÓN MUESTRAL DEL ESTADÍSTICO: Se llama así a la distribución de probabilidad (o distribución de probabilidad acumulada) de los valores del estadístico obtenidos en todas las muestras posibles del mismo tamaño que pueden extraerse de la población.  HIPÓTESIS BILATERAL O BIDIRECCIONAL: Se da cuando la media es algún valor no especificado y diferente del valor dado a la hipótesis nula.  Los estimadores o estadísticos no proporcionan valores fijos. sino que varían de una muestra a otra.

 Son numerosos los estadísticos de contraste que pueden aplicarse para contrastar las hipótesis.partir de esas mismas características en la muestra. comprobar la significación estadística de los datos procedentes de las investigaciones psicológica. multiplicando por dos la probabilidad asociada a los valores iguales o menores (si el valor muestral cae en la parte izquierda de la distribución) o iguales o mayores (si cae en la parte derecha) que el valor muestral del estadístico de contraste. o sea. que puede elaborarse de tamaño n. que tipo de datos son.  La elección del más adecuado dependerá fundamentalmente de la hipótesis del investigador. ⊕ Estadístico de contraste. nivel de medida.  La probabilidad buscada p. etc.  Un estadístico de contraste se caracteriza por tener una distribución muestral e información sobre lo propuesto en la hipótesis nula. así debemos conocer la distribución muestral de la media para realizar inferencias sobre la media poblacional. generalmente.  Es importante que se verifiquen los supuestos y siempre que tengamos dudas sobre su 12 . con cierta probabilidad.  Antes de adoptar un determinado modelo de probabilidad para una variable es conveniente comprobar si la distribución se ajusta a la distribución teórica propuesta.  Para hallar la probabilidad de interés en la tabla de la distribución normal. de los datos muestrales (como se han obtenido. se transforma la media hallada de modo que pueda compararse con los valores que nos ofrece dicha tabla. la distribución muestral de la media de esa variable también es normal. pero siempre es posible obtener una distribución muestral de un determinado estadístico mediante el procedimiento del contraste de hipótesis.  Como la media muestral es una variable continua que se distribuye normalmente y que toma un valor de las infinitas muestras. que se denomina normal (0. debe basarse en propiedades de los datos. etc.  En contrastes bilaterales y distribuciones simétricas. tendrá una función de densidad de probabilidad y una de distribución.  No obstante si operamos con puntuaciones típicas todas las posibles distribuciones normales (de la media) se convierten en una única.  El parámetro que se quiere contrastar es la media de una distribución normal.1).  No todas la variables psicológicas se distribuyen normalmente. llamada nivel crítico representa la probabilidad de obtener un valor del estadístico al menos tan extremo como el hallado.  Siempre que queramos hacer inferencias sobre una característica de la población necesitaremos conocer la distribución muestral del estadístico correspondiente. Algunas de estas propiedades reciben el nombre de supuesto. el nivel crítico p se obtiene.  En definitiva. Lo que se ha hecho ha sido convertir nuestra estimación muestral en una puntuación típica. de la hipótesis y de la variable en la población. o más generalmente de un contraste estadístico.)). la elección de un estadístico. dada la hipótesis nula. de las características de la variable en la población (forma de la distribución. varianza conocida o no. es decir se convierte en una puntuación z.  Cuando la variable se distribuye normalmente en la población.  Un estadístico de contraste es un instrumento estadístico creado para tomar decisiones sobre la hipótesis nula con cierta probabilidad..1) o simplificando N (0.

respectivamente. La determinación de la zona de rechazo de la distribución de probabilidad depende de que el contraste sea unilateral o bilateral. rechazamos la hipótesis nula. El contraste bilateral es más conservador que el contraste unilateral. El criterio α divide la distribución de probabilidad en dos zonas que llamaremos zona de rechazo de la hipótesis nula (región crítica) y zona de aceptación de la hipótesis nula. no. si el nivel crítico p es mayor que α. Según el planteamiento teórico presentado aquí. En caso contrario no la rechazamos. El tipo de contraste (unilateral o bilateral) influye en la significación de la decisión. incumplimiento los comprobaremos. basándose en suficiente información. se fija de antemano mientras que p. la zona de rechazo de la hipótesis nula. si el nivel crítico p es diferente o distinto que α. la hipótesis nula incluye. p. delimitado por α. Cuando el nivel crítico. 3. pues en ellos se basa la elección del estadístico de contraste y su distribución muestral. ello no significa que se descarte totalmente que H0 sea cierta. realmente pertenezca a la distribución muestral bajo la hipótesis nula. no la rechazamos. 13 . menor y mayor. el nivel crítico p es más informativo porque indica la probabilidad de obtener un valor al menos tan extremo como el valor del estadístico hallado. si el nivel crítico p es menor que α. No obstante. 2. es más pequeña que en el contraste unilateral. En un contraste unilateral derecho. rechazamos la hipótesis nula. No obstante. unilateral izquierdo y unilateral derecho). el nivel de significación. considerando uno de los extremos. En un contraste bilateral. izquierdo o derecho. igual. rechazamos la hipótesis nula y si cae en la zona de aceptación.⊕            1. En caso contrario no la rechazamos. lo que implica que es más difícil rechazar la hipótesis nula. la distribución muestral de un estadístico de contraste es la que corresponde al caso de que la hipótesis nula sea cierta. respectivamente los signos. En caso contrario no la rechazamos. La zona de rechazo está formada por todos los valores cuya probabilidad es muy pequeña dada la hipótesis nula. Este valor es el que corresponde al signo igual de H0. rechazamos la hipótesis nula. Nivel de significación y rechazo de la hipótesis nula. No obstante. En un contraste bilateral. α. asociado al valor muestral del estadístico de contraste es igual o menor que α. 4. a pesar de que su probabilidad conforma a H0 es muy baja. En los tres contrastes (bilateral. sino que es consecuencia del resultado muestral. delimitados ambos por α/2. Cuando el contraste es unilateral la zona de rechazo queda representada en un solo extremo de la distribución. Nivel de significación o probabilidad de error tipo I se simboliza por α y representa la probabilidad de rechazar erróneamente la hipótesis nula. teoría y/o investigaciones realizadas en el área. Se puede tomar decisiones sobre la hipótesis nula mediante el nivel crítico p o el valor crítico. el nivel crítico. la zona de rechazo se reparte en los dos extremos de la distribución. Por ello es importante establecer un α adecuado. El nivel de significación suele ser muy pequeño porque cuanto mayor es α mayor es la probabilidad de rechazar erróneamente la hipótesis nula. La hipótesis alternativas correspondientes a la hipótesis nulas anteriores incluyen los signos distinto. que el investigador está dispuesto a asumir y que fija en la planificación de su investigación. Puede suceder que el valor observado en la muestra. En un contraste bilateral. siempre contrastaremos un valor del estadístico bajo H0. En un contraste unilateral izquierdo. rechazamos la H0 pues es muy probable que no sea cierta ya que el valor obtenido tiene una probabilidad muy pequeña bajo H0. mayor o igual y menor o igual. Así si el valor muestral del estadístico de contraste cae en la zona de rechazo.

7. puede deberse a dos cosas: o bien el investigador predijo un efecto unilateral derecho (izquierdo) sin la información suficiente sobre la dirección del efecto en la población. Cuando un investigador obtiene un resultado opuesto al que había supuesto en un contraste unilateral.  Error tipo II (su probabilidad se denomina β) es aquel que se comete al aceptar erróneamente la hipótesis nula. en un principio. 3. formularemos las hipótesis estadísticas. Fijaremos α. en caso contrario no la rechazaremos. la zona de rechazo de H0 estará formada por todos los valores del estadístico cuya probabilidad de obtenerlos es muy pequeña bajo el supuesto de que la hipótesis nula sea cierta. o bien la muestra elegida no es representativa de la población y el valor muestral obtenido se debe a errores del muestreo. concretamente es igual a 1-β. 3. Para el α dado. rechazaremos H0 en caso contrario no la rechazaremos. El nivel de significación. La magnitud del efecto. En otras palabras. 6. 2. en función de las hipótesis estadísticas y características anteriores.  En un contraste de hipótesis seguiremos los siguientes pasos: 1. es el llamado error tipo II. habría que repetir el experimento. Interpretaremos los resultados en el contexto de la investigación. 5. En función de la hipótesis científica y las características anteriores. rechazaremos H0 y si cae dentro no la rechazaremos. Tomaremos la decisión sobre H0. Calcularemos el estadístico de contraste con los datos obtenidos en la muestra. magnitud del efecto y tamaño de la muestra. 14 . Su probabilidad es β. Elegiremos el estadístico de contraste.  La potencia (también la probabilidad del error tipo II) de un contraste estadístico depende de tres parámetros: 1. o CONTRASTE DE HIPÓTESIS E INTERVALOS DE CONFIANZA. 6.  Se va estudiar este con la magnitud del efecto y el tamaño muestral. 2.  La potencia es función de β. ⊕ Determinantes de la potencia: Nivel de significación. si el valor del parámetro propuesto en H0 cae fuera del intervalo confidencial. Es esencial el sentido común para los casos límite. la potencia de un contraste estadístico es la probabilidad de obtener un resultado estadísticamente significativo. Estas características se convierten en los supuestos que guían la elección del estadístico de contraste y del contraste en general.  No es necesario formular las hipótesis estadísticas para construir un intervalo confidencial pero si las formulamos. si p es igual o menor que α rechazaremos H0. podremos tomar decisiones sobre H0.5. Esto es. El tamaño muestral.  Otro error que se puede cometer en la decisión estadística. 4. Si el valor del estadístico cae dentro de la zona de rechazo. Dicho de otra manera. o POTENCIA ESTADÍSTICA.  En la estimación por intervalos podemos tomar decisiones sobre el rechazo o no de H0. ⊕ Probabilidad del error tipo II y potencia. y es la probabilidad de rechazar la H0 siendo <<falsa>>. En esos casos. Describiremos las características de la variable en la población y de los datos muestrales.

de la magnitud del efecto que se espera encontrar en la población. 15 . manteniendo constante los demás factores (tamaño muestral y magnitud del efecto). más difícil resultará rechazar la hipótesis nula.  El estudio de la potencia debe hacerse antes de la recogida de los datos para determinar la potencia del contraste para unos valores α.  La relación de α con n es tal que cuando menor sea α. ⊕ Cálculo de la potencia. Al influir la magnitud de α en la potencia. mayor deberá ser n para obtener un resultado significativo. Α Β 1-β Ψ N α XXXXXX INVERSA DIRECTA INVERSA INVERSA β INVERSA XXXXXX INVERSA INVERSA INVERSA 1-β DIRECTA INVERSA XXXXXX DIRECTA DIRECTA ψ INVERSA INVERSA DIRECTA XXXXXX INVERSA n INVERSA INVERSA DIRECTA INVERSA XXXXXX  Los parámetros α. y como consecuencia más baja será la potencia y mayor será β.  La potencia es un valor entre 0 y 1.  La magnitud del efecto (ψ) puede contemplarse como un índice del grado de <<falsedad>> de H0. influye la dirección del contraste. α y n fijos. En la relación con n. manteniendo constantes α y ψ. manteniendo constantes los demás factores incluida la potencia. cuanto menor es la magnitud del efecto mayor debe ser n para alcanzar la significación estadística (y viceversa). Para un mismo α y manteniendo constantes los demás factores.  A mayor n. β. aunque aumenta la potencia estadística.  La relación de α.  Cohen establece como deseable una potencia no inferior a 0. De hecho cualquiera de ellos es función exacta de los otros tres. Otra consecuencia de utilizar tamaños muestrales muy grandes es que puede dar lugar a resultados estadísticamente significativos cuya significación práctica sea cuestionable. mayor es la potencia (menor es β) y viceversa. ψ y n con β es inversa.  Cada uno de los parámetros α. n y ψ predeterminados.80. n y ψ están matemáticamente relacionados.  Un n grande o muy grande. β (o 1-β). además de retrasar la investigación. la potencia será menor para un contraste bilateral que para un contraste unilateral. ψ.  Para realizar un análisis de la potencia debemos establecer valores específicos en la hipótesis estadísticas. por lo que podemos determinar uno cualquiera en función de los restantes. Manteniendo constantes los demás factores (nivel de significación y tamaño de la muestra). α y β (o 1-β). o determinar β (o 1-β) con ψ. manteniendo constantes los demás factores (magnitud del efecto y nivel de significación). El nivel de significación es que a menor α.  La relación con la potencia es tal que. también incrementa los costes humanos y económicos. a medida que n aumenta crece la potencia (decrece β) y viceversa. ⊕ Obtención del tamaño de la muestra. manteniendo constantes la potencia y α.  El tamaño muestral simplemente se refiere al número de sujetos (o unidades experimentales) del estudio. cuanto mayor es la magnitud del efecto.  El conocimiento de tres cualquiera determina el valor del cuarto. y n interactúan con cada uno de los otros.  Un n demasiado pequeño puede dar lugar a una potencia demasiado baja. mayor es la potencia y viceversa. o sea.  No obstante en la mayoría de la investigaciones lo que generalmente interesa es determinar n habiendo fijado ψ. y viceversa.

no debe aplicarse contrastes unidireccionales sólo con el fin de obtener una mayor potencia. sino que debe basarse siempre en suficiente información.α será la probabilidad de no rechazar correctamente la hipótesis nula. teoría y/o investigaciones realizadas en el área. indica un cierta insensibilidad a la significación práctica de los resultados que puede tener una gran importancia en ciertos tipos de investigación. β.β. la potencia será menor para un contraste bilateral que para un contraste unilateral. Estas características son lo que comúnmente conocemos como supuestos. 16 . SUPUESTOS (TEMA 5)  La elección de un contraste (y de un estadístico de contraste) u otro. además de la hipótesis que se quiera contrastar. Algunas de las características. Es decir. 4. O no se tiene en cuenta o se utilizan muestras grandes para asegurarse una potencia alta.  Estos resultados se deben a que en el contraste bilateral interviene medio alfa y en el unilateral el alfa entero. mayor potencia y a > α < n para obtener una misma potencia. lo que supone. Para obtener una misma potencia. Ello es así cuando en un contraste unilateral el resultado muestral está en la diferencia predicha. supuesto de normalidad. la probabilidad de rechazar correctamente la hipótesis nula. Vimos dos tipos de errores y sus probabilidades α y β. μ1. es la probabilidad de aceptar erróneamente la hipótesis nula y 1. α indica la probabilidad de rechazar erróneamente la hipótesis nula. en propiedades o características de la variable en la población y de los datos muestrales. β. Para un mismo α y manteniendo constantes los demás factores. pues corremos el riesgo de encontrar un resultado opuesto al que habíamos anticipado. el valor numérico obtenido como resultado de la aplicación del estadístico de contraste puede carecer de sentido práctico. Por ello. Es importante que elijamos el contraste (y estadístico) más apropiado a cada caso. depende de la hipótesis que se quiere contrastar. o INTRODUCCIÓN. Si es correcta la elección. α.  La elección de un contraste estadístico (y del estadístico de contraste) debe basarse. de las características de la variable en la población y de los datos muestrales. de lo contrario. como las mencionadas. supuesto de medida. No obstante. algunas veces. etc. reciben el nombre de supuesto. 2.  A > α < β y por lo tanto. 1. la interpretación de los resultados de la investigación será mucho más acertada. Así se habla del supuesto de independencia. en este último caso. por lo tanto 1. Es razonable pensar que los investigadores deseamos que los contrastes estadísticos que aplicamos en nuestros trabajos de investigación tengan una probabilidad alta de rechazar la hipótesis nula siendo <<falsa>>. un mayor coste económico y humano. retrasos en la investigación y. tan grave es la situación en la que la potencia es baja sin que lo sepa el investigador. debemos utilizar una muestra mayor si el contraste es bilateral. hay una cierta resistencia al estudio de la potencia en los trabajos de investigación. La elección de μ0. manteniendo constantes los demás factores. 3. supuesto de homogeneidad de varianzas. esperamos que la potencia estadística sea alta. σ y n no es arbitraria. No obstante.

el valor 0 significa carencia total de los que se está midiendo. Estos números son únicamente indicadores de cada categoría. Existe una diferencia cuantitativa entre dos sujetos. por lo general. ⊕ Nivel de medida nominal. por los estadísticos de contraste. no sólo valoran de forma distinta el parámetro a estudiar. Lo que importa y tiene sentido es el orden de los números. entre otras. ⊕ Nivel de medida de intervalo vs de razón.  Con variables medidas a nivel ordinal. Deben tener la misma función de probabilidad o función de densidad de probabilidad.  Es cuando a cada categoría se le asigna un número. tiene sentido las operaciones de suma. es calculando las frecuencias de observaciones de cada categoría de la variable. Pues bien cuando la variable está medida a nivel de intervalo las diferencias son significativas. de intervalo y de razón. 2. con esta última podemos establecer un orden de mayor a menor (o menor a mayor) con los números asignados a cada categoría. los años de una persona y la longitud de una línea. nos aporta. tiene sentido obtener frecuencias de datos. multiplicación y división. ⊕ Nivel de medida ordinal. información sobre la extensión de las diferentes categorías.  También podríamos saber mediante al cálculo de los percentiles el número de sujetos que está por debajo de una determinada categoría.  Cuando la variable es cuasi cuantitativa podemos utilizar cualquier número para las categorías siempre que se preserve el orden. La reducción de los datos a frecuencias por categorías. Este tiene dos condiciones: 1. independientes.  El máximo nivel de medida que se puede alcanzar con variables cuasi cuantitativas es el ordinal.o INDEPENDENCIA DE LAS OBSERVACIONES. significan que 1<2<3<4<5.  Una forma de resumir los datos cuando la variable es nominal. indican que las probabilidades marginales de las variables aleatorias deben coincidir con las probabilidades de la variable. son variables medidas a nivel de razón porque para todas ellas.  Es cuando a cada categoría se le asigna un número o medida. contrariamente al ejemplo anterior. resta. mientras que con las primeras no tiene sentido ordenar los números. o NIVEL DE MEDIDA. Esto es.  El supuesto de independencia de las observaciones o más generalmente de las variables aleatorias es importante porque tal independencia va a ser exigida.  A los resultados así obtenidos se les denominan datos de intervalo y de razón.  La diferencia entre una variable cualitativa y una cuasi cuantitativa estriba en que.  Variables como el tiempo de reacción. es decir. sino que uno valora una cantidad y el otro otra. a nivel descriptivo. No obstante el número asignado es irrelevante. Que las probabilidades conjuntas deben ser iguales al producto de sus correspondientes probabilidades marginales.  VARIABLES CUALITATIVAS: Son aquellas que sólo pueden ser consideradas a nivel 17 .  Con ambos tipos de variables.  MUESTRA ALEATORIA SIMPLE: Es el conjunto de muestras aleatorias. no importando la distancia o diferencia entre dos números cualesquiera porque esta diferencia no es relevante en este tipo de medida. pero si lo deseamos con estas últimas también podríamos calcular percentiles. en sentido numérico.

división y multiplicación entre los valores asignados a sus categorías. las variables cuantitativas. por lo general. por lo tanto. o CONTRASTES PARAMETRICO Y NO PARAMETRICOS. sólo necesitaremos conocer cuantas de ellas se encuentran en cada 18 .  La aplicación de ciertos contrastes estadísticos (y estadísticos de contraste) requiere hacer supuestos sobre determinados aspectos de la distribución.  Todos los contrastes estadísticos hacen supuestos sobre el nivel de medida de la variable estudiada. Cuando desconocemos la varianza poblacional por lo que debemos estimarla. propiedad que cumplen tanto los datos de intervalo como los de razón. Pueden ser discretas o continuas:  VARIABLES CUANTITATIVAS DISCRETAS: Es aquella que no admite valores intermedios entre dos valores dados. Se establecen supuestos restrictivos sobre la forma de la distribución y/o sobre sus parámetros.  CONTRASTE NO PARAMETRICO: 1. suma.  La aplicación de ciertos contrastes estadísticos (y estadísticos de contraste) requiere que los parámetros de la distribución tengan determinadas propiedades. admiten todas las operaciones mencionadas entre los distintos valores que pueden tomar esta variables. o ASPECTOS DE LA DISTRIBUCIÓN. aunque las últimas admiten la ordenación de dichos valores. requieren que los datos sean. El nivel de medida es. 3. al menos. Al ser distinta la distribución muestral también. la aplicación de este estadístico requiere que la población de la que procede la muestra en la que se ha estimado la media sea normal (al menos que n sea = o > 30). de intervalo. continuas o discretas. La hipótesis recaen sobre los parámetros de la distribución de la variable.  Por su parte.  CONTRASTE PARAMÉTRICO: 1.  VARIABLES CUANTITATIVAS: Pueden ser consideradas a nivel de razón o intervalo según el cero de la escala signifique carencia total o no de lo que se está midiendo. 2. porque los estadísticos que se contrastan requieren que la diferencia entre los distintos pares de valores tenga sentido. la distribución muestral del estadístico resultante ya no es la normal sino otra que llamamos distribución T de Student.  VARIABLES CUANTITATIVAS CONTINUAS: Admite infinitos valores intermedios.  Tanto las variables cualitativas como las cuasi cuantitativas no admiten operaciones de resta. al menos.  Los contrastes sobre media. varianza.nominal. coeficiente de correlación de Pearson (y otros estadísticos que se derivan de ellos). La distribución muestral del estadístico Z es normal y. lo son las probabilidades asociadas a los valores que puede tomar el estadístico. muy utilizados para inferir las características de la población a partir de una muestra. de intervalo. El nivel de medida es inferior al nivel de intervalo <<nos bastará con conocer el orden de las observaciones (sin hacer intervenir explícitamente sus valores numéricos) y a veces.  Es posible pasar de una escala superior a otra inferior.  VARIABLES CUASI CUANTITATIVAS: Como mucho pueden ser consideradas a nivel ordinal.

la interpretación de nuestros resultados.  Se suele utilizar indistintamente los términos no paramétrico y distribución libre. generalmente normalidad y homocedasticidad. simetría o continuidad. para su cálculo. Así.una de ciertas categorías no ordenadas (sin hacer intervenir explícitamente ni las puntuaciones asignadas a las observaciones ni el orden de las mismas). en sentido psicológico. no es posible saber. En algunos casos.  Muchas veces. por ejemplo. como ya hemos comentado en este tema. Si se verifican estos supuestos. Esto es así porque. se ha visto que los estadísticos requieren. si la distribución de la variable en la población es continua el contraste es exacto. siempre que se asuma algún supuesto ello debe hacerse basándose en una teoría y/o en los datos procedentes de trabajos anteriores. así se aprovecha más la información.  En cuanto a los supuestos sobre la distribución. 2.  En general. lo habitual. es que no podemos acceder a toda la población. que los datos se hayan obtenido en una determinada escala de medida lo que influye en la elección del estadístico de contraste al ser esta una función de aquellos. Los supuestos sobre la distribución son menos restrictivos que los especificados en los contrastes paramétricos.  Los contrastes estadísticos (y estadístico de contraste) establecen determinados supuestos. por lo general. mientras que otros establecen sólo supuestos distribucionales generales como. será mucho más razonable.  Respecto al nivel de medida. ni siquiera podemos saber con certeza si la distribución es continua.  Casi nunca conocemos las características de la población. En cualquier caso.  Lehman: Un contraste es paramétrico si la determinación de la distribución muestral del estadístico de contraste requiere que la variable en la población se distribuya normalmente. Y no paramétrico en el caso contrario. basta con que se verifique un único supuesto para que tengamos que aplicar un estadístico en vez de otro. o CONCLUSIONES. asumiremos estos supuestos y en otros los comprobaremos aplicando contrastes apropiados. 19 . vimos que unos contrastes postulan supuestos muy restrictivos. si la población de la que procede la muestra es normal o conocer el valor concreto de la varianza poblacional.  Siempre que se den las condiciones apropiadas aplicaremos el contraste cuyos supuestos son los más restrictivos pues. y no por comodidad.

El establecimiento de una hipótesis nula (H0) frente a una hipótesis alternativa (H1). Dicho estadístico. si las muestras son independientes o están relacionadas. para un nivel de confianza dado. pueden ser aprovechados para contraste de hipótesis dado que construimos un intervalo que constituye la región de aceptación. Se establecen las propiedades y supuestos que cumplen los datos. con cierta probabilidad. 5. En función de la información anterior elegiremos el estadístico de contraste (especificando su función de probabilidad o de densidad de probabilidad).  PRUEBA DE SIGNIFICACION: Va dirigida a valorar la credibilidad de una hipótesis concreta a través del grado de significación P. PROPUESTO PARA TODOS LOS CONTRASTES: 1. si se conocen los parámetros poblacionales. Se formulan las hipótesis estadísticas en base a la hipótesis científica. Se establece la región crítica de la distribución muestral del estadístico de contraste bajo el supuesto de que la hipótesis nula sea cierta.  PRUEBA DE LA HIPÓTESIS: Parte de la teoría de la probabilidad para tomar una decisión entre dos hipótesis complementarias: la hipótesis nula (H0) y la hipótesis alternativa (H1). referidas ambas a algún parámetro de la población. etc. 6.CONTRASTES DE HIPÓTESIS PARA UNA MUESTRA CONTRASTES PARAMETRICOS PARA UNA MUESTRA I (TEMA 6) o INTRODUCCIÓN. Se toma la decisión sobre H0 en función del siguiente criterio: si el valor del 20 . calculado a partir de los resultados de la muestra.  ESQUEMA GENERAL. 3. Se calcula el estadístico de contraste con los datos obtenidos en nuestra muestra. 4. 2. la muestra y la población: nivel de medida de la variable.  INTERVALOS DE CONFIANZA: Aunque formalmente son un método de estimación de parámetros. tamaño de la muestra. tipo de muestreo. de dicha hipótesis. nos ayudará en el proceso de decisión.

Se toma la decisión sobre la H0: si nuestro valor obtenido (z) cae dentro de la región de rechazo no es posible aceptar la H0. dado que no conocemos la varianza de la población. por el teorema central del límite). 21 . La muestra está formada por n observaciones independientes. Se formulan las hipótesis estadísticas. 5. La variable aleatoria cuyo parámetro μ pretendemos contrastar.  Como se ve. El estadístico sigue una distribución T de Student con n-1 grados de libertad. a un nivel de confianza dado (o con una probabilidad de acierto dada).  Un caso particular de hipótesis nula. 6. ⊕ Desconocida la varianza de la población. si eso no es cierto. o mayor. de una población con una varianza como la que se establezca en la hipótesis nula. es si nuestros datos concretos han podido ser obtenidos de una población con esa media. Otro tanto podemos decir si es menor/igual en un contraste unilateral izquierdo. que hayamos obtenido una muestra con la variabilidad que tiene la nuestra. no podemos aceptar la hipótesis nula. lo que se está probando es si la media poblacional es menor. es mayor/igual o menor/igual que el valor señalado en las tablas para el contraste bilateral. o CONTRASTE DE HIPÓTESIS PARA LA VARIANZA. Se interpretan los resultados. en este caso. Se calcula el estadístico de contraste con los datos obtenidos en la muestra: z.  Lo que se intenta averiguar es si es posible que.  Estas hipótesis se establecen en base a la hipótesis científica que tratamos de probar. ⊕ Conocida la varianza de la población. con varianza conocida. obtenidas por muestreo aleatorio. sigue una función de densidad de probabilidad normal (aunque también es aplicable este contraste a cualquier tipo de distribución. De lo contrario la aceptaremos. se debe estimar mediante su estimador muestral insesgado. Región crítica: rechazo de la H0.  El esquema a seguir es el mismo que para el parámetro media. es cuando se hace el supuesto de que la media de la población es cero.  Lo que se intenta contrastar o probar. la H0 que tratamos de contrastar. Se formulan las hipótesis estadísticas.  El razonamiento y los pasos a realizar son los mismos que se han visto en el apartado anterior pero. 7. Se interpretan los resultados. Se trata de hipótesis estadísticas unilaterales. 3. es que procedan de una población con una media distinta. Tiene una distribución muestral normal. si nuestro valor concreto. de lo contrario se acepta. es la de que la varianza poblacional toma un valor determinado. 1. Estadístico de contraste. mayor o menor. 4. o si es mayor/igual en un contraste unilateral derecho.  En los otros tipos de hipótesis estadísticas. 7. o CONTRASTE DE HIPÓTESIS PARA LA MEDIA. 2. cuando n es igual o mayor de 30. La alternativa. 1. es decir. que un valor determinado.estadístico cae dentro de la región de rechazo no es posible aceptar la H0. mientras que la H1 es que la varianza poblacional es distinta de ese valor. es posible.

es que procedan de una población con una varianza distinta. De lo contrario la aceptaremos. Lo mismo se puede decir a nivel de población. presenta la característica medida. 5.  Se trata de contrastar hipótesis acerca de un parámetro mediante el estadístico P. Se interpretan los resultados. en la muestra. 6.  Si la frecuencia la dividimos por n (número total de sujetos de la muestra). Población dicotómica. Lo que se intenta contrastar o probar. CONTRASTES NO PARAMETRICOS PARA UNA MUESTRA II (TEMA 7) 22 . La muestra está formada por n observaciones independientes. Se toma la decisión sobre la H0.  El estadístico P se calcula con datos dicotómicos que sólo admiten dos resultados. 3. La variable aleatoria cuyo parámetro pretendemos contrastar. o CONTRASTE DE HIPÓTESIS E INTERVALOS DE CONFIANZA. Se calcula el estadístico de contraste con los datos obtenidos en la muestra: z. generalmente relativos a la aparición o no de una determinada característica. o CONTRASTE DE HIPÓTESIS PARA LA PROPORCION. 1. pueden ser utilizados como método de contraste de hipótesis. Estadístico de contraste.  Se considera la aproximación normal. si eso no es cierto. es si nuestros datos concretos han podido ser obtenidos de una población con esa varianza. dado que nos permite construir un intervalo que constituye la región de aceptación de hipótesis. 7. 2. al igual que antes hacíamos con la media. 4. 7. obtenidas por muestreo aleatorio simple. 3. 4. La muestra aleatoria de n observaciones.  Aunque los intervalos de confianza se desarrollaron como un método de estimación de parámetros. Se distribuye según una Chi cuadrado con n-1 grados de libertad. La alternativa. Se interpretan los resultados. Se toma la decisión sobre la H0: si nuestro valor obtenido cae dentro de la región de rechazo o de rechazo no es posible aceptar la H0. sigue una función de densidad de probabilidad normal. Se formulan las hipótesis estadísticas. 5.  El estadístico P es un estimador insesgado de π tomado en una muestra de n observaciones.  La distribución muestral del estadístico P es. Región crítica: rechazo de la H0 (supuestamente bilateral). Región de confianza. asintóticamente normal. habrá que acudir a la distribución binomial. en los casos en que no se cumpla esto. 6. que es la proporción de la muestra. 2. tenemos la proporción (P) de sujetos que. por el teorema central del límite. Se calcula el estadístico de contraste con los datos obtenidos en la muestra. con un nivel de confianza. Estadístico de contraste.

al tomar una muestra aleatoria de esa población sucederá lo mismo. a menudo.  Se basa en el recuento de signos más (+) y signos menos (-).  En la metodología no paramétrica. 2. el nivel de medida de la variable es inferior al nivel de intervalo. y son pocos. si cae en la región de confianza la aceptaremos.  Este estadístico se distribuye según el modelo binomial con parámetros n = S + + S. ⊕ Prueba de Wilcoxon. Aspectos menos restrictivos referidos a la forma y/o los parámetros de la distribución. por tanto. el valor propuesto para la mediana en la hipótesis nula no es el adecuado. es decir. habrá que realizar una corrección (corrección por continuidad). ausencia de diferencias.  Lo que se quiere con esta prueba es probar si nuestros datos son compatibles con un valor que proponemos para la mediana en la hipótesis nula (η0).  Se puede realizar la aproximación a la normal a partir de n igual o mayor de 20. 5. aproximadamente el mismo número de signos positivos que negativos cuando calculemos las diferencias entre cada valor y la mediana propuesta bajo la hipótesis nula. La muestra aleatoria de n observaciones.  Pueden presentarse ceros. Si por el contrario. Si el estadístico elegido cae dentro de la región crítica. el parámetro que se utiliza para hacer inferencia acerca de la posición de los datos en la población.  Tiene que darse tres condiciones: 1. rechazaremos la hipótesis nula. Si son muchos la prueba no es adecuada.  En las pruebas de bondad de ajuste. consistente en sumar o restar 0.  En los contrastes de hipótesis para la mediana aunque se intentan probar supuestos sobre parámetros poblacionales. se eliminan reduciendo el tamaño de la muestra en tantas unidades como ceros aparezcan.  Si el tamaño de la muestra no es muy grande. Cuando esto sucede.  Si el valor propuesto para la mediana en la hipótesis nula es el verdadero.  También se la conoce como prueba de rangos (órdenes) y signos.o INTRODUCCIÓN. la medida de tendencia central que representa mejores propiedades y es.5 cuando S+ es menor que n/2 y se resta cuando es mayor de n/2. habrá más signos de un tipo que de otro. Se interpretan los resultados.50. Se suma 0. Se toma la decisión sobre la H0. Región de confianza. existiendo. Se formulan las hipótesis estadísticas.y π =0. 1.  Se calculan los signos de las n observaciones que no son más que el signo de las diferencias entre cada valor y la mediana propuesta bajo la hipótesis nula. no se intenta contrastar ningún parámetro poblacional sino la forma de la distribución. o CONTRASTES DE HIPÓTESIS PARA MEDIDAS DE POSICIÓN.5 puntos a S + para que el contraste sea más conservador. Un nivel de medida de la variable inferior al nivel de intervalo. 7. No se intentan probar supuestos sobre parámetros poblacionales. la mediana es. 2. 3.  La prueba de Wilcoxon gana en precisión ya que aprovecha mejor la información 23 . normalmente. Estadístico de contraste. ⊕ Prueba de los signos.o Z 6. Cualquier tipo de distribución de la variable. Se calcula el estadístico de contraste con los datos obtenidos en la muestra: S+ o S. en la población existirán tantos valores por encima de él como por debajo y. 3. 4.

 Es una de las pruebas de bondad más utilizadas y aplicable también para dos muestras. En la prueba de los Signos se usa únicamente la información proporcionada por la dirección o signo de la diferencia entre cada observación y la mediana. 7.y. 4. La muestra aleatoria de n observaciones. 1. nos permiten comprobar si la forma de la distribución de la probabilidad de una variable.    disponible. ♠ Conocida la forma de la distribución poblacional y sus parámetros. mientras que la prueba de Wilcoxon. es función de distribución de nuestra variable 24 . si la forma de distribución supuesta en la población es compatible con los resultados muestrales. Región de confianza. si las hay más grandes o más pequeñas. Tiene en cuenta. se ordenan de menor a mayor y se les atribuye un número que indica su orden. La distribución de la variable en la población ha de ser simétrica y el nivel de medida de los datos ha de ser al menos de intervalo. Si la hipótesis nula es cierta. Estadístico de contraste. Se formulan las hipótesis estadísticas. el valor absoluto de esa diferencia. Nivel de medida de los datos.  Los contrastes de hipótesis sobre bondad de ajuste. De ahí que se la conozca como prueba de rangos y signos. Si el tamaño de la muestra es grande (n igual o mayor que 20) la distribución de T se va aproximando a la normal y podemos aprovechar esta distribución para hacer los contrastes. se estarán confirmando las hipótesis alternativas. para contrastar otro tipo de hipótesis.. a esta suma la llamaremos T+. o las pruebas de bondad de ajuste. 3. 2. Se toma la decisión sobre la H0.  Partiendo de los datos de nuestra muestra. a) Como en el test de signos. En el caso en que se presenten empates. ⊕ Prueba Chi cuadrado de Pearson. b) Estas diferencia tomadas en valor absoluto. 6. 1. al establecer la hipótesis nula sobre la distribución poblacional a la que queramos ver si se ajustan nuestros datos muestrales que: conozcamos los parámetros de la población o. se calculan las diferencias entre cada valor y la mediana propuesta bajo la hipótesis nula.  Puede suceder. o PRUEBAS DE BONDAD DE AJUSTE. Se calcula el estadístico de contraste: T o Z. Si una de las sumas es mucho mayor que la otra. o queremos probar. a la vez que el signo de las diferencias. Y se quitan las diferencias que sean iguales a cero. por lo que aumenta en precisión.  Donde F(y) es la función de distribución de la variable que estamos estudiando y F 0(y) es una función de distribución completamente especificada (con sus parámetros). podemos probar. a esta suma la llamaremos T-. La distribución de la variable en la población ha de ser simétrica y continua. 5. c) A continuación sumamos los rangos u órdenes de las diferencias que inicialmente tenían signo + y. Se interpretan los resultados. se atribuye a cada diferencia el promedio de los rangos que habrían correspondido caso de no estar empatadas. d) Haremos lo mismo con los rangos de las diferencias que tenían signo . dado que habrá aproximadamente el mismo número de puntuaciones por encima que por debajo de la mediana. además. que suponemos. se ajusta a una determinada distribución de probabilidad teórica. que no los conozcamos. mediante una prueba de bondad de ajuste. ordenándolas. Se formulan las hipótesis estadísticas. ambas sumas deberán ser aproximadamente iguales. al menos de intervalo.

6. la prueba Chi cuadrado no podría aplicarse. al estimar los parámetros con nuestros datos aumenta la probabilidad de que los datos se ajusten a la distribución propuesta en la hipótesis nula. ya que. Supuestos  Una muestra aleatoria.  Donde F(y) es la función de distribución de la variable que estamos estudiando y F 0(y) es una función de distribución completamente especificada (con sus parámetros). según el nivel de medida de los mismos  La determinación de las frecuencias teóricas se realizará en función de la hipótesis nula que queramos probar. al menos. nominal. Esto hace que sea preciso restar un grado de libertad por cada parámetro estimado (normalmente 2. La decisión de este estadístico se basa.  Si quitamos grados de libertad la región crítica se amplía (la puntuación con la que tenemos que comparar nuestro resultado es más pequeña) esto se hace para evitar que la prueba sea excesivamente conservadora. 2. salvo por azar. Un valor pequeño apoyará la hipótesis nula. mientras que un valor elevado reflejará una incompatibilidad entre las frecuencias observadas y las esperadas de ser cierta la hipótesis nula. precisamente. Estadístico de contraste. 25 .  El procedimiento y el estadístico de contraste es el mismo que hemos visto en el apartado anterior.  Si los datos muestrales se ajustan a la distribución teórica propuesta en la hipótesis nula. Región crítica 5. ♠ Desconocidos los parámetros de la población. ahora bien. a medida que (n) el tamaño de la muestra aumenta. en la magnitud de esas diferencias. la media y la varianza). Se formulan las hipótesis estadísticas.  Parámetros poblacionales conocidos. que suponemos. con lo que no se pierde información al agrupar los datos.aleatoria.  Suele ser el caso más común en la investigación. ⊕ Prueba de Kolmogorov .  Los datos a analizar los expresamos en frecuencias. Se interpretan los resultados. 1. dado que no conocemos los parámetros poblacionales. o queremos probar. 3. han de ser estimados a partir de los datos de la muestra. agrupándolos en categorías o en intervalos. habrá semejanza entre las frecuencias empíricas u observadas y las frecuencias esperadas o teóricas.  El nivel de medida de los datos es.Smirnov (Conocidos los parámetros poblacionales). mientras que esta sí. se aproxima a la distribución Chi cuadrado con k-1 grados de libertad.  En las muestras muy pequeñas. para cada categoría la diferencia entre ambas frecuencias será cero. 4. 7. siendo k el número de categorías o intervalos (mutuamente exclusivas y exhaustivas) en que agrupamos los datos. Se toma la decisión sobre la H0.  La prueba de Kolmogorov -Smirnov trata las observaciones individualmente. Si esto es así. es función de distribución de nuestra variable aleatoria.  La distribución de este estadístico. Se calcula el estadístico de contraste con los datos obtenidos en la muestra.

en principio. Estadístico de contraste. obteniendo así dos muestras aleatorias.  Los valores críticos se encuentran en la Tabla A. nominal. las frecuencias acumuladas que ocurrirían bajo la distribución teórica especificada en la hipótesis nula y la distribución de frecuencias acumuladas de las puntuaciones observadas y tomar el mayor de esos valores. podremos pensar que esta diferencia se debe al efecto de la variación de la variable independiente. diferencias sistemáticas entre las dos muestras antes de aplicar la variable independiente. Se calcula el estadístico de contraste con los datos obtenidos en la muestra: D.  Al ser todas la variables extrañas controladas mediante la aleatorización.Smirnov. en valores absolutos. si se observa una diferencia entre la variable dependiente de cada condición. la medida de la tendencia central de la distribución será la que mejor represente a la hipótesis científica. que es la más 26 . Se interpretan los resultados. aceptaremos o no la hipótesis nula.  Parámetros poblacionales conocidos. salvo que.15 del formulario.  Se extraen aleatoria e independientemente n sujetos y las asignamos también aleatoriamente a las condiciones experimentales.  Se trata de restar. puede que interese estudiar la variabilidad de la distribución.  En función de nuestro resultado y.2. al desconocer los parámetros poblacionales. Supuestos  Muestra aleatoria de n observaciones  El nivel de medida de los datos es. hemos de estimarlos a partir de los estadísticos muestrales. 7. 3. ⊕ Prueba de Lilliefors (Desconocidos los parámetros poblacionales). Se toma la decisión sobre la H0. 6.  En ciertos casos.  El procedimiento es el mismo que hemos descrito para la prueba de Kolmogorov .  La asignación aleatoria a ambas condiciones se hace para evitar en lo posible. 4. comparándolo con el valor crítico de las tablas. obtenemos dos muestras de observaciones que. CONTRASTES DE HIPÓTESIS PARA DOS MUESTRAS CONTRASTES PARA DOS MUESTRAS INDEPENDIENTES I (TEMA 8)  Dos muestras de observaciones son independientes cuando las observaciones o medidas son independientes dentro y entre las muestras.  Nos limitaremos al caso de que la hipótesis nula se establece en torno a cero. al menos. Región crítica  La región crítica de este estadístico la formaremos consultando la Tabla A.  Según este diseño.16. podemos suponer independientes.  Según la hipótesis de investigación. 5. En otros casos. o CONTRASTE DE MEDIAS. contrastaremos un aspecto u otro de la distribución de la variable dependiente.

dos muestras de tamaño n1 y n2. ♠ Zona de rechazo de la H0. o sea. al menos.  La media de la distribución de las diferencias de medias es igual a cero bajo la hipótesis nula. o desconocidas sin supuesto de igualdad con n1 = n2. H1 La diferencia entre las dos medias poblacionales no es = 0. Cada media representa una estimación puntual de la media de la población correspondiente. H1 La diferencia entre las dos medias poblacionales no es > 0. Variable dependiente medida. ♠ Hipótesis.  Si inferimos que las poblaciones no difieren en sus medias. que es lo mismo que decir que las dos medias poblacionales son iguales. 4. 1. ⊕ ESTADÍSTICO T (Varianzas poblacionales desconocidas).  La distribución muestral de la diferencia de medias es normal si son normales las dos distribuciones originales.  La varianza de la distribución muestral de la diferencia de medias. 3.  Obtenemos una muestra aleatoria en cada una de las dos poblaciones. Varianzas poblacionales desconocidas supuestas iguales. una para cada una de las dos condiciones del experimento. ♠ Toma de decisión.  Por otra parte. si inferimos una diferencia entre las medias poblacionales. a nivel de intervalo. Dos poblaciones normales o de cualquier tipo con n y n2 igual o mayor de 30. 27 .  Se distribuye con una T de Student con n1 + n2 .  Se tienen dos poblaciones.  Contraste unilateral izquierdo: H0 La diferencia entre las dos medias poblacionales es = ó > 0.  Calculamos la media de las observaciones de cada muestra.  La hipótesis nula es de la forma de que la diferencia entre medias es igual a cero. ♠ Nivel crítico p.  No se está interesado en las medias en sí mismas sino en la diferencia existente entre ellas.usual. H1 La diferencia entre las dos medias poblacionales no es < 0. 1 ⊕ ESTADISTICO Z (Se conocen las varianzas poblacionales).2 grados de libertad. ♠ Aplicación.. n1 + n2 observaciones aleatorias e independientes. podríamos concluir que no hay efecto de método sobre el aprendizaje de la estadística.  Contraste bilateral: H0 La diferencia entre las dos medias poblacionales es = 0. concluiremos que el método influye sobre las notas medias obtenidas. es una función de los dos tamaños muestrales y de las varianzas de las dos poblaciones originales (supuesto de homocedasticidad). 2. ♠ Interpretación.  Contraste unilateral derecho: H0 La diferencia entre las dos medias poblacionales es = ó < 0. utilizando la media.. ♠ Supuestos.

Variable dependiente medida.  Si las distribuciones de las dos poblaciones son normales.  La zona de rechazo se obtiene de una forma similar a la presentada para el estadístico de contraste T anterior. ♠ Supuestos. a nivel de intervalo.1). 2.2 grados de libertad por los valores críticos de la distribución normal N (0.  La lógica de la inferencia es la misma que para el caso de la media. ♠ Hipótesis.  Se distribuye con una T de Student con n1 + n2 . n1 + n2 observaciones aleatorias e independientes. el cociente de las varianzas es igual a 1 y distinto de 1. 3. 2. si no lo es. 1. el problema de la investigación versa sobre la variabilidad de la distribución en vez de su centro. ♠ Nivel crítico p. ♠ Aplicación. al menos. al menos. cuya distribución es normal N(0.  Si la hipótesis nula es cierta. Varianzas poblacionales conocidas. H1 La varianza de la distribución de la población 1 es mayor que la de la población 2.  SUPUESTOS: 1. sustituyendo T por Z y t por z. H1 La varianza de la distribución de la población 1 es menor que la de la población 2. 3. n1 + n2 observaciones aleatorias e independientes. o CONTRASTE DE VARIANZAS.  Lo que se quiere contrastar es la igualdad de la varianzas (supuesto de homocedasticidad o de homogeneidad de varianzas). la igualdad de las varianzas de dos poblaciones puede contrastares mediante el cociente de las dos varianzas. el cociente entre las dos varianzas se distribuye como una F de Snedecor que se distribuye con k1 = n1 .  También es similar la forma de hallar el nivel crítico p. ⊕ ESTADÍSTICO F.1).  Contraste unilateral derecho: H0 La varianza de la distribución de la población 1 es igual o menor que la de la población 2.  Contraste bilateral: H0 La varianza de la distribución es la misma en las dos poblaciones. 4.  En algunos casos. Se aplica el estadístico Z. sustituyendo los valores críticos de la distribución T de Student con n1 + n2 . a nivel de intervalo. ♠ Zona de rechazo de la H0. Dos poblaciones normales o de cualquier tipo con n1 y n2 igual o mayor de 30. Dos poblaciones normales o de cualquier tipo con n1 y n2 igual o mayor de 30.2 grados de libertad.  Contraste unilateral derecho: H0 La varianza de la distribución de la población 1 es igual o mayor que la de la población 2.1 y k2 = n2 -1 grados de libertad.  Para el caso de dos muestras independientes. H1 La varianza de la distribución no es la misma en las dos poblaciones. 28 . Variable dependiente media.

2. 1.  En el primer caso. 2.π2 = 0) se aplicará cuando la hipótesis nula se establece en trono a cero. ♠ Hipótesis. H1 La proporción de la población 1 menos a proporción de la población 2 es menor que 0. 4.  La variable dependiente sólo puede tomar dos valores (variable dicotómica o dicotomizada). También n2P2 se distribuye según una binomial en la población 2. Donde π1 no es igual π2 π 3.π2 es no nula) se aplicará cuando la hipótesis nula se establece a una diferencia no nula. Variable dependiente dicotómica o dicotomizada. lo cual implica el supuesto de igualdad de las dos proporciones poblacionales.  El estadístico Z (λ = π1 . Variable dependiente dicotómica o dicotomizada. con parámetros n 2 y π2. n1 y n2 iguales o mayores de 30 para realizar la aproximación de la binomial a la normal. n1 y n2 iguales o mayores de 30 para realizar la aproximación de la binomial a la normal.  Se quiere comparar la proporción de veces que aparece una determinada característica en dos poblaciones. con parámetros n1 y π1.π2 = π 3. con parámetros n 2 y π2. ♠ Toma de decisión. n1 + n2 observaciones aleatorias e independientes. o CONTRASTE DE PROPORCIONES. ⊕ ESTADISTICO Z. la hipótesis nula que se contrasta es que no hay diferencia entre los dos parámetros. En contraste bilaterales. n1 + n2 observaciones aleatorias e independientes.  Contraste unilateral derecho: H0 La proporción de la población 1 menos a proporción de la población 2 29 . n1P1 se distribuye según una binomial en la población 1.  Si la H0 se establece en torno a cero: ♠ Supuestos. es más difícil de calcular cuando la distribución de probabilidad es asimétrica.  Si la H0 se establece en torno a cero:  Contraste bilateral: H0 La proporción de la población 1 menos la proporción de la población 2 es igual a 0. 4. H1 La proporción de la población 1 menos la proporción de la población 2 es distinta de 0.  Contraste unilateral derecho: H0 La proporción de la población 1 menos la proporción de la población 2 es igual o mayor que 0.  Si la H0 se establece en torno a una diferencia donde λ es no nula: ♠ Supuestos. con parámetros n1 y π1.  El estadístico Z (π1 . Donde π1 . También n2P2 se distribuye según una binomial en la población 2. n1P1 se distribuye según una binomial en la población 1. lo cual implica el supuesto de desigualdad de las dos proporciones poblacionales. 1. Mientras que en el segundo la hipótesis nula es que hay diferencia y esta diferencia es igual a λ (λ desigual a 0). ♠ Interpretación.

no está dentro del intervalo. Si la H0 se establece en torno a una diferencia donde λ es no nula: Contraste bilateral: H0 La proporción de la población 1 menos la proporción de la población 2 es igual a λ.  Como 0 (no hay diferencias). Toma de decisión.  La distribución muestral es la diferencia de medias en vez de la media. al menos. Contraste unilateral derecho: H0 La proporción de la población 1 menos a proporción de la población 2 es igual o menor que λ. de intervalo y las distribuciones poblacionales deben ser normales con varianzas desconocidas y supuestas iguales (o desconocidas sin supuesto de igualdad con n1 = n2). además de proporcionarnos la información anterior. Interpretación. lo estipulado en la H0.    ♠ ♠ ♠ ♠ ♠ es igual o menor que 0. o RESUMEN DEL TEMA. Intervalo de confianza para una diferencia de medias.  Si en la situación anterior conociésemos las varianzas poblacionales utilizaríamos el 30 . sobre el rechazo o no de la H0. el nivel de medida de la variable dependiente debe ser. H1 La proporción de la población 1 menos a proporción de la población 2 es mayor que 0. H1 La proporción de la población 1 menos la proporción de la población 2 es distinta de λ. se rechaza la hipótesis nula de la diferencia entre las medias de ambas poblaciones es igual a cero. Aplicación.  El intervalo de confianza. o CONTRASTE DE HIPÓTESIS E INTERVALOS DE CONFIANZA. Contraste unilateral derecho: H0 La proporción de la población 1 menos la proporción de la población 2 es igual o mayor que λ.  Como 1 (las varianzas son iguales). rechazamos H0. H1 La proporción de la población 1 menos a proporción de la población 2 es mayor que λ. el valor estipulado en H0.  Además el supuesto de independencia de las observaciones.  Como 0 (no hay diferencias). lo estipulado en la hipótesis nula. es decir. nos permite decidir. Zona de rechazo de la H0. no rechazamos H0. Nivel crítico p. no está dentro del intervalo. al igual que un contraste de hipótesis.  CONTRASTE DE MEDIAS: Para su aplicación. H1 La proporción de la población 1 menos a proporción de la población 2 es menor que λ.2 grados de libertad. Intervalo de confianza para un cociente de varianzas. está dentro del intervalo. utilizando el estadístico de contraste T que se distribuye según una T de Student con n1 + n2 . Intervalo de confianza para una diferencia de proporciones.

N(0.Smirnov).6) distintas.  Además el supuesto de independencia de las observaciones. la distribución T de Student se aproxima a la normal para grados de libertad mayores que 30. por lo que.  También bajo determinados supuestos compararemos la tendencia central de dos distribuciones de una variable medida.  CONTRASTE DE VARIANZAS: Utilizando el estadístico F. que se distribuye como una F de Snedecor con n1 . en esos casos.Wilcoxon).  Por otro las proporciones acumuladas de una variable medida.1).estadístico Z que se distribuye según una normal. el nivel de medida de la variable dependiente debe ser.  Por otra parte.  Además del supuesto de independencia de las observaciones. entraría en la clasificación de los contrastes no paramétricos.  Las observaciones de ambas muestras son independientes. 31 . n1P1 y n2P2 deben distribuirse como una binomial y n1 igual o mayor que 30 y n2 igual o mayor que 30 para realizar la aproximación de la binomial a la normal. a nivel ordinal (estadístico de W de Mann . pues no se cumple el nivel de medida de los paramétricos.  Además en el caso del estadístico Z (fórmula 8. acudiremos a la distribución normal (0. de intervalo y las distribuciones poblacionales deben ser normales (o con cualquier tipo siempre que los tamaños muestrales sean iguales o mayores que 30). al menos.  Pese a su similitud en los supuestos (excepto respecto a los parámetros π1 y π2 .  CONTRASTE DE LA DIFERENCIA DE PROPORCIONALES: En el que aplicamos los estadísticos Z que se distribuyen de forma aproximadamente normal. son iguales.  Los contrastes sobre la diferencia de proporciones. la hipótesis nula que se contrasta con cada estadístico y ambos estadísticos son muy diferentes.5) las proporciones poblacionales se suponen iguales bajo H0 y en el estadístico Z (fórmula 8. la variable debe ser dicotómica. al menos.Whitney . lo que afecta al error típico de la diferencia). al menos. en las categorías de una variable.  Se intenta comparar por un lado las categorías de una variable categórica o categorizada (estadístico de X2 Pearson).1).  El estadístico X2 de homogeneidad podemos contrastar la hipótesis nula de que las proporciones con que se representa una cierta característica. en dos poblaciones.  CLASIFICACION PARAMETRICO Y NO PARAMETRICO:  Los contrastes sobre la diferencia de medias y el cociente de varianza serían paramétricos.1 y n2 -1 grados de libertad. o ESTADÍSTICO X2 DE PEARSON DE HOMEGENEIDAD. CONTRASTES PARA DOS MUESTRAS INDEPENDIENTES II (TEMA 9) o INTRODUCCIÓN. a nivel ordinal (estadístico D de Kolmogorov .

 Deben interpretarse los resultados en el contexto de la investigación.  Los valores de las diferencias pueden considerarse como una medida de la discrepancia entre las dos funciones de distribución. en las muestras 1 y 2. 32 .  El contraste de homogeneidad mediante X2 de Pearson puede generalizarse a más de dos poblaciones y c categorías.  Se rechaza H0 si x2 cae en la zona de rechazo o si p es = ó < que α. 1 o ESTADÍSTICO D KOLMOGOROV . Y S2 (y) que tiene el mismo significado que S1 (y) pero respecto a la muestra 2. Variable dependiente medida. 3. es al menos de 3.  El estadístico X2 de Pearson. En caso contrario debemos agrupar las categorías hasta alcanzar este criterio. ♠ Nivel crítico p. La frecuencia teórica de cada categoría. ♠ Supuestos. las observaciones de una muestra se clasifican de acuerdo con dos variables que pueden tener varias categorías cada una.  El estadístico de contraste X2 se basa en la comparación de las frecuencias observadas y las frecuencias esperadas..  H0: Las dos poblaciones son homogéneas en cuanto a la proporción de la característica observada en cada una de las c categorías de la variable. también puede aplicarse para contrastar la independencia de dos variables. y c indica el número de categorías de la variable.  El estadístico X2 se distribuye aproximadamente como una Chi cuadrado con (m-1) (c-1) grados de libertad. Si ambas muestras proceden de poblaciones con distribuciones iguales es de esperar que no haya discrepancias entre S1(y) y S2(y). al menos. es al menos 3.  Las fac1 y fac2 son frecuencias acumuladas hasta el valor y. ♠ Zona de rechazo de la H0. En este caso.  Sea S1 (y) la proporción empírica de valores iguales o menores que y en la muestra 1.  H1: Las dos poblaciones no son homogéneas en cuanto a la proporción de la característica observada en cada una de la c categorías de la variable. el número de categorías a contrastar es el obtenido después de la recategorización. en cada muestra. La frecuencia teórica de cada categoría. n + n2 observaciones aleatorias e independientes. estas últimas calculadas bajo el supuesto de que la hipótesis nula es cierta. c categorías exhaustivas y mutuamente exclusivas. ♠ Hipótesis. dividido por el número total de observaciones de la muestra 1. excepto por azar. ♠ Interpretación.  NUMERO DE FRECUENCIAS TEORICAS: Este número dentro de cada celda de la tabla de contingencia debe ser lo suficientemente grande. donde m se refiere al número de muestras. También puede decirse que las dos poblaciones son homogéneas en cuanto a la proporción de sujetos que representa esa característica en las categorías. En caso de agrupar las categorías.  Si las diferencias entre ambos tipos de frecuencias son estadísticamente significativas. deberemos rechazar la hipótesis de homogeneidad. ♠ Toma de decisión. Es decir el número de observaciones iguales o menores que y en la muestra 1. en cada muestra. 2.SMIRNOV. a nivel nominal con c categorías o a un nivel superior y categorizada. ♠ Aplicación. 1. 4.

La función de la distribución es la misma en ambas poblaciones. a nivel ordinal. si las dos muestras proceden de la misma población. ♠ Aplicación. 1. ♠ Nivel crítico p. por lo que no se podrá rechazar la hipótesis nula de igualdad de las distribuciones..  Contraste unilateral derecho : H0: F1(y) igual o menor F2(y) para toda y.  Si las dos muestras pertenecen a una misma población. al menos. la suma de los órdenes de una muestra no debería ser muy distinta de la suma de los órdenes de la otra muestra.  Contraste bilateral: H0: F1(y) = F2(y) para toda y.  El cálculo de W se basa en la información ordinal de las observaciones (medidas. a nivel ordinal. ♠ Toma de decisión. H1: F1(y) es mayor F2(y) para al menos una y. 2. al menos. Variable dependiente medida.  Si ordenamos todas las puntuaciones de menor a mayor. si pertenecen a una población común. valores o puntuaciones individuales). La función de distribución no es la misma en ambas poblaciones.  La finalidad de la aplicación del estadístico W es contrastar si dos muestras pertenecen a dos poblaciones idénticas o lo que es lo mismo. 3. independientemente de la muestra a la que pertenecen.  El estadístico de contraste W permite. La función de distribución de la población 1 es mayor que la de la población 2.  Se asigna a cada puntuación el orden que le corresponde según su magnitud independientemente de la muestra a la que pertenece. ♠ Supuestos. Las distribuciones de las dos poblaciones si difieren es sólo en su medida de tendencia central. 1 o ESTADÍSTICO W DE MANN . ♠ Zona de rechazo de la H0.WHITNEY . ♠ Hipótesis. Si la mayor diferencia es pequeña. H1: F1(y) es distinta F2(y) para al menos una y. para al menos una y.WILCOXON. H1: La tendencia central de las dos poblaciones es distinta. para al menos una y. n + n2 observaciones aleatorias e independientes. para toda y. 2. es de esperar que la muestra extraída de una población no diferirá de la muestra extraída de la otra población. 1.para toda y. ♠ Hipótesis. Variable dependiente medida. ♠ Supuestos. bajo ciertos supuestos. comparar la tendencia central de dos distribuciones poblacionales en dos muestras independientes. 1 33 . n + n2 observaciones aleatorias e independientes.  Contraste bilateral: H0: La tendencia central de las dos poblaciones son iguales. las restantes también lo serán. La función de la distribución de la población 1 es igual o menor que la de la población 2.

 Cuando tenemos muestras n1 > 2 y n2 > 10. para cada valor de Y observado en la muestra.  Tres estadísticos para el caso de dos muestras independientes. podemos tener empates por la limitada precisión de los instrumentos de nuestras medidas.Wilcoxon. si no hay empates.  La distribución muestral del estadístico de contraste W de Mann .  Y los estadísticos W y D. H0: La tendencia central de la población 1 es igual o de la población 2. en base a datos ordenados. X2 de Pearson.Wilcoxon. 1. Ello es posible si no hay medidas iguales.Wilcoxon permite comparar la tendencia central de dos poblaciones. Aún si la distribución de la variable es continua por lo que la probabilidad de un empate es nula.Smirnov. 2.Whitney .  Contraste unilateral derecho : menor que la ♠ Aplicación.Smirnov compara las funciones de distribución de ambas muestras. W de Mann .5 si W E(W) o se suma si > E(W). ♠ Toma de decisión.  El estadístico D de Kolmogorov .  El 0. ♠ Empates.Whitney . o a un nivel superior y categorizada.5 es una corrección por continuidad. ♠ Interpretación. 34 . ♠ Aproximación a la distribución normal.Whitney . al igual que la de muchos otros estadísticos basados en sumas de órdenes.  El estadístico de contraste W requiere ordenar las medidas o puntuaciones de ambas muestras en una ordenación única.  El estadístico X2 de Pearson permite contrastar la homogeneidad de m poblaciones en cuanto a la proporción de veces que aparece una determinada característica en las distintas categorías de una variable. 3.  El estadístico W de Mann . es decir. ⊕ DISTRIBUCIÓN MUESTRAL.  Cuando las muestras son de distinto tamaño tenemos una distribución muestral distinta según calculemos las combinaciones de los n1 o n2 órdenes.  La aplicación de los tres estadísticos no requiere hacer ningún supuesto sobre la forma de la distribución poblacional. o RESUMEN DEL TEMA. ♠ Nivel crítico p. Contraste unilateral izquierdo: mayor que la H0: La tendencia central de la población 1 es igual o de la población 2.  El estadístico X2 se calcula a partir de las frecuencias de datos de una variable medida a nivel nominal. podemos aplicar la aproximación a la distribución normal. ♠ Zona de rechazo de la H0. Se resta 0. H1: La tendencia central de la población 1 es menor que la de la población 2. es fácil de hallar cuando los tamaños muestrales son pequeños. D de Kolmogorov . H1: La tendencia central de la población 1 es mayor que la de la población 2.

antes y después de la aplicación de un tratamiento.  Si bien las observaciones (de un mismo sujeto o entre los dos sujetos de un mismo par) pueden estar relacionadas. pero las diferencias no tienen porque estarlo.  Otro caso es cuando se mide una variable en los dos miembros de n pares de sujetos siendo los miembros de cada par muy similares en alguna o algunas variables relevantes. con los datos de ambas muestras de observaciones que supondremos relacionadas. Por los tanto el estadístico de contraste es el mismo que el utilizado para contrastar la media de una población normal. la distribución muestral de la media también será normal. siempre que tengamos datos procedentes de diseños de ese tipo. de diferencias. Se especifica la distribución muestral del estadístico bajo el supuesto de que la hipótesis nula es cierta. Se obtiene la probabilidad asociada al valor del estadístico hallado.  Cuando se mide dos veces la misma variable en una misma muestra de sujetos como en el clásico diseño antes y después de un tratamiento. las dos observaciones o medidas de cada sujeto pueden estar relacionadas o correlacionadas.  En teoría.  Lo que se pretende inferir es el efecto de una variable sobre otra variable.  En los dos casos. Interpretamos el resultado obtenido.  Si la población de las diferencias es normal con varianza conocida. Decidimos sobre el rechazo o no de la hipótesis nula.  La lógica de la inferencia es como sigue: 1. las dos observaciones o puntuaciones de un mismo sujeto (o de los dos sujetos de un mismo par) pueden estar relacionadas. ello no implica que las diferencias entre cada par de observaciones lo estén. Se formulan las hipótesis estadísticas acerca de alguna característica de la distribución de la variable en la población en función de la hipótesis científica y las características anteriores.  Por lo tanto. 3. si no se especifica lo contrario. 6. 35 . 5.  El procedimiento para estimar la media de las diferencias entre dos muestras relacionadas es similar al ya explicado. las observaciones pueden estar relacionadas. 4. 2. Fijamos α. No tiene porque influir la diferencia entre dos medidas con la diferencias observada entre otras dos medidas. 8. en este caso.  Dos muestras son dependientes o están relacionadas cuando las observaciones no son independientes. Se calcula el estadístico de contraste elegido. en el que se obtienen medias pre y post tratamientos. es decir. asumiremos que las observaciones de ambas muestras están relacionadas.CONTRASTES PARA DOS MUESTRAS DEPENDIENTES I (TEMA-10) o INTRODUCCIÓN. Se elige el estadístico de contraste más adecuado en función de esas características y las hipótesis. 7. pues se puede considerar las diferencias obtenidas como una muestra.  Se toman las medias. o CONTRASTE DE MEDIAS.

Las diferencias en la población es mayor que cero. a nivel intervalo. debemos estimarla pero en este caso. Dos poblaciones normales o de cualquier tipo con n1 = n2 (n pares) igual o mayor de 30. El estadístico Z se distribuye normalmente. Las diferencias en la población es igual a cero. 3. la distribución muestral de la media de las diferencias no es normal sino que sigue un modelo de probabilidad T de Student con n-1 grados de libertad. 2. Una población normal de diferencias o de cualquier tipo con n igual o mayor de 30. ⊕ ESTADÍSTICO T (Varianza poblacional desconocida). 2. con media cero y varianza uno. al menos. 4. La varianza poblacional de las diferencias es conocida. Cuando conocemos la varianza poblacional. 4. 1.  En el caso de la media de las diferencias el estadístico se obtiene tipificando la media de las diferencias μD = 0 ♠ Supuestos. Las diferencias en la igual o menor a cero. El contraste de varianzas para dos muestras de observaciones relacionadas. Variable dependiente medida. al menos.  Contraste unilateral izquierdo: H0: μD es = ó > a 0. Si se desconoce la varianza poblacional de diferencias. 2. Variable dependiente medida. Las diferencias en la población es igual o mayor a cero. Una población normal de diferencias o de cualquier tipo con n = ó > de 30. o  ⊕  ♠ 36 . ♠ Hipótesis. H1: μD es > que 0. ♠ ♠ ♠ ♠ ♠ ⊕    Aplicación.  Contraste bilateral: H0: μD es = a 0. Las diferencias en la población es menor que cero. H1: μD es < que 0. n diferencias aleatorias e independientes. La varianza poblacional de las diferencias es desconocida. a nivel de intervalo. Nivel crítico p. Zona de rechazo de la H0. Supuestos.  Contraste unilateral derecho : población es H0: μD es = ó < que 0. Variable dependiente medida. H1: μD no es igual a 0. Toma de decisión. al menos. Interpretación. El estadístico T se distribuye como una T de Student con n-2 grados de libertad. Las diferencias en la población es igual a cero. ESTADÍSTICO Z (varianza poblacional conocida). Los supuestos son los siguientes: 1. n diferencias aleatorias e independientes. a nivel intervalo. 1. ESTADÍSTICO T. 3. CONTRASTE DE VARIANZAS.

 Contraste unilateral derecho: H0: σ21 = ó < σ22 La varianza de la población 1 es igual o menor a la varianza de la población 2. o CONTRASTE DE PROPORCIONES.  Contraste bilateral: H0: σ21 = σ22 La varianza de la población 1 es igual a la varianza de la población 2.  Contraste unilateral izquierdo: H0: σ21 = ó > σ22 La varianza de la población 1 es igual o mayor a la varianza de la población 2. 3. H1: π21 no es igual π12 La proporción poblacional de sujetos que puntúan 2 en la primera medida y 1 en la segunda no es igual a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda. ♠ Aplicación. Las dos observaciones de cada par están relacionadas entre sí. Población: N’ = N12 + N21 cambios.  Contraste bilateral: que puntúan 2 H0: π21 = π12 La proporción poblacional de sujetos en la primera medida y 1 en la segunda es igual a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda. Variable dependiente medida. ♠ Interpretación. 2. a nivel nominal con dos categorías o a un nivel superior y categorizada.  El estadístico de contraste B se distribuye como una binomial con π = 0. ⊕ ESTADISTICO B (Binomial). al menos. H1: σ21 < σ22 La varianza de la población 1 es menor que la varianza de la población 2. ♠ Nivel crítico p. ♠ Supuestos. ♠ Hipótesis. ♠ Hipótesis. H0: π21 = ó > π12 La proporción poblacional de 37  Contraste unilateral izquierdo: .  Se trata de comparar la proporción de veces que aparece una determinada característica.3. H1: σ21 > σ22 La varianza de la población 1 es mayor que la varianza de la población 2.50 y n’ = n12 + n21. 1. n’ = n12 + n21 cambios independientes. ♠ Zona de rechazo de la H0. Por lo tanto tendremos una muestra de tamaño n en la que tomamos dos medidas de una misma variable. tomando medidas pre y post tratamiento. H1: σ21 distinta σ22 La varianza de la población 1 no es igual a la varianza de la población 2. ♠ Toma de decisión.

n’ = n12 + n21 > 20. Interpretación. a nivel nominal con dos categorías o a un nivel superior y categorizada. Población: N’ = N12 + N21 cambios. 2. H1: π21 < π12 La proporción poblacional de sujetos que puntúan 2 en la primera medida y 1 en la segunda es menor a la proporción poblacional de sujetos que puntúan 1  Contraste unilateral derecho: sujetos que puntúan 38 . H0: π21 = ó < π12 La proporción poblacional de 2 en la primera medida y 1 en la segunda es igual o menor a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda. Toma de decisión. H1: π21 < π12 La proporción poblacional de sujetos que puntúan 2 en la primera medida y 1 en la segunda es menor a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda. 3. H1: π21 no es igual π12 La proporción poblacional de sujetos que puntúan 2 en la primera medida y 1 en la segunda no es igual a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda. ♠ Hipótesis.  Contraste bilateral: H0: π21 = π12 La proporción poblacional de sujetos que puntúan 2 en la primera medida y 1 en la segunda es igual a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda. H1: π21 > π12 La proporción poblacional de sujetos que puntúan 2 en la primera medida y 1 en la segunda es mayor a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda. Variable dependiente medida. Nivel crítico p.sujetos que puntúan 2 en la primera medida y 1 en la segunda es igual o mayor a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda. Supuestos. 1. Zona de rechazo de la H0. ♠ ♠ ♠ ♠ ♠ ⊕ ♠ Aplicación. ESTADISTICO Z.  Contraste unilateral izquierdo: H0: π21 = ó > π12 La proporción poblacional de sujetos que puntúan 2 en la primera medida y 1 en la segunda es igual o mayor a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda. al menos.

Nivel crítico p. H1: π21 > π12 La proporción poblacional de sujetos que puntúan 2 en la primera medida y 1 en la segunda es mayor a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda. Interpretación. no rechazamos que la media de las diferencias en la población es 0. 39 . Se denomina así porque podemos convertir los datos en signos positivos y negativos. para dos muestras de observaciones relacionadas. o CONTRASTE DE HIPÓTESIS E INTERVALOS DE CONFIANZA. Toma de decisión.en la primera medida y 2 en la segunda. el valor de la media de las diferencias estipulado en la hipótesis nula está dentro del intervalo. y se distribuye como una binomial con parámetros π = 0. Zona de rechazo de la H0. Como 0. Intervalo confidencial en torno a la media poblacional de las diferencias:  Al igual que con el contraste de hipótesis. en ambos casos. ♠ ♠ ♠ ♠ ♠ Aplicación.  Contraste unilateral derecho: sujetos que puntúan H0: π21 = ó < π12 La proporción poblacional de 2 en la primera medida y 1 en la segunda es igual o menor a la proporción poblacional de sujetos que puntúan 1 en la primera medida y 2 en la segunda.  El intervalo de confianza para medias y proporciones.50 y n = n+ + n-.  El estadístico S está basado en lo que comúnmente se llama la prueba o contraste de los signos.  Se define como el número de signos negativos o positivos. el intervalo de confianza nos permite decidir sobre le rechazo o no de H0. ♠ Supuestos. Intervalo de confianza para una diferencia de proporciones: CONTRASTES PARA DOS MUESTRAS DEPENDIENTES (TEMA 11) o ESTADÍSTICO S (SIGNOS).

por lo que π tomará un valor u otro según el percentil que se quiera contrastar. Interpretación. n = n. muchos signos negativos (pocos signos positivos) apoyarán le hipótesis alternativa. muchos signos positivos (pocos negativos) apoyarán la hipótesis alternativa.  El estadístico de contraste W se define como la suma de órdenes negativos o positivos. Hipótesis. Toma de decisión. Zona de rechazo de la H0. a nivel de intervalo. Aplicación. En un contraste unilateral izquierdo. Nivel crítico p. debe tenerse en cuenta la dirección del contraste.  El contraste de Wilcoxon. 2. ♠ Hipótesis. ♠ Supuestos. al menos. muchos signos positivos (pocos signos negativos) apoyarán le hipótesis alternativa. o ESTADÍSTICO W DE WILCOXON. 2. y si las diferencias se obtienen restando la primera medida de la segunda. además de esta información asigna un orden a cada diferencia en función de su magnitud. muchos signos negativos (pocos positivos) apoyarán la hipótesis alternativa. n = n. Contraste bilateral: H0: η1 = η2 La mediana de la población 1 es igual a la mediana de la población 2. Contraste unilateral derecho: H0: η1 = ó < η2 La mediana de la población 1 es igual o menor a la mediana de la población 2. En un contraste unilateral.♠    ♠      ♠ ♠ ♠ ♠ 1. La distribución poblacional de las diferencias es simétrica en torno a la mediana. si las diferencias se obtienen restando la segunda medida de la primera. 3. Variable dependiente medida.+ n+ diferencias aleatorias e independientes. H1: η1 > η2 La mediana de la población 1 es mayor a la mediana de la población 2.+ n+ diferencias aleatorias e independientes. En un contraste unilateral derecho.  Se atribuye un rango u orden a cada diferencia según su magnitud. Contraste unilateral izquierdo: H0: η1 = ó > η2 La mediana de la población 1 es igual o mayor a la mediana de la población 2.  El estadístico de contraste S sólo utiliza la información acerca de los signos de las diferencias entre cada para de puntuaciones. 1. Ambas probabilidades son iguales por ser simétrica la distribución binomial en torno a n/2. 40 . y si las diferencias se obtienen restando la primera medida de la segunda. al menos. Mediante el contraste de signos podemos contrastar hipótesis sobre cualquier percentil. si las diferencias se obtienen restando la segunda medida de la primera. Variable dependiente medida. a nivel ordinal. H1: η1 no es igual η2 La mediana de la población 1 no es igual a la mediana de la población 2. independientemente de su signo. H1: η1 < η2 La mediana de la población 1 es menor a la mediana de la población 2.

♠ Toma de decisión. Contraste bilateral: la mediana de H0: η1 = η2 La mediana de la población 1 es igual a la población 2. debe tenerse en cuenta la dirección del contraste.  En un contraste unilateral izquierdo. ♠ Zona de rechazo de la H0. ♠ Interpretación. podemos aplicar el estadístico X2 para contrastar si n 41 . rechazaremos la hipótesis nula si la suma de los órdenes positivos es significativamente mayor que la de los órdenes negativos. rechazaremos la hipótesis nula si la suma de los órdenes positivos es significativamente mayor que la de los órdenes negativos.  Contraste unilateral derecho: igual o menor a la ♠ Aplicación. si las diferencias se obtienen restando la segunda medida de la primera.  En un contraste unilateral. y si las diferencias se obtienen restando la primera medida de la segunda. H1: η1 no es igual η2 La mediana de la población 1 no es igual a la mediana de la población 2. ♠ Nivel crítico p. H1: η1 > η2 La mediana de la población 1 es mayor a la mediana de la población 2.  En un contraste unilateral derecho. H1: η1 < η2 La mediana de la población 1 es menor a la mediana de la población 2. H0: η1 = ó < η2 La mediana de la población 1 es mediana de la población 2. y si las diferencias se obtienen restando la primera medida de la segunda. rechazaremos la hipótesis nula si la suma de los órdenes positivos es significativamente menor que la de los órdenes negativos. CONTRASTES DE INDEPENDENCIA DE DOS VARIABLES ESTADÍSTICO X2 DE PEARSON DE INDEPENDENCIA DE DOS VARIABLES (ANEXO) o INTRODUCCIÓN. rechazaremos la hipótesis nula si la suma de los órdenes positivos es significativamente menor que la de los órdenes negativos. si las diferencias se obtienen restando la segunda medida de la primera.  Contraste unilateral izquierdo: igual o mayor a la H0: η1 = ó > η2 La mediana de la población 1 es mediana de la población 2.  Bajo determinados supuestos.

 El estadístico X2 se distribuye aproximadamente como una χ2 con (c-1) (r-1) grados de libertad.  El número de frecuencias teóricas dentro de cada celda de la tabla de contingencia debe ser lo suficientemente grande.  El estadístico X2 de independencia puede aplicarse cuando se tiene un número cualquiera de categorías en cualquiera de las dos variables. La frecuencia teórica de cada celdilla de la tabla de contingencia. Las c categorías en el contraste de homogeneidad y las c x r combinaciones en el de independencia deben ser exhaustivas y mutuamente exclusivas. en el contraste de independencia tenemos una muestra procedente de una población y se clasifican a los sujetos de la muestra en las c x r combinaciones resultantes de cruzar c categorías de una variable con r categorías de la otra variable. respectivamente. El diseño no es el mismo en los dos casos. deberemos rechazar la hipótesis de independencia. siempre que n sea lo suficientemente grande. H0: Las dos variables aleatorias son independientes. 42 . respectivamente. Una muestra aleatoria de n sujetos extraída de una población. o ESTADÍSTICO DE CONTRASTE.  Los datos consisten en un número n de observaciones que pueden clasificarse de acuerdo a dos variables con c y r categorías. La frecuencia teórica de caza celda sea. o SUPUESTOS. En el contraste de homogeneidad. al menos. al menos. de forma que cada observación pertenezca de forma unívoca a una de las c x r combinaciones (o celdilla) resultantes de cruzar las categorías de las dos variables.  El estadístico de contraste X2 se basa en la comparación de las frecuencias observadas y las frecuencias esperadas. cada sujeto de cada población (o la población) sólo puede pertenecer a una de las c categorías (en el contraste de homogeneidad) y en las c x r combinaciones (en el contraste de independencia). es diferente. 4. la lógica seguida en el cálculo de las frecuencias esperadas de cada celdilla. también puede aplicarse para contrastar la independencia de dos variables.    poblaciones son homogéneas en cuanto a la proporción de veces que aparece cierta característica en las c categorías de una variable. o HIPÓTESIS.  Si las diferencias entre ambos tipos de frecuencias son estadísticamente significativas. Es decir. c x r combinaciones exhaustivas y mutuamente exclusivas. se calculan bajo el supuesto de que las dos poblaciones son homogéneas en cuanto a la proporción de veces que aparece la característica de interés (H0). Dos variables medidas a nivel nominal con c y r categorías respectivamente o a un nivel superior y categorizadas. En el contraste de independencia. 3. El estadístico X2 de Pearson. las observaciones de una muestra se clasifican de acuerdo con dos variables que pueden tener varias categorías cada una. Por otra parte. 3. Aunque los estadísticos son matemáticamente equivalentes. 2. En el contraste de homogeneidad tenemos m muestras procedentes de m poblaciones y se clasifican a los sujetos de cada muestra en la c categorías de una variable. 3. En este caso. donde c y r indican el número de categorías de la primera y segunda variable. se obtienen bajo el supuesto de que las dos variable son independientes (H0). estas últimas bajo el supuesto de que la hipótesis nula es cierta. 1. H1: Las dos variables aleatorias no son independientes.

Sign up to vote on this title
UsefulNot useful