You are on page 1of 22

Prueba De Hipotesis Introduccion

La inferencia estadstica, como ya se mencion, est relacionada con los mtodos para obtener conclusiones o generalizaciones acerca de una poblacin. Estas conclusiones sobre la poblacin pueden estar relacionadas con la forma de la distribucin de una variable aleatoria, con los valores de uno o varios parmetros de la misma. El campo de la inferencia estadstica se divide en dos: Por un lado tenemos el problema de la estimacin de los parmetros de una distribucin, y por el otro, las pruebas de hiptesis. En el problema de estimacin se trata de elegir el valor de un parmetro de la poblacin, mientras que en las pruebas de hiptesis se trata de decidir entre aceptar o rechazar un valor especificado (por ejemplo, si el nivel de centramiento de un proceso es m0 o no lo es). El problema de la estimacin ya ha sido tratado en los captulos anteriores. Ahora estudiaremos lo relacionado con las pruebas de hiptesis. El campo de las pruebas de hiptesis se pueden considerar dos reas: Pruebas de hiptesis sobre parmetros, para determinar si un parmetro de una distribucin toma o no un determinado valor, y Pruebas de Bondad de Ajuste, para definir si un conjunto de datos se puede modelar mediante una determinada distribucin. Si sobre la base de una muestra se tiene que decidir si un proceso est produciendo una determinada media, digamos m = 100, o si hay que decidir si una determinada droga sirve a un grupo especfico de pacientes, lo anterior, puede traducirse en el lenguaje de Pruebas e Hiptesis. Una hiptesis estadstica es una proposicin o conjetura con respecto a una o ms poblaciones. Estas aseveraciones o suposiciones pueden ser con respecto a uno o varios parmetros, con respecto a la forma de las respectivas distribuciones de probabilidad. Tambin es posible considerar una hiptesis estadstica como una proposicin sobre la distribucin de probabilidad de una variable aleatoria ya que emplea distribuciones de probabilidad para representar poblaciones. Introduccin: Prueba de hiptesis En esta unidad nos concentraremos en la prueba de hiptesis, otro aspecto de la inferencia estadstica que al igual que la estimacin del intervalo de confianza, se basa en la informacin de la muestra. Se desarrolla una metodologa paso a paso que le permita hacer inferencias sobre un parmetro poblacional mediante el anlisis diferencial entre los resultados observados (estadstico de la muestra) y los resultados de la muestra esperados si la hiptesis subyacente es realmente cierta. En el problema de estimacin se trata de elegir el valor de un parmetro de la poblacin, mientras que en las pruebas de hiptesis se trata de decidir entre aceptar o rechazar un valor especificado (por ejemplo, si el nivel de centramiento de un proceso es o no lo es). Prueba de hiptesis: Estadsticamente una prueba de hiptesis es cualquier afirmacin acerca de una poblacin y/o sus parmetros. Una prueba de hiptesis consiste en contrastar dos hiptesis estadsticas. Tal contraste involucra la toma de decisin acerca de las hiptesis. La decisin consiste en rechazar o no

una hiptesis en favor de la otra. Una hiptesis estadstica se denota por H y son dos: Ho: hiptesis nula - H1: hiptesis alternativa Partes de una hiptesis 1-La hiptesis nula Ho 2-La hiptesis alternativa H1 3-El estadstico de prueba 4-Errores tipo I y II 5-La regin de rechazo (crtica) 6-La toma de decisin 1. Concepto: Una prueba de hiptesis estadstica es una conjetura de una o ms poblaciones. Nunca se sabe con absoluta certeza la verdad o falsedad de una hiptesis estadstica, a no ser que se examine la poblacin entera. Esto por su puesto sera imprctico en la mayora de las situaciones. En su lugar, se toma una muestra aleatoria de la poblacin de inters y se utilizan los datos que contiene tal muestra para proporcionar evidencia que confirme o no la hiptesis. La evidencia de la muestra que es un constante con la hiptesis planteada conduce a un rechazo de la misma mientras que la evidencia que apoya la hiptesis conduce a su aceptacin. Definicin de prueba de hiptesis estadstica es que cuantifica el proceso de toma de decisiones. Por cada tipo de prueba de hiptesis se puede calcular una prueba estadstica apropiada. Esta prueba estadstica mide el acercamiento del calor de la muestra (como un promedio) a la hiptesis nula. La prueba estadstica, sigue una distribucin estadstica bien conocida (normal, etc.) o se puede desarrollar una distribucin para la prueba estadstica particular. La distribucin apropiada de la prueba estadstica se divide en dos regiones: una regin de rechazo y una de no rechazo. Si la prueba estadstica cae en esta ltima regin no se puede rechazar la hiptesis nula y se llega a la conclusin de que el proceso funciona correctamente. Al tomar la decisin con respecto a la hiptesis nula, se debe determinar el valor crtico en la distribucin estadstica que divide la regin del rechazo (en la cual la hiptesis nula no se puede rechazar) de la regin de rechazo. A hora bien el valor crtico depende del tamao de la regin de rechazo. Pasos de la prueba de hiptesis. 1. Expresar la hiptesis nula 2. expresar la hiptesis alternativa 3. especificar el nivel de significancia 4. determinar el tamao de la muestra 5. establecer los valores crticos que establecen las regiones de rechazo de las de no rechazo. 6. determinar la prueba estadstica. 7. coleccionar los datos y calcular el valor de la muestra de la prueba estadstica apropiada. 8. determinar si la prueba estadstica ha sido en la zona de rechazo a una de no rechazo. 9. determinar la decisin estadstica. 10. expresar la decisin estadstica en trminos del problema.

http://www.mitecnologico.com/Main/PruebaDeHipotesisI ntroduccion

Distribucin normal

La lnea verde corresponde a la distribucin normal estndar Funcin de densidad de probabilidad

Funcin de distribucin de probabilidad

Parmetros Dominio Funcin de densidad (pdf)

Funcin distribucin (cdf) Media Mediana Moda Varianza Coeficiente simetra Curtosis Entropa

de

de

0 0

Funcin generadora de momentos (mgf) Funcin caracterstica En estadstica y probabilidad se llama distribucin normal, distribucin de Gauss o distribucin gaussiana, a una de las distribuciones de probabilidad de variable continua que con ms frecuencia aparece aproximada en fenmenos reales. La grfica de su funcin de densidad tiene una forma acampanada y es simtrica respecto de un determinado parmetro. Esta curva se conoce como campana de Gauss y es el grfico de una funcin gaussiana. La importancia de esta distribucin radica en que permite modelar numerosos fenmenos naturales, sociales y psicolgicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenmenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observacin se obtiene como la suma de unas pocas causas independientes. De hecho, la estadstica es un modelo matemtico que slo permite describir un fenmeno, sin explicacin alguna. Para la explicacin causal es preciso el diseo experimental, de ah que al uso de la estadstica en psicologa y sociologa sea conocido como mtodo correlacional. La distribucin normal tambin es importante por su relacin con la estimacin por mnimos cuadrados, uno de los mtodos de estimacin ms simples y antiguos.

Algunos ejemplos de variables asociadas a fenmenos naturales que siguen el modelo de la normal son:

caracteres morfolgicos de individuos como la estatura; caracteres fisiolgicos como el efecto de un frmaco; caracteres sociolgicos como el consumo de cierto producto por un mismo grupo de individuos; caracteres psicolgicos como el cociente intelectual; nivel de ruido en telecomunicaciones; errores cometidos al medir ciertas magnitudes; etc.

La distribucin normal tambin aparece en muchas reas de la propia estadstica. Por ejemplo, la distribucin muestral de las medias muestrales es aproximadamente normal, cuando la distribucin de la poblacin de la cual se extrae la muestra no es normal. 1 Adems, la distribucin normal maximiza la entropa entre todas las distribuciones con media y varianza conocidas, lo cual la convierte en la eleccin natural de la distribucin subyacente a una lista de datos resumidos en trminos de media muestral y varianza. La distribucin normal es la ms extendida en estadstica y muchos tests estadsticos estn basados en una supuesta "normalidad". En probabilidad, la distribucin normal aparece como el lmite de varias distribuciones de probabilidad continuas y discretas.

http://es.wikipedia.org/wiki/Distribuci%C 3%B3n_normal

Distribucin t de Student
Saltar a: navegacin, bsqueda Distribucin t de Student

Funcin de densidad de probabilidad

Funcin de distribucin de probabilidad

Parmetros

grados de libertad (real)

Dominio Funcin densidad (pdf) de

Funcin (cdf)

de donde funcin hipergeomtrica es la

distribucin

Media Mediana Moda

para

, indefinida para otros valores

Varianza valores Coeficiente de simetra

para

, indefinida para otros

para

Curtosis

para

Entropa

: funcin digamma, : funcin beta

Funcin generadora de (No definida)

momentos (mgf)

En probabilidad y estadstica, la distribucin t (de Student) es una distribucin de probabilidad que surge del problema de estimar la media de una poblacin normalmente distribuida cuando el tamao de la muestra es pequeo. Aparece de manera natural al realizar la prueba t de Student para la determinacin de las diferencias entre dos medias muestrales y para la construccin del intervalo de confianza para la diferencia entre las medias de dos poblaciones cuando se desconoce la desviacin tpica de una poblacin y sta debe ser estimada a partir de los datos de una muestra.

Contenido
[ocultar]

1 Caracterizacin 2 Aparicin y especificaciones de la distribucin t de Student 3 Intervalos de confianza derivados de la distribucin t de Student 4 Historia 5 Distribucin t de Student No Estandarizada 6 Referencias 7 Enlaces externos

Caracterizacin
La distribucin t de Student es la distribucin de probabilidad del cociente

donde

Z tiene una distribucin normal de media nula y varianza 1 V tiene una distribucin ji-cuadrado con grados de libertad Z y V son independientes

Si es una constante no nula, el cociente es una variable aleatoria que sigue la distribucin t de Student no central con parmetro de no-centralidad .

Aparicin y especificaciones de la distribucin t de Student


Supongamos que X1,..., Xn son variables aleatorias independientes distribuidas normalmente, con media y varianza 2. Sea

la media muestral. Entonces

sigue una distribucin normal de media 0 y varianza 1. Sin embargo, dado que la desviacin estndar no siempre es conocida de antemano, Gosset estudi un cociente relacionado,

donde

es la varianza muestral y demostr que la funcin de densidad de T es

donde es igual a n 1. La distribucin de T se llama ahora la distribucin-t de Student. El parmetro representa el nmero de grados de libertad. La distribucin depende de , pero no de o , lo cual es muy importante en la prctica.

Intervalos de confianza derivados de la distribucin t de Student


El procedimiento para el clculo del intervalo de confianza basado en la t de Student consiste en estimar la desviacin tpica de los datos S y calcular el error estndar de la

media

, siendo entonces el intervalo de confianza para la media = .

Es este resultado el que se utiliza en el test de Student: puesto que la diferencia de las medias de muestras de dos distribuciones normales se distribuye tambin normalmente, la distribucin t puede usarse para examinar si esa diferencia puede razonablemente suponerse igual a cero. para efectos prcticos el valor esperado y la varianza son: E(t(n))= 0 y Var (t(n-1)) = n/(n-2) para n > 3

Historia
La distribucin de Student fue descrita en 1908 por William Sealy Gosset. Gosset trabajaba en una fbrica de cerveza, Guinness, que prohiba a sus empleados la publicacin de artculos cientficos debido a una difusin previa de secretos industriales. De ah que Gosset publicase sus resultados bajo el seudnimo de Student.1

Distribucin t de Student No Estandarizada


La distribucin t puede generalizarse a 3 parmetros, introduciendo un parmero locacional y otro de escala . El resultado es una distribucn t de Student No Estandarizada cuya densidad est definida por:2

Equivalentemente, puede escribirse en trminos de de a la desviacin estndar):

(correspondiente a la varianza en vez

http://es.wikipedia.org/wiki/Distribuci%C3%B3n_t_ de_Student

PRUEBA DE SIGNIFICANCIA
Al decir una o dos colas nos estamos refiriendo a las grficas unilaterales y bilaterales respectivamente. Una prueba es de una cola cuando la hiptesis alternativa H1 indica una sola direccin. Si no se especifica direccin en la hiptesis alternativa, se acusa una prueba de dos colas:

una cola

dos colas Los valores crticos para una prueba de una cola son diferenres de los de una prueba de dos colas, empleando un mismo nivel de significancia. En una prueba de una cola se coloca toda la regin de rechazo en una sola cola. Si se desea saber el aumento (positivo: cola derecha) o la disminucin (negativo: cola izquierda) de la produccin, utilizaremos la prueba de una sola cola.

http://mcmedina1819.wordpress.com/2009/02/04/se gundo-bimestre/

COMPARACIN DE DOS MUESTRAS INDEPENDIENTES: PRUEBAS T PARA LAS DIFERENCIAS ENTRE DOS MEDIAS.
Comparacin de muestras independientes Para comparar las medias de dos muestras aleatorias procedentes de dos poblaciones normales e independientes, se utiliza el procedimiento Prueba T para muestras independientes, y para ello, se selecciona:

A continuacin se abre una ventana con los siguientes campos: Contrastar variables: donde se han de introducir las variables que se van a analizar, es decir, aquellas variables sobre las que se va a contrastar si hay o no, diferencias de grupos. Variable de agrupacin: aqu se debe introducir la variable que se utiliza para definir los grupos de sujetos sobre los que se estudian las diferencias. Entonces el sistema activa el botn DEFINIR GRUPOS y al presionarlo aparece una ventana donde se introducen los valores de la variable que definen los dos grupos de sujetos a comparar, o el valor de la variable que har de corte para definir dichos grupos. Si el valor de la variable para un individuo es menor o igual que el valor

especificado, el individuo pertenecer al primer grupo, y en caso contrario, al segundo. Opciones: presionando este botn se obtiene una ventana donde se especifica igual que en la seccin anterior el nivel de confianza para el intervalo y la forma de tratar los valores missing.

Ejemplo 4.3. Vamos a comprobar si existen diferencias significativas entre los tiempos medios de dedicacin a la docencia, para los profesores asociados y los titulares de universidad de Profesores2.sav. Para ello, seleccionamos el procedimiento Prueba T para muestras independientes, y elegimos la variable Tiemdoc para llevarla al campo Contrastar Variables. Seguidamente seleccionamos como Variable Agrupacin la variable Categora, presionamos el botn DEFINIR GRUPOS, y tecleamos un 1 en el primer grupo y un 3 en el segundo. Por ltimo pulsamos CONTINUAR y ACEPTAR para ejecutar el procedimiento. El resultado que muestra la Tabla 3 contiene dos tablas. La primera recoge para ambos grupos, profesores asociados y titulares de universidad, el nmero de casos en cada muestra, los tiempos medios dedicados a la docencia, las desviaciones tpicas y los errores tpicos de la media. La segunda tabla muestra el valor del estadstico para la prueba de Levene sobre la igualdad de varianzas, junto con su p-valor. Este se distribuye como una F de Snedecor y vale 0.808, mientras que su p-valor 0.373, lo que nos conduce a aceptar que las varianzas sean iguales, ya que el p-valor es mayor que 0.05. Tambin aparece en la tabla el valor del estadstico para resolver el contraste de igualdad de medias, supuesto varianzas iguales y distintas, (en ambos casos se distribuye como una t de Student), junto con los correspondientes grados de libertad y sus p-valores. Puesto que hemos concluido que las varianzas coinciden, fijmonos en el que se han asumido varianzas iguales, el cual vale 8.661, y cuyo p-valor es 0, luego se rechaza que las medias coincidan. Razonamiento que tambin se puede deducir del intervalo de confianza, que no contiene el cero.

Tabla 3: Contraste sobre las Medias de dos Poblaciones Independientes

Prueba T
Estadsticos de Grupo
Desviacin Error tp. de

Categora

Media

tp.

la media

Tiempo diario

29 251,3759

29,36731

5,4534

para la docencia

23 187,1000

22,5337

4,6986

Prueba de muestras independientes


Prueba de

Levene para

la igualdad

Prueba T para la igualdad de medias

de varianzas

Sig.

gl

Sig. bilateral

Diferencia de medias

Error tpico de la diferencia

Intervalo de confianza para la diferencia

Inferior

Superior

Tiempo

Asumiendo

0.808 0,373 8,661

50

0.000

64,2759

7,4209

49,3704

79,1813

diario

varianzas iguales

para la

No Asumiendo

8,929 49,961

0.000

64,2759

7,1983

49,8173

78,7345

docencia

varianzas iguales

http://nereida.deioc.ull.es/~pcgull/ihiu01/cdrom/spss /contenido/node36.html

PRUEBA DE FISHER PARA VARIANZAS Y DE IGUALDAD DE LAS VARIANZAS DE DOS POBLACIONES NORMALES.
En estadstica se denomina prueba F (de Fisher) a cualquier prueba en la que el estadstico utilizado sigue una distribucin F si la hiptesis nula no puede ser rechazada. En estadstica aplicada se prueban muchas hiptesis mediante el test F, entre ellas:

La hiptesis de que las medias de mltiples poblaciones normalmente distribuidas y con la misma desviacin estndar son iguales. Esta es, quizs, la ms conocida de las hiptesis verificada mediante el test F y el problema ms simple del anlisis de varianza. La hiptesis de que las desviaciones estndar de dos poblaciones normalmente distribuidas son iguales.

En muchos casos, el test F puede resolverse mediante un proceso directo. Se requieren dos modelos de regresin, uno de los cuales restringe uno o ms de los coeficientes de regresin conforme a la hiptesis nula. El test entonces se basa en un cociente modificado de la suma de cuadrados de residuos de los dos modelos como sigue: Dadas n observaciones, donde el modelo 1 tiene k coeficientes no restringidos, y el modelo 0 restringe m coeficientes, el test F puede calcularse como

http://es.wikipedia.org/wiki/Prueba_F_de_Fisher

MODELO TOTALMENTE ALEATORIO: ANLISIS DE VARIANZA DE UN FACTOR.


En estadstica, el anlisis de la varianza (ANOVA, ANalysis Of VAriance, segn terminologa inglesa) es una coleccin de modelos estadsticos y sus procedimientos asociados, en el cual la varianza est particionada en ciertos componentes debidos a diferentes variables explicativas. Las tcnicas iniciales del anlisis de varianza fueron desarrolladas por el estadstico y genetista R. A. Fisher en los aos 1920 y 1930 y es algunas veces conocido como "Anova de Fisher" o "anlisis de varianza de Fisher", debido al uso de la distribucin F de Fisher como parte del contraste de hiptesis. Introduccin El anlisis de la varianza parte de los conceptos de regresin lineal. El primer concepto fundamental es que todo valor observado puede expresarse mediante la siguiente funcin:

Donde Y sera el valor observado (variable dependiente), y X el valor que toma la variable independiente. sera una constante que en la recta de regresin equivale a la ordenada en el origen, es otra constante que equivale a la pendiente de la recta, y es una variable aleatoria que aade a la funcin cierto error que desva la puntuacin observada de la puntuacin pronosticada. Por tanto, a la funcin de pronstico la podemos llamar "Y prima":

Podemos resumir que las puntuaciones observadas equivalen a las puntuaciones esperadas, ms el error aleatorio: (1.1) Sabiendo este concepto, podemos operar con esta ecuacin de la siguiente forma: 1) Restamos a ambos lados de la ecuacin (para mantener la igualdad) la media de la variable dependiente:

2) Substituimos el error por la ecuacin resultante de despejar la ecuacin 1.1:

Por tanto...

Y reorganizando la ecuacin:

Ahora hay que tener en cuenta que la media de las puntuaciones observadas es exactamente igual que la media de las puntuaciones pronosticadas:

Por tanto:

Podemos ver que nos han quedado 3 puntuaciones diferenciales. Ahora las elevamos al cuadrado para que posteriormente, al hacer el sumatorio, no se anulen:

Y desarrollamos el cuadrado:

Podemos ver que tenemos los numeradores de las varianzas, pero al no estar divididas por el nmero de casos (n), las llamamos Sumas de Cuadrados., excepto en el ltimo trmino, que es una Suma Cruzada de Cuadrados (el numerador de la covarianza), y la covarianza en este caso es cero (por las propiedades de la regresin lineal, la covarianza entre el error y la variable independiente es cero). Por tanto:

O lo mismo que:

de un factor, que es el caso ms sencillo, la idea bsica del anlisis de la varianza es comparar la variacin total de un conjunto de muestras y descomponerla como:

Donde: es un nmero real relacionado con la varianza, que mide la variacin debida al "factor", "tratamiento" o tipo de situacin estudiado. es un nmero real relacionado con la varianza, que mide la variacin dentro de cada "factor", "tratamiento" o tipo de situacin. En el caso de que la diferencia debida al factor o tratamiento no sean estadsticamente significativa puede probarse que las varianzas muestrales son iguales:

Donde: es el nmero de situaciones diferentes o valores del factor se estn comparando. es el nmero de mediciones en cada situacin se hacen o nmero de valores disponibles para cada valor del factor. As lo que un simple test a partir de la F de Snedecor puede decidir si el factor o tratamiento es estadsticamente significativo. Visin general Existen tres clases conceptuales de estos modelos: 1. El Modelo de efectos fijos asume que los datos provienen de poblaciones normales las cuales podran diferir nicamente en sus medias. (Modelo 1) 2. El Modelo de efectos aleatorios asume que los datos describen una jerarqua de diferentes poblaciones cuyas diferencias quedan restringidas por la jerarqua. Ejemplo: El experimentador ha aprendido y ha considerado en el experimento slo tres de muchos ms mtodos posibles, el mtodo de enseanza es un factor aleatorio en el experimento. (Modelo 2)

3. El Modelo de efectos mixtos describen situaciones que ste puede tomar. Ejemplo: Si el mtodo de enseanza es analizado como un factor que puede influir donde estn presentes ambos tipos de factores: fijos y aleatorios. (Modelo 3) Supuestos previos El ANOVA parte de algunos supuestos que han de cumplirse:

La variable dependiente debe medirse al menos a nivel de intervalo. Independencia de las observaciones. La distribucin de los residuales debe ser normal. Homocedasticidad: homogeneidad de las varianzas.

La tcnica fundamental consiste en la separacin de la suma de cuadrados (SS, 'sum of squares') en componentes relativos a los factores contemplados en el modelo. Como ejemplo, mostramos el modelo para un ANOVA simplificado con un tipo de factores en diferentes niveles. (Si los niveles son cuantitativos y los efectos son lineales, puede resultar apropiado un anlisis de regresin lineal)

El nmero de grados de libertad (gl) puede separarse de forma similar y corresponde con la forma en que la distribucin chi-cuadrado ( o Ji-cuadrada) describe la suma de cuadrados asociada.

Tipos de modelo Modelo I: Efectos fijos El modelo de efectos fijos de anlisis de la varianza se aplica a situaciones en las que el experimentador ha sometido al grupo o material analizado a varios factores, cada uno de los cuales le afecta slo a la media, permaneciendo la "variable respuesta" con una distribucin normal. Este modelo se supone cuando el investigador se interesa nicamente por los niveles del factor presentes en el experimento, por lo que cualquier variacin observada en las puntuaciones se deber al error experimental. Modelo II: Efectos aleatorios (componentes de varianza) Los modelos de efectos aleatorios se usan para describir situaciones en que ocurren diferencias incomparables en el material o grupo experimental. El ejemplo ms simple es el

de estimar la media desconocida de una poblacin compuesta de individuos diferentes y en el que esas diferencias se mezclan con los errores del instrumento de medicin. Este modelo se supone cuando el investigador est interesado en una poblacin de niveles, tericamente infinitos, del factor de estudio, de los que nicamente una muestra al azar (t niveles) estn presentes en el experimento. Grados de libertad Pruebas de significacin El anlisis de varianza lleva a la realizacin de pruebas de significacin estadstica, usando la denominada distribucin F de Snedecor. Tablas ANOVA Una vez que se han calculado las sumas de cuadrados, las medias cuadrticas, los grados de libertad y la F, se procede a elaborar una tabla que reuna la informacin, denominada "Tabla de Anlisis de varianza o ANOVA", que adopta la siguiente forma:

http://es.wikipedia.org/wiki/An%C3%A1lisis_de_la_ varianza

SELECCIN DEL TAMAO DE LA MUESTRA PARA ESTIMAR LA DIFERENCIA DE DOS MEDIAS


1. Estimar un parmetro determinado con el nivel de confianza deseado. 2. Detectar una determinada diferencia, si realmente existe, entre los grupos de estudio con un mnimo de garanta. 3. Reducir costes o aumentar la rapidez del estudio. Por ejemplo, en un estudio de investigacin epidemiolgico la determinacin de un tamao adecuado de la muestra tendra como objetivo su factibilidad. As: 1. Si el nmero de sujetos es insuficiente habra que modificar los criterios de seleccin, solicitar la colaboracin de otros centros o ampliar el periodo de reclutamiento. Los estudios con tamaos muestrales insuficientes, no son capaces de detectar diferencias entre grupos, llegando a la conclusin errnea de que no existe tal diferencia. 2. Si el nmero de sujetos es excesivo, el estudio se encarece desde el punto de vista econmico y humano. Adems es poco tico al someter a ms individuos a una intervencin que puede ser menos eficaz o incluso perjudicial. El tamao de una muestra es el nmero de individuos que contiene.

Una frmula muy extendida que orienta sobre el clculo del tamao de la muestra para datos globales es la siguiente: n = ( (k^2) * N*p*q) / ( (e^2 * (N-1) )+( (k^2) * p*q)) N: es el tamao de la poblacin o universo (nmero total de posibles encuestados). k: es una constante que depende del nivel de confianza que asignemos. El nivel de confianza indica la probabilidad de que los resultados de nuestra investigacin sean ciertos: un 95,5 % de confianza es lo mismo que decir que nos podemos equivocar con una probabilidad del 4,5%. Los valores k ms utilizados y sus niveles de confianza son: k 1,15 1,28 1,44 1,65 1,96 2 2,58 Nivel de confianza 75% 80% 85% 90% 95% 95,5% 99% (Por tanto si pretendemos obtener un nivel de confianza del 95% necesitamos poner en la frmula k=1,96)

e: es el error muestral deseado. El error muestral es la diferencia que puede haber entre el resultado que obtenemos preguntando a una muestra de la poblacin y el que obtendramos si preguntramos al total de ella. Ejemplos: Ejemplo 1: si los resultados de una encuesta dicen que 100 personas compraran un producto y tenemos un error muestral del 5% comprarn entre 95 y 105 personas. Ejemplo 2: si hacemos una encuesta de satisfaccin a los empleados con un error muestral del 3% y el 60% de los encuestados se muestran satisfechos significa que entre el 57% y el 63% (60% +/- 3%) del total de los empleados de la empresa lo estarn. Ejemplo 3: si los resultados de una encuesta electoral indicaran que un partido iba a obtener el 55% de los votos y el error estimado fuera del 3%, se estima que el porcentaje real de votos estar en el intervalo 52-58% (55% +/- 3%).

http://es.wikipedia.org/wiki/Tama%C3%B1o_de_la_ muestra

You might also like