DISEÑO EXPERIMENTAL

Trabajo colaborativo No.1
Aporte Individual

Presentado por:
YUNEIDYS OÑATE PERPIÑAN Código: 49787591

Tutor:
JEYSSON SÁNCHEZ

Grupo No. 72

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
PROGRAMA INGENIERIA DE ALIMENTOS

9 de octubre de 2013

INTRODUCCIÓN El presente trabajo consta del desarrollo de dos actividades como describimos a continuación: Actividad 1 (individual): Se desarrollaron cinco (5) preguntas teóricas y un ejercicio (Base de datos 1) correspondiente a la revisión de la unidad 1. Actividad 2 (Grupal): Posteriormente se construirá un documento en forma grupal donde se mostrara el desarrollo de todos los puntos del 1 al 6. Parte 1 con el desarrollo de las cinco primeras preguntas. En este documento se presenta el desarrollo de la Actividad 1. en este último punto se incluirá un ejercicio que se desarrollará grupalmente según las indicaciones dadas en la tabla 1 de la guía del trabajo colaborativo. Individual. .

) Pruebas NO paramétricas: Son pruebas de hipótesis estadística que No asumen lo mencionado anterior total o parcialmente. Una hipótesis estadística es cualquier conjetura sobre una o varias características de interés de un modelo de probabilidad. sino los rangos. 2. β. etc. Qué diferencias existen entre hacer un contraste de hipótesis con una prueba paramétrica con respecto a una no paramétrica? (Máximo 150 palabras). Puede ser: paramétrica (simple o compuesta) y no paramétrica. DESARROLLO DEL TRABAJO 1. exige el cumplimiento de determinados supuestos sobre poblaciones originales de las que se extrae. ¿Cómo se puede definir sí los datos obtenidos deben ser evaluados mediante pruebas paramétricas o pruebas no paramétricas? (Máximo 200 palabras). analízalos datos obtenidos con una escala de medida de intervalo o razón.com. sino que es mucho más amplio. ρ.co/url?sa=t&rct=j&q=&esrc=s&frm=1&source=web&cd=3&ved=0CDkQFjAC&url=ht . existe un parámetros de interés que se busca estimar. No se reduce al valor de un parámetro poblacional. No usan los valores. Permite contrastar hipótesis referidas a algún parámetro (µ. Pruebas paramétricas: Son pruebas de hipótesis estadística que asumen cierto comportamiento de: Muestras obtenidas aleatoriamente. Pueden ser datos que estén en una escala ordinal. 1La distribución de la variable que nos interesa comparar también es importante a la hora de establecer la prueba estadística que nos permita evaluar la hipótesis nula 1 http://www. No se base en la media sino en la mediana. los datos (generalmente normalidad y homocedasticidad).google. distribución normal de las observaciones.

utilizaremos los denominados test paramétricos y si no cumple dichos criterios tenemos la opción de usar los llamados test no paramétricos o de distribución libre.  Pueden ser menos de 30 datos si es que se tiene la seguridad que viene de una curva normal. es decir. Las pruebas no paramétricas son menos potentes. Se dice que una prueba es No paramétrica cuando:  Método que no requiere conocimiento de la distribución del muestreo estadístico. usar pruebas no paramétricas.es%2F~rruizb%2Fcognosfera%2Fsala_de_estudio%2Festadistica%2Fesquematest. que se basan en los rangos de distribución de la variable.ugr.d oc&ei=i1BMUv3aBIK28wTP34HIBg&usg=AFQjCNHE4-WZ0Sn2B-CXblKFGDd8aPzj7w . con menos de 30 datos y no provienen de la curva normal  Si son seis o menos datos.de igualdad. de forma que si la distribución es normal y cumple algunas otras condiciones.  Si son seis o menos datos. Algunos indican 11 o menor de 20 tp%3A%2F%2Fwww. Algunos indican 11 o menor de 20.  Se trata de variables cualitativas.  Se trata de variables cuantitativas. Se dice que una prueba es paramétrica cuando:  Método donde la distribución de muestreo es conocida  Se trata de variables cuantitativas cuyo número es mayor de 30 datos o proveniente de una curva normal. son más exigentes al rechazar la hipótesis nula de igualdad y por tanto tienen menos posibilidades de acertar cuando no la rechazan (más posibilidades de cometer un error tipo beta).

. (Máximo 150 palabras).3. Defina homocedasticidad y explíquela mediante un ejemplo aplicado a su profesión. Ejemplo: La hipótesis o supuesto de homocedasticidad. en muchas ocasiones. el Análisis Discriminante y el Análisis de Regresión. en éste último caso. Dicho test toma como hipótesis nula la de homocedasticidad y como alternativa la de heterocedasticidad. Lo ideal es que los residuos se sitúen en una banda horizontal. La homocedasticidad es una hipótesis muy habitual en algunas técnicas estadísticas como el Análisis de la Varianza. Si dicha hipótesis no se verifica puede alterar la potencia y el nivel de significación de los contrastes utilizados por dichas técnicas y de ahí el interés de analizar si se verifica o no y. va ligada a una falta de normalidad de las variables analizadas. Uno de los más utilizados es el test de Levene basado en aplicar un ANOVA a las diferencias absolutas respecto a una medida de tendencia central de los diversos grupos. en el gráfico de los residuos (eij) frente a la variable regresora (xi). Para ello se utilizan contrastes de hipótesis cuya finalidad es analizar la existencia de esta igualdad que. Dicha hipótesis se refiere a suponer la igualdad de varianzas de las variables dependientes en diversos grupos formados por los distintos valores de las variables independientes. equivalentemente. de lo contrario la forma de embudo para los residuos es una indicación de heterocedasticidad. En la literatura se han propuesto diversos test. poner los remedios oportunos. en el modelo de regresión lineal simple: La hipótesis de homocedasticidad implica que: Var (i ) Constante La de homocedasticidad se detecta fácilmente en el gráfico de residuos (eij) frente a las predicciones ( i) o.

modelos con un factor.EJEMPLO: Tenemos en la siguiente tabla el balance de las ventas realizadas de un producto alimenticio para niños como es el queso pettit. año Renta _X_ Ventas al por menor _Y_ 1 9098 5492 2 9138 5540 3 9094 5305 4 9282 5507 5 9229 5418 6 9347 5320 7 9525 5538 8 9756 5692 9 10282 5871 10 10662 6157 11 11019 6342 12 11307 5907 13 11432 6124 14 11449 6186 15 11697 6224 16 11871 6496 17 12018 6718 18 12523 6921 19 12053 6471 20 12088 6394 21 12215 6555 22 12494 6755 Como determinar con el Statgraphics el cumplimiento de la hipótesis de Homocedasticidad se introducen los datos anteriores en programa. regresión Simple: .

Se procesan los datos Se seleccionan las variables .

Al dar aceptar obtenemos Al dar aceptar obtenemos Al dar aceptar obtenemos .

0838 0.Ventas al por menor_Y_ vs.3 Total (Corr.l.958749 R-cuadrada = 91.0000 Pendiente 0.0%.) 5.9199 porciento R-cuadrado (ajustado para g. = 147.52 0.39 + 0.05.0000 Residuo 436127.96143E6 1 4. . Renta_X_ Variable dependiente: Ventas al por menor_Y_ Variable independiente: Renta_X_ Lineal: Y = a + b*X Coeficientes Mínimos Cuadrados Estándar Estadístico Parámetro Estimado Error T Valor-P Intercepto 1922. 20 21806.39 274.559 Estadístico Durbin-Watson = 1. La ecuación del modelo ajustado es Ventas al por menor_Y_ = 1922.0651) Autocorrelación de residuos en retraso 1 = 0.0252931 15.39756E6 21 Coeficiente de Correlación = 0.5159 porciento Error estándar del est.381517 0.0000 Análisis de Varianza Fuente Suma de Cuadrados Gl Cuadrado Medio Razón-F Valor-P Modelo 4. a continuación detallamos dos ventanas de las presentadas en el anterior pantallazo: Regresión Simple .244342 El StatAdvisor La salida muestra los resultados de ajustar un modelo lineal para describir la relación entre Ventas al por menor_Y_ y Renta_X_.96143E6 227.949 6.47907 (P=0. existe una relación estadísticamente significativa entre Ventas al por menor_Y_ y Renta_X_ con un nivel de confianza del 95.381517*Renta_X_ Puesto que el valor-P en la tabla ANOVA es menor que 0.67 Error absoluto medio = 115.Cada ventana da unas explicaciones respecto a los datos obtenidos.99181 0.) = 91.

RESIDUOS por Grupos Variable dependiente: RESIDUOS (Residuos) Factor: Grupos Número de observaciones: 22 Número de niveles: 3 El StatAdvisor Este procedimiento ejecuta un análisis de varianza de un factor para RESIDUOS. ANOVA Simple .67.) 436127.0% de confianza. Puesto que el valor-P es mayor que 0.56447.0%. así como le permitirán buscar posibles violaciones de los supuestos subyacentes en el análisis de varianza.9199% de la variabilidad en Ventas al por menor_Y_. no hay indicación de una autocorrelación serial en los residuos con un nivel de confianza del 95.El estadístico R-Cuadrada indica que el modelo ajustado explica 91. 21 El StatAdvisor La tabla ANOVA descompone la varianza de RESIDUOS en dos componentes: un componente entre-grupos y un componente dentro-de-grupos.958749. El error estándar del estimado indica que la desviación estándar de los residuos es 147. 19 21666. las Pruebas de Rangos Múltiples le dirán cuáles medias son significativamente diferentes de otras. Este valor puede usarse para construir límites de predicción para nuevas observaciones. Construye varias pruebas y gráficas para comparar los valores medios de RESIDUOS para los 3 diferentes niveles de Grupos. El error absoluto medio (MAE) de 115. es el cociente entre el estimado entre-grupos y el estimado dentro-de-grupos.4 2 12230. Las diferentes gráficas le ayudarán a juzgar la significancia práctica de los resultados. indicando una relación relativamente fuerte entre las variables.5779 Intra grupos 411666. . Si las hay. no existe una diferencia estadísticamente significativa entre la media de RESIDUOS entre un nivel de Grupos y otro.56 0.559 es el valor promedio de los residuos. seleccionando la opción de Pronósticos del menú de texto. Puesto que el valor-P de la razón-F es mayor o igual que 0. La razón-F. que en este caso es igual a 0. El estadístico de Durbin-Watson (DW) examina los residuos para determinar si hay alguna correlación significativa basada en el orden en el que se presentan en el archivo de datos.7 Total (Corr. El coeficiente de correlación es igual a 0. con un nivel del 95.05. Tabla ANOVA para RESIDUOS por Grupos Fuente Suma de Cuadrados Gl Cuadrado Medio Razón-F Valor-P Entre grupos 24460.05. La prueba-F en la tabla ANOVA determinará si hay diferencias significativas entre las medias. Si le preocupa la presencia de valores atípicos.2 0. puede elegir la Prueba de Kruskal-Wallis la cual compara las medianas en lugar de las medias.

Estos gráficos son útiles para comprobar visualemente la hipótesis de homocedasticidad. lo que indica que hay homocedasticidad.1) Dos muestras independientes o no apareadas Se eligen al azar e independientemente n muestras de yogurt de una línea de envasado. 4. para la variable dependiente a la media de su grupo. Se quiere un Intervalo de confianza (IC) al 95% para δ Se proponen dos diseños (ambos validos) para investigar este asunto. En total son 20 muestras a evaluar para su envasado con un volumen o contenido de ±170 ml. que se producirá en dos turnos de 24 horas.Los residuos son las desviaciones de cada valor observado. . Supóngase que usando muestras independientes con n=10 se tiene para las primeras 24 horas y luego para las otras 24horas. En este caso al observa en la gráfica los residuos se sitúan en la banda horizontal. 4. Mediante un ejemplo aplicado a su profesión explique: Dos muestras independientes o no apareadas y Dos muestras dependientes o apareadas: Se quiere estudiar el proceso de envasado de un yogur con una nueva máquina de envasado durante un periodo de 48 hrs.

02173 ml .67 166.12 161. este valor es muy grande ya que el desvío correspondiente a un Envasado estimado de =0.34 162.5 164.79 174.96 183. Se utilizar el mismo ejercicio con el mismo número de muestras de yogurt 10 en total.09 166.2) Dos muestras dependientes o apareadas.97 166.79 y 170.33 185. Además usando la siguiente expresión Se tiene un nivel de confianza del 95% que el envasado estará entre: [0.75 176.37 Resulta que el desvió del estimador es Reemplazando la formula tenemos: √ (2Sp2/n) =√ (2*60.67 186.73 181.99 172. realmente muy amplio.67 186.10] = [-10.32 + 52.61 167.26 174.67 ml.77 171.71 185.41=0.41 165.77 175.62 ± 2. Tenemos que δ = Y .38 Se puede observar que ahora Z contiene el envasado de cada Yogurt.101*5.04 173. 4.97 166.34 178.1.37/10)=5. Tabla 2 n 1 2 3 4 5 6 7 8 9 10 x 171.22 170.6 181.6 181.24 169.X = 174.87 162. 11.08 – 173.83 174.53 172.Xi.41 Calculamos medidas de resumen de uno y otro grupo y comparamos las diferencias.71 185.09 166. En este caso =Z=0:48ml.62 ml y la desviación estándar de las diferencias es: Sp2 = (Sy2 + Sx2)/2= (68.83 174.10 ml.41)/2= 60.7 181.13 186.34 162.99 172.34] ml. y el desvío de ese estimador es: √(Sp2/n) =√(0.004721/10)=0. Tabla 1 n 1 2 3 4 5 6 7 8 9 10 Media Y 171.08 X 175.77 171. Entonces la muestra apareada será: Zi = Yi .

48 ± 2.0.real mente muy razonable. objetos. Las dos muestras serán dependientes o independientes de acuerdo a la forma de seleccionarlas. una persona o un objeto. Si la selección de los datos de una población no está relacionada con la de los datos de la otra. Para hacer inferencias estadísticas sobre dos poblaciones.53]ml 4.26*0. se llaman muestras dependientes. empresas. Si las muestras se seleccionan de manera que cada medida en una de ellas pueda asociarse naturalmente con una medida en la otra muestra. se puede pensar que las medidas están pareadas. .02173] = [0. Si dos muestras son dependientes. En consecuencia dos medidas que se obtienen del mismo conjunto de fuentes son dependientes. Si dos medidas se obtienen de la misma fuente. máquinas. Si ambas muestras se obtienen de distintos individuos.3) ¿Qué diferencias existen en cuanto al tratamiento estadístico de los datos entre estos dos tipos de muestras? (Máximo 200 palabras). Cada dato sale de alguna fuente. son muestras independientes. Las muestras pareadas nos ayudan a reducir el sesgo por variables confundentes. que produce datos. una fuente es algo. Cuando comparamos los resultados de observaciones pareadas. y el intervalo de confianza será [0. se necesita tener una muestra de cada población. entonces necesariamente tienen el mismo tamaño. Generalmente las variables que se eligen para parear son variables que pueden influenciar la respuesta. Sus datos provienen de grupos diferentes que no guardan ninguna relación entre sí. los efectos de estas variables de pareamiento se cancelan.43. etc…no hay nada en común en dichas muestras lo que hace que ambas sean “independientes”.

la mayoría de los resultados de los análisis post-hoc son reportados como lo están con los valores de p no ajustada. A veces se llama por dragado de datos críticos para evocar el sentido de que cuanto más se busca se puede encontrar la más probable algo. (Máximo 150 palabras).com/articulos-educativos/article_11117. de hecho. 1¿Qué es una análisis post hoc? En el diseño y análisis de experimentos. Ejemplo 4 grupos: A. Resultados de los análisis post-hoc se deben etiquetar explícitamente como tal en informes y publicaciones para evitar lectores engañosas2. ¿Qué es una análisis post hoc? ¿Cuándo y para qué se efectúa? Nombre al menos 4 pruebas post hoc. De manera más sutil. C.html .05 permiten estimar entre qué tratamientos hay diferencia significativa. se lleva a cabo efectivamente una prueba estadística.2) ¿Cuándo y para qué se efectúa? Cuando el resultado del ANOVA es p ≤ 0.3) Pruebas post hoc:  Mínima diferencia significativa de Fisher  Corrección de Bonferroni  Nueva prueba de rangos múltiples de Duncan 2 http://centrodeartigos. D ANOVA de 1 vía: p < 0. esto es difícil de hacer con precisión y. Sin embargo. 5.05 5. Estos valores de p se deben interpretar a la luz del hecho de que son un pequeño subconjunto y seleccionado de un grupo potencialmente grande de los valores de p. 5. B. el análisis post-hoc consiste en buscar en el banco de datos después de que el experimento ha concluido los patrones que no se especificaron a priori. cada vez que un patrón en los datos se considera. Esto infla en gran medida el número total de pruebas estadísticas y requiere el uso de múltiples procedimientos de prueba para compensar.5.

Colombia Post-hoc de análisis. Análisis no paramétrico. Guía Trabajo Colaborativo 1 – Diseño experimental. Bogotá.html . Colombia. Revisado el 1 de octubre de 2013 desde internet: http://dm.php/322/Noparametrica/No_Par ametrica_2010. Revisado el 1 de octubre de 2013 desde internet: http://centrodeartigos.html Capítulo 19.es/asignaturas/estadistica2/secres_4. E.pdf Capítulo 4.co/lms/moodle/file. Universidad Nacional Abierta y a Distancia UNAD. Student-Newman-Keuls post hoc ANOVA. (diciembre de 2011). Lista de las pruebas post hoc. Chequeo y validación del modelo con un factor. Riaño Luna C. Módulo de Diseño Experimental. Bogotá.com/articulos-educativos/article_11117. Universidad Nacional Abierta y a Distancia UNAD.  Método de Newman-Keuls  El método de Rodger  El método de Scheff  Prueba de rangos de Tukey  Prueba de Dunnett REFERENCIAS BIBLIOGRÁFICAS. Revisado el 1 de octubre de 2013 desde internet: http://aprendeenlinea.udc.udea.edu. El procedimiento de pruebas no paramétricas. (Septiembre de 2013).

google.html . III.co/url?sa=t&rct=j&q=&esrc=s&frm=1&source=web&cd=3&v ed=0CDkQFjAC&url=http%3A%2F%2Fwww.bioestadistica. Revisado el 2 de octubre de 2013 desde internet: http://www.php%2FREIRE% 2Farticle%2Fdownload%2F528%2F4085&ei=i1BMUv3aBIK28wTP34HIBg&usg=A FQjCNEaoDhaOYFb1uZC_dbYgp5lklrKVw Inferencia respecto a la diferencia de dos medias cuando se usan muestras dependientes pequeñas.Pruebas paramétricas y no paramétricas para comparar distribuciones de variables numéricas.itch.net/leamotoya/clase-6-dr-segura Caso particular: Contraste de homocedasticidad.ub.uma.mx/academic/industrial/estadistica1/cap03e. Revisado el 2 de octubre de 2013 desde internet: http://www.edu%2Findex. Pruebas estadísticas para el contraste de hipótesis.slideshare.es/libro/node125.google.htm Estadística para los clínicos.co/url?sa=t&rct=j&q=&esrc=s&frm=1&source=web&cd=4&v ed=0CD8QFjAD&url=http%3A%2F%2Frevistes.es%2F~rruizb%2Fcognosfera%2 Fsala_de_estudio%2Festadistica%2Fesquematest. Cómo aplicarlas en SPSS.com.com. (4 de julio de 2011).edu.doc&ei=i1BMUv3aBIK28wTP3 4HIBg&usg=AFQjCNHE4-WZ0Sn2B-CXblKFGDd8aPzj7w Berlanga Silvente V. Revisado el 2 de octubre de 2013 desde internet: http://www. y Rubio Hurtado M. Revisado el 2 de octubre de 2013 desde internet: http://www. Revisado el 2 de octubre de 2013 desde internet: http://www.Artículo metodológico. J. Clasificación de pruebas no paramétricas.ugr.

utalca.slideshare.pdf Salvador Figueras. [en línea] 5campus.Capítulo 9: Comparación de medias. Revisado el 3 de octubre de 2013 desde internet:http://ftp. P. Estadística <http://www.5campus. M y Gargallo. (2003): "Análisis Exploratorio de Datos". Revisado el 3 de octubre de 2013 desde internet: http://www.com.com/leccion/aed> [Revisado el 3 de octubre de 2013 desde internet: Bioestadistica.cl/profesores/gicaza/Apuntes%20PDF/Apuntes%20Cap%2 09%20Comparacion%20de%20dos%20grupos.net/Prymer/bioestadstica-3631215 .