You are on page 1of 5

ANALISIS DE LA VARIANZA

DOCENTE:
DOC.CARDENAS SINCHE, JOSE ANTONIO
INTEGRANTES:
 ESTRELLA HIDALGO, JHENNY
 GOMEZ LEON SUSI
 MAURICIO CRISTOBAL, STEYSI
 NOVOA LUQUILLAS, KAREM
ESTHER
 SANTIAGO ARRIETA, GABRIELA
Introducción
En este capítulo se continúa el análisis de las pruebas de hipótesis. Recuerde que en los
capítulos 10 y 11 estudió la teoría general de las pruebas de hipótesis. Se analizó el caso
en que se seleccionó una muestra de una población. Se utilizó la distribución z (la
distribución normal estándar) o la distribución t para determinar si era razonable concluir
que la media poblacional era igual a un valor específico. Se probó si dos medias
poblacionales eran iguales. También se realizaron pruebas de una y dos muestras de las
proporciones de las poblaciones, con la distribución normal estándar como la distribución
del estadístico de prueba. En este capítulo se amplía la idea de pruebas de hipótesis. Se
describe una prueba para varianzas y, después, una prueba que compara de forma
simultánea varias medias para determinar si provienen de poblaciones iguales.
La distribución F

Comparación de dos varianzas.

La necesidad de disponer de métodos estadísticos para comparar las varianzas de dos


poblaciones es evidente a partir del análisis de una sola población. Frecuentemente se
desea comparar la precisión de un instrumento de medición con la de otro, la estabilidad
de un proceso de manufactura con la de otro o hasta la forma en que varía el
procedimiento para calificar de un profesor universitario con la de otro.
Intuitivamente, podríamos comparar las varianzas de dos poblaciones, 12 y 22,
utilizando la razón de las varianzas muestrales S 21/S22. Si S21/S22 es casi igual a 1, se
tendrá poca evidencia para indicar que 12 y 22 no son iguales. Por otra parte, un valor
muy grande o muy pequeño para S21/S22, proporcionará evidencia de una diferencia en
las varianzas de las poblaciones.
La variable aleatoria F se define como el cociente de dos variables aleatorias ji-cuadrada
independientes, cada una dividida entre sus respectivos grados de libertad. Esto es,

donde χ21 y χ22 son variables aleatorias ji-cuadrada independientes con grados de libertad
1 y 2 respectivamente.

Comparación de dos varianzas poblacionales


La distribución F proporciona un medio para que de esta manera se pueda realizar una prueba
donde se consideren las varianzas de dos poblaciones normales. Después de formular la hipótesis
nula nos da que la varianza de una población normal, es la misma a la varianza de otra población
normal

Para poder hallar tendremos que dividir las varianzas muéstrales respectivas. Si la hipótesis nula
es verdadera, entonces el estadístico de prueba sigue la distribución F.

Suposiciones en el análisis de varianza (ANOVA).- donde se comparan tres o más medidas


poblacionales para ver si pueden ser iguales. Para calcular anova, se supone lo siguiente: las
poblaciones siguen la distribución normal, tienen desviaciones estándares iguales (ơ), son
independientes.

ANOVA se desarrolló para aplicaciones lo que es en agricultura, y aun así se utilizan en muchos
de los términos que están relacionados con este contexto. El termino tratamiento, es para
identificar lo que son las diferentes poblaciones que se van analizando. Por otro lado tratamiento
se refiere a como se cuidó una extensión de terreno con un tipo particular de fertilizante.

La prueba ANOVA.- se desea calcular si varias medias muéstrales se originan de una sola
población o poblaciones con diferentes medias.

En sí, las medias muéstrales se contrastan por medio de sus varianzas. Una de las deducciones
fue que las desviaciones estándares de las diversas poblaciones normales tenían que ser iguales.
La táctica es estimar la varianza de la población (la desviación estándar al cuadrado) de dos formas
para luego decidir la razón de dichas estimaciones. Si la razón es aproximadamente 1, por lógica
las estimaciones serán iguales, concluyendo que las medias poblacionales no son iguales. La
distribución F sirve para indicar en que instancia la razón de las varianzas muéstrales es bastante
mayor que 1 para haber ocurrido por casualidad.

Tratamiento e inferencia sobre pares de media

En el tratamiento de inferencia sobre pares trata tomar decisión de rechazar la hipótesis nula y
nos dice que no todas las medidas de tratamiento son iguales

La hipótesis nula (H 0) ya que consiste en que trata de anular o rechazar generalmente y lo que
espera del tratamiento

hipótesis alternativa ya que consiste investigador realmente piensa que es la causa de un


fenómeno. Lo que se modifica en el tratamiento

ya que a hipótesis nula puede ser aceptada o rechazada o como también la hipótesis alternativa
en las mayorias de las veces pude ser aceptada

Para averiguar las medidas de tratamiento tenemos que emplear el intervalo de confianza

Como también podríamos que si el intervalo de confianza incluye cero será que no existe
diferencia entre el tratamiento

Sólo si se rechaza la hipótesis nula de que las medias de tratamiento son iguales se deberán
analizar las medias de tratamiento individuales. Ya que la formula nos pude ayudar
Análisis de la varianza de dos vías: Para el análisis de la varianza hay un desacuerdo; ya que en
primer unto el objeto de variable de bloqueo fue de recudir la variación de error, así que ya no se
realiza la prueba de hipótesis. En segundo punto los bloques son importantes para considerarse
un segundo factor, y a esto se conoce como un experimento de dos factores.

En muchos casos la decisión no es clara, así que se realiza la prueba de hipótesis. Lo primero será
los dos conjuntos de hipótesis, formulando la hipótesis nula y la alterna.

Las pruebas de hipótesis respecto a las medias, con los grados de libertad en el numerador y los
grados de libertad en el denominador, con el nivel de significancia 0,05. Si la razón F es mayor
que 3,9 la hipótesis nula será rechazada y se acepta la hipótesis alterna.

ANOVA de dos vías con interacción: Veíamos los efectos separados o independientes de dos
variables y ahora veremos otro efecto que se incluye en un tiempo de recorrido, llamado efecto
de interacción.

Por ejemplo un conductor puede que sepa varias rutas en menos tiempo de recorrido evitando el
tráfico o semáforos. El efecto de combinar del conductor y la ruta explica las diferencias entre el
tiempo de recorrido. Así que nosotros para poder medir los efectos de interacción será necesario
dos observaciones en cada celda.

Y cuando empleamos ANOVA estudiaremos ya no tratamientos ni bloques sino factores, así que
en nuestra investigación si la interacción tienen una combinación de dos factores ejercerá un
efecto sobre la variable estudio.