You are on page 1of 21

PROBABILIDAD Y

ESTADÍSTICA II
Formulario

2021
Prof. Lic. Pedro Nelson Cáceres Recalde

1
1. Estimación por intervalo

1.1. Intervalos de confianza para µ cuando se muestrea una distribución normal con
varianza conocida
[ ̅ ⁄ ⁄√ ̅ ⁄ ⁄√ ]

1.2. Tamaño de muestra cuando se muestrea una población con distribución


normal

( )

1.3. Tamaño de muestra cuando se muestrea una población con distribución


desconocida

1.4. Intervalos de confianza para cuando se muestrea una distribución normal con
varianza desconocida
[ ̅ ⁄ ⁄√ ̅ ⁄ ⁄√ ]

1.5. Intervalos de confianza para la diferencia de medias cuando se muestrean dos


distribuciones normales independientes con varianzas conocidas

* ̅ ̅ ⁄ √ ̅ ̅ ⁄ √ +

1.6. Intervalos de confianza para la diferencia de medias cuando se muestrean dos


poblaciones normales independientes con varianzas desconocidas pero
consideradas iguales

* ̅ ̅ ⁄ √ ̅ ̅ ⁄ √ +

En donde el estimado de la varianza común es

1.7. Intervalos de confianza para cuando se muestrea una distribución normal


con media desconocida
* +
⁄ ⁄

2
1.8. Intervalos de confianza para el cociente de dos varianzas cuando se muestrean
dos distribuciones normales independientes
* +


1.9. Intervalos de confianza para el parámetro de proporción “p” cuando se


muestrea una distribución binomial
̂ ̂ ̂ ̂
* ̂ ⁄ √ ̂ ⁄ √ +

1.9.1. Tamaño de muestra para una distribución binomial


2. Pruebas de hipótesis para la media de una población normal


2.1. Tamaño de muestra para estimar µ en función del error ̅ para hipótesis
de dos colas

2.2. Tamaño de muestra para estimar µ en función del error ̅ para hipótesis
de una cola

2.3. Prueba de hipótesis para la media cuando se muestrea una población normal
con varianza conocida

2.3.1. Regla de decisión

2.3.1.1. Para hipótesis de dos colas

̅
(| | )
⁄√

̅
(| | )
⁄√

3
Región crítica para ̅ el cálculo de las probabilidades de los errores tipo I y II

̅
√ √

̅ ̅
√ √
Con ̅

̅

[ ̅ ̅ ] [ ̅ ̅ ]
[ ̅ ̅ ̅ ]

Observación 1: el valor de la media muestral ̅ se puede usar como

Observación 2:
Potencia de la prueba

2.3.1.2. Para hipótesis de cola izquierda

̅
( )
⁄√

̅
( )
⁄√

Región crítica para ̅ el cálculo de las probabilidades de los errores tipo I y II

̅

̅

Con ̅

[ ̅ ̅ ]
[ ̅ ̅ ]

Observación: el valor de la media muestral ̅ se puede usar como


Potencia de la prueba

4
2.3.1.3. Para hipótesis de cola derecha

̅
( )
⁄√

̅
( )
⁄√

Región crítica para ̅ y el cálculo de las probabilidades de los errores tipo I y II

̅

̅

Con ̅

[ ̅ ̅ ]
[ ̅ ̅ ]

Observación: el valor de la media muestral ̅ se puede usar como

Potencia de la prueba

2.4. Prueba de hipótesis para la media cuando se muestrea una población normal
con varianza desconocida

2.4.1. Regla de decisión

2.4.1.1. Para hipótesis de dos colas

̅
(| | )

̅
(| | )


Región crítica para ̅ el cálculo de las probabilidades de los errores tipo I y II

̅
√ √

5
̅ ̅
√ √

̅

̅

[ ̅ ̅ ] [ ̅ ̅ ]
[ ̅ ̅ ̅ ]
Observación: el valor de la media muestral ̅ se puede usar como
Potencia de la prueba

2.4.1.2. Para hipótesis de cola izquierda

̅
( )

̅
( )


Región crítica para ̅ el cálculo de las probabilidades de los errores tipo I y II

̅

̅

̅

[ ̅ ̅ ]
[ ̅ ̅ ]

Observación: el valor de la media muestral ̅ se puede usar como


Potencia de la prueba

2.4.1.3. Para hipótesis de cola derecha

6
̅
( )

̅
( )


Región crítica para ̅ el cálculo de las probabilidades de los errores tipo I y II

̅

̅

̅

[ ̅ ̅ ]
[ ̅ ̅ ]

Observación: el valor de la media muestral ̅ se puede usar como

Potencia de la prueba

3. Prueba de hipótesis para la varianza cuando se muestrea una población


normal

3.1. Regla de decisión

3.1.1. Hipótesis de dos colas

( ) ⁄ ( )

( ) ⁄ ( )

3.1.2. Hipótesis de cola izquierda

( )

7
( )

3.1.3. Hipótesis de cola derecha

( )

( )

4. Prueba de hipótesis para la proporción cuando se muestrea una población


con distribución binomial
4.1. Regla de decisión

4.1.1. Para hipótesis de dos colas

̂
| |

( )

̂
| |

( )

4.1.2. Para hipótesis de cola izquierda


( )


( )

4.1.3. Para hipótesis de cola derecha

8
̂


( )


( )

5. Pruebas de hipótesis para la diferencia de medias cuando se muestrean


dos poblaciones normales
5.1. Prueba de hipótesis para dos medias cuando se muestrean dos poblaciones
normales independientes con varianzas conocidas

5.1.1. Regla de decisión

5.1.1.1. Para hipótesis de dos colas

̅ ̅ ̅ ̅
⁄ ⁄
√ √
( ) ( )

̅ ̅ ̅ ̅
⁄ ⁄
√ √
( ) ( )

5.1.1.2. Para hipótesis de cola izquierda

̅ ̅


( )

̅ ̅


( )

9
5.1.1.3. Para hipótesis de cola derecha

̅ ̅


( )

̅ ̅


( )

5.2. Tamaño de muestra para prueba de hipótesis de dos medias con poblaciones
normales independientes

: es el tamaño de efecto o la diferencia mínima entre proporciones que el investigador


considera significativa.

5.3. Prueba de hipótesis para dos medias cuando se muestrean dos poblaciones
normales independientes con varianzas desconocidas

5.3.1. Regla de decisión

5.3.1.1. Para hipótesis de dos colas

̅ ̅ ̅ ̅
⁄ ⁄

√ √
( ) ( )

̅ ̅ ̅ ̅
⁄ ⁄

√ √
( ) ( )

10
5.3.1.2. Para hipótesis de cola izquierda

̅ ̅


( )

̅ ̅


( )

5.3.1.3. Para hipótesis de cola derecha

̅ ̅


( )

̅ ̅


( )

6. Prueba de hipótesis para dos varianzas cuando se muestrean dos


poblaciones normales independientes
6.1. Reglas de decisión

6.1.1. Hipótesis de dos colas

( ) ⁄ ( ) ⁄

( ) ⁄ ( ) ⁄

6.1.2. Hipótesis de cola izquierda

11
( )

( )

6.1.3. Hipótesis de cola derecha

( )

( )

7. Prueba de hipótesis para dos proporciones cuando se muestrean dos


poblaciones binomiales independientes

7.1. Regla de decisión

7.1.1. Hipótesis de dos colas

̂ ̂ ̂ ̂
⁄ ⁄

(√ ̂( ̂)) (√ ) (√ ̂( ̂)) (√ )
( ) ( )

̂ ̂ ̂ ̂
⁄ ⁄

(√ ̂( ̂)) (√ ) (√ ̂( ̂)) (√ )
( ) ( )

7.1.2. Hipótesis de cola izquierda

̂ ̂

( √ ̂( ̂)) (√ )
( )

12
̂ ̂

( √ ̂( ̂)) (√ )
( )

7.1.3. Hipótesis de cola derecha

̂ ̂

( √ ̂( ̂)) (√ )
( )

̂ ̂

( √ ̂( ̂)) (√ )
( )

8. Pruebas de bondad de ajuste y análisis de tabla de contingencia

8.1. La prueba de bondad de ajuste chi-cuadrada

8.1.1. Formulación de las hipótesis

8.1.1.1. Criterio de decisión

( ∑ )

( ∑ )

8.2. La estadística de Kolmogorov-Smirnov

8.2.1. Formulación de las hipótesis

8.2.1.1. Estadística de prueba


| |

13
8.2.1.2. Criterio de decisión
( )

( )

8.3. La prueba chi-cuadrada para el análisis de tablas de contingencia con dos


criterios de clasificación

8.3.1. Planteamiento de la hipótesis

8.3.1.1. Criterio de decisión

( ∑ )

( ∑ )

Con grados de libertad

9. Métodos para el control de calidad


9.1. Tablas de control estadístico

9.1.1. Tablas ̅ (media conocida de la población)

̅ ( ⁄√ ⁄√ )

9.1.2. Tablas S (desviación estándar conocida de la población)

√ ( )
[ ]
; √

9.1.3. Tablas ̅ (media y varianza desconocida de la población)


̅ ̅ ̅ ̅
̅ ( ̿ ̿ ) ( ̅ ̅ )
√ √

√ ( )
[ ]
; √

14
9.1.4. Tabla p (no se conoce el valor de P poblacional)
̅ ̅ ̅ ̅
( ̅ √ ̅ √ )

10. Diseño y análisis de experimentos estadísticos


10.1. Diseños para comparar más de dos tratamientos en un factor de interés

10.1.1. Análisis de experimentos unifactoriales en un diseño completamente aleatorio

10.1.1.1. Notación de puntos


Sirve para representar de manera abreviada cantidades numéricas que se pueden calcular a partir
de los datos.
= Suma de las observaciones del tratamiento i
̅ = Media de las observaciones del i-ésimo tratamiento
= Suma o total de todas las mediciones
̅ = Media global de todas las observaciones

10.1.1.2. Modelo estadístico

10.1.1.3. Anova para el diseño completamente al azar

FV SC GL CM Fcal P-valor

Tratamientos ⁄

Error ⁄

Total

∑∑ ̅ ∑∑

es la suma de todos los datos del arreglo

∑ ̅ ̅ ∑∑ ̅

∑ ̅ ̅ ∑

15

Donde Fcal sigue una distribución F con grados de libertad en el numerador y en el


denominador.
Para realizar los cálculos con Excel usaremos las siguientes fórmulas:

Donde es la varianza de todo el conjunto de datos y las varianzas en cada tratamiento o


grupo.

10.1.1.4. Comparaciones o pruebas de rangos múltiples. Método LSD (Diferencia mínima


significativa)
Método LSD

|̅ ̅| ⁄ √ ( )

10.1.2. Análisis de experimentos con solo un factor en un diseño en bloque


completamente aleatorizado

10.1.2.1. Notación de puntos


= Suma de las observaciones del tratamiento i
̅ = Media de las observaciones del i-ésimo tratamiento
= Suma o total de todas las mediciones
̅ = Media global de todas las observaciones

10.1.2.2. El modelo estadístico


{ }

En este caso se le agrega al modelo el efecto del factor bloque que es

10.1.2.3. Anova para el diseño de un factor en bloques completos al azar


Hipótesis a probar:

FV SC GL CM Fcal P-valor

Tratamientos ⁄

16
Bloques ⁄

Error ⁄

Total

∑∑ ̅ ∑∑

Para realizar los cálculos con Excel usaremos las siguientes fórmulas:

Donde es la varianza de todo el conjunto de datos y las varianzas en cada tratamiento

10.2. Diseños para comparar y analizar efectos de dos o más factores de interés

10.2.1. Diseños factoriales

10.2.1.1. Diseños factoriales con dos factores y dos o más niveles


10.2.1.1.1. Modelo Estadístico

10.2.1.1.2. Hipótesis a evaluar y análisis de varianza

Dónde los respectivos grados de libertad de cada una de ellas son:

17
FV SC GL CM Fcal P-valor
Efecto A ⁄
Efecto B ⁄
Efecto AB ⁄
Error
Total

10.2.1.1.3. Notación de puntos


= Suma de todas las observaciones
̅ = Es la media global
= Es el total en el nivel i del factor A
̅ = Es la media en el nivel i del factor A
= Es el total en el nivel j del factor B
̅ = Es la media en el nivel j del factor B
= Es la suma de las réplicas en la combinación de niveles ij
̅ = Es la media de las réplicas en la combinación de niveles ij
= es cada una de las observaciones en el experimento
Con esta notación las sumas de cuadrados son

∑∑∑

Donde

∑∑

11. Análisis de regresión: el modelo lineal simple


11.1. Estimación por mínimos cuadrados para el modelo lineal simple
̅ ̅
∑ ̅ ̅
∑ ̅

18
Con esto se consigue la estimación de la recta de regresión
̂
Y el residuo o error
̂

11.2. Inferencia estadística para el modelo lineal simple

11.2.1. Intervalo de confianza para

√∑ ̅
Donde S es la desviación estándar del error o residual.

11.2.2. Intervalo de confianza para



∑ ̅

11.2.3. Prueba de hipótesis para

Contra cualquiera de las alternativas

Estadístico de prueba y reglas de decisión

11.2.3.1. Hipótesis de dos colas

( | |)

( | |)

11.2.3.2. Hipótesis de cola izquierda

( )

( )

11.2.3.3. Hipótesis de cola derecha

( )

19
( )

√∑ ̅
Donde T tiene una distribución t de Student con n-2 grados de libertad
Donde S es la desviación estándar del error o residual.

11.2.4. El uso de análisis de varianza



∑ ̅ ∑

∑ ̂ ∑

∑ ̂ ̅ ∑ ̅

11.2.4.1. Tabla ANOVA para el modelo lineal simple


FV SC GL CM Fcal P-valor

Regresión SCR 1 SCR/1 CMR/CME P(F>CMR/CME)


Error SCE SCE/n-2
Total SCT

11.3. Correlación lineal


∑ ̅ ̅
√∑ ̅ √∑ ̅
∑ ∑

∑ ∑
√∑ √∑

∑ ̅

∑ ̅

Coeficiente de determinación:

11.4. Series de tiempo y autocorrelación

11.4.1. Modelos estadísticos

20
11.4.2. Estadística de Durbin-Watson

11.4.2.1. Hipótesis planteada para Durbin-Watson



̂

11.4.3. Eliminación de la autocorrelación mediante la transformación de datos


Para el modelo considere la transformación

En esta transformación se sustituye el primero y se tiene que:

Pero de , se tiene que


Entonces:

Donde . De acuerdo con lo anterior, los errores en



Y los valores transformados son:

21

You might also like