UNIDAD I

REGRESION LINEAL SIMPLE Y CORRELACION
1.1 EL MODELO DE REGRESIÓN SIMPLE.
La regresión y correlación son las dos herramientas estadísticas más
poderosas y versátiles que se pueden utilizar para solucionar problemas
comunes en los negocios

Tipos de variables
– Variable dependiente.
• Desea explicar o predecir. Variable de respuesta
– Variable independiente.
• Variable explicativa o regresor


El primero en desarrollar un analisis de regresión fue le cientifico Sir
Francis Galton (1822-1911)
Se dice
que Y está regresando por X

Diagrama de dispersión

A medida que X cambia. equivalentemente. E = 0..n. a partir de una muestra ... equivalentemente. = .n. que sigue el siguiente i=1 modelo: (6. = ... o. Y cambia en una cantidad diferente a medida de que X cambia El modelo de regresión más sencillo es el Modelo de Regresión Lineal Simple que estudia la relación lineal entre la variable respuesta y la variable n regresora . En forma matricial (6. equivalentemente. La varianza es constante (homocedasticidad).. i = 1. La función de regresión es lineal. Se supone que se verifican las siguientes hipótesis: 1.n. o. i = 1. La distribución es normal.1) Por tanto... = . i = 1. V ar 3....2) t t t t donde = . o. . Y cambia en una cantidad constante Curvilínea. i ~N = 2 . 2..Lineal. es un modelo de regresión paramétrico de diseño fijo. .

5 y 2. Bajo las hipótesis de normalidad. Si no se tiene linealidad se dice que tenemos un error de especificación. DW<2 indica autocorrelación positiva y DW>2 autocorrelación negativa . esto equivale a que la Cov(Y i. Linealidad. 2. si i j.4. 1. Independencia entre los residuos mediante el estadístico de DurbinWatson que toma valor 2 cuando los residuos son completamente independientes (entre 1.Y j) = 0.2 SUPUESTOS • Supuesto 1 – El termino error en una variable aleatoria distribuida normalmente • Supuesto 2 – Varianzas iguales de los valores Y (homocedasticidad) • Supuesto 3 – Los terminos de error son independientes uno de otro • Supuesto 4 – Supuesto de linealidad  i  Yi  Yˆi    0 Y  b 0  b1 X   1. Las observaciones Y i son independientes. que bajo normalidad. Independencia de la variable aleatoria “residuos” (especialmente importante si los datos se han obtenidos siguiendo una secuencia temporal). Esta hipótesis en función de los errores sería “los i son independientes”. En el caso de que sean varias variables independientes. equivale a queCov = 0.si i j. En ellos se ha eliminado el efecto proveniente de las otras variables y así la relación que muestran es la relación neta entre las variables representadas.5 se considera que existe independencia). la opción Analizar-RegresiónLineal-Gráficos-Generar todos los gráficos parciales nos da los diagramas de dispersión parcial para cada variable independiente.

Esta puede ser: colinealidad perfecta si una de las variables independientes tiene una relación lineal con otra/as independientes. Esta condición se estudia utilizando las variables: ZPRED=pronósticos tipificados y ZRESID=residuos tipificados mediante: • el estadístico de Levene (ver explorar) • un gráfico de dispersión .3. colinealidad parcial si entre las variables independientes existen altas correlaciones 1. 5. La opción Histograma: añade una curva N(0. No-colinealidad. El supuesto de homocedasticidad implica que la variación de los residuos sea uniforme en todo el rango de valores de los pronósticos (gráfico sin pautas de asociación). Homocedasticidad o igualdad de varianzas de los residuos y los pronósticos. Normalidad de los residuos tipificados. es decir la inexistencia de colinealidad.Que se obtiene en Analizar-Regresión-LinealGráficos. 4. con gráficos de normalidad de tipo Q-Q (cuantiles) o P-P(proporciones) (ver explorar) • gráficamente en Analizar-Regresión-Lineal-Gráficos .3 DETERMINACIÓN DE LA ECUACIÓN DE REGRESIÓN • Ecuación de regresión (con MCO*) ˆ X  Y Y  b0  b1 X   XY  n Donde : b1  2 b0 : Intercepto  X  __ __ 2 X   b0  Y  b1 X b1 : Pendiente de la recta n . Podemos contrastarla mediante: • La prueba de Kolmogorff-Smirnov.1) Gráfico de Probabilidad Normal de tipo P-P: Representa las proporciones acumuladas de la variable esperada respecto a las proporciones acumuladas de la variable observada.

como se muestra en la tabla – Realice un análisis de regresión Ejecicio – La gerencia de Hop Scotch Airlines.• • Ejemplo – Se asume que Vita + Plus. – Se recolectaron los valores mensuales por los gastos de publicidad y el número de pasajeros para los n=15 meses más recientes . y si es así cuál podría ser la naturaleza exacta. Inc. recolecta datos sobre los gastos publicitarios y los ingresos por venta de 5 meses. considera que existe una relación directa entre los gastos publicitarios y el número de pasajeros que escoge viajar con ellos.. Para determinar si la relación existe. la empresa transportadora más pequeña del mundo. los estadísticos empleados por la aerolínea decidieron utilizar los procedimientos MCO para determinar el modelo de regresión lineal.

1.4 MEDIDAS DE VARIACIÓN .

• Desea explicar o predecir. • Variable explicativa o regresor .6 ANÁLISIS RESIDUAL • Error estándar de estimación – Medida de bondad de ajuste – Grado de dispersión de los valores Y alrededor de la recta de regresión – El error estándar siempre se representa en las mismas unidades que la variable dependiente Y  Se   Y 2  n   XY           Y  2   X n Y 2   X 2  2 X  n    n2   Y  Se • Tipos de variables – Variable dependiente.5 CALCULO DE LOS COEFICIENTES DE CORRELACIÓN Y DETERMINACIÓN • Coeficiente de correlación – Carl Pearson – Coeficiente de correlación producto-momento – Se representa con r – Valores entre -1 y 1 X Y  X Y 2 XY  XY   n   n 2 r  r   X 2    Y  2    X 2    Y  2    2 2 2 2 X  Y  X  Y            n n n n         Coeficiente de determinación – Medida de bondad de ajuste – Que porcentaje de cambio en Y se explica por un cambio en X – Se representa con r2 • 1.1. Variable de respuesta – Variable independiente.

1.7 INFERENCIAS ACERCA DE LA PENDIENTE 1.8 APLICACIONES .