You are on page 1of 16

INTEGRANTES: COSSIO MAMANI CRISTIAN

PILLCO LAYME MARLENE LETICIA


QUIROZ LOPEZ MELANIE ADRIANA
TICONIPA ALANOCA EDYTH PAMELA
Y= 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + ⋯ … . . +𝛽𝑘 𝑋𝑘𝑖 + 𝑢𝑖

Multicolinealidad significa relación lineal


perfecta o exacta entre algunas o todas las
variables explicativas.
Y= 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝑢𝑖
 El termino, multicolinealidad se atribuye
a Ragnar Frisch.
 Originalmente significo la existencia de
una relación “PERFECTA” o exacta entre
algunas o todas las variables explicativas.
 Hoy en día no necesariamente tiene que
ser perfecta
 Es un hecho real que muchas de
nuestras variables explicativas son
altamente colineales.
 La información no reunida mediante
experimentos formales algunas veces
no ofrece mucha claridad sobre los
parámetros de interés.
 El método de recolección de información. Obtención de
muestras en un intervalo limitado de valores.
 Restricciones en el modelo o en la población objeto de
muestreo.
 Especificación del modelo.
 Un modelos sobre determinados. Cuando el modelo tiene
mas variables explicativas que el numero de observaciones.
 Las variables regresoras del modelo compartan una
tendencia común. Es que estos aumente o disminuyan a lo
largo del tiempo
 Relación causal entre variables explicativas del modelo.
 los modelos siguen siendo MELI.
 Micronumerosidad. Relación con el tamaño de
la muestra.
 En las investigaciones falta atención al tamaño
de la muestra.
 Estimar cuando existe multicolinealidad
perfecta, no permite desenredar las influencias
separadas de las X de la muestra dada y por
ende obtener una solución única para los
coeficientes de regresión individual
 El efecto que presenta la multicolinealidad es
obtener coeficientes estimados con ee (errores
estándar) grandes.
 La multicolinealidad es un fenómeno muestral,
en el sentido en que aun si las variables X no
están linealmente relacionadas en la población,
pueden estarlo en la muestra particular
disponible.
CONSUMO= 𝛽1 + 𝛽2 𝐼𝑁𝐺𝑅𝐸𝑆𝑂 + 𝛽3 𝑅𝐼𝑄𝑈𝐸𝑍𝐴 + 𝑢𝑖

 la gente con mayor riqueza generalmente tiende a tener


ingresos mas altos.
 Puede suceder que cuando se tiene la información, las
variables están altamente correlacionadas.
 Es difícil determinar la influencia individual de las
variables
1. Una elevada bondad de ajuste CON POCAS RAZONES
SIGNIFICATIVAS INDIVIDUALES Y CON ELEVADA
SIGNIFICACION GLOBAL.
𝛽෡𝑖 − 𝛽𝑖 𝑛−𝑘
𝑡𝑐 = 𝑡𝛼/2
𝜎𝛽෢𝑖
𝑅2 (𝑛 − 𝑘) 𝑘−1,𝑛−𝑘
𝐹𝑐 = 𝐹𝛼
(1 − 𝑅2 )(𝑘 − 1)
2. Regla de Klein:
Altas correlaciones de orden cero entre las variables explicativas
𝑟𝑥𝑖 𝑥𝑗 → 1
𝑟𝑥𝑖 𝑥𝑗 ≥ 0.8
3. Relación lineal entre las variables explicativas: 𝑋𝑖 = 𝑘𝑋𝑗
4. Si el determinante de la matriz de correlación simple tiende a cero
1 𝑟12 𝑟13 ⋯ 𝑟1𝑖
𝑟21 1 𝑟23 … … 𝑟2𝑖
𝑅𝑋 = 𝑟31 𝑟32 1 … 𝑟3𝑖
⋮ ⋮ ⋮ ⋱ ⋮
𝑟𝑘1 𝑟𝑘2 𝑟𝑘3 … 𝑟𝑘𝑖
Donde:
𝑅𝑋 ∈ [0,1]
𝑅𝑋 = 0 multicolinealidad perfecta
𝑅𝑋 = 1 ortogonalidad

5. CONTRASTE FARRAR GLAUBER


Consiste en la prueba siguiente:
𝐻0 : 𝑅𝑋 = 1 ortogonalidad
𝐻0 : 𝑅𝑋 ≠ 1 multicolinealidad perfecta
2𝑘 + 5
𝐹𝐺𝑐 = − 𝑛 − 1 − 𝑙𝑛 𝑅𝑋𝑋
6
2
𝑋𝑘(𝑘−1)
,𝛼
2
6. Factor de agrandamiento de la varianza (FAV): muestra en que
medida se “agranda” la varianza del estimador como consecuencia
de la no ortogonalidad de los regresores.
1
𝐹𝐴𝑉 𝛽𝑖 =
1 − 𝑅𝛽2𝑖
𝐹𝐴𝑉 > 10 presenta multicolinealidad
𝐹𝐴𝑉 > 20 presenta multicolinealidad preocupante
7. Numero de condición de orden
𝜆𝑀𝐴𝑋
𝑘 𝑋 =
𝜆𝑀𝐼𝑁
30 ≥ 𝑘(𝑋) ≥ 20 multicolinealidad probable
𝑘(𝑋) ≥ 30 multicolinealidad segura

8. Medida de Theil: esta medida refleja la diferencia entre la


variabilidad explicada por el modelo completo y la suma de cada una
de las aportaciones de los regresores al modelo.

𝒎 = 𝑹𝟐 − σ𝒌𝒋=𝟐 𝑹𝟐 − 𝑹𝟐𝒋 𝑚 ≥ 0 optimo


1.Mejorar el diseño muestral extrayendo la información
máxima de las variables observadas.
2.Eliminación de las variables que se sospechan con
causantes de la multicolinealidad.
3.Aumentar el tamaño de la muestra.
4.Incorporar estimaciones de otros estudios.
5.Utilizar la relación extra muestral que permita realizar
relaciones entre los parámetros que permita estimar el
modelo por MCO.
EJEMPLO:
En un estudio econométrico se estudio el Producto Interno Bruto
(PIB), el índice de precios al consumidor (IPC), los gastos del gobierno
(GG) y la capacidad productiva de la industria de ese país en
porcentaje, para una muestra de 17 observaciones se obtuvieron los
siguientes resultados:

𝑃𝐼𝐵𝑖 = 3729.61 + 0.39285𝐼𝑃𝐶 + 0.663397𝐺𝐺 + 0.648393𝐶𝑃𝐸

𝑡 1.1508 1.4201 1.5959 2.9740


𝜎 3240.869 0.276641 0.415687 0.218018

𝑅2 = 0.9989
MATRIZ DE CORRELACIONES
IPC GG CPE
IFC 1
GG 0.99038 1
CPE 0.997769 0.995341 1
RAICES CARACTERISTICAS
𝜆1 𝜆2 𝜆3
0.00985 0.001152 2.98899

REGRESIONES AUXILIARES
CTE IPC GG CPE 𝑅2
IPC 2079.209 -0.639877 0.709049 0.996352

GG -182.0407 -0.283398 0.407116 0.992389

CPE -1270.813 1.141627 1.480014 0.998229

PIB 4546.42 0.412023 0.926941 0.998811


PIB 3608.844 0.204843 0.918472 0.998769
PIB 2905.623 1.133071 1.623027 0.998271
a) Analice que observaciones de carácter estadístico presenta la
estimación.
b) Explique los contraste de Farrar Glauber, Test de Theil, numero
de condición de orden y FAV.
c) ¿existe o no multicolinealidad en el modelo?

You might also like