Professional Documents
Culture Documents
Manejo Intermedio
Stata es un paquete estadístico operado por líneas de comando por líneas de comando , por lo
cual se define como un lenguaje de programación, aunque también funciona bajo entorno
grafico (por la barra menú). Ofrece la flexibilidad como también múltiples herramientas para el
Ventajas Desventajas
Ventana de
variables
Ventana de revisión
Ventana de resultados
Ventana de
propiedades
de variables
Ventana de comandos
Menús
Barra de
nombre
Barra de menús
Barra de herramientas
Tipos de archivos
Tipo de Archivo Extensión
Archivos de datos *.dta
Archivos gráficos *.gph
Bitácoras de salida *.smcl
Archivos de comandos *.do
Archivos de programación *.ado
Programación *.mata
Diccionarios *.dct
Sintaxis de los comandos
help syntax
help regress
Manejo de bases de datos
Abrir y exporta una base de datos
Creación de variables
help generate
Operadores lógicos y matemáticos
+ Adición
- Substracción
Matemático * Multiplicación
/ División
^ Potencia
! No
Lógico | O
& Y
> Mayor
< Menor
>= Mayor o igual que
Relacionales
<= Menor o igual que
== Igual
!=;~= Diferente
Transformación de variables
help replace
Administrador de variables
Eliminar y conservar variables
Filtros
help browse; help list; help table
Combinar bases de datos
help append
Produce un cuadro de frecuencias para diferentes valores o categorías de una variable. También permite
generar cuadros de frecuencia de 2 vías, incluyendo la prueba Pearson, donde la hipótesis nula es que estas
dos variables son independientes.
Análisis de datos: Manejo de tablas de datos
REGRESIÓN
• En el análisis de correlación el objetivo principal es
medir la fuerza o el grado de asociación lineal entre
dos variables. En el análisis de regresión se trata de
estimar o de predecir el valor promedio de una variable
sobre la base de valores fijos de otras variables.
• El análisis de regresión supone asimetría en los
valores, por un lado una variable dependiente aleatoria,
y por otro lado, una variable independiente con valores
CORRELACIÓN
fijos.
Fases del modelo de regresión
Pronóstico
Especificación Estimación Validación
Pruebas individuales.
Partiendo de una función lineal entre dos variables, se
Dependencia lineal
puede estimar una relación de tal manera que la variable
Se debe encontrar una recta que se ajuste a la nube R cuadrado y R cuadrado ajustado.
independiente explique de manera exclusiva el
de punto. Homocedasticidad
comportamiento de la variable dependiente, este modelo
A partir de esta recta podemos usar los valores de X No autocorrelación
de regresión es llamado determinístico
para predecir los de Y. No multioclinealidad
Normalmente se utiliza el método de los mínimos Independencia del error con las variables
Donde β0 y β1, representan respectivamente, el valor
cuadrados que minimiza la distancia de las independientes.
de corte con el eje de las ordenadas cuando la
observaciones a la recta. Modelo bien especificado
variable independiente toma el valor de cero y la
Estabilidad de los coeficientes.
pendiente de la recta de la regresión.
Análisis de regresión: Selección de variables
Analista
Mejor
bondad de
ajuste Mé
t
se odo
ió e
cc d le c s d
le os
n c ió e
se iteri
n
Cr
1. Valor del coeficiente de determinación. Existen diferentes métodos para seleccionar variables
2. Coeficiente de correlación parcial entre independiente.
cada variable independiente y la Los de mayor aceptación son los métodos de selección
dependiente. por pasos (stepwise)
3. El grado de reducción de error típico cada 1. Se selecciona la mejor variable de acuerdo algún
vez que se incorpora una variables. criterio estadístico.
2. A continuación, la mejor de las restantes.
3. Así sucesivamente hasta que no se encuentre
variables significativas.
Métodos de selección de la variables
1. Método hacia delante:
* Las variables se incorporan al modelo de regresión una a una.
* PRIMER PASO: se selecciona la variable independiente que, además de superar criterios de
entrada, presente un alto grado de correlación.
* SEGUNDO PASO: se van incorporando al modelo las variables que posean un coeficiente de
correlación parcial alto en valor absoluto. La selección de variables se detiene cuando no quedan
variables que superen el criterio de entrada.
La principal característica de este modelo es que el coeficiente que acompaña las variables independientes mide la
elasticidad constante de Y respecto de X, es decir, el cambio porcentual en Y ante un pequeño cambio porcentual en
X . En la notación de cálculo, la elasticidad se define como:
Formas Funcionales de los Modelos de Regresión
• Medir tasas de crecimiento: Modelo Semilogarítmico Log-Lin
Si se multiplica por 100 , dará entonces el cambio porcentual o la tasa de crecimiento instantánea (en un momento
dado), en Y ocasionada por un cambio absoluto en X. Para estima la tasa de crecimiento compuesta se debe sacar
el antilogaritmo de y restarle uno
Formas Funcionales de los Modelos de Regresión
• Modelo Lin-Log:
En este caso debe ser divida entre 100 para mostrar un cambio absoluto en Y dado por un cambio en 1% en X.
Formas Funcionales de los Modelos de Regresión
• ¿Que forma funcional se debe elegir?
–Mirar la bondad de ajuste con un grafico de dispersión con ajuste lineal siempre y cuando sea regresión
simple.
–Sugerencias a partir de la teoría y consideraciones a priori (signos que se deben esperar).
–Comparación e interpretación de coeficientes modelos (tasa de cambio y elasticidad).
–Comparación de R cuadrados ajustados, sin embargo, se debe tener una mayor preferencia por: justificación
teórica, signos de los coeficientes estimados y su importancia estadística.
– En ocasiones no es fácil ponerse de acuerdo con una forma funcional u otra, en tal caso se puede usar las
transformaciones Box-Cox.
Modelos ANOVA
• Inclusión de variables de escala nominal que permiten analizar, manteniendo constantes variables de escala de
razón, el comportamiento de la variable dependiente. Esta variables toman valores artificiales dependiendo de la
presencia o ausencia de un atributo. Las variables que adquieren tales valores 0 y 1 se llaman variables
dicotómicas. Tales variables son, por tanto, en esencia, un recurso para clasificar datos en categorías mutuamente
excluyentes.
• El Modelo ANOVA, es un modelo de regresión que contienen variables explicativas exclusivamente dicótomas o
cualitativas. El modelo tiene la siguiente expresión:
2. La categoría a la cual no se asigna variable dicótoma se conoce como categoría base, de comparación. Además,
todas las comparaciones se hacen respecto de la categoría de comparación.
4. Los coeficientes que acompañan las variables categóricas se conocen como coeficientes de intercepto
diferencial, debido a que indican la medida en que el valor de la categoría que recibe el valor de 1 difiere del
coeficiente del intercepto correspondiente a la categoría de comparación
Modelos ANOVA
• Interpretación de variables dicótomas en regresiones semilogarítimicas
El intercepto proporciona el logaritmo medio y el coeficiente de la pendiente, la diferencia entre el logaritmo entre las
dos categorías. Si se toma el antilogaritmo de , lo que ahora se tendría no es el valor medio de la variable
dependiente, sino la mediana. Y si se toma el antilogaritmo de (+, se obtiene la mediana de la variable categórica. El
antilogaritmo de es la semielasticidad de la variable dicotómica.
Resumen: Interpretaciones de coeficientes
Forma Funcional Interpretación
Un modelo que trata de explicar los factores determinantes de que una familia sea propietaria de
una casa. En particular, cuantificar la relación ingreso y propiedad.
Determinar los factores que afectan a que una persona pague o no pague una deuda con una
institución financiera.
Para el caso de ser propietario de una casa, se selecciona una muestra de hogares y se registra el
ingreso y si la familia es propietaria o no de una casa. El modelo puede expresarse de la siguiente
manera:
Donde Yi=1 si el hogar es propietario de su casa y cero en caso contrario y Xi es el ingreso del hogar i.
MODELOS DE SELECCIÓN DISCRETA
Se puede aplicar el técnica de mínimos cuadrados ordinarios, modelo de probabilidad linela –MPL- pero
existen cinco inconvenientes.
0.2
0
X
De esta manera Li resulta lineal X y también en los
parámetros . L es llamado modelo Logit.
MODELOS DE SELECCIÓN DISCRETA: Probit
La aproximación al problema es similar al Logit pero supone una relación no lineal distinta (aunque
muy similar ente Xi y Pi. Se basa en la distribución normal acumulada.
Se supone que la decisión de poseer o no una casa depende de un índice I (Conocido como variable
latente).
El índice I está determinado por una o varias variables explicativas. Por ejemplo, el ingreso. Cuanto
mayor sea el índice, mayor será la probabilidad de tener una casa.
Se supone un umbral critico I* a partir del cuál, si I supera I* entonces una familia posee una casa. El
umbral I*, al igual que I no es observable. Si se supone que esta distribuido normalmente con la
misma media y varianza, es posible estimar los praemtr4os del índice y también alguna información
sobre el I*.
MODELOS DE SELECCIÓN DISCRETA: Probit
Donde Z es una variable estándar normal, con media cero y varianza constante. F es la
función de distribución de probabilidad acumulada.
De esta manera:
MODELOS DE SELECCIÓN DISCRETA: Probit
Pi = F(Ii)
1
p
0.8 Pr (I*i≤ Ii)
0.6
0.4
0.2
0
Ii = + Xi X
Series de tiempo
•
Ciclo, : son fluctuaciones en forma de onda alrededor de la tendencia y corresponde a un
componente de largo plazo, por tanto, tienen una duración de más de un año. Las
fluctuaciones indican aumentos y caídas que no tienen un periodo fijo; los ciclos se identifican
por lo general en cinco fases, para el ciclo de los negocio: auge, crisis, recesión, depresión y
recuperación; y para el ciclo de vida de un producto: introducción, crecimiento, madurez,
saturación y declive. Los patrones cíclicos son difíciles de modelar porque sus patrones
generalmente son inestables, al ser difíciles de identificar y complejos de separar de la serie
tendencial, con frecuencia el ciclo de la serie de tiempo se le atribuye como parte de la
tendencia, para formar así un componente , que contiene el componente tendencia-ciclo
Descomposición: Estacionalidad
•
Estacionalidad, : es una serie de tiempo con un patrón de cambio que se
repite a si mismo año tras año. Es un cambio más o menos estable que
aparece regularmente a lo largo del tiempo. En otras palabras es un
componente de corto plazo que se repite periódicamente en periodos
inferiores a un año (casa “S” periodos). Para datos anuales, la
estacionalidad no tendría sentido estimarla porque no existe la posibilidad
de modelar un patrón con datos que se recopilan una vez por año.
Descomposición: Irregular
•
Irregular, : es un componente de corto plazo que captura las
fluctuaciones impredecibles o aleatorias que se presentan por
sucesos inusuales y no corresponden a los tres componentes
antes mencionados, por lo tanto, su comportamiento es un efecto
residual de la serie de tiempo.
Modelos de predicción determinista
Promedio móvil simple: se utiliza para suavizar una series, es decir, elimina
los picos de una serie, en otras palabras elimina los componentes de corto
plazo para visualizar mejor los de largo plazo (tendencia y ciclo). También se
utiliza para pronosticar. El promedio móvil es un modelo de pronóstico cuyo
nuevo valor incorpora la información mas reciente y elimina la observación
mas antigua.
Modelos de predicción determinista
•
Promedio móvil doble: una manera de pronosticar los datos de las series de tiempo que
tienen una tendencia lineal es usar promedios móviles dobles.
ponderado de los valores actuales y pasados. A diferencia del promedio móvil, el suavizamiento incluye toda
una extensión del método de Holt que podría representar mejor los datos y reducir el error del pronóstico cuando
existe un patrón de estacionalidad. En el método de Winters se emplea una ecuación adicional para estimar la
estacionalidad
Resumen: Métodos de predicción determinista
El coeficiente mide el grado de asociación lineal entre Yt y Yt-k, siendo k el orden del rezago. Ahora se
aplica varianzas a cada lado:
Teoría económica de los modelos de series de tiempo
•
Algunas características de las series financieras
1. Fuertes tendencias.
2. Difícil de distinguir tendencias y ciclos.
3. Ciclos estocásticos, difíciles de predecir.
4. Comportamientos estacionales marcados
5. Oscilaciones muy erráticas, no hay tendencias ni ciclos obvios.
6. Covariaciones sugerentes.
7. Cambios estructurales.
Algunas características de las series financieras
• El objetivo del análisis de series temporales es inferir la forma del proceso estocástico a partir de las
series temporales que genera.
• Proceso estocástico estacionario es cuando los parámetros como media y varianza son constantes en el
tiempo y los valores de la covarianza entre dos periodos no depende del tiempo sino de la distancia o
rezago que hay entre dos periodos.
Principales hipótesis
–Linealidad, el valor que toma hoy la serie (o el proceso) depende linealmente de sus valores pasados y los
valores presentes y pasados de otras series.
–Estacionariedad, la media y varianza incondicional de una serie (o proceso) son constantes, las
autocovarianzas entre dos valores solo dependen de la distancia temporal que los separa. Formalmente:
Un proceso ruido blanco no es posible pronosticar utilizando modelos ARIMA. Un proceso Ruido
Blanco no tiene memoria, es decir, que el último dato conocido recoge toda la información histórica
disponible.
• Paseo aleatorio, un paseo aleatorio representa una variable cuyos cambios son ruido blanco y,
por tanto, imprevisibles. La característica fundamental de este proceso es la falta de afinidad de
las series a una media estable.
Procesos estocásticos elementales
•• Modelos de series de tiempo
Hasta el momento t-1 se tiene los valores pasados de la serie y las innovaciones pasadas.
Según la información disponible, hay tres tipos de modelos:
• SUPUESTOS:
1. Toda serie de tiempo ha sido generada por un proceso estocástico cuya naturaleza puede
ser caracterizada o descrita mediante un modelo.
2. Dicho modelo no se presenta en los términos tradicionales de una relación y de otras
variables sino en esta caso el valor de la serie depende de su pasado, es decir, de sus
propios rezagos.
3. Se requiere que la serie a modelar sea estacionaria.
•.FASES DEL MODELO:
1. Identificación
2. Estimación
3. Validación del modelo
4. Pronóstico
Fase de identificación
• Proceso estadístico que genero la serie, para identificar el proceso se requiere de
herramientas graficas y estadísticas.
–Grafico
–Correlograma: representación grafica del diagrama de dispersión entre los coeficientes de
correlación y el orden del rezago. A medida que aumenta el orden del rezago, el coeficiente de
autocorrelación tiende a cero.
-1 0 1
La presencia de una raíz unitaria en una serie de tiempo económica revela directamente
inestabilidad de la misma, siendo necesario transformarla para poder trabajar con ella.
Series estacionarias
1. Tendencia
1. Lineal->Primera diferencia
2. Tendencia cuadrática->Segunda diferencia
2. Varianza-> logaritmo
3. Tendencia y varianza no son constantes->diferencia logarítmica
4. Estacionalidad->Diferencia estacional
–.Estacional
Proceso estocástico que genero la serie
•
• Se requiere analizar simultáneamente las funciones FAS Y FAP
–FAS->conjunto de datos que representa una función de autocorrelación y su comportamiento
(rompe o no rompe la banda)
–Modelos ARIMA
• Ar(p)->
• ARMA(p,q)->
• ARIMA(p,d,q)-> d, es el número de veces que se tuvo que diferenciar la serie para que fuera estacionaria.
Modelos autorregresivos de orden 1: AR(1)
• Un proceso autorregresivo de primer orden, Ar(1), representa una variable cuyo valor actual esta relacionado con su
valor anterior mediante un modelo de regresión.
• El modelo incorpora la última observación, el proceso Ar(1) se reconoce por una ACF infinita y una PACF que se
anula a partir del segundo retardo. Si los datos tienen media, es necesario especificar un término constante
Modelos de Medias Móviles de orden q: MA(q)
•
Incluyen p retardos de la propia variable y q innovaciones pasadas.
ACF
Finita Infinita
•• El precio de un activo se distribuye como una log normal, partiendo de este supuesto
se tiene:
+
Modelos ARCH (q), modelo de la varianza del error en función de los errores rezagados
Para garantizar que exista reversión a la media, la sumatoria de debe ser menor que
uno. Esta sumatoria se conoce como persistencia del modelo. Entre mas cerca a 1,
implica que los choques aleatorios que afectaron el modelo son más persistentes y
tardaran mucho tiempo en desaparecer.
Ajustes por Betas GARCH(p,q)
Además de incluir en la especificación los errores rezagados tienen en cuenta las varianzas del modelo
Un conjunto de datos panel consta de una serie temporal para cada miembro del corte transversal en el
conjunto de datos.
La característica principal de los datos panel, que los distinguen de las combinaciones de cortes
transversales, es el hecho de que se da seguimiento a las mismas unidades transversales ya sean individuos,
países, regiones, entre otros durante cierto periodo de tiempo.
La ventaja es que al tener las mismas unidades es posible controlar ciertas características inobservables de
individuos. Otra ventaja es que permite estudiar la importancia de los rezagos en el comportamiento o el
resultado de tomar una decisión.
Usar estos comando
Xtdescribe
Xtsum
Xttab
Xttrans
Análisis de datos panel Xtline
xtdata
El principal objetivo de aplicar y estudiar los datos en panel, es capturar la heterogeneidad no observable,
ya sea entre individuos como en el tiempo, dado que esta heterogeneidad no se puede detectar ni con
series de tiempo ni tampoco con modelos de corte transversal.
La heterogeneidad no observable: puede partir de los efectos individuales específicos y los efectos
temporales.
Los efectos individuales específicos son aquellos que afectan de manera desigual a cada uno de los
individuos los cuales son invariables en el tiempo y que afecten de manera directa las decisiones que tomen
dichas unidades.
Los efectos temporales serian aquellos que afectan por igual a todas las unidades individuales del estudio
pero que no varían en el tiempo.
Combinación de corte transversales en el tiempo
Métodos simples
Combinación independiente de cortes transversales
Muchos estudios de personas, familias y empresas se repiten a intervalos regulares, a menudo cada año. Si se extrae
una muestra aleatoria en cada periodo, al combinar los resultados de cada muestra se obtiene una combinación
independiente de cortes transversales. Este es un aspecto clave también en el análisis de corte transversal
(independencia muestral) ya que excluye la correlación en los términos de error para distintas observaciones.
Una razón para utilizar una combinación independiente de cortes transversales es que el tamaño de muestra se
incremente. Al combinar muestras aleatorias extraídas de la misma población, pero en distintos puntos del tiempo, se
obtienen estimadores mas precisos y estadísticos con mayor potencia de prueba. Este tipo de combinación es útil a
este respecto sólo en la medida en que la relación entre la variable dependiente y al menos algunas de las variables
independientes permanece constante con el paso del tiempo.
Combinación de corte transversales en el tiempo
Métodos simples
• reflejar el hecho de que es posible que la población tenga distintas distribuciones en diferentes periodos, se
Para
permite que el intercepto difiera a través de los periodos. Esto se consigue fácilmente si se incluyen variables binarias
para todos los años excepto una, la primera, que se elige como año base de la muestra. A veces resulta de interés el
patrón de coeficientes de la variables binarias temporales.
MIREMOS UN EJEMPLO: Fertilidad de las mujeres en el tiempo. Estime el siguiente modelo con la base de datos
llamada FERTIL 1. Encuesta nacional para los años pares desde 1972 hasta 1984. Se busca estimar un modelo que
explique el número total de hijos que tiene una mujer.
Combinación de corte transversales en el tiempo
Métodos simples
Preguntas:
¿Qué pasa con las mujeres que tienen un mayor número de años escolares?
¿Cuál es la edad en que la mayoría de las mujeres han dejado de tener hijos?
Combinación de corte transversales en el tiempo
Métodos simples
•
También se puede interactuar una variable binaria anual con las variables explicativas que son clave para ver si el
efecto de esa variable ha cambiado a lo largo de un cierto periodo.
Preguntas:
Es simplemente una prueba F, se utiliza para determinar si una función de regresión múltiple difiere en dos grupos.
Esta prueba también se puede aplicar a dos periodos diferentes. Para este caso, se puede interactuar cada variable
con una variable binaria anual para cada uno de los años y se prueba la significancia conjunta de la variable binaria
anual y de todos los términos de interacción. En caso de que se tengan mas periodos de análisis, por lo general es
mas interesante permitir que los interceptos cambien con el tiempo y luego probar si los coeficientes de las pendientes
han sufrido cambios en el tiempo, de esta manera se puede realizar el siguientes estadístico de prueba.
Contexto
El rumor de que se construiría un nuevo incinerador de Basura en North Andover comenzó después de 1978 y la
construcción inició en 1981. Se esperaba que el incinerador entrara en operación poco después del comienzo de su
construcción; en realidad comenzó a operar en 1985. Se utilizarán datos sobre los precios de las casas que se
vendieron en 1978 y otra muestra de aquellas que se vendieron en 1981. La hipótesis es que el costo de las casas
ubicadas cerca del incinerador estaría por debajo del precio de las viviendas mas lejanas. Se considera que una casa
está cerca del incinerador si se halla en un radio de 3 millas.
Combinación de corte transversales en el tiempo
Métodos simples
•
Especificación del estimador DIF en DIF
Dado que es un modelo de regresión simple sobre una sola variable binaria, el intercepto es el precio de venta promedio
de las casas que no están cerca del incinerador y el coeficiente acompañado de la variable es la diferencia entre el precio
promedio de las casas cercanas y aquél de las casas lejanas.
La clave es considerar la forma en que el coeficiente de nearin cambia entre 1978 y 1981
Combinación de corte transversales en el tiempo
Métodos simples
• ¿Cómo saber si es estadísticamente significativa?
Entonces es el precio promedio de una casa no cercana en 1978. El parámetro captura los cambio de valor de todas las
casas de 1978 a 1981. mide el efecto de la ubicación que no se debe a la presencia del incinerador y mide la
disminución en el valor de las casas debida al nuevo incinerador, siempre y cuando se suponga que las casas, tanto las
cercanas como las lejanas al incinerador, no se revalorizaron a tasas distintas por otras razones.
Ahora incluya age, age2, intst, land, área, romos y baths. ¿Qué sucede con nearinc? Esto indica que las
características incluidas capturan en buena medida las características de las casas que resultan más importantes para
determinar el precio de la vivienda.
Sea C el grupo de control y T el grupo de tratamiento, donde dT es igual a 1 para los miembros del grupo de tratamiento y 0 en caso
contrario. De esta manera, suponiendo que d2 indica una variable binaria para el segundo periodo (después del cambio de política), la
ecuación que nos interesa es:
mide el efecto de la política, sin otros factores en la regresión, será el estimador de diferencia en diferencias:
Combinación de corte transversales en el tiempo
Métodos simples
Control
Tratamiento
Tratamiento-Control
El parámetro será el estimador de diferencia en diferencias, algunas veces llamado efecto promedio del tratamiento (debido a que
mide el efecto del “tratamiento” o la política sobre el resultado promedio de y), puede estimarse de dos maneras: i) calcular las
diferencias de los promedios entre los grupos de tratamiento y control para cada periodo, y luego obtener la diferencia de los
resultados respecto al tiempo y ii) calcular el cambio en los promedios respecto al tiempo para cada uno de los grupos de tratamiento y
de control, y después determinar la diferencia entre estos cambios, lo cual simplemente se escribe .
Combinación de corte transversales en el tiempo
Métodos simples
•
Análisis de datos de panel para un periodo de dos años
Una manera de utilizar datos de panel es clasificar los factores no observables, que influyen en la variable
dependiente, en dos tipos: aquellos que son constantes y aquellos que varían con el tiempo. Considerando que i es la
unidad de corte transversal y t el tiempo, se puede escribir un modelo con una sola variable explicativa observada
como:
Modelo de efectos
inobservables
Modelo de efectos fijos
En la notación , i denota el individuo y t indica el periodo. La variable es una variable binaria que es igual a cero
cuando t=1 y a uno cuando t=2; no cambia en i, razón por la cual no tiene subíndice i. Por consiguiente, el intercepto
para t=1 es , y el intercepto para t=2 es . La variable captura todos los factores inobservables (heterogeneidad
individual), constantes en el tiempo, que influyen en . El error con frecuencia se llama error idiosincrático o error
variable en el tiempo.
Combinación de corte transversales en el tiempo
Métodos simples
• ese caso como se estimaría ?: una posibilidad es tan solo combinar los dos años y utilizar MCO, sin embargo se
¿ en
pueden presentar dos inconvenientes, el más importante es que para hacer MCO genere un estimador consistente
de , tendría que suponer que el efecto inobservable , no se correlaciona con .
En la mayoría de las aplicaciones, la razón principal para reunir datos de panel es permitir que el efecto inobservable ,
se correlacione con las demás variables explicativas. Resulta que es muy fácil propiciar esto: como , es constante en
el tiempo se pueden diferenciar los datos a lo largo de los dos años. De manera más precisa, para la observación de
corte transversal i, se pueden denotar los dos años como:
3. Cada variable explicativa cambia con el tiempo (al menos para cada alguna i), y no existe una relación lineal perfecta entre las variables
explicativas.
4. Para cada t, el valor esperado del error idiosincrático, dadas las variables explicativas en todos los periodos y el efecto inobservable, es
cero:
Con base en los primeros cuatro supuestos, los cuales son idénticos a los supuestos del estimador de primeras diferencias, el estimador
de efectos fijos es insesgado. De nuevo, la clave es el supuesto de exogeneidad estricta, 4. Bajo estos mismo supuestos, el estimador de
EF es consistente con un T fijo conforme N
5. =
Datos de Panel
Estimación de efectos fijos
6. • Para todo ts , los errores idiosincráticos no están correlacionados (de manera condicional en todas las variables
explicativas y en ): Cov
Con base en estos seis supuestos, el estimador de efectos fijos de los es el mejor estimador lineal insesgado. El supuesto que hace
que EF sea mejor que PD es el último supuesto, lo que implica que los errores idiosincráticos no se correlacionan serialmente.
7. De manera condicional en y en los son independientes e idénticamente distribuidos como Normal (0, )
El supuesto 7 implica los supuestos 4,5 y 6, pero es más fuerte, ya que supone una distribución normal para los errores idiosincráticos. Si se
agrega 7, el estimador de EF se distribuye normalmente y los estadísticos t y F tienen distribuciones exactas t y F. Sin 7, se puede confiar en
las aproximaciones asintóticas. Pero, sin hacer suposiciones especiales, estas aproximaciones requieren una N grande y un T pequeño.
Datos de Panel
Estimación de efectos fijos
•
Transformación de efectos fijos
• Bajo el supuesto de exogeneidad estricta sobre las variables explicativas, el estimador de efectos fijos es insesgado: aproximadamente, el error
idiosincrático no debe correlacionarse serialmente con ninguna variables explicativa en todos los periodos. El estimador de efectos fijos permite la
correlación arbitraria de y las variables explicativas en cualquier periodo, al igual que las primeras diferencias.
• El otro supuesto necesario para que el estimador por MCO directo sea valido es que los errores , sean homocedasticos y no estén serialmente
correlacionados (en t)
• El R-Cuadrado within se interpreta como la cantidad en la variación temporal en que se explicar por la variación temporal en las variables explicativas.
Datos de Panel
Estimación de efectos fijos
•
Regresión de Variables Binarias
Un punto de vista tradicional respecto del modelo de efectos fijos es suponer que el efecto inobservable, , es un parámetro que debe
estimarse de cada i. Por tanto, en la ecuación, , , es el intercepto para el individuo i que debe estimarse junto con las .
La forma que se estima un intercepto para cada i es asignar una variable binaria para cada observación de corte transversal, junto con
las variables explicativas.
Algunos paquetes econométricos que soportan la estimación de efectos fijos reportan un “intercepto”, lo cual puede crear confusión en
vista de que el tiempo deducido elimina todas las variables constantes en el tiempo. Los reportes de un intercepto general en le
estimación de efectos fijos surgen de considerar como parámetros a estimar. El intercepto reportado es el promedio en i de las En
otras palabras, el intercepto generalmente es, en realidad, el promedio de los interceptos específicos individuales, el cual es un
estimador insesgado y consistente.
Datos de Panel
Estimación de efectos fijos
•
EFECTOS FIJOS O PRIMERAS DIFERENCIAS
Cuando se tiene T=2, las estimaciones, así como todos los estadísticos de pruebas son idénticos.
Cuando se tiene T3, los estimadores no son los mismos. En virtud de que ambos son insesgados, con base en los
supuestos 1 a 4, no es posible utilizar el insesgamiento como criterio. Para N grande y T pequeño, la elección entre
estimadores depende de su eficiencia relativa, y esto esta determinado por la correlación serial de los errores
idiosincráticos, .
Cuando las no se correlacionan serialmente, los estimadores de efectos fijos son mas eficientes que los de primeras
diferencias.
El hecho teórico importante es que en el estimador de PD el sesgo no depende de T, mientras que el sesgo en el
estimador de EF tiende a cero a razón de 1/T.
Por lo general resulta difícil elegir entre estimadores de EF y PD cuando generan resultados sustancialmente distintos.
Datos de Panel
Estimación de efectos aleatorios
•
Supuestos para los efectos aleatorios:
Los supuestos ideales de efectos aleatorios comprenden los supuestos de efectos fijos (1,2,4,5,6 “7 se podría agregar a la lista, pero
es poco practico porque se debe estimar ). Como solo se esta restando una fracción de los promedios en el tiempo, ahora se puede
permitir variables explicativas constantes. Así el supuesto 3 se reemplaza con:
El costo de permitir regresores constantes en el tiempo es que se deben añadir supuestos acerca de cómo se relaciona el efecto inobservable, , con las
variables explicativas.
2. Además del supuesto 4, el valor esperado de dada todas las variables explicativas es constante: |
Este es el supuesto que rige la correlación entre el efecto inobservable y las variables explicativas, y es la distinción fundamental entre los EF y EA. Como se
supone que no se correlaciona con ninguno de los elementos es posible incluir variables explicativas constantes en el tiempo.
3. Además del supuesto 5, la varianza de dada todas las variables explicativas, es constante: |
Con base en los seis supuestos de efectos aleatorios, el estimador de EA es consistente y se distribuye asintóticamente como normal.
Para los coeficientes de las variables explicativas que cambian en el tiempo, el estimador de EA es mas eficiente que el de EF.
Datos de Panel
Estimación de efectos aleatorios
Se• comienza con el mismo modelo de efectos inobservables donde se incluye, de manera explicita, un intercepto de modo que se puede
suponer que el efecto inobservable, , tiene media cero.
Esta ecuación se estima cuando se da por sentado que el efecto inobservable no se correlaciona con ninguna variable explicativa.
Si se define el término de error compuesto como , entonces se tendría: Como esta en el error compuesto en cada periodo, las se
correlacionan serialmente en cada periodo de tiempo.
Para eliminar la correlación serial en los errores se requiere la transformación por MCG de la siguiente manera:
;
Datos de Panel
Estimación de efectos aleatorios
•
EFECTOS ALEATORIOS O EFECTOS FIJOS
Dado que los efectos fijos permiten una correlación arbitraria entre y las , mientras que los efectos aleatorios no, se considera
ampliamente que los EF constituyen una herramienta más convincente para las estimación de los efectos ceteris paribus. No
obstante, los efectos aleatorios se aplican en ciertas situaciones. Evidentemente, si la variable explicativa clave es constante en el
tiempo. Desde luego, sólo se puede utilizar EA debido a que se esta dispuesto a suponer que no se correlacionas con .
Sigue siendo común ver a investigadores que aplican tanto EF como EA, y luego prueban de manera formal las diferencias
estadísticas significativas en los coeficientes de las variables explicativas que cambian con el tiempo. Hausman propuso este tipo
de prueba, donde la Ho es aplicar EA o EF indistintamente y la Ha es aplicar EF. “se debe hacer una distinción entre una diferencia
significativa en la practica y una diferencia estadísticamente significativa”
Modelos econométricos para datos panel
Bajo supuestos distintos sobre el intercepto y los componentes de error, el modelo puede ser.
1. Modelo agrupado (Pooled): Si el intercepto es constante, y no hay heterogeneidad entre individuos. Exogeneidad
Cov(, )=0
2. Modelo de efectos fijos: Si el intercepto es constante, y hay heterogeneidad entre individuos. Cov(, )0
3. Modelo de efectos aleatorios: Si el intercepto es constante, y hay heterogeneidad entre individuos. Cov(, )0
Modelos econométricos para datos panel
La regresión agrupada se evalúa sin tener en cuenta de que los datos son datos de panel
agrupados.
Comandos:
*global
*sort (i) (t)
*reg, vce (ckuster id)
*predict, resid
*correlate
Comandos:
*xtreg, fe
*xttest3
*xtserial
*xtregar
Estimación del modelo de efectos fijos
Para elegir el mejor modelo a estimar se puede hacer una prueba con el comando
hausman FE RE, sigmamore.
El análisis discriminante se usa para estimar la relación entre una variable dependiente categórica y un
conjunto de variables independientes en escala de intervalo.
La diferencia principal entre AD de 2 grupos y AD múltiples es que con el primero sólo es posible
estimar una función discriminante mientras que con el segundo más de una función puede ser
computada.
• Nominal: nombres o clasificaciones que se utilizan para datos en categorías distintas y separadas.
Distintas y separadas hace referencia a variables que pueden registrarse exclusivamente.
• Ordinal: son las que clasifican las observaciones en categorías con un orden significativo.
• Intervalo: medidas en una escala numérica en la cual el valor de cero es arbitrario pero la diferencia
entre valores es importante.
• Razón: medidas numéricas en las cuales cero es un valor fijo en cualquier escala y la diferencia
entre valores es importante.
Análisis Multivariante: Análisis Discriminante
•
Modelo de análisis discriminante:
Donde:
D: valor discriminante (discriminant score)
b’s: coeficientes discriminantes (o pesos)
X: predictores (o variables independientes)
Análisis Multivariante: Análisis Discriminante
1. Formular el problema
• Dividir la muestra en dos parte: muestra de análisis y muestra de validación (validación cruzada)
Análisis Multivariante: Análisis Discriminante
candisc
Análisis: cómo sólo hay dos grupos, sólo una función discriminante es calculada.
Análisis Multivariante: Análisis Discriminante
Open
Describe o F2
Análisis: cómo sólo hay dos grupos, sólo una función discriminante es calculada.
• Resumir media y desviación estándar de las variables según categoría visit para la muestra de análisis.
Análisis: determinar la variable que ofrece una separación significativa entre grupos.
Análisis Multivariante: Análisis Discriminante
Análisis: la matriz de correlación indica la fuerza y nivel de significancia entre las predictoras.
ANOVA: técnica estadística para examinar la diferencia entre las medias para dos o más poblaciones.
Estat anova
Estat canontest
Análisis:
– eigen-valor(el valor propio asociado y la varianza explicada). para cada función discriminante, el valor
propio es la razón entre las sumas de cuadrados de los grupos between y within. Eigenvalores altos
implican funciones superiores)
– Correlación Canónica. Mide la extensión de la asociación entre los valores discriminantes y los grupos. Es
una medida de asociación entre la función discriminante y el set de variables dummy que definen la
pertenencia a un grupo.)
Análisis Multivariante: Análisis Discriminante
Análisis: o Ho: Las medias de los grupos son iguales en la población son iguales para todas las
funciones discriminantes.
• SPSS -> Wilk’s (lambda) ->transformación chi2 -> valor p
• Stata -> Likelihood ratio -> transformación F -> valor p -> Valor p =.0001, Ho se rechaza, luego es
significativa la discriminación y por tanto puede procederse a interpretar los resultados.
Análisis Multivariante: Análisis Discriminante
Interpretación de resultados
Interpretación de los resultados Análisis: la interpretación de los coeficientes discriminantes es similar a la de los coeficientes de
regresión lineal múltiple.
Razón de éxito (hit ratio): el porcentaje de casos clasificados correctamente por el análisis discriminante.