You are on page 1of 18

ERRORES DE ESPECIFICACIÓN

Definición En sentido amplio, entendemos por errores de especificación todos aquellos errores que se cometen en la construcción de un modelo econométrico. Estos errores pueden afectar tanto a la definición de los regresores como a las hipótesis que suponemos cumple la perturbación aleatoria de la ecuación de regresión. En la primera categoría de errores situaríamos al que se comete cuando no incorporamos un factor relevante la explicación de la variabilidad de la variable endógena de un modelo, mientras que incurrimos en la segunda categoría de errores cuando estimamos un modelo MCO suponiendo que las perturbaciones tienen varianza constante cuando en realidad son heteroscedásticas. Causas Los errores de especificación se pueden cometer por varias causas: Elección de una forma funcional incorrecta Incluir variables explicativas no relevantes u omitir variables que influyen sobre la variable endógena, y A no verificación de las hipótesis a priori sobre los distintos elementos del modelo.

Es necesario pues detectar que se ha cometido un error de especificación para poder modificar el modelo hasta tener información satisfactoria CONSECUENCIAS Y CONTRASTES El término error de especificación se refiere al caso en que cometemos un error en la decisión sobre cuales variables hay que incluir en el modelo. Veremos dos casos: el primero en que en que incluimos una variable irrelevante y el segundo en que omitimos una variable relevante. Inclusión de una variable irrelevante Supongamos que nuestro modelo de regresión sea:

pero añadimos la variable x2 que no tiene ningún efecto sobre y y especificamos nuestro modelo como

ya que su valor medio en muestras repetidas será igual a cero. hay alguna implicación sobre la precisión de las estimaciones.¿Cuáles son las consecuencias? No muchas. Si x1 y x2 están correlacionadas. Desde el primer capítulo sabemos que la varianza de ̂ 1 es donde es el coeficiente de determinación de de la regresión de x1 sobre x2. Entonces. Esto deriva del hecho que los estimadores siguen insesgados porque no hay ninguna violación de los supuestos del modelo. la varianza de los estimadores será mayor si las variables están correlacionadas. Supongamos ahora que el modelo de regresión correctamente especificado sea: y que cometemos un error: excluimos del modelo x2 y consideramos el modelo Podemos verlo formalmente. > 0 y esto implica una varianza para ̂ 1 mayor que en el caso en que el modelo fuese bien especificado. Simplemente obtendremos una estimación de B2 que tendría que acercarse al cero. aunque los estimadores siguen insesgados. Sin embargo. Omisión de una variable relevante Las consecuencias de excluir variables relevantes son mas graves porque crea sesgo en los estimadores MCO. o sea tendremos menor precisión de la estimación. Se considere el estimador MCO de B1 en el modelo sin x2 .

Ya que este hecho generaría que los estimadores de sean sesgados. Analicemos otro ejemplo: supongamos que la ecuación es log (wage) es: ( ) . sea sesgado. Los efectos sobre el estimador del efecto de la experiencia son aun peores: aunque pudiésemos encontrar un estimador insesgado para no podríamos estimar el efecto total de la experiencia porque este es igual a (en forma decimal). si el salario por hora viene dado por: ( ) Pero omitimos por error la variable del cuadrado de la experiencia. la mala especificación del efecto exper sobre log (wage) generalmente da lugar a que el estimador del efecto de la educación . Sería un error usar solamente el estimador sesgado . Además se mencionan otros tipos de consecuencias y contrastes MALA ESPECIFICACION FUNCIONAL Un modelo de regresión lineal múltiple adolece de mala especificación funcional cuando proponemos una relación entre la variable dependiente y las variables explicativas observadas que es inadecuada. (No estimamos 2 porque exper se excluye del modelo) por lo tanto. Por ejemplo. El tamaño del sesgo depende del valor de y de la 2 correlación entre educ. exper y exper . exper2. entonces estaremos cometiendo un erro debido a la mala especificación funcional.Si tomamos el valor esperado obtenemos o sea el estimador es sesgado y el sesgo depende de la correlación muestral entre las dos variables independientes. especialmente para valores de exper.

visto desde cierto ángulo. La mala especificación de la forma funcional de un modelo puede producir graves consecuencia. Si los términos cuadráticos añadidos son significativos. La idea que hay detrás del contraste RESET es muy simple. la existencia de términos cuadráticos significativos puede ser un síntoma de otros problemas relacionados con la forma funcional. Afortunadamente. Por ejemplo. tales como el uso de la variable en nivel cuando el logaritmo es más apropiado o viceversa. En general. entonces estaríamos especificando la forma funcional incorrectamente. El contraste del error de especificación de la regresión (RESET) de Ramsey ha resultado muy útil en este sentido. Si omitimos el término de interacción . RESET COMO CONTRASTE GENERAL DE LA MALA ESPECIFICACION FUNCIONAL Se han propuesto algunos contrastes para detectar la mala especificación funcional. es difícil identificar la razón exacta por la que la forma funcional que se ha especificado es incorrecta. En ocasiones. la importancia de este problema se puede considerar menor: por definición. pero nosotros usamos wage en vez de log (wage) como variable dependiente. Sin embargo. no está claro cómo interpretar el resultado que obtendríamos de la estimación que omite el término de la interacción. A menudo tiene sentido añadir términos al cuadrado de algunas variables significativas del modelo y realizar un contraste de significatividad conjunta.Donde female es una variable ficticia. en muchas relaciones económicas no lineales es suficiente con usar logaritmos en ciertas variables y añadir términos al cuadrado. si el modelo que tratamos verdaderamente satisface los cuatro supuestos de Gauus – Markov. pueden inclinarse en el modelo (con el coste de complicar la interpretación del modelo). disponemos de datos de todas las variables necesarias para obtener una relación funcional que estime bien los datos. y dado que el efecto de la educación depende del sexo. no obtendríamos estimadores insesgados para ninguno de los parámetros para ninguno de los otros parámetros. Sin embardo. Para obtener o detectar si existe una mala especificación funcional se dispone de una herramienta muy útil que es estadístico F de las restricciones de exclusión conjuntas. entonces no obtendremos estimadores de los efectos parciales que sean insesgados ni consistentes. La omisión de funciones variables independientes no es la única vía por la que es un modelo puede padecer el problema de la mala especificación funcional. Si el modelo original .

añadir términos al cuadrado no detecta algunas formas de no linealidad no incluidas en el modelo. si la forma funcional especificada es correcta. Además. pero los términos al cuadrado y al cubo suelen ser suficientes en la mayoría de los casos. USO DE VARIABLES PROXY PARA VARIABLES EXPLICATIVAS NO OBSERVABLES Cuando en un modelo se omite alguna variable relevante. Sin embargo. incluyendo variables no observables omitidas y heteroscedasticidad. Se puede demostrar que el RESET no tiene potencia para detectar variables omitidas si estas tienen esperanzas que son lineales en las variables independientes incluidas en el modelo. educ está correlacionada con hábil en el término de error hace que el estimador de Mínimos Cuadrados Ordinarios de sea sesgado.Como cumple el supuesto de Regresión Lineal Múltiple. la conclusión es que RESET debe usarse como un contraste sobre la forma funcional y nada más. . no se debería usar el RESET para este propósito. RESET no tiene potencia para detectar heteroscedasticidad. un problema que ha aparecido en repetidas ocasiones. En el ejemplo de los salarios añadimos los cuadrados de las variables explicativas significativas. Un inconveniente de RESET es que no nos informe sobre cómo proceder cuando un modelo se rechaza. por lo que ninguna función no lineal añadida en la ecuación anterior debería ser significativa. consideremos una ecuación de salario donde explícitamente se tiene en cuenta la habilidad (hábil) afecta a log (wage): ( ) En este modelo se muestra explícitamente que queremos mantener fijo el nivel de habilidad cuando se miden los efectos de educ y exper. surge un problema complicado. Hay quienes defienden RESET sosteniendo que es un contraste de mala especificación muy general. Para detectar formas generales de mala especificación funcional. Además. Si bien este procedimiento suele detectar problemas relacionados con la forma funcional. Usando RESET no implica que necesariamente que se vaya a detectar el problema ciertamente. debemos decidir cuantas funciones de los valores ajustados incluiremos a la regresión ampliada. normalmente debido a falta de datos. tiene el inconveniente de que disminuye los grados de libertad cuando el modelo original incluye muchas variables explicativas (de la misma manera que el contraste de White de heteroscedasticidad consume grados de libertad). No hay una respuesta concreta a esta pregunta. RESET añade polinomios de los valores ajustados por Mínimos Cuadrados de la ecuación original. Para realizar el contraste RESET. Si por ejemplo.

pero tenemos una variable proxy para . Muchos de los factores no observados contribuyen a altos índices de delincuencia tanto presentes como pasados. exper respectivamente. En otras aplicaciones. lo normal es que y estén relacionadas positivamente. X2. una variable proxy en una variable que está relacionada con una variable no observable que deseamos incluir en nuestro análisis. Dicho de manera informal. El uso de variables dependientes retardadas en ecuaciones de datos de corte transversal aumenta los requisitos sobre los datos. una posibilidad sería usar el Coeficiente intelectual QI. Supongamos que disponemos de datos de las variables y. Del mismo modo. como proxy para la habilidad. Denominemos a la variable proxy . Este método es especialmente útil para análisis de política. Por ejemplo. El parámetro mide la relación que existe entre y . pero no tenemos ni idea de cómo obtener una proxy para esa variable omitida. En nuestro modelo del salario. USO DE VARIABLES DEPENDIENTES RETARDADAS COMO VARIABLES PROXY En algunas aplicaciones. algunas ciudades han tenido altos índices de delincuencia en el pasado. educ. sospechamos que una o más de las variables independientes se correlaciona con la variable omitida. Donde es el error debido a que y no están perfectamente relacionadas. pero no es un método simple de tener en cuenta factores históricos que causan diferencias en el valor actual de la variable dependiente que son difíciles de tener en cuenta por otras vías.¿Cómo podemos eliminar. ¿Qué pedimos a esta variable? Como mínimo. debe tener alguna relación con . Esto facilita la elección de las variables proxy. entonces no es una buena proxy de . algunas universidades son por tradición mejores que . En estos casos. Si . tenemos al menos una idea vaga acerca de qué factores no observados nos gustaría tener en cuenta. por lo que será positivo. como en el ejemplo anterior del salario. X1. o al menos reducir. podemos incluir como variable de control. el sesgo producido por variables omitidas como en el que ocurre en el modelo? Una posibilidad consiste en utilizar una variable proxy para la variable omitida. lo que necesitamos es que el QI esté correlacionado con la habilidad. Esto no requiere que el QI sea lo mismo que la habilidad. en el ejemplo del salario estas variables son log (wage). Esto se puede recoger en la ecuación de regresión simple. el valor de la variable dependiente de un periodo anterior. La variable explicativa no es observable.

Consideremos una ecuación simple para explicar los indicies de delincuencia de una ciudad: Donde crime es una medida de la delincuencia por habitante. desemp es la tasa de desempleo de la cuidad. . Uno de los análisis que se puede dar es que es probable que no obtengamos un estimador insesgado del efecto causal de crime del gasto necesario para que se cumpla la ley. MÍNIMOS CUADRADOS GENERALIZADOS Como conocemos las consecuencias de la autocorrelación. Aunque dista de ser un método perfecto. El remedio depende del conocimiento respecto a la naturaleza de la interdependencia entre las perturbaciones.otras. gasto. conocer la estructura de la autocorrelación. quizá deseemos corregir el problema. Por tanto. los factores que los económetras no observan y que pueden afectar a crime es probable que estén correlacionados con gasto (y con desemp). puede ayudar a mejorar la estimación de los efectos de variables de política económica en diversos escenarios. es decir. El motivo de incluir crime – 1 es que ciertas ciudades que cuentan con historial delincuencial pueden gastar El más en la prevención de la misma. podemos al menos realizar el siguiente experimento: si dos ciudades tienen el mismo índice de delincuencia en el pasado y la misma tasa de desempleo. entonces mide el efecto sobre la variable crime de dedicar un sol adicional al gasto necesario para que se cumpla la ley. es el gasto por habitante necesario para que se cumpla la ley y crime – 1 se refiere al índice de delincuencia de algún año anterior (podría ser justo del año anterior o de otro año pasado). El uso de valores retardados de la variable dependiente para controlar el efecto de variables no observadas está bastante extendido en la práctica. Pero si incluimos crime – 1 en la ecuación. sobre todo la falta de eficiencia de los estimadores de MCO. Los efectos de la inercia también se pueden captar añadiendo valores retardados de y.

6) Donde: .1) y suponga que el término de error sigue el esquema AR(1).4) de (3. considere el modelo de regresión de dos variables: (3.1). obtenemos (3.4) Si restamos (3. a saber: (3. Cuando se conoce ρ Si se conoce el coeficiente de autocorrelación de primer orden.3) por ρ en ambos miembros. resulta: (3. pero tiene que estimarse. (3. también lo es para el tiempo (t − 1).1) es válida en el tiempo t. Por tanto.Para empezar. Si (3.5) Donde: Expresamos (3.2) Ahora consideremos dos casos: 1) se conoce ρ y 2) no se conoce ρ.5) como: (3.3) Al multiplicar (3. el problema de la autocorrelación se resuelve muy fácil.

de su valor en el periodo actual. Hay varias posibilidades. Método de primeras diferencias Como ρ se encuentra entre 0 y ±1. Implica la regresión de Y sobre X. autocorrelación positiva o negativa perfecta.5) se reduce a la ecuación en primeras diferencias. se puede considerar que ρ = ±1. cuando se efectúa una regresión. En este proceso de diferenciación se pierde una observación. pues: O bien. que sean MELI. es decir. Cuando no se conoce ρ Aunque es sencillo aplicar la regresión en diferencias generalizada dada en (3. La regresión (3. no hay correlación serial (de primer orden) y en el otro extremo. por lo general es difícil efectuarla en la práctica porque pocas veces se conoce ρ.Como el término de error en (3. En realidad. sino en la forma de diferencias. llevar a cabo la regresión (3. se puede partir de dos posiciones extremas.6) equivale a utilizar los mínimos cuadrados generalizados (MCG) del capítulo anterior (recuerde que los MCG no son más que los MCO aplicados al modelo transformado que satisface los supuestos clásicos). se puede suponer que ρ = 0.5) se conoce como generalizada. (3. debido a que la primera observación no tiene antecedentes. cuasi generalizada o ecuación en diferencias. la primera observación se transforma de la siguiente manera: Esta transformación se conoce como transformación Prais-Winsten. es decir.6) satisface los supuestos usuales de MCO.7) (a*) donde Δ es el operador de primeras diferencias (a*) . En un extremo. Para evitar dicha pérdida.5). se requieren formas de calcular ρ. Por consiguiente. a saber. pero no en la forma original. En efecto. que se obtiene al restar una proporción (= ρ) del valor de una variable en el periodo anterior. Sin embargo. los aplicamos a las variables transformadas Y∗ y X∗ para obtener estimadores con todas las propiedades óptimas. la ecuación en diferencias generalizada (3. suele suponerse que no hay autocorrelación y luego se deja que la prueba de Durbin-Watson u otras pruebas demuestren si el supuesto es justificado. si ρ = +1.

en donde se tiene que d = 0.7) se tiene que emplear la rutina de la regresión a través del origen (es decir.7) es formar las primeras diferencias de la regresada y la (s) regresora (s).8. Maddala propuso esta rudimentaria regla práctica: utilice la forma de primeras diferencias siempre que d < R2 Esto es lo que sucede en la regresión de los salarios sobre la productividad. En breve presentaremos la regresión de primeras diferencias para el ejemplo ilustrativo. para estimar (3. observamos que el coeficiente de pendiente no cambió mucho.2176 y r2 = 0. suprimir el término del intercepto). pero el valor r2 disminuyó de manera considerable. un beneficio “accidental” de introducir el término del intercepto en el modelo de primeras diferencias es probar la presencia de una variable de tendencia en el modelo original. En consecuencia. la cual ahora está disponible en la mayoría de los software. En cuanto a la regresión de salarios sobre productividad (b*). Esto sucede porque al tomar las primeras diferencias se estudia en esencia el .8) (b*) Entonces el modelo original debe tener una tendencia y β1 representa el coeficiente de la variable de tendencia. con el esquema AR (1) y un valor d bajo en relación con r2. y realizar la regresión sobre esas primeras diferencias. Sin embargo. Una característica importante del modelo de primeras diferencias (3. si olvida eliminar el término del intercepto en el modelo y estima el siguiente modelo que incluye dicho término (3.9) En comparación con la regresión de forma de nivel (b*).7) está libre de la correlación serial (de primer orden) (¿por qué?). La transformación de primeras diferencias puede resultar adecuada si el coeficiente de autocorrelaciones muy alto. superior a 0. Por tanto.9845. todo lo que hay que hacer para llevar a cabo la regresión (3.Como el término de error en (3. por ejemplo. recuerde que (b*) está en forma de nivel. volvemos a hacer la regresión (b*) en la forma de primeras diferencias. Los resultados son los siguientes: (3. sin el término de intercepto. o si el d de Durbin-Watson es muy bajo.7) es que carece de intercepto.

9) con la de (b*) porque las variables dependientes en los dos modelos son distintas. Considere de nuevo la ecuación (3. Es por esta razón que. la trasformación de primeras diferencias es válida sólo si ρ = 1. en su forma de nivel) y εt son los residuos de MCO de la regresión de primeras diferencias. De hecho. Por supuesto. porque es igual a εt. resulta claro de las ecuaciones y que la serie ut es no estacionaria. Otro aspecto interesante de la transformación de primeras diferencias se relaciona con las propiedades estacionarias de las series de tiempo subyacentes. para probar la hipótesis de que ρ = 1. con lo que quizá se señale que hay muy poca autocorrelación en la regresión de primeras diferencias.2).10) Es decir. pusimos la restricción de que |ρ| < 1. Ya mencionamos que la transformación de primeras diferencias resulta adecuada si ρ es alta o si d es baja. existe una prueba. cuando estudiamos este tema.11) donde ût son los residuos de MCO de la regresión original (es decir. un término de error de ruido blanco.2) se convierte en ó (3. a menudo sus primeras diferencias se convierten en estacionarias. Por consiguiente. la transformación de primeras diferencias tiene un doble propósito: puede eliminar la autocorrelación (de primer orden) y también causar que una serie de tiempo sea estacionaria. Ahora bien. y se define como sigue: (3. es ut en su forma de primeras diferencias la que se vuelve estacionaria. Asimismo. que si el coeficiente de autocorrelación es de hecho 1. Tenga en cuenta que en la forma de primeras diferencias no hay intercepto. Pero es evidente.2). que describe el esquema AR(1). En estricto sentido. entonces (3. Lo que se debe destacar del análisis anterior es que si las series de tiempo originales son no estacionarias. a partir de (3. si de hecho ρ = 1. . El estadístico de prueba se llama estadístico g. llamada prueba de Berenblutt-Webb. el valor d aumentó de manera drástica. no podemos comparar la r2 en forma directa de (3. en comparación con la regresión original.comportamiento de variables alrededor de sus valores de tendencia (lineal). observe que. pues las varianzas y covarianzas se vuelven infinitas.

hay un método fácil para estimarla a partir de la relación establecida con anterioridad entre d y ρ en de la cual ρ se estima de la siguiente forma: (3. no rechazamos la hipótesis que el verdadero ρ =1. Como el valor g observado se encuentra por debajo del límite inferior de d. tabla D.2176.8912.8912. y para la regresión original (b*) obtenemos Al sustituir estos valores en el estadístico g dado en (3. se utilizan las tablas Durbin-Watson.13) obtuvimos ρˆ ≈ 0. de su valor actual. vemos que dL = 1. Tenga presente que.6). con dicho valor en (3. ahora la hipótesis nula es que ρ = 1 y no que ρ = 0.9) pueden ser aceptables.11).376 (en el nivel de significancia de 5%). En vista de este hallazgo.Para probar la significancia del estadístico g. restar 0.5). se puede obtener ρ de (3. en muestras razonablemente grandes. de su valor actual y realizar la regresión MCO sobre las variables así transformadas. como en (3.8912. multiplicada por el valor anterior de Y. obtenemos: (3. suponiendo que la regresión de la forma de nivel contiene el término de intercepto. Retome la regresión de los salarios sobre la productividad. los resultados dados en (3. salvo que la hipótesis nula ahora es que ρ = 1 en vez de la hipótesis de Durbin-Watson de que ρ = 0. Todo lo que se tiene que hacer es restar la cantidad 0.288 y dU = 1.5). donde .13) Por tanto.13) quizá no sea válida para muestras pequeñas.5).12) Al consultar la tabla de Durbin-Watson para 45 observaciones (el número más cercano a 45 observaciones) y 1 variable explicativa (apéndice D. Mediante este valor estimado de ρ calculamos la regresión (3.13) y emplearla para transformar los datos. y de manera similar. Tenga presente que la relación entre ρ y d dada en (3. como vimos en la ecuación en diferencias generalizadas (3. ρ basada en el estadístico d de Durbin-Watson Si no podemos utilizar la transformación de primeras diferencias porque ρ no está lo bastante cerca de la unidad. aunque se utilizan las mismas tablas de Durbin-Watson. multiplicada por el valor anterior de X. En la regresión de los salarios sobre la productividad (b*) obtuvimos un valor d igual a 0.

ρ estimada a partir de los residuos Si el esquema AR (1) ut = ρut−1 + εt es válido. los resultados de la regresión al utilizar la ρ de (3. ρˆ = 0. Observe que no hay necesidad de introducir el término de intercepto en (3.5. como ya vimos.15) Como muestra la regresión. procedimiento de dos pasos de Cochrane-Orcutt. es decir. son los residuos obtenidos de la regresión original (en su forma de nivel) y vt son el término de error de esta regresión. . Con esos resultados obtuvimos lo siguiente: (3. comenzando con algún valor inicial de ρ.15) no deben ser muy distintos de los obtenidos mediante la ρ estimada con el d de Durbin-Watson. mencionaremos los siguientes: procedimiento iterativo de Cochrane-Orcutt. porque sabemos que los residuos de MCO suman cero.14) donde ût. Dejamos al lector comprobar lo anterior. Entre estos métodos. (c*) Los residuos de la regresión de los salarios sobre la producción dados en (c*) ya se calcularon en la tabla 12. Es decir. Como la ρ estimada mediante este procedimiento es casi la misma que la obtenida por el d de Durbin-Watson. Con esta estimación transformamos el modelo original a (3.8678. Pero existen los llamados métodos iterativos que estiman ρ de manera iterativa.14).6). hacemos la siguiente regresión: (3. mediante aproximaciones sucesivas. una manera sencilla de estimar ρ es hacer la regresión de los residuos ût o û t−1 de modo que las ût sean estimadores consistentes de las verdaderas ut. Métodos iterativos para estimar ρ Todos los métodos para estimar ρ que hemos visto proporcionan sólo una estimación de ρ.

procedimiento de dos pasos de Durbin y procedimiento de rastreo o de búsqueda de Hildreth-Lu. sino también esquemas autorregresivos de orden superior.8827. Observe que el valor ρ obtenido aquí no difiere mucho del que se obtuvo con la ecuación (3. que son AR (2). El más popular es el método iterativo de Cochrane. Por ejemplo. . Con esta transformación y STATA (versión 10) obtenemos los siguientes resultados de la regresión de salariosproductividad.6) y se estima mediante MCO.Orcutt.16) A partir de estos resultados. analizaremos los métodos iterativos mediante ejercicios. como ût = ˆρ1 ût−1 + ˆρ2 ût−2 + vt. Como ya señalamos. Para ahorrar espacio. el cual da las siguientes estimaciones de ρ: 0.8876. los resultados son a veces muy diferentes. que se obtuvo después de 13 iteraciones. Recuerde que el último objetivo de tales métodos es proporcionar una estimación de ρ con que se obtengan las estimaciones de los parámetros de MCG. Debe señalarse que si la primera observación no se transforma a la manera de Prais-Winsten y se elimina. Por supuesto. (13. se extiende con facilidad la ecuación en diferencias generalizada (3.8827. El último valor.8827. utilizamos el método iterativo Cochrane-Orcutt. 0. además de ρ.15).15). en la ecuación en diferencia generalizada (3. observamos que la rho estimada (ρˆ) es ≈ 0. De regreso al ejemplo de la regresión de los salarios sobre la productividad y suponiendo un esquema AR (1).9944 y 0. la computadora puede ahora efectuar lo anterior. Los resultados son los siguientes: El software Stata puede estimar los coeficientes del modelo. el valor ρ fue 0.9193.6). los MCO en el modelo transformado son simplemente los MCG. si suponemos AR (1). Por supuesto. Tras obtener dos ρ.17) En esta transformación. en especial en muestras pequeñas. ahora sirve para transformar el modelo original como en (3. 0. Stata produce los siguientes resultados: (13. Para no perder la primera observación se usa la transformación de Prais-Winsten. Una ventaja del método iterativo de Cochrane-Orcutt es que sirve para estimar no sólo un esquema AR (1). lo cual no difiere mucho de la ρˆ de la ecuación (3.6) se pierde una observación porque la primera no tiene antecedente.

es decir. En tercer lugar. Sin adentrarnos en complejidades técnicas. el MCGF con transformación Prais-Winsten se conoce como MCGF completo o MCGFC. pues todos proporcionan estimados consistentes con la verdadera ρ. el MCGF. PROPIEDADES DEL ESTIMADOR MCO EN PRESENCIA DE ERRORES DE MEDIDA En algunos trabajos empíricos.Watson. En el primer paso se obtiene una estimación de la ρ desconocida. válidos de modo asintótico. los coeficientes de MCO estimados quizá presenten las propiedades óptimas usuales en forma asintótica. sobre todo en muestras pequeñas. estrictamente hablando. En segundo lugar. si el tamaño de la muestra es razonablemente grande. se debe tener cuidado al interpretar los resultados estimados. en pequeñas muestras es importante conservar la primera observación al estilo Prais. A propósito. En cuarto lugar. para muestras grandes. todos estos métodos de estimación se conocen en la bibliografía como métodos MCG factibles (MCGF) o MCG estimados (MCGE). si no se incluye la primera observación (como se hizo al principio con el procedimiento Cochrane-Orcutt). sin importar la autocorrelación. sobre todo si el tamaño de la muestra es pequeño y las regresoras no son. que es básicamente MCG. En primer lugar. Desde luego. y en el segundo se utiliza dicha estimación para transformar las variables a fin de calcular la ecuación en diferencias generalizada. para muestras pequeñas. no afecta en nada si se estima ρ a partir del estadístico d de Durbin. no estocásticas. que siempre que se utilice un estimador en lugar de su verdadero valor. en la bibliografía. los distintos métodos analizados son básicamente métodos de dos pasos. al utilizar MCGF. Asimismo.Winsten. es importante observar que siempre que se estimen los parámetros del modelo transformado con un método MCGF o un MCGE. Pero en vista de que se utiliza ρˆ en vez de la verdadera ρ. con o sin primera observación. proporciona resultados similares. Por tanto. Un buen ejemplo es el tipo impositivito marginal del impuesto sobre la renta que afecta a una familia que trata de . como para muestras grandes los estimadores de MCO son consistentes. como principio general. los coeficientes estimados no necesariamente tendrán las propiedades óptimas usuales del modelo clásico. En consecuencia. de la regresión de los residuos del periodo actual sobre los residuos del periodo anterior o del procedimiento iterativo Cochrane-Orcutt. no podemos recopilar datos sobre alguna variable que sin embargo tiene realmente influencia económica. en estricto sentido. se pueden ver afectados de modo adverso no sólo los valores numéricos.Comentarios generales Hay varios puntos que se deben destacar respecto de la corrección de la autocorrelación mediante los diversos métodos analizados. como ser MELI. sino también la eficiencia de los estimadores. podemos enunciar. los procedimientos convencionales para pruebas de hipótesis son.

el modelo va a contener errores de medida. El estimador MCO será consistente bajo ciertos supuestos. empresas. podríamos calcular el tipo impositivo medio basando en la renta total y los impuestos pagados. En el caso del error de la media. Sea y*= (1) Y suponemos que se satisfacen los supuestos de Gauss-Markov. En el caso de la variable proxy. la variable independiente medida con error es a menudo la variable de nuestro estudio que más nos interesa. podemos derivar el tamaño del sesgo asintótico. En algunos de estos casos. Como veremos. ERROR DE MEDIDA EN LA VARIABLE DEPENDIENTE Empezaremos con el caso en el que el error de medida afecta solo a la variable dependiente. Cuando usamos una medida imprecisa de una variable económica en un modelo de regresión. En general. Antes de entrar en detalles. En esta sección vamos a derivar las con consecuencias del error de medida en la estimación por mínimos cuadrados ordinarios. las familias no proporcionan datos fiables sobre el ahorro familiar anual. la variable que no observamos tiene un significado cuantitativo claro (como ocurre con el tipo impositivo marginal o renta nacional) pero los datos disponibles para esas variables contienen errores. familias. En cambio. En el caso del ahorro. debemos recordar que el error de medida es un problema solo cuando las variables para las que el económetra puede disponer de datos difieren de las variables que incluyen en las decisiones de individuos. El tipo impositivo marginal puede ser difícil de obtener o resumir en una única cifra para todos los niveles de renta. en el segundo caso.decidir cuánto va a contribuir a obras de caridad en un año concreto. con frecuencia no incluyen algunas categorías o sobreestiman la suma que se dedica a algunos fondos. etc. Sea y una variable que representa la medición observable de y*. pero hay casos en lo que será inconsistente. cabe esperar que y e y* no coincidan. Desafortunadamente. Una diferencia importante entre los problemas de variable proxy y de error de medida es que. El error de medida (en la población) se define como la diferencia entre el valor observado y el valor real: . y son los datos disponibles del ahorro anual. al menos para algún subconjunto de las familias de la población. el efecto parcial de la variable omitida no suele tener demasiado interés en nuestro estudio: normalmente estamos más interesados en los efectos de otras variables independientes. el problema del error de medida es estadísticamente similar al de la variable omitida-variable proxy. En este caso de la variable proxy. buscamos una variable que esté de algún modo relacionada con la variable no observada.

…. Error de media de una variable explicativa El error de medida en una variable explicativa se ha considerado un problema mucho más importante que el error de medida en la variable dependiente. simplemente obtendríamos una estimación sesgada del término constante . Si usamos y en vez de y* y aplicamos MCO.. El supuesto habitual es que el error de medida de y es estadísticamente independiente de cada una de las variables explicativas. Dado que y. tiene media cero y esta incorrelacionado con cada una de las . sustituirlo en la ecuación anterior y simplificar. los métodos habituales de MCO para realizar inferencia (estadísticos t. y las variables explicativas. La conclusión final es que. Para poder estimar el modelo poblacional se relaciona con otros factores. si el error de medida esta incorrelacionado con las variables independientes. es mucho más importante. podemos escribir . podemos escribir y*= y . Es natural suponer que el error de medida tiene error cero. . entonces Var( )= + . entonces la estimación MCO conserva sus buenas propiedades. Veamos por qué ocurre así: Empezaremos con el modelo de regresión lineal simple: . si no la tuviese. Estos son los problemas esperados. Para poder estimar el modelo. Si como suponemos habitualmente. esto provoca mayores varianzas de los estimadores MCO. pero esto suele ser causa de especial preocupación. Nuestro supuesto sobre la relación que existe entre el error de medida. y*= + (3) En términos de error de la ecuación (3) es + . . Podemos estimar este modelo por CMO. Esto significa que el error de medida de la variable dependiente provoca que la varianza de los errores sea mayor que cuando no se produce ningún error de medida. . los estimadores MCO de (3) son insesgados y consistentes. ¿Cuándo obtendremos estimadores consistentes de ? dado que el modelo original (1) satisface los supuestos de GaussMarkov. y están incorrelacionados. son observadas. F y LM) son válidos.(2) Para una extracción aleatoria ̇ de la población. por tanto. y no hay nada que podamos hacer para resolverlos (excepto conseguir datos mejores). En efecto. podemos pasar por alto el hecho de que y es una medida imperfecta de Y* y realizar la estimación de forma habitual. . pero lo importante es como el error de medida poblacional se relaciona con otros factores. Además. Si esto es cierto.

negativo o cero. ICT-2950 Tópicos de Econometría.unal. Quinta Edición. Este supuesto es habitual y en ningún caso afecta a las conclusiones que seguramente veremos. I. Mc Graw Hill/INTERAMERICANA EDITORES. Una hipótesis que mantenida que usaremos aquí es que u esta interrelacionado y . Chile-2005  http://www.html . DE C.  Louis de Grange C. Dawn C. Damodar N.edu. El problema es que so se observa. Econometría. Esto significa que la estimación de (4) por MCO puede llevar a estimadores de y que sean insesgados y consistentes. PORTER. BIBLIOGRAFÍA  GUJARATI. México 2010. tendremos una medida de .y*= (4) y supondremos que satisface al menos los cuatro primeros supuestos de GaussMarkov. que llamaremos . En cambio. S.virtual.. Suponemos que el error de la medida medio en la población es cero: E( ) = 0. El error de la medida de la población es simplemente: (5) Y puede ser positivo.V.A.co/cursos/sedes/manizales/4030006/lec ciones/capitulocuatro/4_5_2.