You are on page 1of 696
FCONOMETRIA Segunda edicion ALFONSO NOVALES CINCA Catedratice dei Departamento de Economia Cuantitativa Facultad de Econémicas. Universidad Complutense Madrid McGraw-Hill MADRID « BUENOS AIRES CARACAS ¢ GUATEMALA e LISBOA # MEXICO NUEVA YORK e PANAMA « SAN JUAN » SANTAFE DE BOGOTA « SANTIAGO « SAO PAULO AUCKLAND « HAMBURGO @ LONDRES « MILAN @ MONTREAL » NUEVA DELH! PARIS « SAN FRANCISCO « SIDNEY # SINGAPUR # ST, LOUIS # TOKIO # TORONTO ECONOMETRIA, Segunda edicion No esta permitida fa reproduccisn total 6 parcial de este libro, ai su tratamiento informatico, ni Ja transmisién de ninguna forma o por cualquier medio. ya sea alectrénico, mecSnico, por fotacopia, por registro w otros métedos, sine! permis previo y por escrito de tos sitalares det Copyright DERECHOS RESERVADOS © 1993. respecto a In primera edicién en espaol, por MeGRAW-ERLI/INTER AMERICANA DE ESPANA, S. A.U. Edificio Valteatty, 1* planta Bassuri, 17 28023 Aravaca (Madrid) ISBN: 84-481-0128-6 Depdsito legal: M. 49,970-2000 Editora: Isabel Capella Cubierta: Félix Pifiuela. Grafismo electrénico Compuesto en: Fernander Ciudad, SL. Impreso en: LAVEL, Industria Grafica, $.A. IMPRESO EN ESPANA - PRINTED IN SPAIN A mis hermanos Sepamos buscar como quien espera eftcontrar, y encontrar como quien espera seguir buscando (Adaptacién libre de S. Agastin.) CONTENIDO Prefacio - 2... eee cee eee eee xv Introduccién xix Capitulo 1. Andlisis matricial... 2.2.50... fee eet ence eee 1 1.1, Primeras definiciones . 1 L.ta, Operaciones con matrices . 2 1.2. Determinantes 4 1.3. Matriz. inversa . 6 1.4, Rango de una matriz . : 8 5. Valores y veotores propios de una matriz. - 12 Capitulo 2. Analisis estadistioa. oo... eee beens 7 2.1, Introduccion: variable aleatoria, distribuciones diseretas . 17 22. Distribuciones continuas. Funcién de densidad 21 2.3. Momentos de una distribucton ......-...-- 23 2.3.. Momentos poblacionales con respecto al origen - B 2.3.b. Momentos poblacionales con respecto a la media . mu 23.c, Momentos muestrales 25 2.4, Distribuciones bivariantes . 26 2.5, Momentos en una distribucién bivariante | 29 2.6. Propicdades de un estimador . : : 32 2.7. Cambio de variable en distribuejones de probabil 3 2.8, Distribuciones derivadas . : 34 29. Elestimador de maxima verosimilitud . 36 2.10. Teoria asintotica . 37 2.10.2, Convergencia en probabilidad 37 2.10.b, Convergencia en distribucton 40 2.11. Teorema Central de! Limite . 42 2.12, Contrastes de hipotesis . 44 2.13. Distribuciones truncadas 46 48 Problemas . viii Contenido Capitulo 3. El modelo lineal general ...... ve BE 3.1. Introduccion 32, 3.1.a, Caractetisticas del modelo . 35 3.1.b. Descripeion de los capitulos posteriores | 59 3.2, El estimador de minimos cuadrados ordinarios . 61 3.3. Propiedades del estimador de minimos cuzdrados oréinarios . 67 3.4. Estimacin deo? .... B 3.5. Contraste de Normatidad 80 3.6. Elestimador de maxima verosimititud - 82 3.7, Regresién particionada - 85 3.8. El modelo lineal on desviaciones con respocto 2 le media 6 3.9. Algunos modelos tineales sencillos 3.10. Cambios de oseala y de origen 3.11. Errores de especificacién . Problemas . - Capitulo 4. Inferencia en el modelo lineal... .---.. 2... 4,1. Introduccion... . 4.2. Contraste de hipétesis: un tratamiento introductorio. Iaterpretacién det estadistico F . 4.3, - Contraste de hipétesis: tratamiento general 43.a, La formulacién del problema . Elestadistico F para el contraste de cualquier conjunto de hips tesis Tineales ..... . . . ng Un procedimiento alternative - 121 4.4. Aplicacién a algunos casos particulares 123, 4.4.2, Contraste de hipotesis acerca de un cosficiente del modelo . 123 4.46, Coniraste de hipdiesis acerca de todos los coeficientes det mo delo (excepto cf término independiente) . 123, 4.4. El conteaste de significacion global del modelo cconométrico . 124 44d. Contrasie acerca de un subyector de s variables ([ Econometria un nivel de generalizacién adicional: Dadas dos matrices A m x ny Bn x p, se tiene que Rango(AB) < min{Rango(A), Rango(B)}, proposicién que pasa- mos a probar tras unos resultados preliminares. Sea A una matriz m x n con Rango{A) k y que las k columnnas de X son linealmente independientes. En tal caso, Rango(X) = & = = Rango(X'X) = Rango(XX’). Como X’X es una matriz k x k, este resultado 12 Econometria implica que dicha matriz es no singular y por tanto invertible. En cambio, XX’ es una matriz Tx T, y el resultado implica que es singular. ‘Feorema 1.2, El rango de una matriz A no cambia al premulliplicar o postmultiplicar dicha matriz por una matriz cuadrada no singalar. Es decir, si A es une matriz m x 2 y P,Q son mnatzices m x m y nx a no singulares, se tiene: Rango(A) = Rango(PA) = Rango(AQ) = Rango(PAQ). Demostracién, 1. Si xeSN{A), entonces Ax=0 y por tanto PAx = 0, por lo que xeSN({PA), Por otra parte, si xeSN(PA), entonces PAx =0, lo que implica que P~'(PAx)= Ax =0 y xeSN(A). En consecuencia, como Ay PA tienen igual numero de columnas, también tienen el mismo rango. 2. Puesto que el rango de una matriz es igual al rango de su traspues- ta, se tiene: Rango(AQ) = Rango{Q’A). De acuerdo con | se tiene: Ran- g0(Q’A’) + Rango(A’), y es igual a Rango(A) 3. Rango(PAQ) = Rango(A) es ahora obvio, sin més que utilizar 1 y 2 sucesivamenic. Teorema 1.3. Rango(AB) < min (Rango(A), Rango(B)}. Demostracién, 1, Sea x un vector del SN(B). Entonces Bx =0 y por tanto ABx = 0, por lo que xeSN(AB). Por tanto, SN(B) < SN(AB). Como By AB tienen ef mismo niimero de columnas, entonces Rango(B) > Rango(AB). 2. Rango(AB} = Rango(B'A') < Rango(A’) = Rango(A), donde la des- igualdad proviene del resultado 1. 1.5. VALORES Y VECTORES PROPIOS DE UNA MATRIZ Dada una matriz cuadrada An x m, entonces una constante 2 y un vector x, nx 1 no nulo que satisfagan ei sistema de ecuaciones Ax = Ax se Laman, res- pectivamente, vulor propio y vector propio de la matriz A. Si la matriz A no es singular, entonces la dnica solucién a Ja ecuacia amerior es la trivi x=0,. Para que haya una solucién no nula, debe ocurrir que {A — 41, Estz es la ecuacion caracteristica de la matriz. A. Dicha ecuacién tiene n solu- ciones, aunque no necesariamente diferentes entre si. Por ser las raices de un polinomio de grado n, los valores propios pueden, en principio, ser nameres complejos. Para cada solucién (valor propio) existe un vector propio asociado, que se obtiene sustituyendo el valor de en la ecuacion Ax = 4x. Cuando un valor propio es una solucién multiple de Ja couacién caracteristica, entonces el numero de vectores propios linealmente independiente asociados con dicho valor propio es igual 2 su orden de multiplicidad. Es importante observar que cada vector propio correspondiente a un valor propio no nulo es ia solucion a un sistema Hineal homogéneo y, por tanto. no est dnicamente determinado, sino que es, en realidad, un subespacio de Anélisis matricial 13 dimensién uno. Para determinar univocamente el vector propio se utilizan Gistintos criterios, como normalizar Jos vectores propios para que tengan modulo igual a 1, 10 que haremos de ahora en adelante. Como ejemplo puede comprobarse que ios valores propios de la mairiz 5 3/2 ot A . A son 5 ¥ 5, ¥ que sus vectores propios, normalizados para 321 2 3 1 3 we tengan modulo unidad, son (-—_; —— sa meee Ca 73) , Fn) puede comprobarse que estos dos vectores propios son ortogonales entre si. Aunque puede hablarse de vectores y valores propios de cualquicr matriz cuadrada, en este texto solo calcularemos valores y vectores proptos de matrices simétricas. Las siguientes son propiedades fundamentales de los valores propios de una matriz: Ademas, Proposicién 1.1. Los valores propios de una matriz simétrica son reales: En el case de una matriz A = (a,), 2 2, los valores propios vienen dados por 1 po . A 5 lair + aaa) + Many + Gag)” — MGs t2g — G12024))}. Si la matriz es : . 1 —— simétrica, entonoes 2 = 5 [(ay, + a2.) + V@ir = 422)" + 403) y por tanto son reales, ya que el radicandoes positive. Proposicién 1.2. Los vectores propios correspondientes a distintes valores Propios de una matriz simétrica son ortogonales entre si, eg decir, su producto es ero. Demostracion. Sean x, y x, vectores propios de la matriz A correspondientes a los valores propios 2, ¥ 2», respectivamente. Entonces se tiene Ax, — 2,X, y Ax, =22Xx9. Por tanto. xJAX, = A, ¥5X, ¥ xX, AX; = 4,N x. Ahora bien, x, AX; y XAX, son matrices traspuestas una de la otra, y de dimension 1 x 1, es decir, escalares, y por tanto son iguales entre si, En consecuencia, (4; — da)xixz = 0. Si A, # Az, entonces, necesariamente, x; x = 0. Esta proposicién tiene una aplicacién de interés: dada una matriz A, de dimension n x a, construyamos otra matriz B que tiene por columnas los vectores propios de la matriz A. Como acabamos de ver, dichas columnas son vectores ortogonules entre si. Por tanto, si formamos ei producto C = B'B, su clemento genérico cj esti formado por et producto de las columnas i y j de B. Dicho producto seri cero, salvo cuando i=j, en cuyo caso sera igual a I, de acuerdo con nuestro convenio de normalizacion. Por tanto, BB = 1,; pero, por esta razén, también se tiene BB’ = 1,, y B’ es la inversa de B, por lo que B es una matriz ortogonal, 14° Eeonometria Proposicion 1.3. (Descomposicidn canénica de una matriz cuadrada.) Dada una matriz simétrica A x x 7, sca Bla matriz que tiene por columnas los vectores propios de A. Entonces, se cumple: BAB=T donde F es una matriz diagonal que tiene por elementos los valores propios de A. Demostracion, En efecto, si denotarnos por C ai producto B'AB, el elemento genérico ¢j, se obliene multiplicando la fila -ésima de B’ (columna Fésima de B) por A y por la columna j-ésima de B: x/Ax,=xi(2,x)) = ,(x)x). Por tanto, dicho producto es cero salvo cuando i es igual a j, en cuyo caso XjAx, = 4,(XiX) = Ay. Proposicién 1.4, Dada una matriz A simétrica, definida positiva, existe una matriz no singular P tal que A = PP’ Demostracién. Por la descomposicién anterior BAB =F y por tanto B(B AB)B = BIB’. Pero Bes una matriz ortogonal, por lo que BB’ = B'B =I, y finalmente A = BIB’, Si denotames por Tt la matriz diagonal que tiene por elementos las raices cuadradas de los valores propios de la matriz A, entonces A = PP’, donde P = (BI). Noiemos que A no necesita ser simétrica, Basta que tenga k vectores propios finealmente independientes, en cuyo caso AB = BI, donde las colum- nas de B son Jos vectores propios de A, y B 'AB=B 'BI=T, solo que zhora B no es necesariamente ortogonal. Proposicién 1.5. La suma de los valores propios de una matrix A es igual a su traza, es decir, a la suma de los elementos de su diagonal principal. Demostracién, Por la descomposicién antes vista; B'AB =I’, donde B es una matriz ortogonal, y utilizando Ia propiedad circular de [a traza: traza(T) = raza(B'AB) = traza(BB'A) = traza(A), pero traza(I) es, simplemente, la suma de los valores propios de ia matriz A Proposicién 1.6. El producto de Jos valores propios de una matriz es igual al determinante de dicha matriz. De ello se deduce que una matriz es singular si y s6lo si tiene al menos un valor propio igual a cero. Demostracién (para matrices simétricas), Utilizando de nuevo la descomposi- cion BAB=T" se tiene |B IA||B| = || — If-,4,. Ahora bien, por ser B una matriz ortogonal se tine B'B=1, y por tanto |B’B| =|B'||B] = |B)? = 1. Consecuentemente, |B] = +1 0 —1, lo que llevado a Ja expresion anterior implica finalmente |A| = Hf". 4. Andtisis matricial 15 Proposicién 1.7. El rango de una matriz es igual al.néimero de valores pro- pios no nulos. Demostracién. Puesto que el rango de ana matriz no varia al pre o post- multiplicar dicha matriz por una matriz no singular, entonces por la descom- posicién candnica anterior se ene Rango(A) = Rango(I). Ahora bien, las filas de esta ultima matriz sdlo tienen un elemento no nulo, aquél en la diagonal de I. Tales filas seran necesariamente independientes entre si, salvo que alguno de dichos elementos (valores propios de A) sea igual a cero. Proposicién 1.8. Los vaiores propios de la metriz A? (= AA) sor igual al cuadrado de fos valores propios de fa matriz A. Sin embargo, los vectores propios de A? son iguales a los de A. (Claramente, este resultado prueba que al determinante de {2 matriz A? es positivo.) Demostracién, Si x es un vector propio asociado al valor propio 4, entonces Ax =x, por Jo que también se tiene A*x = A(Ax) = 2(Ax) = J?x, por lo que 4? es un valor propio de la matriz A? y x un vector asociado a dicho valor propio. Proposicién 1.9. a) Los valores propios de 1a matriz A~* son Jos inversos de los valores propios de la matriz A, pero los vectores propios son [os mismos que fos de A. 6) Los valores propios de una matriz idempotente son igual adel, Demosiracion. a) Puesto que Ax = 2x y premuitiplicando por A™' se tiene x = 4A7~'x, por lo que 2! es un valor propio de A”! y x es el vector propio correspondiente, 6) Sea 4 un vector propio de A y sea x un vector propio aso- ciado a 4. Entonces, 2? es un valor propio de A? y x un vector propio asociade a dicho valor propio. Asi se tiene Ax = 4x y también A?x = 27x. Ahora bien, como A?x=Ax (por ser A idempotente), entonces se tiene #x = Ax, por lo que AA — 1)x = 0, es decir, que bien A= 0,0 2= Proposicién 1.10. El rango de una matriz idempotenie es igual al némero de valores propios iguales 2 1, ¢ igual a se traza Demestracién. El rango de una matriz A es igual al rango de la matriz dia- gona! T° formada con sus valores propios. En una matriz idempotente éstos ‘son 0.6 1, por lo que el rango de A coincide con e] nimero de valores propios iguales a {. Finalmente, la traza de A es igual a fa traza de I, es decir, Ja suma de tos valores propios de A. y ésta coincide, en este caso, con el numero de valores propios iguales a 1 En consecueneia, el rango de la matriz, Q introducida en la Seeci6n L.La es: Rango(Q) =” - I. Proposicién L.1i. Dado un valor propio de multiplicidad k, exisien & vectores lineaimente independientes asociados con dicho valor propio. Una matriz simatrica A de dimensién nx nm se dice definida positiva (semidefinida positiva) si para cualquier vector a de dimension n distinto de 0, 16 Econometria se tiene que a’Aa > 0 (20). Una matriz A simétrica se dice definida negativa (semidefinida negativa) si —A es definida positiva (semidefinida positiva). Una condicin necesaria y suficiente para que una matriz sea definida positiva es que todos sus valores propios sean positivos Vamos a probar algunas propiedades que nos serén de utilidad en temas posteriores: Proposicién 1.12. Supongamos que la matriz A de dimension m x n tiene sus columnas linealmente independientes entre si. lo que exige que m > n, puesto que las cofumnas son vectores de dimension m, y sim 0 para todo vector x de dimensién n no nulo, y como consecuencia la matriz A’A es definida positiva. El tmico caso en que el producto y’y no seria positivo es que fuese cero, pero recordemos que dicho producto es igual a la suma de cuadrados de las componentes de y, es decir, una suma de sumandos no negatives. En conse- cueneia, ello sélo podria ocurrir si el vector y fuese cero. Ahora bien, como y = Ax, el vector y es una combinacién lineal de las colummnas de la matriz. A, (que por hipétesis son linealmente independientes, por 1o que ninguna combi- nacién lineal de dichas columnas puede ser igual al vector 0,. Proposicién 1.13. Sca A una matriz m x m definida positiva y P una matriz m xn, de rango m. El producto PAP es una matriz definida positiva. Demostracion. Dado un vector y de dimensién a, el producto Py es otro vector de dimension m, por lo que se tiene (Pyy'A(Py) > 0. Pero (PyyA (Py) = y' (PAP). que sera por tanto positive. Como ello ocurre para todo vector y, se tiene que P’AP es una matriz definida positiva. Proposicidn 1.14. Los elementos de la diagonal principal de una matriz defi- nida positiva son estrictamente positivos, mientras que los clementos de Ja diagonal principal de una matriz semidefinida positiva son no negativos. Demostracion. Para probar cualquiera de estes resul(ados para el elemento i-ésimo de la diagonal basta utifizar en la definicién el vector a, que tiene todos sus elementos iguales a cero, excepto el ésimo que es igual a I. CAPITULO 2 ANALISIS ESTADISTICO 2.1. INTRODUCCION: VARIABLE ALEATORIA, DISTRIBUCIONES DISCRETAS El objeto de este capitulo consiste en revisar algunos resultados estadisticos que scran de utilidad en el analisis de los métodos y modelos econometricos quc vamos 2 cfectuar cn este texto. No podemos llevar a cabo un tratamiento exhaustive de los distintos aspectos tratados, por lo que la lectura de este capitulo no puede suplir al estudio de un bucn manual de Estadistica. En castellano, los textos de D. Pefia (1992) y Arnaiz (1978) son especialmente Tecomendables. Interpretamos cada variable cconémica como tenicndo naturaleza aleato- ria. Asi, cuando decimos que el Producto Interior Brute (PIB) espaiiol en un determinado afio ha sido de 68.3 billones de peseias. entendemos que dicho valor numérico no cs sino uno de Jos {posiblemente muchos) valores que el PIB pudo haber tomado en dicho afio. A priori no podemos seber con exactitud ¢) valor futuro del PIB, y esa incertidumbre cs, precisamente, eb reflejo de su naturaleza aleatoria. ‘Un suceso es cada uno de los resultados que pueden observarse acerca del comportamiento de una variable aleatoria: asi que el PIB sea igual a 68,3 billones de pesetas es un suceso, y que sca igual a 74,2 dillones ¢s atro suceso. Hay sucesos mas complejos: que cl PIB exceda de 60 billones es un suceso, de igual modo que et que esté comprendido entre 65 y 70 billones de pescias és otro suceso. - Una probabitidad es una medida positiva, con valor maximo igual a la unidad, y con la propiedad de que la medida de una unidn finita 0, a lo més, numerable de sucesos disjuntos ¢s igual a la sama de sus medidas individua- les, La union de sodos los sucesos posibles tiene probabilidad igual a 1. En gran parte, el interés por el trabajo empirico en Economia estriba en asignar probabitidades a los posibles sucesos que pueden acaecer con fa variable econémica en estudio. La Econometria proporciona herramientas atiles pata tal fin. 17

You might also like