Professional Documents
Culture Documents
Econometria 2a Ed (2000) - Alfonso Novales - McGraw-Hill
Econometria 2a Ed (2000) - Alfonso Novales - McGraw-Hill
too 1 fly Xa 1 0 mientras que el némero de columnas de la matriz de partida es 4. Excluyendo la tercera ecuacion se llegaria a: x 1 0 _ fe) )-2 -3\fs ““TsJo foi _, (°) Xs 2 0 1 pero estas dos columnas son combinaci6n lineal de las dos columnas de la matriz anterior, y representan por tanto el mismo subespacio nulo. Teorema 1.1, Dada una matriz X, Tx k, con Rango(X) =pk y que las k columnas de X son linealmente independientes, En tal caso, Rango(X) = k = Rango(X’X) = Rango(XX’). Como X'X es una matriz k x k, este resultado12 Econometria implica que dicha matriz es no singular y por tanto invertible. En cambio, XX’ es una matriz Tx T, y el resultado implica que es singular. Teorema 1.2, El rango de una matriz A no cambia al premultiplicar o postmultiplicar dicha matriz por una matriz. cuadrada no singular. Es decir, si A es una matriz m x n y P, Q son matrices m x m y nx n no singulares, se tiene: Rango(A) = Rango(PA) = Rango(AQ) = Rango(PAQ) Demostracién. 1. Si xeSN(A), entonces Ax=0 y por tanto PAx =0, por lo que xeSN(PA). Por otra parte, si xeSN(PA), entonces PAx =0, lo que implica que P~'(PAx)= Ax =0 y xeSN(A). En consecuencia, como Ay PA tienen igual nimero de columnas, también tienen el mismo rango. 2. Puesto que el rango de una matriz es igual al rango de su traspues- ta, se tiene: Rango(AQ) = Rango(Q’A’). De acuerdo con 1 se tiene: Ran- 20(Q’A’) = Rango(A’), y es igual a Rango(A) 3. Rango(PAQ) = Rango(A) es ahora obvio, sin mas que utilizar 1 y 2 sucesivamente. Teorema 1.3. Rango(AB) < min {Rango(A), Rango(B)}. Demostracién, 1. Sea x un vector del SN(B). Entonces Bx =0 y por tanto ABx = 0, por lo que xeSN(AB). Por tanto, SN(B) < SN(AB). Como By AB tienen el mismo numero de columnas, entonces Rango(B) > Rango(AB). 2. Rango(AB) = Rango(B’A’) < Rango(A’) = Rango(A), donde la des- igualdad proviene del resultado 1. 1.5. VALORES Y VECTORES PROPIOS DE UNA MATRIZ Dada una matriz cuadrada A n x n, entonces una constante / y un vector x, nx I no nulo que satisfagan el sistema de ecuaciones Ax = Ax se llaman, res- pectivamente, valor propio y vector propio de la matriz A. Si la matriz A — AI, no es singular, entonces la unica solucion a la ecuacién anterior es la trivial: x = 0,. Para que haya una solucién no nula, debe ocurrit que |A — AI,| = 0. Esta es la ecuacién caracteristica de la matriz A. Dicha ecuacién tiene n solu- ciones, aunque no necesariamente diferentes entre si. Por ser las raices de un polinomio de grado n, los valores propios pueden, en principio, ser udmeros complejos Para cada solucion (valor propio) existe un vector propio asociado, que se obtiene sustituyendo el valor de 4 en Ja ecuacién Ax = Ax. Cuando un valor propio es una solucién milltiple de la ecuacién caracteristica, entonces el niimero de vectores propios linealmente independientes asociados con dicho valor propio es igual a su orden de multiplicidad. Es importante observar que cada vector propio correspondiente a un valor propio no nulo es la solucién a un sistema lineal homogéneo y, por tanto, no est dnicamente determinado, sino que es, en realidad, un subespacio deAnélisis matricial 13 dimension uno. Para determinar univocamente el vector propio se utilizan distintos criterios, como normalizar los vectores propios para que tengan modulo igual a 1, lo que haremos de ahora en adelante. Como ejemplo puede comprobarse que los valores propios de la matriz 5 3/2 uot . son = ¥ 5. ¥ que sus vectores propios, normalizados para 32-1 2 3 1 1 3 jue tengan modulo unidad, son { ——; —— =) — =}. Ademas, ania (Fs 7) 2 (a 7) puede comprobarse que estos dos vectores propios son ortogonales entre si. Aunque puede hablarse de vectores y valores propios de cualquier matriz cuadrada, en este texto solo calcularemos valores y vectores propios de matrices simétricas. Las siguientes son propiedades fundamentales de los valores propios de una matriz: A Proposicién 1.1. Los valores propios de una matriz simétrica son reales: En el caso de una matriz A = (a,), 2. 2, los valores propios vienen dados por 1 oF Aa 5 lean + a2) £ Mar + aa3F = ir azn — 41342,)). Si la matriz os simétrica, entonces 2 = ; (ay; +423) + J(@is = 422)? + 4a3,)) y por tanto son reales, ya que el radicando es positivo. Proposicién 1.2. Los vectores propios correspondientes a distintos valores propios de una matriz simétrica son ortogonales entre si, es decir, su producto es cero. Demostracion. Sean x,'y x, vectores propios de la matriz A correspondientes a los valores propios 2, y 22, respectivamente, Entonces se tiene Ax, = 4X; y AX, = AX2. Por tanto, xAX; = A;X5x, y x, AX, = A)X{x>. Ahora bien, x, Ax, y xAXx, son matrices traspuestas una de la otra, y de dimensién I x 1, es decir, escalares, y por tanto son iguales entre si. En consecuencia, (A, — Aa)xiX2 =0. Si Ay ¥ Ap, entonces, necesariamente, x,x, = 0. Esta proposicién tiene una aplicacién de interés: dada una matriz A, de dimension n x n, construyamos otra matriz B que tiene por columnas los vectores propios de la matriz A. Como acabamos de ver, dichas columnas son vectores ortogonales entre si, Por tanto, si formamos el producto C = B’B, su elemento genérico c,, esti formado por el producto de las columnas i y j de B. Dicho producto sera cero, salvo cuando i = j, en cuyo caso sera igual a I, de acuerdo con nuestro convenio de normalizacién. Por tanto, B'B = I,; pero, por esta raz6n, también se tiene BB’ = I,, y B’ es la inversa de B, por lo que B es una matriz ortogonal,14> Econometria Proposicion 1.3. (Descomposicién canénica de una matriz cuadrada.) Dada una matriz simétrica A n x n, sea Bla matriz que tiene por columnas los vectores propios de A. Entonces, se cumple: AB=T donde I es una matriz. diagonal que tiene por elementos los valores propios de A. Demostracién, En efecto, si denotamos por C al producto B’AB, el elemento genérico cy se obtiene multiplicando la fila i-ésima de B’ (columna i-ésima de B) por A y por la columna j-ésima de B: x/Ax;=x;(2)x)) tanto, dicho producto es cero salvo cuando i es igual a j, en cuyo caso XIAX, = A,(X/X,) = Ay. Proposici6n 1.4, Dada una matriz A simétrica, definida positiva, existe una matriz no singular P tal que A = PP’. Demostracion. Por la descomposicion anterior B’'AB=T_ y por tanto B(B’AB)B’ = BIB’. Pero B es una matriz ortogonal, por lo que BB’ = B'B =I, y finalmente A = BIB’. Si denotamos por F? la matriz diagonal que tiene por elementos las raices cuadradas de los valores propios de la matriz A, entonces A = PP’, donde P = (BI*). Notemos que A no necesita ser simétrica. Basta que tenga k vectores propios linealmente independientes, en cuyo caso AB = BI’, donde las colum- nas de B son los vectores propios de A, y B-'AB=B 'BI =T, solo que ahora B no es necesariamente ortogonal. Proposicién 1.5. La suma de los valores propios de una matriz A es igual a su traza, es decir, a la suma de los elementos de su diagonal principal Demostracién, Por la descomposicién antes vista: B’AB =I’, donde B es una matriz ortogonal, y utilizando la propiedad circular de la traza: traza(P) = raza (B’ AB) = traza(BB' A) = traza(A), pero traza(I) es, simplemente, la suma de los valores propios de fa matriz A. Proposicién 1.6. El producto de los valores propios de una matriz es igual al determinante de dicha matriz. De ello se deduce que una matriz es singular si y sdlo si tiene al menos un valor propio igual a cero. Demostracién (para matrices simétricas), Utilizando de nuevo la descomposi- cion B’AB =I se tiene |B'||A| |B] =|E|=I1f_,/,. Ahora bien, por ser B una matriz ortogonal se tiene B’B=I, y por tanto |B’B| = |B'||B| = |B)? = 1. Consecuentemente, |Bj = +1 0 —1, 10 que Hlevado a la expresin anterior implica finalmente |A| = Tf. 4).Anélisis matricial, 15 Proposici6n 1.7. El rango de una matriz es igual al-nimero de valores pro- pios no nulos. Demostracién, Puesto que el rango de una matriz no varia al pre o post- multiplicar dicha matriz por una matriz no singular, entonces por la descom- posicién candnica anterior se tiene Rango(A) = Rango(I). Ahora bien, las filas de esta iltima matriz s6lo tienen un elemento no nulo, aquél en la diagonal de I. Tales filas serdn necesariamente independientes entre si, salvo que alguno de dichos elementos (valores propios de A) sea igual a cero. Proposicién 1.8. Los valores propios de la matriz A? (= AA) son igual al cuadrado de los valores propios de la matriz A. Sin embargo, los vectores propios de A? son iguales a los de A. (Claramente, este resultado prueba que el determinante de la matriz A? es positivo.) Demostracién. Si x es un vector propio asociado al valor propio 2, entonces Ax = Ax, por lo que también se tiene A?x = A(Ax) = (Ax) = 2?x, por Jo que 7? es un valor propio de la matriz A? y x un vector asociado a dicho valor propio. Proposicién 1.9. a) Los valores propios de la matriz A~' son los inversos de Jos valores propios de la matriz A, pero los vectores propios son los mismos que los de A. b) Los valores propios de una matriz idempotente son igual adel. Demostracién. a) Puesto que Ax = Ax y premultiplicando por A~* se tiene x = 2A7'x, por lo que 2~! es un valor propio de A~! y x es el vector propio correspondiente. b) Sea 4 un vector propio de A y sea x un vector propio aso- ciado a 2. Entonces, 4? es un valor propio de A? y x un vector propio asociado a dicho valor propio. Asi se tiene Ax = Ax y también A?x = J?x. Ahora bien, como A?x = Ax (por ser A idempotente), entonces se tiene #x = Ax, por lo que A(A— 1)x = 0, es decir, que bien 4=0, 0 A= 1. Proposicion 1.10. El rango de una matriz idempotente es igual al nimero de valores propios iguales a 1, e igual a su traza. Demostracién. El rango de una matriz A es igual al rango de la matriz dia- gonal I’ formada con sus valores propios. En una matriz. idempotente éstos son 0.6 1, por lo que el rango de A coincide con el nimero de valores propios iguales a [. Finalmente, la traza de A es igual a la traza de P, es decir, la suma de los valores propios de A, y ésta coincide, en este caso, con el niimero de valores propios iguales a 1. En consecuencia, el rango de la matriz Q introducida en la Secci6n 1.1.a es: Rango(Q) =n ~ 1. Proposicién 1.11, Dado un valor propio de multiplicidad k, existen k vectores linealmente independientes asociados con dicho valor propio. Una matriz simétrica A de dimension nxn se dice definida positiva (semidefinida positiva) si para cualquier vector a de dimensién n distinto de 0,16 Econometria se tiene que a’Aa > 0 (20). Una matriz A simétrica se dice definida negativa (semidefinida negativa) si — A es definida positiva (semidefinida positiva). Una condicién necesaria y suficiente para que una matriz sea definida positiva es que todos sus valores propios sean positivos. Vamos a probar algunas propiedades que nos seran de utilidad en temas posteriores: Proposicién 1.12. Supongamos que la matriz A de dimensién m x n tiene sus columnas linealmente independientes entre si, lo que exige que m > n, puesto que las columnas son vectores de dimension m, y sim 0 para todo vector x de dimension n no nulo, y como consecuencia la matriz A’A es definida positiva. FI tinico caso en que el producto y'y no seria positivo es que fuese cero, pero recordemos que dicho producto es igual a la suma de cuadrados de las componentes de y, es decir, una suma de sumandos no negativos. En conse- cuencia, ello solo podria ocurrir si el vector y fuese cero. Ahora bien, como y = Ax, el vector y es una combinacién lineal de las columnas de la matriz A, que por hipdtesis son linealmente independientes, por lo que ninguna combi- naci6n lineal de dichas columnas puede ser igual al vector 0,, Proposicién 1.13. Sea A una matriz m x m definida positiva y P una matriz m x n, de tango m. El producto P'AP es una matriz definida positiva. Demostracion. Dado un vector y de dimensién n, el producto Py es otro vector de dimensi6n m, por lo que se tiene (Py)‘A (Py) > 0. Pero (Py)'A(Py)=y'(PAP)y, que sera por tanto positivo. Como ello ocurre para todo vector y, se tiene que P’AP es una matriz definida positiva. Proposicién 1.14. Los elementos de la diagonal principal de una matriz defi- nida positiva son estrictamente positivos, mientras que los elementos de la diagonal principal de una matriz semidefinida positiva son no negativos. Demostracién. Para probar cualquiera de estos resultados para el elemento i-ésimo de la diagonal basta utilizar en la definicion el vector a, que tiene todos sus elementos iguales a cero, excepto el i-ésimo que es igual a 1.CAPITULO 2 ANALISIS ESTADISTICO 2.1. INTRODUCCION: VARIABLE ALEATORIA, DISTRIBUCIONES DISCRETAS EI objeto de este capitulo consiste en revisar algunos resultados estadisticos que scran de utilidad en cl analisis de los métodos y modelos econométricos que vamos a efectuar en este texto, No podemos llevar a cabo un tratamiento exhaustivo de los distintos aspectos tratados, por lo que Ia lectura de este capitulo no puede suplir al estudio de un buen manual de Estadistica. En castellano, los textos de D. Pefia (1992) y Arnaiz (1978) son especialmente recomendables. Interpretamos cada variable econdmica como teniendo naturaleza aleato- tia, Asi, cuando decimos que el Producto Interior Bruto (PIB) espafiol en un determinado aiio ha sido de 68,3 billones de pesetas, entendemos que dicho valor numérico no es sino uno de los (posiblemente muchos) valores que el PIB pudo haber tomado en dicho afio. A priori no podemos saber con exactitud el valor futuro del PIB, y esa incertidumbre es, precisamente, el reflejo de su naturaleza aleatoria. Un suceso es cada uno de los resultados que pueden observarse acerca del comportamiento de una variable aleatoria: asi que el PIB sea igual a 68,3 billones de pesetas es un suceso, y que sea igual a 71,2 billones es otro suceso. Hay sucesos mas complejos: que cl PIB exceda de 60 billones es un suceso, de igual modo que el que esté comprendido entre 65 y 70 billones de pesetas es otro suceso. Una probabilidad es una medida positiva, con valor maximo igual a la unidad, y con la propiedad de que la medida de una unién finita 0, a lo mas, numerable de sucesos disjuntos es igual a la suma de sus medidas individua- les. La unin de todos los sucesos posibles tiene probabilidad igual a 1. En gran parte, el interés por el trabajo empirico en Economia estriba en asignar probabilidades a los posibles sucesos que pueden acaecer con la variable econémica en estudio. La Econometria proporciona herramientas iitiles para tal fin. abe