You are on page 1of 696
FCONOMETRIA Segunda edi ALFONSO NOVALES CINCA Catedratico del Departamento de Economia Cuantitativa Facultad de Econémicas. Universidad Complutense Madrid McGraw-Hill MADRID « BUENOS AIRES » CARACAS e GUATEMALA @ LISBOA # MEXICO NUEVA YORK @ PANAMA e SAN JUAN # SANTAFE DE BOGOTA e SANTIAGO e SAO PAULO ‘AUCKLAND « HAMBURGO @ LONDRES @ MILAN e MONTREAL # NUEVA DELHI PARIS @ SAN FRANCISCO e SIDNEY e SINGAPUR @ ST. LOUIS # TOKIO e TORONTO ECONOMETRIA. Segunda edicién No esté permitida fa reproduccién total o parcial de este libro, ni su tratamiento informatico, ni la transmision de ninguna forma o por cualquier medio, ya sea electrénico, mecanico, por fotocopia, por registro u otros métodos, sin el permis previo y por escrito de los titulares del Copyright. DERECHOS RESERVADOS © 1993, respecto a la primera edicién en espafiol, por McGRAW-HILL/INTERAMERICANA DE ESPANA, S. A. U. Edificio Valrealty, 1? planta Basauri, 17 28023 Aravaca (Madrid) ISBN: 84-481-0128-6 Depésito legal: M. 49,970-2000 Editora: Isabel Capella Cubierta: Félix Pifluela. Grafismo electrénico Compuesto en: Fernandez Ciudad, S. L. Impreso en: LAVEL, Industria Grafica, S.A. IMPRESO EN ESPANA - PRINTED IN SPAIN A mis hermanos Sepamos buscar como quien espera encontrar, y encontrar como quien espera seguir buscando (Adaptacién libre de S. Agustin.) CONTENIDO Prefacio 2.0.0.0. e eee terete tee et eter eens xv Introducci6n 6... 0.6. oe cece eee eee eee tenet ee ee ees xix Capitulo 1. Anilisis matricial... 2.2.2.0. oe 1 1.1, Primeras definiciones 1 1.1.a, Operaciones con matrices . 2 1.2. Determinantes .......... 4 1.3, Matriz inversa. oo... eee eee eee ee eee 6 1.4, Rango de una matriz . Bn aoe suse ohonsoaas 8 1'5. Valores y vectores propios de una mattiz.. : 12 Capitulo 2. Analisis estadistico ..... 0.0.0.0... 0 ececeeeeeeeneeeees 17 2.1, Introduccion: variable aleatoria, distribuciones discretas . 7 2.2. Distribuciones continuas, Funcién de densidad . . . . 21 2.3. Momentos de una distribucion 23 2.3.a. Momentos poblacionales con respecto al origen . 23 2:3.b. Momentos poblacionales con respecto a la media . 24 2.3.. Momentos muestrales . . - 25 2.4, Distribuciones bivariantes 26 2.5. Momentos en una distribucidn bivariante . 29 2.6. Propiedades de un estimador........ 32 2.7. Cambio de variable en distribuciones de probabilidad . 33 2.8. Distribuciones derivadas veseee 34 2.9, Elestimador de maxima verosimilitud . 36 2.10. Teoria asintotica . . 37 2.10.2. Convergencia en probabilidad 37 2.10.b. Convergencia en distribucion 40 2.11, Teorema Central del Limite . : 2 2.12. Contrastes de hipdtesis . . 44 2.13. Distribuciones truncadas - 46 Problemas 48 Contenido Capitulo 3. El modeto lineal general .......... . ceceeeeeenees 52 3.1. Introduccion... . ee eoe 3.1.a. Caracteristicas del modelo . - ee 3S 3.1.b. Descripcién de los capitulos posteriores . 59 3.2. El estimador de minimos cuadrados ordinarios . 61 3.3, Propiedades del estimador de minimos cuadrados, ordinarios . 67 3.4, Estimacion de 0? + . B 3.5. Contraste de Normalidad 80 3.6. El estimador de maxima verosimilitud 82 3.7. Regresién particionada ........ + 85 3.8. El modelo lineal en desviaciones con respecto a la media 86 3.9, Algunos modelos lineales sencillos . . cece eee 91 3.10. Cambios de escala y de origen . . oa 96 3.11. Errores de especificacion ...... erererees 100 Problemas Ripsososee jasonodasecocanesas vee. 103 Capitulo 4, Inferencia en el modelo lineal ....... . fe ee ls 41. Introduccion... 0. eee eee eee 13 4.2. Contraste de hipotesis: un tratamiento introductorio . 115 4.2.a. Interpretacion del estadisti . MS 4.3. - Contraste de hipdtesis: tratamiento general 17 4.3.a. La formulacion del problema 117 4.3.b. El estadistico F para el contraste de cualquier conjunto de hipo- tesis lineales . .. vee tees HY 4.3.¢. Un procedimiento alternativo . : 121 4.4. Aplicacién a algunos casos particulares : +. 1B 4.4.a, Contraste de hiptesis acerca de un coeficiente del modelo... 123 4.4.b. Contraste de hipdtesis acerca de todos los coeficientes del mo- delo (excepto el término independiente) . . 123 44.c. Elcontraste de significacién global del modelo econométrico ... 124 4.4.d. Contraste acerca de un subvector de s variables (I = a) Dado un vector y de dimension n se tiene - 1,y = j, donde j es la media aritmética de los componentes del vector y. 6 . 1 b) Dada una matriz X de dimension m x n se tiene a 1,.X =X, donde x’ es el vector fila de dimension n formado por las medias aritméticas de los elementos que integran cada columna de la matriz X. Denotaremos por Q una matriz de dimensién n x n, que nos sera de especial utilidad en la discusién de algunas cuestiones, y en particular en la Seccidn 3.8, Esta matriz viene definida por: Q ei, : 4 Economenta Es facil ver (lo dejamos como ejercicio) que esta matriz es simétrica e idem- potente, Otras propiedades suyas que el lector puede comprobar sin dificul- tad son: es decir, que la matriz Q transforma un vector en el vector de diferencias con respecto a la media aritmética de sus componentes. Como consecuencia, si el vector y tiene sus componentes iguales entre si, entonces el producto Qy es igual al vector cero. Otra consecuencia es que si la media aritmética de las componentes del vector y es cero, entonces Qy = y. b) Dada una matriz A n x p se tiene: 431 — yy yz — Gay os, yy — Gy 1 = Gy, G27 — Ga, «+5 zy — Ay + Aap — ay 43, — Gy, 43 — G2, ny — Ay Gnz — B25 +045 Gnp — Ay es decir, que la matriz Q transforma una matriz A en la matriz de diferencias con respecto a las medias aritméticas de cada columna de A. Una forma intuitiva de ver este resultado es considerando la matriz A como una coleccién de p vectores columna, cada uno con n componentes, y utilizar la propiedad a) aplicada a cada vector columna. Otra propiedad que utilizaremos con frecuencia y que el lector puede pro- bar sin dificultad es: Dada una matriz X, de dimension m x n, la matriz M es simétrica, idempotente y cumple MX = 0p... In — X(X'X)EX” 1.2. DETERMINANTES El determinante es una funcién real de una matriz cuadrada, es decir, una funcién que asocia un namero real definido de modo univoco a toda matriz cuadrada, Las matrices cuadradas mas sencillas son I x 1, y su determinante es numéricamente igual al tinico elemento en dicha matriz, Dada una ma- triz 2 x 2: (es , m X p; By1, M2 x py, y Bz2, ny X pp. Entonces se tiene: AunBu + Ai2Bo1 Ai Bi + pace) AB= or + An2Br AaiBy2 + Az2Bo2 EI producto de Kronecker de una matriz A de dimension m xn y una matriz B de dimension p x q ¢s otra matriz C de dimension mp x ng, defi- nida por: @,,B a,B a,3B ... a;,B caan@na{ 8 fel tle an Be ae .B) GeBee oe donde aj, i= 1, s.., mj = 1, ..., n son los elementos de la matriz A. La inversa de la matriz C es igual a A~' ® B-!, Notese que, a diferencia de la inversa del producto habitual de dos matrices, en este caso no se altera el orden de los factores. De modo similar, se tiene C= A'@ B’. En varias ocasiones a lo largo del texto es preciso obtener la derivada de tun producto de matrices con respecto a uno o varios parametros, para lo que ser conveniente recordar las siguientes reglas: a) La derivada de una funcién f(@,, 62, ..., 64) con respecto al vector (01, 825». 8) es igual a un vector columna, llamado el gradiente de la funcién. El vector tiene k componentes, cada uno de ellos igual a una de las derivadas parciales: 2/20, b) La matriz hessiana de la funcién f(0;, 02, ..., &,) es una matriz cuadra- da, de dimensi6n k x k, cada uno de cuyos componentes es igual a 0f7/€0,00). En particular, los elementos de la diagonal de dicha matriz son las derivadas segundas con respecto a cada uno de los parametros 6). c) El gradiente de la funcion lineal A®, donde A es kxk y@kx I, con respecto al vector @, es la matriz A. d) La derivada de la forma cuadratica @'A® con respecto al vector es igual a 2A0. La derivada de 0'AO respecto de A es igual a 00’. e) La derivada del determinante {A| con respecto a la matriz A es igual a la matriz |AI(A’) ‘f) La derivada de In|A| con respecto a A es igual a (A’)~', y en particular la derivada de In|Al con respecto a aj es a”. 1.4, RANGO DE UNA MATRIZ Una matriz A, de dimension m x n, puede interpretarse como una coleccion de m vectores fila de dimension n, 0 como una coleccion de n vectores co- lumna de dimension m. Ello permite aplicar la teoria algebraica de los Andlisis matricial 9 espacios vectoriales a las filas o columnas de una matriz. En particular, puede hablarse de filas linealmente independientes 0 dependientes, en el sentido en que vectores de dimensi6n n lo son, y lo mismo con las columnas de fa matriz. Como vamos a ver, el maximo numero de filas lincalmente independientes en una matriz es igual al maximo nimero de columnas linealmente inde- pendientes. Dicho numero se llama rango de la matriz. De ello se deduce inmediatamente que una matriz y su traspuesta tienen el mismo rango. También se deduce que, dada una matriz A m x n, su rango es S min{m, n}. Lema 1.1. El maximo numero de filas linealmente independientes de una matriz cualquiera es igual al maximo numero de columnas linealmente inde- pendientes. Demostracién, Sea A una matriz m xn y sea p el maximo mimero de filas linealmente independientes. Tomemos p filas linealmente independientes y formemos con ellas una submatriz A*, p xn. Sea q el maximo numero de columnas linealmente independientes de la matriz A. Como no puede haber mas columnas linealmente independientes en A* que en A, se tiene que q es también el maximo numero de columnas linealmente independientes de A*. Cada columna de la matriz A* tiene p elementos, lo que implica que q < p, puesto que el maximo numero de vectores de dimension p linealmente inde- pendientes entre si es, precisamente, igual a p. Por otra parte, construyamos ahora A**, la matriz.m x q que se obtiene con q columnas linealmente independientes de la matriz A. Como p es el maximo néimero de filas linealmente independientes de A, también es el maxi- mo niimero de filas linealmente independientes de A**, y como cada una de ellas tiene q elementos, entonces p too 1 fly Xa 1 0 mientras que el némero de columnas de la matriz de partida es 4. Excluyendo la tercera ecuacion se llegaria a: x 1 0 _ fe) )-2 -3\fs ““TsJo foi _, (°) Xs 2 0 1 pero estas dos columnas son combinaci6n lineal de las dos columnas de la matriz anterior, y representan por tanto el mismo subespacio nulo. Teorema 1.1, Dada una matriz X, Tx k, con Rango(X) =p k y que las k columnas de X son linealmente independientes, En tal caso, Rango(X) = k = Rango(X’X) = Rango(XX’). Como X'X es una matriz k x k, este resultado 12 Econometria implica que dicha matriz es no singular y por tanto invertible. En cambio, XX’ es una matriz Tx T, y el resultado implica que es singular. Teorema 1.2, El rango de una matriz A no cambia al premultiplicar o postmultiplicar dicha matriz por una matriz. cuadrada no singular. Es decir, si A es una matriz m x n y P, Q son matrices m x m y nx n no singulares, se tiene: Rango(A) = Rango(PA) = Rango(AQ) = Rango(PAQ) Demostracién. 1. Si xeSN(A), entonces Ax=0 y por tanto PAx =0, por lo que xeSN(PA). Por otra parte, si xeSN(PA), entonces PAx =0, lo que implica que P~'(PAx)= Ax =0 y xeSN(A). En consecuencia, como Ay PA tienen igual nimero de columnas, también tienen el mismo rango. 2. Puesto que el rango de una matriz es igual al rango de su traspues- ta, se tiene: Rango(AQ) = Rango(Q’A’). De acuerdo con 1 se tiene: Ran- 20(Q’A’) = Rango(A’), y es igual a Rango(A) 3. Rango(PAQ) = Rango(A) es ahora obvio, sin mas que utilizar 1 y 2 sucesivamente. Teorema 1.3. Rango(AB) < min {Rango(A), Rango(B)}. Demostracién, 1. Sea x un vector del SN(B). Entonces Bx =0 y por tanto ABx = 0, por lo que xeSN(AB). Por tanto, SN(B) < SN(AB). Como By AB tienen el mismo numero de columnas, entonces Rango(B) > Rango(AB). 2. Rango(AB) = Rango(B’A’) < Rango(A’) = Rango(A), donde la des- igualdad proviene del resultado 1. 1.5. VALORES Y VECTORES PROPIOS DE UNA MATRIZ Dada una matriz cuadrada A n x n, entonces una constante / y un vector x, nx I no nulo que satisfagan el sistema de ecuaciones Ax = Ax se llaman, res- pectivamente, valor propio y vector propio de la matriz A. Si la matriz A — AI, no es singular, entonces la unica solucion a la ecuacién anterior es la trivial: x = 0,. Para que haya una solucién no nula, debe ocurrit que |A — AI,| = 0. Esta es la ecuacién caracteristica de la matriz A. Dicha ecuacién tiene n solu- ciones, aunque no necesariamente diferentes entre si. Por ser las raices de un polinomio de grado n, los valores propios pueden, en principio, ser udmeros complejos Para cada solucion (valor propio) existe un vector propio asociado, que se obtiene sustituyendo el valor de 4 en Ja ecuacién Ax = Ax. Cuando un valor propio es una solucién milltiple de la ecuacién caracteristica, entonces el niimero de vectores propios linealmente independientes asociados con dicho valor propio es igual a su orden de multiplicidad. Es importante observar que cada vector propio correspondiente a un valor propio no nulo es la solucién a un sistema lineal homogéneo y, por tanto, no est dnicamente determinado, sino que es, en realidad, un subespacio de Anélisis matricial 13 dimension uno. Para determinar univocamente el vector propio se utilizan distintos criterios, como normalizar los vectores propios para que tengan modulo igual a 1, lo que haremos de ahora en adelante. Como ejemplo puede comprobarse que los valores propios de la matriz 5 3/2 uot . son = ¥ 5. ¥ que sus vectores propios, normalizados para 32-1 2 3 1 1 3 jue tengan modulo unidad, son { ——; —— =) — =}. Ademas, ania (Fs 7) 2 (a 7) puede comprobarse que estos dos vectores propios son ortogonales entre si. Aunque puede hablarse de vectores y valores propios de cualquier matriz cuadrada, en este texto solo calcularemos valores y vectores propios de matrices simétricas. Las siguientes son propiedades fundamentales de los valores propios de una matriz: A Proposicién 1.1. Los valores propios de una matriz simétrica son reales: En el caso de una matriz A = (a,), 2. 2, los valores propios vienen dados por 1 oF Aa 5 lean + a2) £ Mar + aa3F = ir azn — 41342,)). Si la matriz os simétrica, entonces 2 = ; (ay; +423) + J(@is = 422)? + 4a3,)) y por tanto son reales, ya que el radicando es positivo. Proposicién 1.2. Los vectores propios correspondientes a distintos valores propios de una matriz simétrica son ortogonales entre si, es decir, su producto es cero. Demostracion. Sean x,'y x, vectores propios de la matriz A correspondientes a los valores propios 2, y 22, respectivamente, Entonces se tiene Ax, = 4X; y AX, = AX2. Por tanto, xAX; = A;X5x, y x, AX, = A)X{x>. Ahora bien, x, Ax, y xAXx, son matrices traspuestas una de la otra, y de dimensién I x 1, es decir, escalares, y por tanto son iguales entre si. En consecuencia, (A, — Aa)xiX2 =0. Si Ay ¥ Ap, entonces, necesariamente, x,x, = 0. Esta proposicién tiene una aplicacién de interés: dada una matriz A, de dimension n x n, construyamos otra matriz B que tiene por columnas los vectores propios de la matriz A. Como acabamos de ver, dichas columnas son vectores ortogonales entre si, Por tanto, si formamos el producto C = B’B, su elemento genérico c,, esti formado por el producto de las columnas i y j de B. Dicho producto sera cero, salvo cuando i = j, en cuyo caso sera igual a I, de acuerdo con nuestro convenio de normalizacién. Por tanto, B'B = I,; pero, por esta raz6n, también se tiene BB’ = I,, y B’ es la inversa de B, por lo que B es una matriz ortogonal, 14> Econometria Proposicion 1.3. (Descomposicién canénica de una matriz cuadrada.) Dada una matriz simétrica A n x n, sea Bla matriz que tiene por columnas los vectores propios de A. Entonces, se cumple: AB=T donde I es una matriz. diagonal que tiene por elementos los valores propios de A. Demostracién, En efecto, si denotamos por C al producto B’AB, el elemento genérico cy se obtiene multiplicando la fila i-ésima de B’ (columna i-ésima de B) por A y por la columna j-ésima de B: x/Ax;=x;(2)x)) tanto, dicho producto es cero salvo cuando i es igual a j, en cuyo caso XIAX, = A,(X/X,) = Ay. Proposici6n 1.4, Dada una matriz A simétrica, definida positiva, existe una matriz no singular P tal que A = PP’. Demostracion. Por la descomposicion anterior B’'AB=T_ y por tanto B(B’AB)B’ = BIB’. Pero B es una matriz ortogonal, por lo que BB’ = B'B =I, y finalmente A = BIB’. Si denotamos por F? la matriz diagonal que tiene por elementos las raices cuadradas de los valores propios de la matriz A, entonces A = PP’, donde P = (BI*). Notemos que A no necesita ser simétrica. Basta que tenga k vectores propios linealmente independientes, en cuyo caso AB = BI’, donde las colum- nas de B son los vectores propios de A, y B-'AB=B 'BI =T, solo que ahora B no es necesariamente ortogonal. Proposicién 1.5. La suma de los valores propios de una matriz A es igual a su traza, es decir, a la suma de los elementos de su diagonal principal Demostracién, Por la descomposicién antes vista: B’AB =I’, donde B es una matriz ortogonal, y utilizando la propiedad circular de la traza: traza(P) = raza (B’ AB) = traza(BB' A) = traza(A), pero traza(I) es, simplemente, la suma de los valores propios de fa matriz A. Proposicién 1.6. El producto de los valores propios de una matriz es igual al determinante de dicha matriz. De ello se deduce que una matriz es singular si y sdlo si tiene al menos un valor propio igual a cero. Demostracién (para matrices simétricas), Utilizando de nuevo la descomposi- cion B’AB =I se tiene |B'||A| |B] =|E|=I1f_,/,. Ahora bien, por ser B una matriz ortogonal se tiene B’B=I, y por tanto |B’B| = |B'||B| = |B)? = 1. Consecuentemente, |Bj = +1 0 —1, 10 que Hlevado a la expresin anterior implica finalmente |A| = Tf. 4). Anélisis matricial, 15 Proposici6n 1.7. El rango de una matriz es igual al-nimero de valores pro- pios no nulos. Demostracién, Puesto que el rango de una matriz no varia al pre o post- multiplicar dicha matriz por una matriz no singular, entonces por la descom- posicién candnica anterior se tiene Rango(A) = Rango(I). Ahora bien, las filas de esta iltima matriz s6lo tienen un elemento no nulo, aquél en la diagonal de I. Tales filas serdn necesariamente independientes entre si, salvo que alguno de dichos elementos (valores propios de A) sea igual a cero. Proposicién 1.8. Los valores propios de la matriz A? (= AA) son igual al cuadrado de los valores propios de la matriz A. Sin embargo, los vectores propios de A? son iguales a los de A. (Claramente, este resultado prueba que el determinante de la matriz A? es positivo.) Demostracién. Si x es un vector propio asociado al valor propio 2, entonces Ax = Ax, por lo que también se tiene A?x = A(Ax) = (Ax) = 2?x, por Jo que 7? es un valor propio de la matriz A? y x un vector asociado a dicho valor propio. Proposicién 1.9. a) Los valores propios de la matriz A~' son los inversos de Jos valores propios de la matriz A, pero los vectores propios son los mismos que los de A. b) Los valores propios de una matriz idempotente son igual adel. Demostracién. a) Puesto que Ax = Ax y premultiplicando por A~* se tiene x = 2A7'x, por lo que 2~! es un valor propio de A~! y x es el vector propio correspondiente. b) Sea 4 un vector propio de A y sea x un vector propio aso- ciado a 2. Entonces, 4? es un valor propio de A? y x un vector propio asociado a dicho valor propio. Asi se tiene Ax = Ax y también A?x = J?x. Ahora bien, como A?x = Ax (por ser A idempotente), entonces se tiene #x = Ax, por lo que A(A— 1)x = 0, es decir, que bien 4=0, 0 A= 1. Proposicion 1.10. El rango de una matriz idempotente es igual al nimero de valores propios iguales a 1, e igual a su traza. Demostracién. El rango de una matriz A es igual al rango de la matriz dia- gonal I’ formada con sus valores propios. En una matriz. idempotente éstos son 0.6 1, por lo que el rango de A coincide con el nimero de valores propios iguales a [. Finalmente, la traza de A es igual a la traza de P, es decir, la suma de los valores propios de A, y ésta coincide, en este caso, con el niimero de valores propios iguales a 1. En consecuencia, el rango de la matriz Q introducida en la Secci6n 1.1.a es: Rango(Q) =n ~ 1. Proposicién 1.11, Dado un valor propio de multiplicidad k, existen k vectores linealmente independientes asociados con dicho valor propio. Una matriz simétrica A de dimension nxn se dice definida positiva (semidefinida positiva) si para cualquier vector a de dimensién n distinto de 0, 16 Econometria se tiene que a’Aa > 0 (20). Una matriz A simétrica se dice definida negativa (semidefinida negativa) si — A es definida positiva (semidefinida positiva). Una condicién necesaria y suficiente para que una matriz sea definida positiva es que todos sus valores propios sean positivos. Vamos a probar algunas propiedades que nos seran de utilidad en temas posteriores: Proposicién 1.12. Supongamos que la matriz A de dimensién m x n tiene sus columnas linealmente independientes entre si, lo que exige que m > n, puesto que las columnas son vectores de dimension m, y sim 0 para todo vector x de dimension n no nulo, y como consecuencia la matriz A’A es definida positiva. FI tinico caso en que el producto y'y no seria positivo es que fuese cero, pero recordemos que dicho producto es igual a la suma de cuadrados de las componentes de y, es decir, una suma de sumandos no negativos. En conse- cuencia, ello solo podria ocurrir si el vector y fuese cero. Ahora bien, como y = Ax, el vector y es una combinacién lineal de las columnas de la matriz A, que por hipdtesis son linealmente independientes, por lo que ninguna combi- naci6n lineal de dichas columnas puede ser igual al vector 0,, Proposicién 1.13. Sea A una matriz m x m definida positiva y P una matriz m x n, de tango m. El producto P'AP es una matriz definida positiva. Demostracion. Dado un vector y de dimensién n, el producto Py es otro vector de dimensi6n m, por lo que se tiene (Py)‘A (Py) > 0. Pero (Py)'A(Py)=y'(PAP)y, que sera por tanto positivo. Como ello ocurre para todo vector y, se tiene que P’AP es una matriz definida positiva. Proposicién 1.14. Los elementos de la diagonal principal de una matriz defi- nida positiva son estrictamente positivos, mientras que los elementos de la diagonal principal de una matriz semidefinida positiva son no negativos. Demostracién. Para probar cualquiera de estos resultados para el elemento i-ésimo de la diagonal basta utilizar en la definicion el vector a, que tiene todos sus elementos iguales a cero, excepto el i-ésimo que es igual a 1. CAPITULO 2 ANALISIS ESTADISTICO 2.1. INTRODUCCION: VARIABLE ALEATORIA, DISTRIBUCIONES DISCRETAS EI objeto de este capitulo consiste en revisar algunos resultados estadisticos que scran de utilidad en cl analisis de los métodos y modelos econométricos que vamos a efectuar en este texto, No podemos llevar a cabo un tratamiento exhaustivo de los distintos aspectos tratados, por lo que Ia lectura de este capitulo no puede suplir al estudio de un buen manual de Estadistica. En castellano, los textos de D. Pefia (1992) y Arnaiz (1978) son especialmente recomendables. Interpretamos cada variable econdmica como teniendo naturaleza aleato- tia, Asi, cuando decimos que el Producto Interior Bruto (PIB) espafiol en un determinado aiio ha sido de 68,3 billones de pesetas, entendemos que dicho valor numérico no es sino uno de los (posiblemente muchos) valores que el PIB pudo haber tomado en dicho afio. A priori no podemos saber con exactitud el valor futuro del PIB, y esa incertidumbre es, precisamente, el reflejo de su naturaleza aleatoria. Un suceso es cada uno de los resultados que pueden observarse acerca del comportamiento de una variable aleatoria: asi que el PIB sea igual a 68,3 billones de pesetas es un suceso, y que sea igual a 71,2 billones es otro suceso. Hay sucesos mas complejos: que cl PIB exceda de 60 billones es un suceso, de igual modo que el que esté comprendido entre 65 y 70 billones de pesetas es otro suceso. Una probabilidad es una medida positiva, con valor maximo igual a la unidad, y con la propiedad de que la medida de una unién finita 0, a lo mas, numerable de sucesos disjuntos es igual a la suma de sus medidas individua- les. La unin de todos los sucesos posibles tiene probabilidad igual a 1. En gran parte, el interés por el trabajo empirico en Economia estriba en asignar probabilidades a los posibles sucesos que pueden acaecer con la variable econémica en estudio. La Econometria proporciona herramientas iitiles para tal fin. abe

You might also like