You are on page 1of 562
—— Sif ALGEBRA LINEAL SEGUNDA EDICION Seymour Lipschutz ALGEBRA LINEAL Segunda edicién SEYMOUR LIPSCHUTZ, Ph. D. Temple University Traducci6n: CELIA MARTINEZ ONTALBA Revision: LORENZO ABELLANAS Catedratico Métodos Matemiticos de la Fisica Universidad Complutense de Madrid McGraw-Hill MADRID @ BUENOS AIRES ¢ CARACAS » GUATEMALA @ LISBOA @ MEXICO NUEVA YORK ¢ PANAMA e SAN JUAN e SANTAFE DE BOGOTA e SANTIAGO e SAO PAULO "AUCKLAND # HAMBURGO @ LONORES MILAN « MONTREAL @ NUEVA DELHI @ PARIS "SAN FRANCISCO e SIDNEY # SINGAPUR @ ST. LOUIS e TOKIO @ TORONTO ALGEBRA LINEAL. Segunda edieién No esta permitida la reproduccién total o parcial de este libro, ni su tratamiento informatico, ni la transmision de ninguna forma o por cualquier medio, ya sea electrénico, mecénico, por fotocopia, por registro u otros métodos, sin el permiso previo y por escrito de los titulares del Copyright. DERECHOS RESERVADOS © 1992, respecto a la segunda edicién en espaitol, por McGRAW-HILL/INTERAMERICANA DE ESPANA, S.A, Edificio Oasis-A, 1.* planta Basauri, s/n 28023 Aravaca (Madrid) Traducido de la segunda edicién en inglés de LINEAR ALGEBRA Copyright © MCMXCI, por McGraw-Hill, Inc. ISBN: 0-07-038007-4 ISBN: 84-7615-758-4 Depésito legal: M. 119/193 Cubierta: Juan Garcia ‘Compuesto e impreso en: Fernandez Ciudad, S.L. PRINTED IN SPAIN - IMPRESO EN ESPANA Prdlogo . Capitulo 1. Capitulo 2. Capitulo 3. Capitulo 4, Capitulo 5. Contenido SISTEMAS DE ECUACIONES LINEALES SAGE Power ss oot 1.1. Introduccion.—1.2. Ecuaciones lineales. Soluciones—1.3. Eeuaciones lineales con dos inedgnitas.— 1.4. Sistemas de ecuaciones lincales. Sistemas equivalentes. Operacio~ nes elementales.—1.5. Sistemas en forma triangular y escalonada—1.6. Algoritmo de reduccion.—I.7, Matrices.—1.8. Equivalencia por filas. Operaciones clementales entre filas—1.9. Sistemas de ecuaciones lineales y matrices.—1.10. Sistemas de ecuaciones lineales homogéneos. \VECTORES EN R" Y C!. VECTORES ESPACIALES ... 0-01-20 00- >>> 2.1, Introduccién.—2.2. Vectores en R*—2.3, Suma de vectores y producto por un escalar—2.4, Vectores y ecuaciones lineales.—2.5. Producto escalar—2.6. Norma de tun vector. 2.7, Vectores localizados, hiperplanos y rectas cn R' espaciales. Notacién ijk en R*.—2.9. Niimeros complejos.—2.10. Vectores en C™ MATRICES uve + 2 BEYEROSG $40 + woniclas® ae 3.1, Introduccién-3.2. Matrices—3.3. Suma de matrices y producto por un esca~ lar—3.4, Producto de matrices. —3.5. Traspuesta de una matriz—3.6. Matrices y sistemas de ecuaciones lineales—3.7. Matrices por bloques. MATRICES CUADRADAS. MATRICES ELEMENTALES |... . - Psgasten 4.1, Introduccion —4.2. Matrices cuadradas—4.3, Diagonal y traza. Matriz identi- dad.—4.4, Potencias de matrices. Polinomios de matrices—4.5. Matrices invertibles (no singulares)—4.6. Tipos especiales de matrices cuadradas.—4.7. Matrices comple jas—4.8. Matrices cuadradas por bloques.—4.9. Matrices elementales. Aplicaciones 4.10. Operaciones elementales entre columnas. Equivalencia de matrices.—4.11. Matri- ‘ces simétricas congruentes. Ley de inercia—4.12, Formas cuadraticas—4.13. Simila~ ridad.—4.14, Factorizaci6n LU. ESPACIOS VECTORIALES ..... 000-0 2+0200+ 5 5.1. Introduccidn.—5.2. Espacios veetoriales.—5.3. Ejemplos de espacios veetoriales. 5.4. Subespacios. 5.5. Combinaciones lincales. Envolventes lineales.—5.6. Dependen- 45 87 105 167 vi CONTENIDO Capitulo 6. Capitulo 7. Capitulo 8. Capitulo 9. Capitulo 10. Capitulo 11. Capitulo 12. Capitulo 13, cia e independencia lineal—S.7. Bases y dimension.—S.8. Ecuaciones lineales y espa- cios vectoriales—5.9. Sumas y sumas directas,—S.10. Coordenadas.—5.11. Cambio de base. ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD .. ...--- 6.1. Introduccién.—6.2. Espacios con producto interno.—6.3. Desigualdad de Cauchy- Schwarz. Aplicaciones—6.4. Ortogonalidad.—6.5. Conjuntos ortogonales y bases. Proyecciones—6.6. Proceso de ortogonalizacién de Gram-Schmidt.—6.7. Productos internos y matrices.—6.8. Espacios complejos con producto interno.—6.9. Espacios vectoriales normados. DETERMINANTES : coves eee ee 7.1. Introduccion.—7.2. Determinantes de 6rdenes uno y dos.—7.3, Determinantes de orden tres—7.4. Permutaciones.—7.5. Determinantes de orden arbitrario.—7.6. Pro- piedades de los determinantes.—7.7. Menores y cofactores—7.8. Adjunto clasico. 7.9. Aplicaciones a las ecuaciones lineales. Regla de Cramer—7.10. Submatrices. Menores generales. Menores principales—T.11. Matrices por bloques y determinan- tes.—7.12. Determinantes y volumen.—7.13. Multilinealidad y determinantes. VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION 8.1, Introduccién.—8.2. Polinomios de matrices—8.3. Polinomio caracteristico. Teo- rema de Cayley-Hamilton.—8.4, Valores propios y vectores propios—8.5. Céleulo de valores propios y vectores propios. Diagonalizacion de matrices.—8.6. Diagonalizacion de matrices reales simétricas.—8.7. Polinomio minimo. APLICACIONES LINEALES . . .. - Asem seers persbettamenn 9.1. Introduccién.—9.2. Aplicaciones. 9.3. Aplicaciones lineales.—9.4. Niicleo e ima- gen de una aplicacién lineal—9.5. Aplicaciones lineales singulares y no singulares. Tsomorfismos.—9.6. Operaciones con aplicaciones lineales.—9.7. Algebra de operado- res lineales A(V).—9.8. Operadores invertibles. MATRICES Y APLICACIONES LINEALES sate § 7 SSRN oe 10.1. Introduccion.—10.2. Representacion matricial de un operador lineal —10.3. Cambio de base y operadores lineales—10.4. Diagonalizacion de operadores linea- les.—10.5. Matrices y aplicaciones lineales generales. FORMAS CANONICAS ....6. 5. suk sats ro ok ; ILL. Introduccién —11.2. Forma triangular—I1,3. Invariancia.—11.4. Descomposi- ciones en suma directa invariante—11.5. Descomposicion primaria.—11.6. Operadores nilpotentes.—11.7. Forma canénica de Jordan—I1.8. Subespacios ciclicos.—11.9. Forma canénica racional—1.10. Espacios cociente. FUNCIONALES LINEALES Y ESPACIO DUAL... 0-2. - 0202000 s cee e ees 12.1. Introduccién.—12.2. Funcionales lineales y espacio dual.—12.3. Base dual. 12.4. Espacio segundo dual,—12.5. Aniquiladores.—12.6. Traspuesta de una aplicacién lineal. FORMAS BILINEALES, CUADRATICAS Y HERMITICAS ... .. : 13.1, Introduecién.—13,2, Formas bilineales—13.3. Formas bilineales y matrices. 13.4. Formas bilineales alternadas.—13.5, Formas bilineales simétricas. Formas cua- draticas—13.6. Fornias bilineales simétricas reales. Ley de inercia—t3.7. Formas hermiticas. 290 330 369 406 436 CONTENIDO Capitulo 14. OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO . Apéndice Indice 14.1. Introduccion.—14.2. Operadores adjuntos—14.3. Analogia entre A(V) y C. Operadores especiales—14.4, Operadores autoadjuntos.—14,5, Operadores ortogona- les y unitarios—14.6. Matrices ortogonales y unitarias.—14.7, Cambio de base orto- normal.—14.8. Operadores positivos. Diagonalizacién y formas canénicas en espacios euclideos.—14.10. Diagonalizacién y formas canénicas en espacios unita- rios—14.11. Teorema espectral. CONJUNTOS Y RELACIONES . 0.00.00 0 eee ete teet eee ee ee ee ees Conjuntos, elementos.—Operaciones entre conjuntos—Producto cartesiano de con- juntos.—Relaciones —Relaciones de equivalencia. ESTRUCTURAS ALGEBRAICAS ... : Introduccién.—Grupos.—Anillos, dominios de integridad y cuerpo: POLINOMIOS SOBRE UN CUERPO . . Introduccion. —Divisibilidad. Maximo comin divisor.—Factorizacion, —Médulos. vii 503 528, 535 545 549 Prologo El dlgebra lineal se ha convertido en los tltimos afios en una parte esencial de los conocimientos matematicos requeridos a mateméticos, ingenieros, fisicos y otros cientificos. Este requerimiento refleja la importancia y la amplitud de sus aplicaciones. Este libro se ha proyectado como libro de texto en un curso regular de algebra lineal o como suplemento a los textos clasicos en uso, Su propésito es presentar una introduccién al algebra lineal que todos los lectores encuentren provechosa, cualquiera que sea su campo de especiali- zacién. Se ha incluido mas material del que puede abarcarse en muchos primeros cursos, con objeto de hacer el texto mas flexible, proporcionar un libro de referencia util y estimular el interés futuro en el tema. Cada capitulo comienza con enunciados claros de las definiciones, principios y teoremas pertinentes, junto con ejemplos y otro material descriptivo. A esto siguen colecciones graduadas de problemas resueltos y problemas suplementarios. Los problemas resueltos sirven para ilustrar y ampliar la teoria, coneretan aquellos puntos sutiles cuyo desconocimiento Heva al estudiante a sentirse continuamente en un terreno inseguro, y suministran la repeticién de los principios basicos tan vital para un aprendizaje efectivo. Entre los problemas resueltos se incluyen numerosas demostraciones de teoremas. Los problemas suplementarios sirven como revision completa del material de cada capitulo. El primer capitulo trata los sistemas de ecuaciones lineales. Esto proporciona la motivacién y las herramientas de célculo basicas para el material subsiguiente. Tras haber introducido los Vectores y las matrices, aparecen capitulos sobre espacios vectoriales y subespacios, y sobre productos internos. Siguen capitulos que cubren determinantes, valores propios y vectores propios, y diagonalizacion de matrices (bajo similaridad) y formas cuadraticas (bajo congruen- cia). Los capitulos posteriores abarcan las aplicaciones lineales abstractas y sus formas canénicas. especificamente las formas canénicas triangular, de Jordan y racional. El dltimo capitulo trata las aplicaciones lineales abstractas en espacios con producto interno. Los principales cambios en la segunda edicién han sido por razones pedagogicas (de forma) més que de contenido. Aqui la nocién de aplicacién matricial se introduce al principio del texto, x PROLOGO y los productos internos justo después del capitulo sobre espacios vectoriales y subespacios. ‘Asimismo, se presentan los algoritmos de reduccién por filas, inversién de matrices, calculo de determinantes y diagonalizacion de matrices y formas cuadraticas, usando notacién algoritmica. ‘Ademis, temas tales como matrices elementales, factorizacién LU, coeficientes de Fourier y varias normas en R" se introducen directamente en el texto, en lugar de hacerlo en las secciones de problemas. Por iiltimo, al tratar los aspectos abstractos més avanzados en la parte final del texto, facilitamos el uso de éste en un curso elemental o en uno de dos semestres de algebra lineal. Deseo dar las gracias al personal de McGraw-Hill Schaum Series, especialmente a John Aliano, David Beckwith y Margaret Tobin, por sus inestimables sugerencias y su cooperacion, verdaderamente util. Por diltimo, quiero expresar mi gratitud a Wilhelm Magnus, mi maestro, consejero y amigo, que me introdujo en la belleza de las matematicas. Temple University SEYMOUR LiPSCHUTZ Enero de 1991 CAPITULO 1 Sistemas de ecuaciones lineales 1.1. INTRODUCCION La teoria de las ecuaciones lineales juega un papel importante y motivador en el ambito del Algebra lineal. De hecho, muchos problemas de algebra lineal son equivalentes al estudio de un sistema de ecuaciones lineales, como hallar el micleo de una aplicacién lineal o caracterizar el subespacio generado por un conjunto de vectores. Por cllo, las técnicas introducidas en este capitulo seran aplicables al tratamiento mas abstracto dado posteriormente. Por otra parte, algunos de los resultados del tratamiento abstracto arrojaran nueva luz sobre Ia estructura de Ios sistemas de ecuaciones lineales «concretos». Este capitulo investiga sistemas de ecuaciones lineales y describe detalladamente el algoritmo de eliminacién gaussiano, que se utiliza para hallar su solucién, Aunque seran estudiadas en detalle en el Capitulo 3, las matrices, junto con ciertas operaciones entre ellas, se introducen también aqui, puesto que estén estrechamente relacionadas con los sistemas de ecuaciones lineales y su solucién. Todas nuestras ecuaciones involucraran nimeros especificos denominados constantes 0 esca- ares, Para simplificar, en este capitulo asumimos que todos nuestros escalares pertenecen al cuerpo de los nimeros reales R. Las soluciones de nuestras ecuaciones también involucrarén neplas u = (key, ky. --., ky) de mimeros reales Hamadas vectores. El conjunto de tales n-plas se denota por R". Apuntamos que los resultados de este capitulo son validos asimismo para ecuaciones sobre el cuerpo complejo C, 0 sobre cualquier cuerpo arbitrario K. 1.2. ECUACIONES LINEALES. SOLUCIONES Por una ecuacién lineal con incgnitas x,, x2, ...,%, entendemos una ecuacién que puede escribirse en la forma convencional: on yxy + aa Xa + + OX, 2 ALGEBRA LINEAL donde a, a2, ..., dy, b son constantes. La constante a, se denomina el coeficiente de x, y b se denomina la constante de la ecuacion. Una solucién de la ecuacién lineal anterior es un conjunto de valores de las incdgnitas, digamos x, = ky, Xz = kp, ..., %, = ky, 0 simplemente una n-pla u = (ky, kp, .... k,) de constan- tes, con la propiedad de que es cierta la siguiente expresion (obtenida sustituyendo cada x, por k, en la ecuacién): Ayky + agky +--+ gk, = b Se dice entonces que este conjunto de valores satisface la ecuacién. El conjunto de todas las soluciones se lama conjunto solucién, solucién general o, simple- mente, la solucién de ta ecuacién. Nota: Las nociones anteriores presuponen implicitamente que existe un orden entre las incdg- nitas. Con el fin de evitar los subindices, normalmente utilizaremos variables x, y, z para denotar tres incégnitas, x, y, z, t para denotar cuatro inedgnitas y x, y, 2, s, ¢ para denotar cinco incdgnitas, considerandolas ordenadas. EJEMPLO 1.1 a) La ecuacion 2x—Sy+3xz=4 no es lineal, porque el producto de dos incdgnitas es de segundo grado. 5) La ecuacién x + 2y~ 42 +1 = 3 es lineal en las cuatro incégnitas x, y, x, t. La 4-pla w= (3, 2, 1, 0) es una solucién de la ecuacion porque 3+2@)—4(1)+0=3 0 3=3 es una expresién cierta. Sin embargo, la 4-pla v= (1, 2, 4, 5) no es una solucion de ta ecuacién porque 142Q)-4(4)+5=3 0 -6 no es cierto, ECUACIONES LINEALES CON UNA INCOGNITA El siguiente resultado basico esta probado en el Problema 1.5. Teorema 1. Consideremos la ecuacién lineal ax = b. i) Sia #0, x =b/aes solucion tnica de ax = b. ii) Sia=0, pero b #0, ax = b no tiene solucién, iii) Sia=0 yb =0, todo escalar k es solucién de ax = b. EJEMPLO 1.2 a) Resolvamos 4x —1= x +6. ‘Trasponemos para obtener la ecuacién en forma convencional: 4x — ‘mos por 1/3 para obtener la solucién tinica x = 3 [Teorema 1.1 i). 6+163x= . Multiplica- SISTEMAS DE ECUACIONES LINEALES 3 5) Resolvamos 2x — 5 — x Reescribimos la ecuacién en forma convencional: x — ecuaci6n no tiene solucion (Teorema 1.1 ii). +3,0x— =348,00x=8. La ©) Resolvamos 4 +x —3=2x+1-x Reescribimos la ecuacién en forma convencional: x +1 =x +1, 0x—x escalar k es una solucién [Teorema 1.1 iii] 1=1, 0 0x =0. Todo ECUACIONES LINEALES DEGENERADAS Una ecuacién lineal se dice degenerada si tiene la forma Ox, + Ox, +++ + 0x, = b esto es, si cada coeficiente es igual a cero. La solucién de tal ecuacién se halla como sigue: Teorema 1.2: Consideremos la ecuacion lineal degenerada 0x, + Ox, + + + Ox, i) Si b¥0, la ecuacion no tiene solucién. ii) Si b=0, todo vector w= (ky, ka, «+5 ky) @s una solucién. Demostracion. i) Sea u= (Ky, Kay «+s ky) UN vector cualquiera. Supongamos b#0. Sustituyen- do w en la ecuacién obtenemos: < Ok, +0ky ++ +0K,=b 0 O0F04--4+0=b 0 O=b No es una expresi6n cierta porque 640. Por tanto, ningiin vector u es soluciom. ii) Supongamos b = 0. Sustituyendo u en la ecuacién obtenemos: Ok, + Ok, +--+ + Oky © 0404--+0=0 0 0=0 que es una expresién cierta. Por consiguiente, todo vector u en R" es una solucién, como se pretendia. EJEMPLO 1.3. Describir la solucién de 4y —x —3y +3=2+x—2xty41 La reescribimos en forma convencional agrupando términos y trasponiendo: yox+3=y-x43 0 y x-ytx=3-3 0 Ox +0) La eouacion ¢s degenerada con constante nula; por tanto, todo vector u = (a, 6) en R es una solucién ECUACIONES LINEALES NO DEGENERADAS. PRIMERA INCOGNITA Esta subseccién trata la solucién de una sola ecuacién lineal no degenerada con una o mas incégnitas, digamos yxy 4 yxy Ho + Xp 4 ALGEBRA LINEAL Por la primera incdgnita en tal ecuacién entendemos a primera con coeficiente no nulo. Su posicién p en la ecuacion es entonces el menor valor entero de j para el cual a, #0. En otras palabras, x, es la primera incognita si a, = 0 para j Lj. [Ex] Multiplicar la ecuacién i-ésima por un escalar no nulo k: kL; L;, k #0. [Es] Sustituir la ecuacion i-ésima por ella misma mas k veces la j-ésima: (kL) + L,)> Ly. SISTEMAS DE ECUACIONES LINEALES 9 En la practica efectuamos [E,] y [E,] en un solo paso, 0 sea, Ia operacién [E] Sustituir la ecuacin i-ésima por k (no nulo) veces ella misma mas k’ veces la j-ésima: (KL) + kL) > Ly, k #0 Lo anterior se enuncia formalmente en el siguiente teorema, probado en el Problema 1.46. Teorema 1.4: Supongamos que un sistema de ecuaciones lineales (#) se obtiene de otro (+) mediante una sucesion finita de operaciones elementales. Entonces (#) y (*) tienen el mismo conjunto solucion. Nuestro método para resolver el sistema de ecuaciones lineales [1.3] consta de dos pasos: Paso I. Usar las operaciones elementales anteriores para reducir el sistema a uno equivalente mis simple (en forma triangular o escalonada), Paso 2. Usar la sustitucién hacia atrés para hallar Ia solucién del sistema mas simple. Los dos pasos se ilustran en el Ejemplo 1.9. En cualquier caso, por razones pedagogicas, discutimos en detalle primero el Paso 2 en la Seccidn 1.5 y luego el Paso 1 en la Seccion 1.6. EJEMPLO 1.9, La solucién del sistema xt y- a= -4 5x4 Ly —2z= 22 3x— 2y+ 3r= Mf se obtiene como sigue: Paso I: Primero eliminamos x de la segunda ecuacién mediante la operaci6n elemental (—SLy + La) Lay esto es, multiplicando L, por —5 y sumandola a L,; entonces eliminamos x de la tereera ecuacion Sfectuando la operacion elemental (—3L; + L) + Ly, es decir, multiplicando L, por ~3 y sumandola @ Ly 5x Ly: —Sx—10y+202= 20 3x Ly: —3x— by + 122 = 12 Ly _Sx+ly-2z=-2 Jy: _3x—2y+ 32a nueva La? yo f= 2 nueva Ly: = By + 152 = 23 Por tanto, el sistema original es equivalente al sistema x+2y— 4o=—4 yo z=-2 ty + 1S2= 23 ‘A continuacién eliminamos y de la tercera ecuacién aplicando (8L7 + L,) +> Ls, esto es, multiplicando L, por 8 y sumandola a L3: 8x1, ay 8 = 16 Ly: ~8y+15e= 2B nueva Ly: t= 7 i i 10 ALGEBRA LINEAL Por consiguiente, obtenemos el siguiente sistema triangular equivalente: x4 2y—4z— 4 yr r= 72 a= 7 Paso 2. Ahora resolvemos el sistema triangular mas simple mediante sustitucién hacia atras. La tercera ecuacién da z = 1, Sustituimos z= 1 en la segunda ecuacién obteniendo -2 0 Ahora sustituimos z = 1 e y= —1 en la primera ecuacién para obtener x4+2(-1)-4(I)=-4 0 x-2-4 0 x-6=-4 0 x=2 Entonces x = sistema dado, y= —1, z=, 0, en otras palabras, la terna ordenada (2, —1, 1) es la solucién tinica del El anterior algoritmo de dos pasos para resolver un sistema de ecuaciones lineales se denomina eliminacién gaussiana, El siguiente teorema se utilizaré en el Paso 1 del algoritmo. Teorema 1.5: | Supongamos que un sistema de ecuaciones lineales contiene la ecuacion degenerada L: Ox, + 0x, +++ + 0x, =b 4) Si b=0, L puede suprimirse del sistema sin alterar el conjunto solucién. b) Si b#0, el sistema no tiene solucién. Demostracién, Se obtiene directamente del Teorema 1.2. Esto es, la parte a) se obtiene del hecho de que todo vector en R" es solucién de L,, y la parte b) del hecho de que L no tiene solucién y por tanto tampoco la tiene el sistema. 1.5. SISTEMAS EN FORMA TRIANGULAR Y ESCALONADA Esta seccidn considera dos tipos simples de sistemas de ecuaciones lineales: sistemas en forma triangular y el caso més general de sistemas en forma escalonada. FORMA TRIANGULAR Un sistema de ecuaciones lineales est en forma triangular si el niimero de ecuaciones es igual al ntimero de incégnitas y si x, es 1a primera incdgnita de la k-ésima ecuacién. Por tanto, un sistema de ecuaciones lineales triangular tiene a forma siguiente: BX Faraz tt Be Matt Oa % AaaX2 Fo + aX t any seen aaa (4) y— $.n—1Xn—1 + Opt, Xn = yy Gn Xu = Dy donde ayy 40, a2 £0, +s yg £0. SISTEMAS DE ECUACIONES LINEALES 11 El sistema de ecuaciones lineales triangular anterior tiene una solucion Gnica, que puede cobtenerse mediante el siguiente procedimiento, conocido como sustitucién hacia atras. Primero, resolvemos la ultima ecuacion para la ultima incdgnita, x,: Segundo, sustituimos este valor de x, en la peniiltima ecuacién y la resolvemos para la peniltima incognita, x,_1! = Gn~1, nb x/ ean) Byte Tercero, sustituimos estos valores de x, y X,-1 en la antepeniiltima ecuacién y la resolvemos para la antepeniiltima incdgnita, x, 2: bens = (Onna, i/ y= 1.n— Pam 1 — Bn~ 1,1(Pal an) — (n= 2, 0/ Gand p20? En general, determinamos x; sustituyendo los valores previamente obtenidos de xq. X,—15 - Xk en la ecuacion k-ésima ecuacion: x XL ten Xn actu El proceso finaliza cuando hemos determinado x,. La solucién es iinica puesto que, en cada paso del algoritmo, el valor de x, esta, por el Teorema 1.1 i), univocamente-determinado. EJEMPLO 1.10. Consideremos el sistema dxe+4y—- = i Syt z= 2 = -9 Como el sistema esta en forma triangular, puede resolverse mediante sustitucién hacia atras. 3 i) La Ghima ecuacién proporciona z ii) Sustituimos en la segunda ecuacion para obtener Sy— 3 =2 6 Sy iii) Sustituimos z = —3 ¢ y= 1 en Ia primera ecuacién para obtener dxt4)-(-3= 1 0 xt443=11 0 2x i S Entonces el vector w = (2, 1, —3) es la soluci6n tinica del sistema. 12 ALGEBRA LINEAL FORMA ESCALONADA. VARIABLES LIBRES Un sistema de ecuaciones lineales esta en forma escalonada si ninguna ecuacién es degenerada y la primera incognita de cada ecuacién esté a la derecha de la primera incognita de la ecuacion anterior. El paradigma es: 41% + aya Xp + Gy3X3 + ayy Xy +> 92), %j2 + 92, pri%pasi t* 15) rj, Xi + Op, ipa Xen Hoe donde 1 1, efectuar la operacién (Seccién 1.4) (Esk (ual; + LiL; 0 (EE anh + abi Paso 3, Examinar cada nueva ecuacién L: a) Si L tiene la forma Ox, + 0xz ++ +0x,=0 0 si es un miltiplo de otra ecuacion, suprimirla del sistema. b) Si L tiene la forma Ox, + 0x; + ~~ +0, =b con b #0, abandonar el algoritmo. El sistema no tiene solucion. Paso 4. Repetir los Pasos 1, 2 y 3 con el subsistema formado por todas las ecuaciones, excluyendo la primera. Paso 5. Continuar el proceso anterior hasta que el sistema esté en forma escalonada, o hasta que se obtenga una ecuacién degenerada en el Paso 3b). La justificaci6n del Paso 3 esta en el Teorema 1.5 y en el hecho de que si L = kL’ para alguna otra ecuaci6n L'en el sistema, la operacién —kL’ + LL sustituye L por Ox, + 0x2 +++ + 0%_= 0. que podra ser de nuevo eliminada segin el Teorema 1.5 14 ALGEBRA LINEAL EJEMPLO 1.12 a) b) ) El sistema xt yo2e=10 3x+2y+22= 1 Sxtdy+3c= 4 se resuelve reduciéndolo primero a forma escalonada. Para eliminar x de las ecuaciones segunda y tercera efectuamos las operaciones ~3L, +2L, +L, y —SL + 2L,> Ly: =3Ly: -6x—3y+ 62 = —30 =SLy: —10x — Sy + 102 = —50 Dy: Ox t+4yt Ac= 2 2Ly: l0x+8y+ 6e= 8 =3L, + Ly: y+ 102 =—28 =5L, + 2: By + 1 = 2 Esto proporciona el siguiente sistema, en el que y se elimina de la tercera ecuacion mediante la operacién —3L, + Ly > Ly: w+y- 2= 10) 2xty- w= 10 y+ z= —28¢ + y+ 102 = —28 3y + 162 = —42) -Me= 42 EI sistema esti ahora en forma triangular. Por consiguiente, podemos utilizar Ia sustitucién hacia atras para obtener la solucién iinica u = (1, 2, ~3), El sistema x+2y— 3z=1 2x+5y— Brad 3x4 By— 13257 se resuelve reduciéndolo primero a forma escalonada. Para eliminar x de las ecuaciones segunda y tercera efectuamos —2L, +L, Lz y —3L, + Ly Ly para obtener x42y-3e—1 wai yoda? —- 2y—42=4 x (La tereera ccuacién se suprime puesto que es un miéltiplo de la segunda.) EI sistema est ahora en forma escalonada con variable libre z. Para obtener la solucién general hacemos 2 = a y resolvemos por sustitucién hacia atrés. Sustituimos z= en la segunda ccuacién para obtener y = 2+ 2a. A continuacién sustituimos z = a e y =2 + 2a en Ia primera ecuacion para obtener x + 2(2 + 2a)—3a=1 0 x= —3—a. Entonces la solucion general es = 3a ya242, 3-a,2+2a, a) donde a es el pardmetro. El sistema x+2y—32=-1 3x— yt2e= 7 Sx+3y—4:= 2 SISTEMAS DE ECUACIONES LINEALES 15. se resuelve reduciéndolo primero a forma escalonada. Para eliminar x de las ecuaciones segunda y ter- tera efectuamos las operaciones —3L, +L, +L) ¥ —SL1 + Ly ~ Ls para obtener el sistema equivalente x¢2y- eal —Ty+1lz= 10 —Ty+ize= 7 La operacién —L, + Ls + Ly conduce a la ecuacién degenerada Ox + Oy +02 = Entonces el sistema no tiene solucion. El siguiente resultado basico se menciond previamente, Teorema 1.7: Cualquier sistema de ecuaciones lineales tiene: i) una Gnica solucion, ii) ninguna solucién, o iii) un nimero infinito de soluciones. Demostracién. Aplicando el algoritmo anterior al sistema podemos bien reducirlo a forma escalonada, o bien determinar que no tiene solucién. Si la forma escalonada tiene variables libres, entonces el sistema tiene un némero infinito de soluciones. Nota: Se dice que un sistema es compatible si tiene una 0 mas soluciones [Casos i) 0 iii) en el Teorema 1.7], y se dice que es incompatible si no tiene solucién [Caso ii) en el Teorema 1.7]. La Figura 1-3 ilustra esta situacion ame | Ninguna Solucién Niimero infinito solueion ‘nica de soluciones Figura 1-3. 1.7. MATRICES Sea A una tabla ordenada de nimeros como sigue: ai 16 ALGEBRA LINEAL La tabla A se denomina matriz. Tal matriz se denota pot A= (ay), i= 1, --..m,j= 1 simplemente A = (a,,). Las m n-plas horizontales (yas yas oess @ga)s (days Gazy 204 Gan)o oes mrs ina +++» Onin) son las filas de la matriz, y las n m-plas verticales ay1\ fare! Gn) 21 | | a2 an x \dmif en o con sus columnas. Nétese que el elemento a,» llamado la entrada ij 0 la componente ij, aparece en la fila i-ésima y en la columna j-ésima. Una matriz con m filas y n columnas se Hama matriz m por n, 0 matriz m x n; el par de nimeros (m, n) se lama su tamario. 1-3 0 5 (0, 5, —2); sus columnas son L =3) 4 0,5, -2% 8 i) (meg il La primera entrada no nula en una fila R de una matriz A se llama la entrada principal no nula de R. Si R no tiene entrada principal no nula, es decir, si toda entrada en R es 0, R se denomina una fila nula. Si todas las filas de A son nulas, es decir, si toda entrada en A es 0, A se lama la matriz cero, denotada por 0. a EJEMPLO 1.13. Sea 4 -( ) Entonces A es una matriz 2 x 3. Sus filas son (1, —3, 4) y MATRICES ESCALONADAS Una matriz A se denomina matriz escalonada, 0 se dice que est en forma escalonada, si se cumplen las dos condiciones siguientes: i) Todas las filas nulas, si las hay, estan en la parte inferior de la matriz. ii) Cada entrada principal no nula est4 a la derecha de la entrada principal no nula de la fila precedente Esto es, A = (a,;) es una matriz escalonada si existen entradas distintas de cero Ay, Qajy ev dys — donde jy r En este 480, dj...» dy, Son las entradas principales no nulas de A. SISTEMAS DE ECUACIONES LINEALES 17, EJEMPLO 1.14. Las siguientes son matrices escalonadas cuyas entradas principales no nulas se han rodeado con un circulo: ae 3 oo 4 5 Nig 2 3\ i Oo 3 9 0 3 a 2 ‘ 9 7 Q om o @\lo -o Oo. 0 -3 8 0 0 o/\o 0 0 2 Org momen Pa get a, mw © Se dice que una matriz escalonada A se ha puesto en forma canénica por filas si tiene las dos propiedades adicionales siguientes: iii) Cada entrada principal no nula es 1 iv) Cada entrada principal no nula es la tnica entrada distinta de cero en su columna. La tercera matriz de arriba es un ejemplo de matriz en forma candnica por filas. La segunda no esté en dicha forma porque la entrada principal no nula en la segunda fila no es la nica entrada distinta de cero en su columna; hay un 3 sobre ella. La primera matriz tampoco esta en forma candnica por filas puesto que algunas de las entradas principales no nulas no valen 1 ‘La matriz cero, 0, con cualquier nimero de filas y de columnas, es otro ejemplo de matriz en forma candnica por filas. 1.8. EQUIVALENCIA POR FILAS. OPERACIONES ELEMENTALES ENTRE FILAS Se dice que una matriz A es equivalente por filas a otra B, escrito A ~ B, si B puede obtenerse a partir de A mediante una sucesién finita de las siguientes operaciones, llamadas operaciones elementales entre filas: {E,] Intercambiar las filas i-ésima y j-esima: R, > Ry, [£3] Multiplicar la fila i-ésima por un escalar no nulo k: KR, Ri, k #0. [£3] Sustituir la fila i-ésima por ella misma mas k veces la j-ésima: KR, +R; > Ry En [a practica efectuamos [£3] y [Es] en un solo paso, es decir, la operacion [E] _ Sustituir la fila i-sima por k (no nulo) veces ella misma mis k’ veces Ta j-ésima: KR, +kR,> Ry k #0 Sin duda, el lector reconocera la similitud entre las operaciones anteriores y las utilizadas para resolver sistemas de ecuaciones lineales. El siguiente algoritmo reduce por filas una matriz A a forma escalonada. (La expresion «ceducir por filas> 0, simplemente, «reducit» significara transformar una matriz mediante operaciones elementales entre filas.) Algoritmo 1.84 Aqui A= (a,) es una matriz arbitraria. Paso I. Encontrar la primera columna con una entrada no nula. Supongamos que es la columna j,. 18 ALGEBRA LINEAL Paso 2. Intercambiar las filas de forma que aparezca una entrada no nula en la primera fila de la columna jj, esto es, conseguir que a,,, # 0. Paso 3. Utilizar a,;, como pivote para obtener cero bajo él; esto es, para cada i> | efectuar la operacién entre filas ~ay,R, + ay, Ry > R, 0 (—ay,/ay,)Ry + Ry > Ry. Paso 4, Repetit los Pasos 1, 2 y 3 con la submatriz formada por todas las filas, excluyendo la primera. Paso 5. Continuar el proceso anterior hasta que la matriz quede en forma escalonada, 1 2-3 0 EJEMPLO 1.16. La matriz 4={2 4 —2 2 Jse reduce a forma escalonada mediante el Algo- ritmo 1.8A como sigue: an: Utilizamos a1 = 1 como pivote para obtener ceros bajo a,,, esto es, efectuamos las operaciones entre filas —2R, + Ry -» Ra y —3R, + Ry Ry para obtener la matriz 1 2-3 ol 0 0 4 2 o 0 5 3, Ahora utilizamos a, = 4 como pivote para obtener un cero bajo as, esto es, efectuamos la operacién entre filas —5R + 4R, — Ry, obteniendo la mattiz 1 2-3 0 . 0 0 4 2 0 0 0 x La matriz esté ahora en forma escalonada. El siguiente algoritmo reduce por filas una matriz escalonada a su forma candnica por filas. Algoritmo 1.8B Aqui A = (a) esta en forma escalonada, digamos con entradas principales no nulas Bijs Aris + ys, Paso I. Multiplicar la éltima fila no nula R, por L/a,, de forma que la entrada principal no nula sea 1. Paso 2. Utilizar a,,,=1 como pivote para obtener ceros sobre él; esto es, para i r—2,..., 1, efectuar la operacin 1, —a,,R, +R, > R, Paso 3. Repetir los Pasos | y 2 para las filas R,_,, R,-», Paso 4. Multiplicar Ry por Ia,,,. SISTEMAS DE ECUACIONES LINEALES 19. EJEMPLO 1.16. Utilizando el Algoritmo 1.8B, la matriz escalonada 2 o 0 se reduce a forma candnica por filas como sigue: Multiplicamos Ry por $ An cow cou ous one 345 6 0325 0004 de forma que su entrada principal no nula sea 1; entonees utilizamos a3 = 1 como pivote para obtener ceros sobre él efectuando las operaciones —SR, + Ry > Ry y —6Rs + Ri Ry: 6) (23450 s}~{o 03.20 J \o 0001, ‘Multiplicamos R, por § de modo que su entrada principal no nula sea 1; entonces utilizamos a,, = 1 como pivote para conseguir un 0 encima, con la operacion —4R, + Ry + Riz 2345 A~{o 01 % 0000 Finalmente, multiplicamos R, por 4 obteniendo 1 3 00 0 0 oo) (2305 0 o}~(o o 1 30 i) \o ooo, a) 170 001, Esta matriz es la forma canénica por filas de A. Los Algoritmos 1.8A y 1.8B muestran que cualquier matriz es equivalente por filas a al menos una matriz en forma candnica por filas. En el Capitulo 5 demostraremos que tal matriz es iinica, esto es: Teorema 1.8: Cualquier matriz. A es equivalente por filas a una tinica matriz en forma candnica por filas (llamada la forma candnica por filas de A). Nota: Si una matriz A esta en forma escalonada, sus entradas principales no nulas se denominaran entradas pivote. El termino proviene del algoritmo anterior que reduce por filas una matriz a forma escalonada. 1.9. SISTEMAS DE ECUACIONES LINEALES Y MATRICES La matriz ampliada M del sistema [1.3] de m ecuaciones lineales con n incdgnitas es la siguiente: ain by by My a2 2, aay a2 20 ALGEBRA LINEAL Obsérvese que cada fila de M corresponde a una ecuacién del sistema y cada columna a los coeficientes de una incognita, excepto la iiltima, que corresponde a las constantes del sistema. La matriz de coeficientes A del sistema [1.3] es 41 M2 + 2, ag ay A Gq Gm ss Notese que la matriz de coeficientes A puede obtenerse de la ampliada M omitiendo su éltima columna. Un sistema de ecuaciones lineales puede resolverse trabajando con su matriz ampliada. Especificamente, reduciéndola a forma escalonada (lo que nos dice si el sistema es compatible) y luego a su forma canénica por filas. La justificacién de este proceso proviene de los siguientes hechos: 1, Cualquier operacién elemental entre filas en 1a matriz ampliada M del sistema es equivalente a efectuar la operacién correspondiente en el sistema mismo. El sistema tiene soluci6n si y sélo si la forma escalonada de la matriz ampliada no tiene una fila de la forma (0, 0, ..., 0, 6) con b #0. 3. En la forma canénica por filas de la matriz ampliada M (excluyendo filas nulas) el coeficiente de cada variable no libre es una entrada principal no nula igual a uno y es la Gnica entrada distinta de cero en su columna; de aqui la solucién en forma de variables libres se obtiene simplemente transfiriendo los términos de variable no libre al otro miembro. Este proceso se ilustra en el siguiente ejemplo. EJEMPLO 1.17 a) El sistema xt yo2t4r=5 Wx+2y—3e+ t=3 3x4 3y—4e—2tel se resuelve reduciendo su matriz ampliada M a forma escalonada y después a forma canénica por filas como sigue: boi -2 4 S\ ft 1-2 4) 8) 1 ot 0 -10 ~ M=(2 2-3 1 aj-(o 0 1 -7 -J~() 5? eae 3-3-4 -2 1f \o 0 2 -16 -¥ {La tercera fila (en la segunda matriz) se suprime, puesto que es un miltiplo de la segunda y resultaré una fila nula,] Asi la solucién general en forma de variables libres del sistema es como se indica a continuacién: x+y =108=-9 x= -9—y+ 100 r- t=-7 741 Aqui las variables libres son y y 1, y las no libres x y 2. SISTEMAS DE ECUACIONES LINEALES 21 b) El sistema xt X,— 2x tx n4 2x, + 3x, +3x)— 14=3 Sx, + 7x; +4xy3+ x4 =5 se resuelve como sigue. Para empezar, reducimos su matriz ampliada a forma escalonada: 4 1-2 3 4) fi 2-2 3 4 ft 1-2 3 4 M=(2 3 3-1 3}~{o 1 7 -7 -s}~{o 1 7 -7 -S s 7 4 1 3/ \o 2 t4 -14 15/ \0 0 0 0 -5 No hay necesidad de continuar para hallar la forma canénica por filas de la matriz, puesto que la matriz esealonada ya nos indica que el sistema no tiene solucién. Especificamente, la tercera fila en Ia escalonada corresponde a la ecuacion degenerada Ox, + Ox, + 0x3 + Oxy = que no tiene solucién. ©) El sistema xt2yti= 3 2x +Sy—z= 4 Bx-2y-z= 5 se resuelve reduciendo su matriz ampliada a forma escalonada y Iuego a forma canénica por filas como sigue’ 1 2 2 a) ft 2 1° 3) fp 2 1 BD M=(2 5 -1 -4]~(o0 1 -3 -10}~(o 1 -3 -10)~ 3-2 -1 3/ \o -8 -4 -4/ \o 0 -28 84 1 2 1 3) fp 2 0 WN ft 0 0 2 ~{o 1 -3 -10)~fo 1 0 -1}~{o 1 0 -1 o o 1 3 \o o 1 3 lo Oo 4 Y De este modo, el sistema tiene la solucién nica x =2, y= —1, 2=3 0 w= (2, —1, 3). (Notese que la forma escalonada de M ya indicaba que la solucién era tnica, puesto que correspondia a un sistema triangular.) 1.10. SISTEMAS DE ECUACIONES LINEALES HOMOGENEOS Se dice que el sistema de ecuaciones lineales [1.3] es homogéneo si todas las constantes son iguales cero, esto es, si tiene la forma Oy1Xy + 412 %2 $ °° + yg X, =O aan + G,2X2 + °° + Gz_X, =O 16 + Oyen Xp ‘De hecho, [1.6] se denomina el sistema homogéneo asociado con el sistema [1.3]. Ay X + Smo Xo + 22 ALGEBRA LINEAL E| sistema homogéneo [1.6] siempre tiene una solucién, a saber, la n-pla nula 0 = (0, 0, ..., 0) lamada Ia solucién nula o trivial. (Cualquier otra solucién, si existe, se denomina solucién no nula © no trivial.) Siendo asi, el sistema siempre puede reducirse a uno homogéneo equivalente en forma escalonada: yy Xy + yp Xq + yy X3 °° + yy X, =O BajaXjz t+ Ga, jraiXjti t+ AagX%q_ =O (1.7) 1, Xj, + Oe, 4p HO + Oy Ky =O Existen dos posibilidades: i) r=n. En tal caso, el sistema tiene solo la solucién nula, ii) r r=1, y el Teorema 1.1 cuando 1. De este modo, el teorema es valido para r= 1. ‘Ahora supongamos que r > I y que el teorema es vilido para un sistema con r— | ecuaciones. Podemos ver las r — 1 ecuaciones aj, Xj, 4 Ga, js iX pon t+ ManXy = ba Xj, + je Ren FF Om hy Dy 28 ALGEBRA LINEAL 1.14, * ii) Sustituimos como un sistema con incognitas x,,, .... ¥,, Notese que el sistema esta en forma escalonada. Por la hipotesis de induccion, podemos asignar arbitrariamente valores a las (1 — ja + 1) — (* — 1) varia~ bles libres en el sistema reducido para obtener una solucién (digamos x), =k). ..., X= hy). Como en el caso r= |, estos valores, junto con valores arbitrarios de las j, — 2 variables libres adicionales (digamos x3 —1), conducen a una solucion de la primera ecuacién con (by = ak, = Aigky) [Obsérvese que hay (1 — j, + 1) — (r= 1) + (jy — 2) = n =r variables libres.] Ademis, estos valores para x,,...,%, también satisfacen las otras ecuaciones ya que, en éstas, los coeficientes de Xs eee Xj, SON nos. Ahora, si r=n, entonces j, = 2. Asi obtenemos, por induccién, una solucién imica del sub- sistema y por ende una solucién Gnica del sistema completo. De acuerdo con esto, el teorema queda demostrado. Hallar la solucién general del sistema escalonado x—2y—324+5s—2= 4 2 6s+3= 2 5t=10 Como las ecuaciones empiezan con las incgnitas x, z y t, respectivamente, las restantes, y y s, son las variables libres. Para encontrar lu solucidn general asignamos pardmetros a las variables libres, digamos y =a y s = b, y utilizar sustitucién hacia atras para despejar las variables no libres x, 2 y i) La Gitima ecuacién conduce a 1 2, s = ben la segunda ecuacién para obtener 22 — 6b + 312) 0 22 6b +6 0 %2=6b-4 0 iii) Sustituimos = 2, 5 = b, z =3h—2, y =aen la primera ecuacién para obtener X= 2a—3(3b—2)4+5b-22)=4 09 x—2a-9h+645b—-4=4 0 x=2at4h42 Asi 3b-2 2a+4b+2 ya 2=3b-2 s=b ¢ ©, equivalentemente, Qa + 4b +2, a, 3b—2, b, 2) es la forma paramétrica de la solucién general Alternativamente, despejar x, z y t en funcién de las variables libres y y s proporciona la solucién general en forma de variables libres: Qyt4s+2 z=3s-2 tH 2 SISTEMAS DE ECUACIONES LINEALES. ELIMINACION GAUSSIANA. 1.15. Resolver el sistema x-d+ re 7 2x — y+42=17 3x—2y +22 = 14 1.16 1.17. 1.18. SISTEMAS DE ECUACIONES LINEALES 29 Lo reducimos a forma cscalonada. Efectuamos —2L, +L7—>Ly y ~3L;+L3>Ls para climinar x de las ecuaciones segunda y tercera y a continuacién efectuamos —4L3 + 3L3—> Ly para climinar y de la tercera ecuacidn. Estas operaciones conducen a x-2yt z= 7 x-tyt z= 7 Byt2z= 3 oy Byt ee 3 4y— z=-7 — z= -33 EI sistema esti en forma triangular y por tanto tras la sustitucin hacia atris, tiene la solucion nica w= (2, —1, 3). Resolver el sistema 2x Sy+32—4s+20= 4 3x— Ty+22-Ss+4r= 9 5x — ly — 524s + Tt = 22 Lo reducimos a forma escalonada. Efectuamos las operaciones —3L, +2L,+L, y ~5L, + 2Ly>L5 y luego —SL, +L, +L; para obtener x Syt 32— 4s + 2= 4 2x—Sy+32—4st2— 4 yr St +H= 6 y y-Sst2s+2= 6 Sy — 252 + 128 + 40 = 24 2s 6t= —6 El sistema esta ahora en forma escalonada. Despejando las primeras incdgnitas, x, yy s, en términos de las variables libres, 2 y f, obtenemos la solucién general en forma de variables libres: < x=2+1lz—15r ya i2+5z2—-81 s=—343t De ésta se obtiene de una vez la forma paramétrica de Ia solucién general (con =264+Mla—15b y=1245a—8b za s=—343b 0 t=b Resolver el sistema x+ Qy—324+40=2 Qxt+ Sy-2et+ t=1 Sx + 12y— Tz + 6t=7 Reducimos el sistema a forma escalonada, Eliminamos x de las ecuaciones segunda y tercera mediante las operaciones —2L, +L; > Ly ¥ —SLy + Ly +L; esto proporciona el sistema x+2y—3r4 d= 2 y+ae— = 3 2y + 82— lat = -3 La operacién —2L, + Ly Ly proporciona la ecuacién degenerada 0 = 3. Siendo asi, el sistema no tiene solucién (incluso a pesar de tener més incognitas que ecuaciones), Determinar los valores de k para que el siguiente sistema, con incdgnitas x, y, 2, tenga: i) una solucién tinica, ii) ninguna solucién, iii) infinitas soluciones. x+ yo ze 2x + By + ke xt ky +3y=2 30 ALGEBRA LINEAL Reducimos el sistema a forma escalonada. Eliminamos x de las ecuaciones segunda y tercera mediante las operaciones —2L, +L, L, y —Ly + Ly —> Ly para obtener xt yo zal yrk+Qe=t &— Dy + 4: Para eliminar y de la tercera ecuacion efectuamos Ia operacion —(k~1)Ly +Ly—>Ly para obtener 1 xty- zel y+ k+22=1 @G4+W2-kz=2-k EI sistema tiene solucién Gnica si el coeficiente de z en la tercera ecuacién es distinto de cero; esto es, sik #2 y k # —3. Enel caso k = 2, la tercera ecuacion se reduce a 0 = 0 y el sistema tiene un nimero infinito de soluciones (una para cada valor de z). En el caso k = —3, la tercera ecuacion se reduce a 0 = 5 y el sistema no tiene solucion. Resumiendo: i) k #2 y k #3, ii) k= —3, iii) k= 2, 1.19. {Qué condicién debe imponerse a a, b y ¢ para que el siguiente sistema, con incégnitas x,y y 2, tenga solucién? .: xhly- 32-4 2x + 6y— Lz =b x—2y+ Te=c Reducimos el sistema a forma escalonada. Eliminando x de las ecuaciones segunda y tercera mediante las operaciones —2L, +L, -+L, y ~L, + Ly Ly obtenemos el sistema equivalente: x+2y— 3220 2y— Sz=b-—2a —4y+ l0z=c—a Eliminando y de la tercera ecuacién mediante la operacién 2) + Ly —+ Ly obtenemos finalmente cl sistema equivalente x+2y-32=0 2y—Sz=b-2a O=c+2b—5a El sistema no tendra solucién sic + 2b — Sa # 0. Asi el sistema tendré al menos una solucién si ¢ + 2b — Sa =0, 0 Sa = 2b + c. Obsérvese que en este caso el sistema tendré infinitas soluciones. En otras palabras, el sistema no puede tener solucion nica MATRICES. MATRICES ESCALONADAS. REDUCCION POR FILAS. 1.20, Intercambiar las filas én cada una de las matrices siguientes para obtener una matriz escalonada: oO 1-3 4 6 0 0 0 0 oO Ont m2 2 4° 0 2 5 -3 1 2 3 4 5 o 3 1 0 0 o 0 7-2 8 \0 0 5 -4 7 o 0 0 0 4 124, 1.22. 1.23, SISTEMAS DE ECUACIONES LINEALES 31 2) Intercambiamos las filas primera y segunda, es decir, efectuamos la operacion elemental entre filas Ry ++ Ry. 1b) Llevamos la fila nula a ta parte inferior de la matriz, es decir, efectuamos la operacion R, +R y luego Ry = Ry ©) Ningun nimero de intercambios de filas puede producir una matriz escalonada. Reducir por filas la siguiente matriz a forma escalonada: 1 2-3 oO A=|2 4-2 2 3 6 -4 3 Utilizamos a,, = 1 como pivote para obtener ceros bajo él; esto es, efectuamos las operaciones centre filas —2R, +R, R; ¥ —3R, + Ry > Rs para obtener la ma 1 2-3 0 0 0 4 2 09 0 5 3 Ahora utilizamos ay = 4 como pivote para obtener un cero bajo él; esto es, efectuamos la operacion entre filas —5R, + 4R,— Ry para obtener la matriz que esta en forma escalonada, Reducir por filas la siguiente matriz a forma escalonada: -4 1 -6 B 1 2-5 6 3 4) Los célculos manuales suelen ser mas simples si el elemento pivote es igual a 1. Por consiguiente, primero intercambiamos Ry y Ra; luego efectuamos 4R, + Ry» R; y ~6R, + Ry Rss y entonces efectuamos R, + Ry > Ry 1 2-5) fi 2 -s\ ft 2-3 B~(-4 1°-6]~{o0 9 -26]~(0 9 -26 6 3 -4/ \o -9 2/ \o 9 4g, La matriz estd ahora en forma escalonada. Describir el algoritmo de reduccién por filas pivotando. Ademés, describir las ventajas, si las hay, de utilizar este algoritmo. El algoritmo de reduccién por filas se convierte en un algoritmo de pivotar si la entrada de mayor valor absoluto en la columna j se clige como el pivote ay,, y si se utiliza la operacion entre filas (Hay Jay, Ri + RR, 32 ALGEBRA LINEAL La principal ventaja del algoritmo de pivotar es que la operacién entre filas anterior s6lo implica division por el pivote ay,, y en las computadoras los errores de redondeo pueden ser sustancial- mente reducidos cuando se divide por un mimero tan grande en valor absoluto como sea posible. 1.24, Usar el algoritmo de pivotar para reducir la siguiente matriz A a forma escalonada: 2-202 2 A=|-3 6 0 =1 1-7 10 2, Primero intercambiamos R, y R; de modo que —3 pueda ser utilizado como el pivote y entonces efectuamos @)R, +R +R, y G)R, + Ry > Ry’ -3 6 0 -1\ /-3 6 0 -1 A~{ 2-2 2 1)~[ 0 2 2 4 1-7 0 3 0-5 0 § Ahora intercambiamos R, y Ry de modo que —5 pueda ser utilizado como el pivote y efectuamos @R, + Ry > Ry -3 6 o -1\ /-3 6 oO -1 An{ 0 -5 10 $]~{ 0 -5 10 § o 2 2 4 0 0 6 1 Se ha levado la matriz a forma escalonada, FORMA CANONICA POR FILAS 1.25, {Cuales de las siguientes matrices estan en forma candnica por filas? 12-3 0 1 o 1 7-5 0} 1 0 5 0 2 0 0 5 2-4 o 0 0 oO 1 O 1d to 4 o 0 0 7 4 o 0 0 O 4g o oo 0 1 4 La primera matriz no esta en forma candnica por filas puesto que, por ejemplo, dos de las entradas principales no nulas son 5 y 7 en lugar de 1. Ademés, hay entradas distintas de cero sobre las entradas principales no nulas 5 y 7. Las matrices segunda y tercera estan en forma canonica por filas. 1.26. Reducir la siguiente matriz a forma canénica por filas: 1.27. SISTEMAS DE ECUACIONES LINEALES 33 Primero reducimos B a forma escalonada efectuando —2R, + R:+Rz y —3R) + Rs Rs ¥ entonces —R, + Rs + Ry yb 2-1 6 4) (2 2-1 6 4 s~(o 0 3-2 5}~fo 9 3-2 5 o o 3 2 7 \o 0 0 4 4 'A continuacién reducimos la matriz escalonada a forma canénica por filas. Especificamente, multiplicamos primero Ry por 3, de modo que el pivote sea bs, = 1. y entonces efecruamos 2Ry +R Rz y —6Rs + Ri + Ry > 2-1 6 4) f2 2-1 0 2D p~(o o 3 -2 5}~fo 9 3 0 6 o 0 o 1 ¥ lo 09 0 1 4 Ahora multiplicamos R, por 4, haciendo el pivote Finalmente, multiplicamos R, por 4 para obtener la forma canénica por filas Reducir la siguiente matriz a forma canonica por filas: 1-2 3 1 2 A={1 1 4 -1 3 2 5 9 -2 8 Primero reducimos A a forma escalonada efectuando —R, +R2—>Rz y —2R, +Rs~Rs ¥ entonces efectuando —3R2 + Rs > Rs 4-2 3 t 4A ft -2 3 1 2 a~(o 3. 1-2 t]~fo 3 1-2 2 o 9 3 -4 4 \o 0 06 2 4 [Ahora utilizamos sustitucién hacia atrés. Multiplicamos R, por £ para obtener el pivote as = 1 y entonces efectuamos 2R; + Ry > Ra ¥ —Ry + RyRy 1-2 3 2 A ft -2 3 0 F a~{o 3 1-2 I]~fo 3 1 0 2 o o o 1 ¥ lo oO O 1 4 34 ALGEBRA LINEAL Ahora multiplicamos R, por } para obtener el pivote ay, yentonces efectuamos 2R, +R, + Ry: 1-2 3 0 #) f1 o ¥ oF gi A~fo 1 $ 0 Jxfo 1 4 0 3 o o o 1 4 Yo 0 0 1 4 Como ay; = 1, la dltima matriz es Ja forma candnica por filas deseada 1.28. Describir el algoritmo de eliminacién de Gauss-Jordan, que reduce una matriz arbitra- ria A a su forma canénica por filas. El algoritmo de Gauss-Jordan es similar al de climinacién gaussiana, salvo que aqui primero se normaliza una fila para obtener un pivote unidad y a continuacién se utiliza el pivote para situar eros tanto debajo como encima de él antes de obtener el pivote siguiente. 1.29. Utilizar la eliminacién de Gauss-Jordan para obtener la forma can6nica por filas de la matriz del Problema 1.27. Usamos la entrada principal no nula a,, = 1 como pivote para poner ceros debajo, efectuando Ry + RyRy y ~2Ry + Rs > Ry; esto proporciona Multiplicamos R, por } para conseguir el pivote a3, = 1 y obtenemos ceros encima y debajo de a;5 efectuando —9R; + Ry +R; y 2Ry + Ry > R, iL ee a i 2 1 0 Y fg A~fO 1 4-4 S)~fo 1 4 -3 4 o 9 3-4 4/ \» 0 0 2 4 Por iltimo, multiplicamos R, por 4 para conseguir el pivote ayy = efectuando ()Ry + Ry +R, y G)Rs + Ry +R, 1 0 # -$ 8) ft + A~{O 1 4 -$ df~fo 1 4 0 4 o o o 1 3 \o o 0 y obtenemos ceros sobre ay, 1.30. Se habla de «una» forma escalonada de una matriz A y de «la» forma canénica por filas de A. {Por qué? ‘Una matriz arbitraria A puede ser equivalente por filas a muchas matrices escalonadas. Por el contrario, con independencia del algoritmo utilizado, una matriz 4 es equivalente por filas a una ‘inica matriz en forma canénica por filas. (El término «andnico» usualmente connota unicidad.) Por ejemplo, las formas canénicas por filas de los Problemas 1.27 y 1.29 son iguales. SISTEMAS DE ECUACIONES LINEALES 35 1.31. Dada una matriz escalonada n x n en forma triangular, Ce ee Oday ays Gaye Oa A=| 0 0 ay3 con todos los a,, #0, hallar la forma canénica por filas de A. Multiplicando R, por 1/aqe ¥ utilizando el nuevo dyy = 1 como pivote obtenemos la matriz ay, 2 yy os Med 0 0 a2 my ° 0 0 a3 0 0 0 0. Obsérvese que la iiltima columna de A se ha convertido en un vector unitario. Cada sustitucién hacia atras subsiguiente proporciona un nuevo vector columna unitario y el resultado final ¢s ‘fo. 0 01. 0 00... 1 es decir, A tiene la matriz identidad, 1, n % n, como su forma candnica por filas, 1.32, Reducir la siguiente matriz triangular con elementos diagonales no nulos a forma cané- nica por filas: 5-9 6 C=l0 2~ 3 o 0 7 Por el Problema 1.31, C es equivalente por filas a la matriz identidad. De forma alternativa, por sustitucion hacia attas, is 9 6\ /s -9 o\ /s -9 Oo} /s 0 OW fi oO oO c~{o 2 3}~fo 2 ofxfo 1 of~fo 1 O}~fo 1 0 o o 1 \o o vy lo o Y lo o Ff oO Oo Ff SISTEMAS DE ECUACIONES LINEALES EN FORMA MATRICIAL 1.33, Hallar la matriz ampliada M y la matriz de coeficientes A del siguiente sistema: x+2y—32 By 42 + Tx 6 + 8x —9y 36 ALGEBRA LINEAL Empezaremos alineando las inedgnitas del sistema para obtener xt 2y—32—4 Tx + By = 4 8x — 9p + 6% Entonces 1 2-3 4) 12 -3 M=|7 3 -4 5 y A=|7 3 -4 8-9 6 | 8-9 6) 1.34. Resolver, utilizando la matriz ampliada, x—2y+42=2 Reducimos la matriz ampliada a forma escalonada: 1-2 4 Nh ft 2 4 2) 2-3 5 3}[0 1-3 -1 3-4 6 7 \o o 0 3 La tercera fila de la matriz escalonada corresponde a la ecuacién degenerada 0 = 3; en consecuencia, al Sistema no tiene solucién, 1.38. Resolver, utilizando la matriz ampliada, x +2y —3z—2s + 4t 2x +Sy—8e— st6t=4 x+4y—Te+ 55+ 2=8 Reducimos la matriz ampliada a forma escalonada y luego a forma canénica por filas: 1 2--3 -2 4 WN ft 2-3 -2 4 1) ft 2-3 -2 4 205-8 -1 6 4}~fo 1-2 3 -2 2}J~fo 1 -2 3 -2 2|e 14-7 5 2 8 \o 2-4 7-2 74 \o 0 0 1 2 3 12-3 0 8 WN ft o 1 0 2m a ~{O 1-2 0 -8 -7])~(0 1 -2 0 ~8 ~7 o 9 09 1 2 FY \o 0 o 1 2 yg Asi la solucion en forma de variables libres es xt 24+24= 2 21 2-24 Y-%- &=-7 6 T+ 224 8 s+ Ua 3 3-2 donde z y 1 son las variables libres. SISTEMAS DE ECUACIONES LINEALES 37 1.36. Resolver, utilizando la matriz ampliada, x+2y— 2 x+3ye 2 3x + 8y+42=17 Reducimos la matriz ampliada a forma escalonada y luego a forma candnica por filas: ho 2-1 3) fp 2-1 a) ft 2-1-3) fi 2-1 3 3 1 sl~xfo 1 2 2}efo 1 2 2frfo 1 2 2)~ 3 8s 4 i \o 2 7 8 \o 0 3 4 \o o 1 4, 1 2 0 ¥\) ft o 0 ¥ ~{o 1 0 -3}]~{0 1 0 -3 o 0 4] \o o 1 4 El sistema tiene la solucién nica x = 12, y= -3,2=40u= (9. —3, 4). SISTEMAS HOMOGENEOS 1.37. Determinar si cada uno de los sistemas siguientes tiene una solucién no nula. x+2y- 2=0 x—2y + 32-2 =0 x+2y—32=0 2x + Sy +22=0 3x — Ty —22 + 4w =0 Ix + Sy+22=0 x+4y+72=0 4x + 3y + 52+ 2w=0 3x-— y—4z=0 x4 3y4+32=0 a) 6) 9 a) El sistema debe tener una solucién no nula puesto que hay mas inc6gnitas que ecuaciones. b) Reducimos a forma escalonada: x+2y-32—0 x+2y—32=0 a yt8e a y+8 —Ty +52 En forma escalonada hay exactamente tres ecuaciones con tres incdgnitas; por tanto, el sistema tiene una solucién tinica, la solucion nula. c) Reducimos a forma escalonada: x+2y- z=0 2x + Sy +22 a x+2y— 2=0 x+ay+72= y+4r=0 xt 3y432 En forma escalonada hay sdlo dos ecuaciones con tres incégnitas; por consiguiente, el sistem= tiene una solucién no nula, 38 ALGEBRA LINEAL 1.38. Encontrar la dimension y una base para la solucion general W del sistema homogéneo X+ 3y—22+ Ss—3t=0 Ix+ Ty—32+ 7s—St=0 3x + Ily— 42 + 105-91 =0 Mostrar como la base da la forma paramétrica de la solucién general del sistema. Reducimos el sistema a forma escalonada. Efectuamos las operaciones ~2L,+L,~L2 y —3L,+L3+Ly y entonces —2L, + Ly +L, para obtener xt 3y—2z45s—3¢ yt z-3stt 2y +22 — $5 x+3y—2z45s—3t=0 y yt 23st 120 s-2=0 En forma escalonada, cl sistema tiene dos variables libres, z y 1; por ende, dim W=2. Pucde obtenerse una base [u,, 14] para W como sigue: 1. Hacemos 2 = 1, ¢= x= 5, Por tanto, u; La sustitucién hacia atras proporciona s = 0, luego y = —1 y después 5, =1, 1, 0, 0). 2. Hacemos 2=0, t= 1. La sustitucién hacia atrés proporciona s = x= —22. Por consiguiente, u, = (—22, 5, 0, 2, 1), . luego y= 5 y después jamente, obtenemos au; + bu, = a{5, —1, 1, 0, 0) + (22, 5, 0, 2, 1) = (Sa — 22b, —a + 5b, a, 2b, b) Multiplicando los vectores de la base por los parametros a y b, respet Esta es la forma paramétrica de Ia solucion general. 1.39. Hallar la dimension y una base para Ja solucién general W del sistema homogéneo x+2y—37=0 2x + Sy +22 =0 3x— y-4r=0 Reducimos el sistema a forma escalonada. Del Problema 1.37 b) tenemos x4 2y—32 yt8r 61z=0 No hay variables libres (el sistema est en forma triangular). Luego dim W 0 y W no tiene base. Especificamente, W/ consiste sélo en la solucién nula, W = {0} 1.40. Encontrar la dimensién y una base para la solucién general W del sistema homogéneo 2x + 4y— 524+36=0 3x+ 6y— 1z+40=0 Sx + ly — 112 + 6 =0 141. SISTEMAS DE ECUACIONES LINEALES 39. Reducimos el sistema a forma escalonada. Efectuamos —3L, + 2L)-r La y —SLy + 2b + La y entonces —3L, + Ly + Ly para obtener 2x +4y—S24+3r=0 z—t=0 ¥ 32-3=0 2x + 4y— S24 3=0 z- t=0 En forma escalonada, el sistema tiene dos variables libres, y y 1; por consiguiente, dim W = 2. Una base {u,, u,} de W puede obtenerse como sigue: 0. La sustitucion hacia atras proporciona la solucién 1, =2,1, 0, 0), 1. La sustitucion hacia atrés proporciona la solucion u» = (1.0. 1, 1). 1, Tomamos y 2. Tomamos y Considérese el sistema x—3y-2+4r= $ 3x — By — 32 + Br = 18 2x —3y +52 —4t= 1 a) Hallar la forma paramétrica de la solucion general del sistema. b) Mostrar que el resultado de a) puede reescribirse en la forma dada por el Teo- rema 1.11. a) Reducimos el sistema a forma escalonada. Efectuamos ~3L, + Ly Ly y —2L, + Ls Ls y entonces —3L + Ly + Ly para obtener xoBy-2r+ 4s y+3e— Ma 3y+92—12t yet r= 5 yt3e—40=3 ay t=b, donde a y b son 14 — Ta + 8b. En forma escalonada, las variables libres son z yt. Tomamos = pardmetros. La sustitucién hacia atras proporciona y = 3 — 3a + 4b y entonces De este modo, la forma paramétrica de la solucién es 14-7048) y=3—3a+4b ) b) Sea vy = (14, 3, 0, 0) el vector de términos constantes en (#): sea uw, =(—7, —3, 1, 0) el vector de coeficientes de a en.{+), y sea u, = (8, 4, 0, 1) el vector de cveficientes de b en (#). Entonces la solucion general (#) puede reescribirse en forma veetorial como (es Oy tay + buy (+) A continuacidn probamos que (#*) es la solucién general del Teorema 1.11. En primer lugar, notese que v ¢s la solucion del sistema inhomogéneo obtenido haciendo a =0 y b= 0. Consideremos el sistema homogéneo asociado, en forma esealonada: 244 =0 yr3e—4=0 x-3y Las variables libres son = y 1. Hacemo: y t=0 para obtener la solucién 1, =(—7, —3, 1,0). Hacemos ahora z =0 y t = | para obtener la solucién w, = (8, 4, 0, 1). Por el Teorema 1.10, [ur,. uy} €8 una base del espacio solucién del sistema homogéneo asociado. Entonces (++) tiene la forma deseada. 40 ALGEBRA LINEAL PROBLEMAS VARIOS 1.42. 1.43, 1.44. 1.45, Demostrar que cada una de las operaciones elementales [E,], [E:], [Es] tiene una opera- cién inversa del mismo tipo. [£,] Intercambiar las ecuaciones i-ésima y j-ésima: Lj Ly {£,] Multiplicar la ecuacién i-ésima por un escalar no nulo k; kL; Ly, k #0. {Es} Sustituir la ecuacién i-ésima por ella misma mas k veces la j-esima: kL, +L, L, a) Intercambiando el mismo par de ecuaciones dos veces obtenemos el Lier L; es su propia inversa 5) Multiplicando Ia i-ésima ecuacién por ky luego por k~', 0 por k~! y luego por k, obtenemos el sistema original. En otras palabras, las operaciones kL,—> L; y k~!L, + L, son inversas. ©) Efectuando la operacion kL; +L; 1, y luego la —kL; + L;—»L;, 0 viceversa, obtenemos el sistema original. En otras palabras, las operaciones kL; +L,>L; y —kL;,+L,—L; son inversas, istema original. Esto es, Demostrar que el efecto de ejecutar la siguiente operacién [E] puede obtenerse efectuando [£2] y luego [E3] (E] Sustituir la ecuaci6n i-ésima por k (no nulo) veces ella misma mas K’ veces la j-esima: KL, +kL, > L;, k #0. Bfectuar kL;-+ L, y luego k'L, + L;+ L, conduce al mismo resultado que efectuar la operacién RL, + kL, Ly Supongamos que cada ecuacién L; en el sistema [1.3] se multiplica por una constante ¢, Y que las ecuaciones resultantes se suman para dar (xan Hoe Cm dae Ho + (Cnty FoF Cong) Xn = CDE Ho + Cg O] Tal ecuacion se denomina una combinacién lineal de las ecuaciones L,, Demostrar que cualquier solucién del sistema [1.3] es también solucién de la combinacién lineal [1]. ‘Supongamos que w= (ky, Kay... ky) €8 una solucion de [1.3] inky + diaky bo + digky = be E= Lys m) fe] Para probar que u es una solucién de [1] debemos verificar la ecuacién (ends Hoe + eda Rs HoH Cra +t Cin) g = 4B + CP Pero ésta puede arreglarse de la forma e1(@yr ky agg) Fo + egy FE Shy) = 1B, Hm Caw © por [2] Cyby Hoe ted = Crd, Hs CO que es claramente una expresién cierta. Supéngase que un sistema de ecuaciones lineales (#) se obtiene a partir de otro (#) mediante la ejecucién de una sola operacién elemental —[E,], [E,], 0 [E3]—. Demostrar que (#) y (#) tienen todas las soluciones en comin. 1.46. 1.47, SISTEMAS DE ECUACIONES LINEALES 41 Cada ecuacion de (74) es una combinacién lineal de ecuaciones de (+). Por tanto, por el Problema, 1.44, cualquier solucién de («) sera solueién de todas las ecuaciones de (#). Dicho de otro modo, el conjunto solucién de (+) esta contenido en el de (#), Por otra parte, como las ‘operaciones (E,}, [Ea] y [Es] tienen operaciones elementales inversas, el sistema (+) puede obtenerse del (#) por medio de una sola operacion elemental. De acuerdo con ello, ef conjunto solucién de (#) esté contenido en el de (+). Siendo asi, (#) y (#) tienen las mismas soluciones. Demostrar el Teorema 1.4. Por el Problema 1.45, cada paso deja inalterado el conjunto solucién. Por tanto, el sistema original (#) y el final («) tienen el mismo conjunto solucién. Probar que las tres afirmaciones siguientes, relativas a un sistema de ecuaciones lineales, son equivalentes: i) El sistema es compatible (tiene solucién). i) Ninguna combinacién lineal de las ecuaciones es la ecuacion Ox, + 0x; +++ + 0%, = b #0 oy iii) El sistema es reducible a forma escalonada. Si el sistema es reducible a forma escalonada, dicha forma tiene una solucion y por ende la tiene el sistema original. Ast iti) implica i). ‘Si el sistema tiene una solucién, por el Problema 1.44 cualquier combinacién lineal de las ‘ecuaciones tiene también una solucién. Pero (#) no tiene solucién, luego no es combinacion lineal de las ecuaciones. Asi i) implica ii) Finalmente, supongamos que el sistema no es reducible a forma escalonada. Entonces en el algoritmo gaussiano debe dar una ecuacién de la forma (+). Por consiguiente, (+) es una combi- nacion lineal de las ecuaciones. Asi no- iii) implica no- ii) 0, equivalentemente, ii) implica iii. PROBLEMAS SUPLEMENTARIOS RESOLUCION DE ECUACIONES LINEALES 1.48, 1.49, 1.50, Resolver: 2x +3y=1 2x +4y =10 4x —2y satya ax4eynis 9 6x4 3y Resolver: k- y-k= 5 2x +3y-22=5 xt2y+ 32=3 a) 3x—2y+22 5 bd) x—2y+3r—2 ©) we+3yt+ Br=4 Sx—3y-— z= 16 ax— y+ar= 3x+2y+17z=1 Resolver: dx 43y=3 x+2y—324+2t=2 xt2y- 243=3 a x-2y by) 2x + Sy—824+6r=5 co) Ix + 4y +424 3 x 3x4+2y=7 3x ¢4y—Se+2=4 3x+6y— 2+ 81=10 42 ALGEBRA LINEAL L51. Resolver: xtyti= 2 Sx-2y- z= 5 2x — Sy +32= —4 xt4y4+6=0 xtSy+42—13t=3 BD) 3x yet Stem? Ix tIy+32— Atal a) SISTEMAS HOMOGENEOS 1.52. Determinar si cada uno de los siguientes sistemas tiene una soluci6n no nula: x+3y-22=0 x+3y—22=0 xt 2y—S244t=0 a) x—8y+82=0 b) 2x—3y+ 2=0 o) Wx 3y 42 $3 3x—2y+42=0 3x —2y +22 =0 ax —Ty+ 2-61 0 1.53. Hallar la dimension y una base para la solucién general W de cada uno de los sistemas siguientes. xt Byt 2e-s— t=O Ix— dy +32— 5+2t=0 a) + byt Sets— b) 3x- 6y+5z—254+4=0 Sx + 1Sy+ 122 +5—3¢=0 Sx—10y +72 — 38+ MATRICES ESCALONADAS Y OPERACIONES ELEMENTALES ENTRE FILAS 1.54, Reducir A a forma escalonada y luego a su forma canénica por filas, siendo 1 2-1 2 2 2 3-2 5 2 ag A=[2 4 1-2 3 Bb A=(3 -1 2 0 4 3 6 2-6 § 4-5 6-5 ], 1.55. Reducir A a forma escalonada y Iuego a su forma canénica por filas, siendo a 3-1 2 ‘0 1 3-2) Oo Wm -5 3 0 4-1 3 @ Aly a 3) 1 Y4=lo 9 1 1 4 1 1 5) 0 x 4 1.56. escribir todas las matrices 2 x 2 posibles que estén en forma escalonada reducida por filas. 1.57, Supéngase que A es una matriz cuadrada escalonada reducida por filas. Demostrar que si A # J, la matriz identidad, A tiene una fila nula. 1.58. Demostrar que cada una de las operaciones elementales entre filas siguientes tiene una operacién inversa del mismo tipo. [E,] Intereambiar las filas i-ésima y j-tsima: RR, [E,] Multiplicar la fila #-ésima por un escalar no nulo k: kR;-> Ri, k #0. [Es] Sustituir la fila i-ésima por ella misma mas k veces la j-ésima: kR, + R, + Ry SISTEMAS DE ECUACIONES LINEALES 43, 1.59. Demostrar que la equivalencia por filas es una relacién de equivalencia: i) Aes equivalente por filas a A. ii) Si A es equivalente por filas a B, entonces B es equivalente por filas a A. i) Si A es equivalente por filas a B y B es equivalente por filas a C, entonces A es equivalente por filas a C. PROBLEMAS VARIOS « |S® Considérense dos ecuaciones lineales generales con dos incdgnitas x e y sobre el cuerpo real R: ax tby=e extdy=f Demostrar que: ab de—bf i) si-# 7 es decir, si ad — be #0, entonces el sistema tiene la solucién Gnica x adobe’ ad — be face, ad — be’ F ble ; ; i) si a * 7 entonces el sistema no tiene solucién; bie 5 “ iti) si an z entonces el sistema tiene mas de una solucion. 161. Considérese el sistema ax + by extdy= Demostrar que si_ad — be #0, entonces el sistema tiene la solucién tinica x = d/(ad — be), y = —c/(ad — be). Demostrar también que si ad — be = 0, ¢ # 0 0 d # 0, entonces el sistema no tiene solucién. 1.62. Demostrar que una ecuacién de la forma 0x, + Ox, + = + Ox, de un sistema sin alterar el conjunto solucion. 0 puede aftadirse 0 suprimirse 1.63. Considérese un sistema de ecuaciones lineales con el mismo niimero de ecuaciones que de inedgnit yy Xp ya X eb + aye = by 4g, Xy + yg Xp H+ + yg Xy = Dy ete ul gy + ya Xa HF an Xa i) Suponiendo que el sistema homogéneo asociado tiene s6lo la solucién nula, probar que [1] tiene una solucién Gnica para cada eleccin de las constantes by. ii) Suponiendo que el sistema homogéneo asociado tiene una solucién no nula, probar que existen constantes b, para las que [I] no tiene solucidn. Demostrar también que si [1] tiene una solucién, entonces tiene mas de una. 1.64, Suponiendo que en un sistema de ecuaciones lineales homogéneo los coeficientes de una de las incégnitas son todos nulos, demostrar que el sistema tiene solucién no nula, 44 ALGEBRA LINEAL RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 1.48, a) b) —2a,y =a; e) sin solucién. -l-% 1.49. a) (1, ~3, 2); 5) sin solucién; —¢) (~1-7a2+2aa) 0 2420 x= 242 y=t+2: 1.50. a) x=3, y= b) (-a+2b,14+2a—2b,a,b) 0 { 2t ©) G=5b/2—2a, a, 4+b)2,b) 0 f LS1. a) (1-1); b) sin solucién. a) sy 6) no; ¢)._ si, por el Teorema 1.8. 3 =(—3, 1,0, 0, 0), w, 7,0, —3, 1, 0), us = G, 0, —1, 0, 1). . 1, 0, 0, 0), 0, 5, -3, 1). 1204 Bh monexa. ag 3-6 1) y {0 0 1 06 oj; ~6 |, 0 0 o 1 = 205 10 # & # 1 15 ; y fo 1 -B Boe o 0 o 0 0 0 oO -1 10 & # 3 3 oO 1k B o of * Jo o 0 of 0 9 0 0 0 oO 3-2 rr) -B oo 1 0 0 35 P, 0 0 0 1 0 9 0 0 0 9 CAPITULO 2 Vectores en R’ y C’. Vectores espaciales 2.1. INTRODUCCION En varias aplicaciones fisicas aparecen ciertas cantidades, tales como temperatura y rapidez (médulo de la velocidad), que poseen sélo «magnitud». Estas pueden representarse por niimeros reales y se denominan escalares. Por otra parte, también existen cantidades, tales como fuerza y velocidad, que poseen tanto «magnitudy como «direcciém». Estas pueden representarse por lechas (que tienen longitudes y direcciones apropiadas y parten de algiin punto de referencia dado, 0) y se denominan vectores. Comenzamos considerando las siguientes operaciones con vectores. i) Suma: La resultante u+¥ de dos vectores u y v se obtiene por la llamada ley del paralelogramo; esto es, uw + ¥ es la diagonal del paralelogramo determinado por u y v. como se muestra en la Figura 2-1(a). ii) Producto por un escalar: El producto ku de un néimero real k por un vector u se obtiene multiplicando la magnitud de u por k y manteniendo la misma direccién si k > 0, 0 la direccién opuesta si k <0, tal y como se muestra en la Figura 2-1(b). Suponemos que el lector estd familiarizado con la representacion de puntos en el plano mediante pares ordenados de niimeros reales. Si se elige el origen de los ejes como el punto de referencia O mencionado mas arriba, todo vector queda univocamente determinado por las coordenadas de su extremo. La relacién entre las operaciones anteriores y los extremos es la siguiente. i) Suma: Si (a, b) y (¢, d) son Ios extremos de los vectores u y v, entonces (a + ¢, b + d) serd el extremo de u + ¥, como se muestra en la Figura 2-2(a). ii) Producto por un escalar: Si (a, b) es el extremo del vector u, entonces (ka, kb) sera el del vector ku, como se muestra en la Figura 2-2(b). 45 46 ALGEBRA LINEAL Bu 0, y en la direccién opuesta si k <0. 2.4. VECTORES Y ECUACIONES LINEALES Dos importantes conceptos relativos a vectores, las combinaciones lineales y la dependencia lineal, estin estrechamente relacionados con los sistemas de ecuaciones lineales, como se vera a continuacién. COMBINACIONES LINEALES Consideremos un sistema inhomogéneo de m ecuaciones con n incognitas: My Xp + Oy Xy tt yaXy yy Xp + ga Xa too + yg Xy Got X41 + Oyen Xp + °° + Oyun Xq Este sistema es equivalente a la siguiente ecuacién vectorial: a a2! by a, a, b, xa! | +x] “2 =|? ot, ma A 6, esto es, la ecuacién vectorial XyUly + ply H+ + XA, = donde uy, uz, -.., ty, B Son los vectores columna anteriores, respectivamente. ' Si el sistema en cuestién tiene una solucion, se dice que v es una combinacién lineal de los veetores u,. Establezcamos formalmente este importante concepto. VECTORES EN R” Y C”. VECTORES ESPACIALES 49 Definicion: Un vector p es una combinacidn lineal de vectores 1, U2, ...» ty Si existen escalares Ig. Kay sues ky tales que b= kyuy + hyg + + tly esto es, si la ecuacion vectorial » Nyy FXpUy Ho + Nally tiene una solucién cuando los x; son escalares por determinar. La definicion anterior se aplica tanto a vectores columna como a vectores fila, aunque se haya ilustrado en términos de vectores columna. EJEMPLO 2.2. Scan 2 1 1 1 v=| 3}, uy =|}, w,=|1 y us ={0 -4 1, 0) 0 Entonces v es una combinacién lingal de u,, uz ¥ uy ya que la ecuacion vectorial (0 sistema) 2 1 1 1 Dextytz 3}=x1)+t}+0) 0 Bexty -4 i \o \o, -4ex tiene una solucién x = —4, y = 7, 2 = —1. En otras palabras, du, + Tua — uy DEPENDENCIA LINEAL Consideremos un sistema homogéneo de m ecuaciones con n incdgnitas: yy Xp + yap to + ine Gz, X, + Ga2%2 +" Ga X4 + Amz Xz + °° + San Xn Este sistema es equivalente a a siguiente ecuacion vectorial: ayy 412) ain\ [0 50 ALGEBRA LINEAL esto es, aly Hb Natty be + Xytly donde u,, 3, ..., ty, Son los Vectores columna anteriores, respectivamente, Si el sistema homogéneo anterior tiene una solucién no nula, se dice que los vectores Wy, tgs «++» ty SOM linealmente dependientes. Por el contrario, si el sistema tiene s6lo la solucién nula, se dice que los vectores son linealmente independientes. Enunciemos formalmente este importante concepto, Definicion: Los vectores u,, uz, ..., 4, en R" son linealmente dependientes si existen escalares ey, ka, sees hy» NO todos nulos, tales que Kyuy + kt + + kyu, =0 esto es, si la ecuacién vectorial Xl + Xata + + Xylly = 0 tiene una solucién no nula donde los x, son escalares por determinar. En caso contrario, se dice que los vectores son linealmente independientes. La definicién anterior se aplica tanto a vectores fila como a vectores columna, aunque se haya ilustrado en términos de vectores columna: EJEMPLO 2.3 a) La Ginica solucion de fy fy fo xty+ x{t}+oft}+eo}=(0] 0 4x4y 1} \of \of \o, x es la solucién nula x = 0, y= 0, 2 = 0. De aqui los tres vectores son linealmente independientes b) La ecuacién vectorial (o sistema de ecuaciones lineales) r 2 1\ fo x+2y+ 2=0 xt}+y-1}+4-s]=(0] 0 4x- y—sz=0 1 4 3} \o x+3y+32=0 tiene una solucién no nula (3, —2, 1), esto es, x= 3, y son linealmente dependientes. 2, z= 1. De este modo, los tres vectores 2.5. PRODUCTO ESCALAR Sean u y v vectores de R" WE (ys Way coy My) YB yy Bay 205 Uy) VECTORES EN R” YC”. VECTORES ESPACIALES 51 El producto escalar 0 interno de u y v, denotado por u-v, es el escalar obtenido multiplicando las componentes correspondientes de los vectores y sumando los productos resultantes: UD = Uy dy + MD, +o + Dy Se dice que los vectores u y v son ortogonales (o perpendiculares) si su producto escalar es cero, esto ¢s, si uv = 0. EJEMPLO 2.4. Scan w= (I, —2. 3, —4), 0 = (6,7, 1, —2¥ w= (5, —4, 5, 7). Entonces weve 6 + (—2)° 7431+ (4) (2 = 6-14 4348 = wwe l-S4(-2)*(—4) $3154 (497 = 548+ 15-28 = 0 Entonees u y w son ortogonales. Las propiedades basicas del producto escalar en R" (demostradas en ef Problema 2.17) son las siguientes. Teorema 2.2: Para vectores arbitrarios u,v, weR” y cualquier escalar keR, i) tow ii) (ku)-v = k(u-v) iv) weueO,yu-u=Osiysdlosiu=0 wow iii) u-v=o-w Nota: El espacio R", con las operaciones anteriores de suma vectorial, producto por un escalar y producto interno, se suele Hamar n-espacio euclideo 2.6. NORMA DE UN VECTOR Sea u = (Uys Ug) ---5 Uy) UN vector en R*. La norma (0 longitud) del vector u, escrito |u|], se define como la raiz cuadrada no negativa de u-u: ju) = furu= fab dt tu Como uu > 0, la raiz cuadrada existe. Ademas, si u #0, entonces ||ul) > 0; y |i0l| = 0. La definicion anterior de norma de un vector se ajusta a la de longitud de un vector (flecha) en geometria (cuclidea). Concretamente, supongamos que u es un vector (flecha) en el plano R™ con extremo P(a, b), como se indica en la Figura 2-3. Entonces [al y [>| son las longitudes de los lados del tridngulo rectangulo determinado por u y las direcciones horizontal y vertical Por el Teorema de Pitégoras, la longitud [ul de u es {ul Je+P Este valor es igual a la norma de u anteriormente definida. 52° ALGEBRA-LINEAL Figura 2-3. EJEMPLO 2.5. Supongamos u=(3, —12, —4). Para hallar |ul, calculamos primero full? =w-u clevando al cuadrado las componentes de u y suméndolas |ull? = 3? + (—12)? + (-4)? =9 + 144 + 16 = 169 Entonces |ul| = \/169 = 13. Un vector u es unitario si |u|] =1 0, equivalentemente, si u-w=1. Ahora bien, si v es cualquier vector no nulo, entonces s un vector unitario en la misma direccién que v. (El proceso de hallar # se lama normalizar wv.) Por ejemplo, fa v 2 lt 8 = Wel (is Fs 102 Fa) es el vector unitario en la direccién del vector v = (2, —3, 8, —5). Establecemos ahora una relacién fundamental (demostrada en el Problema 2.22) conocida como desigualdad de Cauchy-Schwarz, Teorema 2.3 (Cauchy-Schwarz) Para vectores cualesquiera u, v en R", [uo] < lull oll. Utilizando la desigualdad anterior probaremos (Problema 2.33) el siguiente resultado, conocido como desigualdad triangular 0 de Minkowski. Teorema 2.4 (Minkowski): Para vectores arbitrarios u, v en R’, |\u + ul] < jul) + [lv] DISTANCIA. ANGULOS. PROYECCIONES. Sean w= (uy, tg, 4 th) YU = (01, Pay «+5 Uy) Vectores en R. La distancia entre w y v, denotada por d(u, v), se define como du, 0) = Iu — vf = J(u, — vy)? + (uy — 0? + +H, — VECTORES EN R” Y C”. VECTORES ESPACIALES 53 Probamos que esta definicién corresponde a la nocién usual de distancia euclidea en el plano R®. Consideremos u = (a, b) y v = (¢, d) en R®, Como se muestra en la Figura 2-4, la distancia entre los puntos P(a, b) y Qc, d) es d= f@—-F + 6-aP Por otra parte, utilizando la definicién anterior, du, ») = ju ol = a6 b- dl = Ja- +O Ambas definiciones conducen al mismo valor. Figura 2-4. Usando la desigualdad de Cauchy-Schwarz podemos definir el angulo 0 entre dos vectores no nulos u, ven R® segun uo cos 6 luiihell Nétese que si u-v = 0, entonces @ = 90° (0 @ = n/2). Esto esta de acuerdo con nuestra definicion previa de ortogonalidad. EJEMPLO 2.6. Supongamos =(1, 2,3) yv=G, —5, —7). Entonces du, v) = (1 — 3? + (—2 + 5 + B+ TF = 4 +9 + 100 = /113 Para hallar cos 0, donde @ es el angulo entre u y v, caleulamos primero uro=34+10-21=-8 (uj? =14+449=14 ol? =9 +25 +49 = 83 En tal caso ue =8 tee A, — ull oll J14/83 Sean u y v #0 vectores en R". La proyeccién (vectorial) de u sobre v es el vector net roy (u,v) = al Tol? 54 ALGEBRA LINEAL Probamos ahora que esta definicién se ajusta a la nocién de proyeccién vectorial utilizada en fisica. Consideremos los vectores u y v de la Figura 2-5. La proyeccién (perpendicular) de = sobre v es el vector u*, de magnitud uy wy [u* fully} Iv [cos @ = |u| Para obtener u* multiplicamos su magnitud por el vector unitario en la direccién v: Figura 2-5, EJEMPLO 2.7. Supongamos u = (I, —2, 3) y p= (2, 5, 4). Para encontrar proy (u,v), primero hallamos —10+12=4 y — fol? =44 254+ 16=45 Entonces won nt asgu (8, % #)_(8 4 16 Prey = Tape ag OO Y= (as a5 as) ~ las" O° a5 2.7. VECTORES LOCALIZADOS, HIPERPLANOS Y RECTAS EN R"™ Esta seccién distingue entre una m-pla P(d,, a3, ..., d,) = P(a;) vista como un punto de R" y una n-pla v= [c;, C25... Gq] vista como un vector (flecha) desde el origen O hasta el punto Cle, ¢3, ---5 ¢y). Cualquier par de puntos P = (a,) y Q = (b,) en R" define el vector localizado 0 segmento dirigido de P a Q, escrito PQ. Identificamos PO con el vector = Q— P= by ay, by — ay, 2b, ~ a] ya que PQ y v tienen la misma magnitud y direccién, tal y como se muestra en la Figura 2-6. Un hiperplano H en R" es el conjunto de puntos (x, x3, ..., X,) que satisfacen una ecuacién lineal no degenerada 1X) + agxy t+. =b S VECTORES EN R” Y C”. VECTORES ESPACIALES 55 Figura 2-6. En particular, un hiperplano H en R? es una recta, y un hiperplano H en R3 es un plano. El vector w= [4,, dp, ..., dy] #0 recibe el nombre de normal aH. El término esta justificado por el hecho (Problema 2.33) de que cualquier segmento dirigido PO, en el que Py Q pertenecen a H, ¢s ortogonal al vector normal u. Esta propiedad, en el caso de R®, se muestra en la Figura 2- Figura 2-7. La recta L en R" que pasa por el punto P(a,, a2, ..., a,), en la direccién del vector no nulo = [iy, t135 -++5 gh estd constituida por los puntos X(x;, X3, ...5 X_) que satisfacen X=P+mu 0 donde el pardmetro 1 toma todos los valores reales. (Véase la Figura 2-8.) 56 ALGEBRA LINEAL Figura 2-8. EJEMPLO 2.8 a) Consideremos el hiperplano H en R" que pasa por el punto P(1, 3, —4, 2) y es normal al vector u=[4, —2, 5, 6] Su ecuacidn tiene la forma 4x —2y S24 6t= Sustituyendo P en esta ecuacién obtenemos 4()) — 28) + 5(-4) + 62)=k 0 4=6-20412=k 0 k=-10 Asi 4x — 2y + 52 + 61 = —10 es la ecuacién de H. by Consideremos la recta L en R* que pasa por el punto P(1, 2, 3, —4), en la direccién de w = [5, 6, —7, 8} Una representacion paramétrica de L es la siguiente: mal45e ame (14 51.24 61,3— 7, —4 +80) xy=3-7 eeEGR IT 448 Nétese que = 0 proporciona el punto P en L. CURVAS EN R" Sea D un intervalo (finito o infinito) en la recta real R. Una funcion continua F: D> R® es una curva en R". De este modo, a cada t€D se le asigna el siguiente punto (vector) en R" F(t) = (Fi), Fold)... FO] ‘Ain mas, la derivada de F(t) (si existe) proporciona el vector V(t) = dF(0\/de = [dF ,(o)/de, dF ,(0)/dt, ..., dF ,(0)/dt} VECTORES EN R” Y C”, VECTORES ESPACIALES 57 que es tangente a la curva, y la normalizacion de V(t) conduce a vo Ivo que es el vector unitario tangente a la curva, (Los vectores unitarios se denotan a menudo en negrita, Véase la Seccién 2.8,] T(t) EJEMPLO 2.9. Consideremos la siguiente curva C en R°: F(t) = [sen t, cos 1) Tomando la derivada de F(z) {o de cada componente de F(f)] se obtiene ve = [cos t, —sen t, 1] que es un vector tangente a la curva. Normalizamos V(t). Primero obtenemos |IV(2)|7 = cos? 2 + sen? r+ 1+1=2 Entonces Vv 4 nw ( [= sont 1 “Wwoi Ly" Va que es el vector unitario tangente a la curva. 2.8. VECTORES ESPACIALES. NOTACION ijk EN R® Los vectares en R®, denominados vectores espaciales, aparecen en numerosas aplicaciones, especialmente en fisica. De hecho, frecuentemente se utiliza una notacidn especial para tales veotores, que es la que se da a continuacién: (1, 0, 0) denota el vector unitario en la direccion x (0, 1, 0) denota el vector unitario en Ia direecién y k (0, 0, 1) denota el vector unitario en la direccion z En consecuencia, cualquier vector u = (a, b, c) en R? puede expresarse de forma tinica como sigue: u=(@, b,c) ai + bjt ck Como i, j, k son vectores unitarios y son mutuamente ortogonales, tenemos kek=1 e¢ =0, itk=0, j-k=0 Las diversas operaciones vectoriales discutidas previamente pueden expresarse en la presente notacin como sigue. Supongamos u = ayi + a,j + ask y v= byi + baj + byk. Entonces ut 0 =(a, + bi + (a; + bai + (as + bS)k usv= a,b, + 4;b, + ayb, ca;i + ca,j + cask Wall = furu= fa? +a) + a3 cu donde c es un escalar. 58 ALGEBRA LINEAL EJEMPLO 2.10. Considérense los vectores u = 31 + 5j— 2k y v= 4i— 3 + 7k a) Para hallar u +» sumamos las componentes correspondientes obteniendo ut Ti+ 24 5k b) Para hallar 3u — 20, primero multiplicamos los vectores por los escalares y después los sumamos: 3u~ Iv = (Bi + 15] — 6k) + (—8i + 6j — 14k) = 4i + 215 — 20K ¢) Para hallar w+» multiplicamos las componentes cortespondientes sumindolas después: woe l2-15-14=-17 d)_ Para hallar |u| elevamos al cuadrado cada componente y después las sumamos obteniendo |uj?. Esto es, uJ? =942544=38 yy portanto — [ull = /38 PRODUCTO VECTORIAL Existe una operacién especial para vectores u, v en R*, llamada producto vectorial y denotada por u x v. Especificamente, supongamos u=aitajtak y bit bj + byk Entonces WX v= (a,b — a3 ba)i + (a3 by — a1b3)j + (yb, — a2 by)k Notese que u x v es un vector (de ahi su nombre). u x v también se denomina producto externo dewy a 3 . En notacién de determinantes (Capitulo 7), con 4 ad — be, el producto vectorial puede é expresarse también como sigue: a, 3), a ay uxe 7 + by byl" [by bs? ©, equivalentemente, ijk wibela, axel by by bs Dos importantes propiedades del producto vectorial son las siguientes (véase el Problema 2.56): Teorema 2.5: Sean u, vy w vectores en R® i) El vector w =u x v es ortogonal au y av. VECTORES EN R” Y G”. VECTORES ESPACIALES 59 Figura 2-9, ii) El valor absoluto del «producto triple» u+v x w representa el volumen del paralelepipedi determinado por los tres vectores (como se muestra en la Figura 2-9). EJEMPLO 2.11 a) Supongamos u = 4i + 3j + 6k y v= 21 + 5j—3k. Entonces 3 6 [4s 6 4 3 ay uxo=ls Si-(s | [3 3 = —391 + 24j + 14k -1 5 2 s[|2 -1 ») @-49%0.76-(| ; : | 1)=eanain (Aqui hallamos el producto vectorial sin utilizar la notacién ijk.) ©) Los productos vectoriales de i, j, k son los siguientes: kxi=j iy ixk Dicho de otro modo, si vemos la terna (i,j, k) como una permutacién ciclica, esto es, colocada sobre un circulo en el sentido contrario al de las agujas del reloj como en Ia Figura 2-10, entonces el producto de dos de los vectores en el sentido dado es el tercero, pero el producto de dos de ellos en el sentido contrario es el tercero con signo opuesto. NU Figura 2-10, 60 ALGEBRA LINEAL 2.9. NUMEROS COMPLEJOS El conjunto de los niimeros complejos se denota por C. Formalmente, un nimero complejo es un par ordenado (a, b) de nuimeros reales. La igualdad, suma y producto de niimeros complejos se definen como sigue: (@,b)=(¢,d) siysdlosi a=c y bad (a,b) + (cd) = (at, b +d) (a, b)(c, d) = (ae — bd, ad + be) Identificamos cada nimero real a con el nimero complejo (a, 0): ae(a, 0) Esto es factible debido a que las operaciones de suma y producto de nimeros reales se conservan bajo dicha correspondencia (@, 0) + (6, 0)=(a+b,0) — y (a, 0)(6, 0) = (ab, 0) Asi vemos R como un subconjunto de C y reemplazamos (a, 0) por a cuando quiera que sea conveniente y posible. El niimero complejo (0, 1), denotado por i, tiene la importante propiedad de que P=H=0,0@)=(-1,0=-1 0 i=V-1 Aiin mas, utilizando el hecho de que (a,b) = (a, 0)+(0,5) yy 0, b) =, 9,1) tenemos (a, b) = (a, 0) + (b, 0)(0, 1) =a + bi La notacion z =a + bi, donde a = Re z y b= Imz se denominan, respectivamente, las partes real ¢ imaginaria del nimero complejo z, es mas conveniente que (a, b). Por ejemplo, la suma y el producto de dos nimeros complejos z= a + bi y w= + di puede obtenerse simplemente utilizando las propiedades conmutativa y distributiva, ademas de ? = —1 Zewa(atb)+(ctdi)=atetbi+di=(atqt+ ai aw = (a + bile + di) = ac + bei + adi + bdi? = (ac — bd) + (be + ad)i Advertencia: El uso anterior de la letra i para denotar ,/—1 no tiene, en ningiin caso, relacién con la notacién vectorial i = (1, 0, 0) introdycida en la Seccion 2.8. El conjugado del nimero complejo z = (a, b) = a + bi se denota y define por a—bi atbi VECTORES EN R” Y C”. VECTORES ESPACIALES 61 Entonces 23 = (a + bi) (a — bi) = a? — b?i? =a? + b?. Si, ademas, z # 0, entonces el inverso z~! de zy la division de w por z vienen dados, respectivamente, por donde we C. También definimos se=-iz yy w—z=w+(-z) Asi como los mimeros reales pueden representarse por los puntos de una recta, los niimeros complejos pueden representarse por los puntos del plano. Coneretamente, el punto (a, 6) del plano representard el mimero complejo z =a + bi, es decir, el nimero cuya parte real es a y cuya parte imaginaria es b. (Véase la Figura 2-11.) El valor absoluto de z, escrito |z|, se define como la distancia de z al origen: Figura 2-11. EJEMPLO 2.12. Considérense los vectorés 2 = 2 + 3i y w= 5 — 2i, Entonees ZewaQt3+(5—2=24+543H-WHT4i (2 + 3iXS — 2i) = 10 + 151 — 44 — Gi? = 16 + 11 Ba243=2-3)— y w=5—21=5421 (S- 292-3) 4-191 4 19 243 Q+30-3) OB 1 13° 12) =/449=/3 y Iw] =/25 +4 =/29 Nota: En el Apéndice definimos Ia estructura algebraica denominada cuerpo. Es oportuno enfatizar que el conjunto C de los nimeros complejos, con las operaciones de suma y producto anteriores, es un cuerpo. 62 ALGEBRA LINEAL 2.10. VECTORES EN C” . El conjunto de todas las n-plas de niimeros complejos, denotado por C*, se llama n-espacio complejo. Tal como en el caso real, los elementos de C" se llaman puntos 0 vectores y los de C, escalares. La suma vectorial y el producto por un escalar en C* vienen dados por (21s 225 205 Za) + (Wy Way voy Wa) = (Zn + Way Za + Was ono Zn ty) aig Zang) =p Tian ons ta) donde z, wy, z€C. EJEMPLO 2.13 a) (2 +3i,4 —i,3) + (3 — 23, 5i,4 — 61) = (5 + 1,4 + 4,7 — Gi). 4) 22 + 34-1, 3) =(—6 + 43, 2 + 8, 61), Ahora sean u y v vectores arbitrarios en C*: W= Cita.) B= (Ws, Way sos Wy) z.meC El producto escalar 0 interno de u y v se define como sigue: uso = ZH, + 2y Hy to +z QM Notese que esta definicion se reduce a la dada previamente en el caso real, puesto que WW; cuando w; es real. La norma de u se define como ful = furus J2,2, 42.2, +-°°4+2,2,= /inP tlh to +12. Obsérvese que w-u y por tanto |ju|| son reales y positivos cuando u #0 y 0 cuando u=0. EJEMPLO 2.14. Sean w= (2 +3i, 4 —i, 2i) y v= (3 —2i, 5, 4— 61). Entonces uro= (2+ 393 — 29 + 4 — 5) + 24 — 6) = (2+ 33 + 2) + 4— 5) + (24 + 69, = 13f + 20 — Si— 12 + 81= 8 + 161 uru=(2+ 39243) + (4— MAH) + 2D + 32 — 31) + 4-14 +i) + (K-29 =134174+4=34 Wal = fur = /34 | El espacio C", con las operaciones anteriores de suma vectorial, producto por un escalar y | producto escalar, se denomina n-espacio euclideo complejo. Nota: Si u-v estuviera definido por u:p = z,w, +++ ZW, podria darse u-u = 0 incluso a | pesar de ser u #0, como sucederia, por ejemplo, si fuera w = (I, i, 0). De hecho, u-w podria no ser siquiera real. VECTORES EN R” Y C”. VECTORES ESPACIALES 63 PROBLEMAS RESUELTOS VECTORES EN 24. Sean u= (2, —7, 1), e=(—3, 0,4), w= (0, 5, —8). Hallar a) 3u — 40, b) 2u + 30 — Sw. Primero efectuamos el producto por los escalares y luego la suma de vectores. a) 3u— 40 = 32, —7, 1) — 4-3, 0,4) = (6, —21, 3) + (12, 0, —16) = (18, —21, — 13). b) Qu + 30 — Sw = 2(2, —7, 1) + H—3, 0, 4) — 5(0, 5, —8) (4, =14, 2) + (—9, 0, 12) + 0, 25, 40) = = (4-9 +0, -14 + 0-25, 2+ 12 + 40) =(—5, -39, 54), 2.2, Calcular: 1 2 3 3 a 4-1]-3 3}, b) -2 3 -1 3} \-4 —4) 1 Primero efectuamos el producto por los escalares y luego la suma de vectores. 1 2 2\ /-6 -4 a 4-1)-3 3]=(-2]+[{-9)=[-0 3 -4 6 12; 18; 1 3\ /-1\ /-4\ /-9\ /-23 ») -A 3]+4 5)-3}-1]=( -6]+{ 20}+] 3f=[ 17 -4 y -1 8 8 3 19) 2.3, Hallar xe y sia) (x, 3)=(2, x+y); b) (4, y) = x02, 3). a) Siendo iguales los dos vectores, las componentes correspondientes son iguales entre si: x=2 jJ=xty Sustituimos x = 2 en la segunda ecuacién obteniendo 5) Multipticamos por el escalar x para obtener (4, y) = componentes correspondientes: 4=2e Resolvemos ahora las ecuaciones lineales para xe yi x =2€ y=6. 2.4. Probar el Teorema 2.1 Sean u,b; yw; las componentes i-ésimas de u, v y w, respectivamente. i) Por definicién, u; +o; es la componente ixésima de uw + (u +0) +, Por otra, parte, x; + Ww; es la componente i: Ce ee ima de v + w y en consecuencia 64 ALGEBRA LINEAL ii) iit) iv) vy) vi) vii) viii) 4; + (0; + w)) es la de u + (v + w), Pero u, 0, y w; Son mimeros reales para los que se verifica la ley asociativa, esto es, (4+ e) +m =u +4) pare Fale De acuerdo con esto, (u + v) + w= u + (v + w) ya que sus componentes correspondientes son iguales. Aqui 0 = (0, 0, ..., 0); por tanto, ut0= (uy, uy, ...,u,) +0, 0,..., 0) = (ty 0, te +O, any te +0) = (ys tas eons) = 14, te, Nyy tay woes ty) u+(—y) (yy May ey ty) + (= Ua, =, U4) = = (Wy = My My gy ey y=) Por definicién, u, + v, es la componente i-ésima de w+ v y v, + u; es la de v + u. Pero u, y 8; son niimeros reales para los que se verifica la ley conmutativa, esto es, utes yty i= lem Por tanto, u +» = 0+ u, puesto que sus componentes correspondientes son iguales. Dado que u; + », es la componente i-ésima de w + v, k(u + 0) €5 la de k(w + 0). Como ku y ky; son las componentes i-ésimas de ku y ke, respectivamente, ku; + kv, es la de ku + kv. Pero k, u; y 0; son nimeros reales. Por tanto, K(up+e) = kup ky = 1 Asi k(u + ») = ku + ke, porque sus componentes correspondientes son iguales. Obsérvese que el primer signo mas se refiere a la suma de dos escalares ky k’, mientras que el segundo se refiere a la suma de dos vectores ku y k'u Por definicion, (k + Ju, es la componente i-ésima del vector (k + k’)u. Dado que ku, y ku, son las componentes i-ésimas de ku y Ku, respectivamente, ku, + k’u, es la del vector ku + K'u, Pero k, k’ yu, son nimeros reales. Entonces + kyu, De este modo, (k + k’)u = ku + k’u ya que sus componentes correspondientes son iguales. Como K’u, es la componente i-ésima de K'u, k(k'u,) es la de k(k'u). Pero (kk’)u, es la componente i-ésima de (kk’)u y, debido a que k, k’ y u, son niimeros reales, (keyg = k(kag) ut ku i seal Por consiguiente, (kk’) K(K’w), puesto que sus componentes correspondientes son iguales. Dem 1tyy tay oes ty) = (Utdgy Ltgy ony Wily) = (ty tay oy ty) = VECTORES Y ECUACIONES LINEALES 2.8. Convertir la siguiente ecuacién vectorial en un sistema de ecuaciones lineales equivalente y resolverlo: Il a 0 > + Su + VECTORES EN R” Y C”. VECTORES ESPACIALES 65 Multiplicamos los veetores de la derecha por los escalares desconocid y luego los sumamos’ 1 x\ /2y\ [32 x + 2y +32) ax} +| Sy) + (22) =| 2x + Sy + 22 5] \ax/ \8y) \32/ \3x + 8y + 32; Tgualamos entre si las componentes correspondientes de los vectores y reducimos el sistema a forma escalonada: x+2yt3e= 1 xtdyt3e= 1 x+2y¢3= 1 2x + Sy +22= -6 yr4e= 8 yr4e= -8 Bx+Bythe= 5 Yy-6e= 2 I= 18 El sistema es triangular, y por sustitucién hacia atrés se obtiene la solucién nica: x = —82, y = 28, z 2.6. Escribir el vector v = (1, —2, 5) como combinaci6n lineal de los vectores u, = (1, 1, 1), uy = (I, 2, 3) y Ws =, —1, D. Queremos expresar v en la forma v = xit, + yttg + 2us, con x, y y z atin por determinar. Siendo asi tenemos 1 1 1 2) [xe +22 —2)—1)+42)+4-1)=[x+2y- 2 5 1 3 iy \x+3y+ (Para formar combinaciones lineales, resulta mas conveniente escribir los vectores como columnas que como filas.) Igualando las componentes correspondientes entre si obtenemos; xtyt+z= 1 xeyt2e xtytme 1 x+Y-— 2 ° yo ° yr3= 3 xt3yt z= 5 Yo z= 4 S2= 10 La solucién inica del sistema en forma triangular es x= —6, y= 3, 2= s asi v= — Guy + 32 + 2s. 2.7. Escribir el vector v=(2, 3, —5) como combinaci6n lineal de u, y uy = (1,7, —5). Hallamos el sistema de ecuaciones equivalentes y Iuego lo resolvemos. En primer lugar tomamos 2 1 2 1 xt2y+ 2 3J=x4 2]4+9-1)+4 7)=( 2e- yte = -3 4, —s/ \=3x—4y = 52; Igualando entre si las comporientes correspondientes obtenemos x+dyt r= 2 xtlyt z= 2 xtdytz= 2 x- y+t= 3 0 —SytS2=-1 00 =Sy452=-1 —3x—4y— 52 = -5 dy-2e= 1 o- 3 La tercera eouacion, 0 = 3, indica que el sistema no tiene solucién. Entonces » no puede escribirse como combinacién lineal de los vectores 11, uz ¥ ts. 66 ALGEBRA LINEAL 2.8. 2.9. 2.10. 24M. Determinar si los vectores u, = (1, 1, 1), u; = (2, 1,3) y us = (1, —5, 3) son linealmente dependientes o linealmente independientes. Recuérdese que 1,, 1, 143 son linealmente dependientes o linealmente independientes segin que a ecuacién vectorial xu, + yup + zuy tenga 0 no una solucién no aula. Asi pues, para empezar igualamos una combinacidn lineal de los vectores al vector nulo: o\ fl 2 \ fxsay4 2 o)=x{1] +5 -1) +4 -s)=[x— y—se of \t 3 3} \x+3y4% Igualamos las componentes correspondientes entre si y reducimos el sistema resultante a forma escalonada: x+2y4 2=0 x+2y+ 220 x+2y+ 2 x- y-5z=0 0 -3y-6=0 0 yt2e=0 x+3y432=0 yr2=0 EI sistema en forma escalonada tiene una variable libre; por consiguicnte, el sistema tiene una solucién no trivial. Siendo asi, los vectores originales son linealmente dependientes. (No necesitamos resolver el sistema para determinar la dependencia o independencia lineal; basta conocer si existe tuna solucién no nula.) Determinar si los vectores (1, 2, —3), (2, 3, —1) y (3, 2, 1) son linealmente dependientes. Igualamos al vector cero una combinacion lineal (con coeficientes x, y, 2) de los vectores: 0) 1 A /3 x4 2y +321 0 ~2) + 3] +42) =| 20+ 3y 422 9) -3 -1, fo \-3r- y+ x Igualamos las componentes correspondientes entre si y reducimos el sistema resultante a forma escalonada: x+2y 432 x+2y+32=0 x+2y432=0 -2x+3y4+22=0 0 y+2z=0 0 yr2=0 -3x- y+ 2=0 Ty +82 =0 650 EI sistema homogéneo esta en forma triangular, sin variables libres: Por tanto, sélo tiene la solucién trivial. Asi que los vectores originales son linealmente independientes. Demostrar la siguiente afirmaci6n: + 1 0 mas vectores arbitrarios en R" son linealmente dependientes, Supongamos que 1, w,, ..., ¥y Son veetores en R* con q >n. La ecuacién vectorial Xyly Hxgtey bo + Qty ¢s equivalente a un sistema homogéneo de n ecuaciones con q > n incégnitas. De acuerdo con el Teorema 1.9, este sistema tiene solucién no trivial. Consecuentemente, 1, us, .-, uy Son linealmente dependientes. Demostrar que cualquier conjunto de q vectores que contenga el vector cero es lineal- mente dependiente, Denotando los vectores por 0, tig, Us, ...5 ty tenemos 1(0) + Ouy + Ouy + = + Ox, VECTORES EN R” Y C”. VECTORES ESPACIALES 67, PRODUCTO INTERNO. ORTOGONALIDAD 2.42. Calcular u-v, donde u = (1, —2, 3, —4) yu = (6, 7, 1, —2). Multiplicamos las componentes correspondientes y sumamos: uv = (1)(6) + (2) + GIA) + (-4(-2 2.13. Sean u = (3, 2, 1), (5, —3. 4), w= (1, 6, —7). Hallar: a) (w+ v)+w, b) uw + ow. 4) Primero calculamos u + » sumando las componentes correspondientes: ut+o=G45,2-314+4=@ -1,5) Luego caleulamos (u + 0) w= @XL) + (—1N6) + (5-7) = 8 - 6-35 = - 33 mero hallamos uw =3 + 12 8 y v-w = 5 — 18 —28 = —41, Entonces w-w + 0-w= 8 — 41 = — 33. [Tal y como cabia esperar, por el Teorema 2.2 i), ambos valores son iguales.] 6) 2.14, Sean u=(1, 2,3, —4), v= (5, —6, 7, 8) y k = 3. Hallar: a) k(w+v), b) (ku)-v, c) u- (kv). a) Primero determinamos w- 12 + 21 — 32 = —18. Entonces k(u-2) = 3(— 18) b) Primero determinamos ku = (3(1), 3(2). 3(3), 3(—4)) = G, 6, 9. —12). Entonces (ku) « v = 3X5) + 6X6) + OX) + (— 1248) = 15 — 36 + 63-96 = —54 ¢) Primero determinamos kv = (15, —18, 21, 24). Entonces + (Ko) = (1X15) + (2X—18) + BY21) + (-4(24) = 15 — 36 + 63 - 96 = —54 —54. 215, Sean u=(5, 4, 1), 0=(, —4, I) y w= (1, —2, 3). gQué pares de dichos vectores son perpendiculares? Hallamos el producto escalar de cada par de vectores: urv=15—16+1=0 viw=34843=14 urw=S—-843=0 Por consiguiente, tanto uy v como u y w son ortogonales, pero v y w no Io son. 2.16. Determinar el valor de k para que los vectores u y v sean ortogonales, siendo u = (1, k, —3) yo=@Q, -5, 4) Caleulamos u-», lo igualamos a 0 y resolvemos para k. u-v =2—Sk—12=00 —5k— 10=0. Resolviendo, k= —2 (MQ) + K-53) + (- 9G = 2.17. Demostrar el Teorema 2.2. Seam u = (Uy, Way o-oy Mads P= (yy Pry ony yds W= (Way Was oes Wa): i) Dado que w+ v= (uy + 0,5 Wy + O25 5 tp +O) uty: (Uy + 0, ) y+ (Uy + Bp), + ++ + (Uy + OW, = gi, + 05s + tg Wa Hay ot Ug HM = (uy, Ft Wy bom oe gt) + (OLY Ha Wy FH OQ) = Surweorw 68 ALGEBRA LINEAL ii) Como ku = (Kuy, kits, 5 ks), (ku) = 0 = kayo + hig 0g +> + kubyn, = Ruy, + yoy os + a0) = Mu vd) ii) wr wm uyog bugs oo + mg Duy + Daly bo + tt = BD, iv) Como u? es no negativo para cada i, y dado que la suma de nimeros reales no negativos es no negativa, urusuptust- +u2>0 Ademés, u-u = 0 si y solo si u; = 0 para todo i, esto es, si y solo si NORMA (LONGITUD) EN R" 2.18. Hallar |jwl) si w = (—3, 1, 2, 4, —5). iw ~P +P 4 (-2 +P 4 (—5P 941 E44 16425 395; de aqui |jw| = /55. 2.19, Determinar el valor de k para que |ju\| = ./39, donde u = (1, k, —2, 5). ul? = 1? +4? + (—2)? + 5? =? +30. Ahora resolvemos k? +30=39 y obtenemos k 2.20. Normalizar w = (4, —2, —3, 8). Primero hallamos |jw\|? = w-w = 4? +(—2)? + (—3)? + 8 cada componente de w por ||| = \/93 obteniendo = 16+4+9 + 64=93. Dividimos a ( 4-2 -3 8 ) Il \ 793" 793" 93" /93, Normalizar v = (4, 3, —3). Notese que tanto v como cualquiera de sus multiples positivos tendrin la misma forma normalizada. En tal caso, podemos multiplicar primero v por 12 para eliminar los denominadores: 120 = (6, 8, —3). Entonces 12v 6 8 =3 N20] =364+64+9=109 yaa idee ( ) ol \/i0s” /105° 7105) Demostrar el Teorema 2.3 (Cauchy-Schwarz). En su lugar probaremos el siguiente resultado, més potente: |a-0 < > [ayo < ful fol). Para empezar, si u=0 0 v=0, la desigualdad se reduce a 0<0<0 y es, por tanto, cierta, En consecuencia, solo necesitamos considerar el caso en el que u #0 y v #0, esto es, en el que [ull #0 y [ol] #0. Ademas, debido a que luo} = IE apo) SY hen sélo es necesario probar la segunda desigualdad. Ahora bien, para dos numeros reales cualesquiea x, yeR, 0< (x — y? equivalentemente, ~ Oxy + dys +y? fin} 2.23. 2.24, 2.25. VECTORES EN R” Y C”, VECTORES ESPACIALES 69 Tomamos x = [u/ul] € y = [0{/oll en [1] para obtener, para cualquier i, tu od Tul Vel) ful? * ol? py Pero, por definicién de norma de un vector, jue = Yu? =Y lui? y wll = oF sumando en [2] respecto a i y utilizando |1;0,| = |ui| |e). tenemos Llu Ldul? , Lhe? _ wl? iol? 2 aol © ful? * fer Ter? Hullioh ~~ al ell jul? fell esto cs, Llul Maliie Multiplicando a ambos lados por |u| ||] obtenemos la desigualdad pedida. Probar el Teorema 2.4 (Minkowski). Por la desigualdad de Cauchy-Schwarz (Problema 2.22) y el resto de las propiedades del producto interno, fut oP sto ut )=u-ut Aur) tos S full? + 2ful| iol + ol? = (lull + Held? Tomando las raices cuadradas de ambos miembros se obtiene Ia desigualdad buscada, Probar que la norma en R" satisface las siguientes leyes: a) [Nj] Para cualquier vector u, |u| = 0; y \|ul =0 si y solo si w b) [N,] Para cualquier vector u y cualquier escalar k, |/kul| = [kl |u| c) [Ns] Para dos vectores cualesquiera u y v, |v + vl| < lll + lol). a) Segin el Teorema 2.2, u-w>0y uw =0 si y solo siu=0. Como |ull = /u-u, resulta [N,]. b) Supongamos w= (11), ty, ns ty) Y POF tanto ku = (Ky, ktlg,..y kt,). Entonces Wha]? = (han)? + (keg)? oo + (kag)? me Pug a + oo + ug) = HP? Tomando raices cuadradas se obtiene [N]- @) [Nj] se ha demostrado en el Problema 2.23. Sean w = (1, 2, —2), v= (3, —12, 4) y k= —3. a) Encontrar ull, ol] y ||kul|. 6) Com- probar que |kull = |k| ul] y Ju + ol] < |lul| + Jol. 3, oll = /9 + 144+ 16 = /169 = 13, ku = (—3, —6, 6) y hull = a) ull =J1+44+4=/9 =V/9 + 36 + 36 = /81 1b) Dado que [kl = |—3] = 3, tenemos | ju = 3-3 |kul|. Ademas u-+ v= (4, —10, /16 + 100+ 4 = 120 < 16 =3 +13 ). Asi ue + ol = ful + Hol 70 ALGEBRA LINEAL DISTANCIA. ANGULOS. PROYECCIONES 2.26. Hallar la distancia d(u, v) entre los vectores uy v, donde @ u=(I,7,v=(6, —5), b) u=(3, —5,4), (6, 2, - 1). o) w= (5,3, —2, —4, 1,0 =(2, 1,0, 7,2). En cada caso utilizamos la formula d(u, v) = lle — vl ®) duo) = JA =F + 1+ F = V5 + 1 = 18 = 13. >) du, e)= (8-6 + (-S- 9 +44 IP = 94 9405 = 13. 9) duo) = JS — +84 P+ (2 +07 + (—4 5 4 (1 2 = V/A 2.27. Encontrar un niimero k tal que d(u, v) = 6, siendo u = (2, k, 1, —4) yo = (3, —1, 6, —3) + (H, —o,)?. Primero hallamos (dtu, oP = 2 ~ 37 + (k +1)? + (1-6)? + (4 4 3 = + 4B Ahora resolvemos k? + 2k + 28 = 6? obteniendo k = 2, —4, 2.28. A partir del Problema 2.24, demostrar que la funcién distancia satisface: [Mj] du, v) 2 0; y d(u, v) =0 si y solo si uw [M,] du, v) = dQ, u). [M3] du, v) < d(w, w) + d0w, v) (desigualdad triangular). b. [M,] es consecuencia directa de [V,}. Segiin [N}, au, v) = bu — vf = I(— 1X0 =x = |= 1] fo — ull = fo — ul = do, w) que es (M,]. Segin [N], du, 0) = lu — of = [lu = w) + (w — 0) < Ju — we] + Iw 0] = dtu, w) + dw, 0) que es [My] 2.29. Determinar cos 0, donde 0 es el Angulo entre u = (1, 2, —5) y v = (2, 4, 3). Primero hallamos urv=24+8—15 of lui? =144425=30 of? =4416+9=29 Luego uo 5 Tele ~~ 750 J 2.30. Determinar proy (u, v), donde u = (1, —3, 4) y v= (3, 4, 7). Primero hallamos u-v = 3 — 12+ 28 = 19 y ||? =9 + 16 +49 = 74. Luego 19 57 38 133 Boana(% 18). (28,18) we Wo? proy (1, v) 14 18 74 VECTORES EN R” Y C”. VECTORES ESPACIALES 71 PUNTOS, RECTAS E HIPERPLANOS En esta seccién se distingue entre una n-pla P(@,, 2, .... d,) = P(a,) vista como un punto en R" 2.32, 2.33. 2.34. 2.35. 2.36. [Cts Cay +++y Cy) Vista Como un vector (flecha) desde el origen O hasta el punto Hallar el vector v que se identifica con el segmento dirigido PO para los puntos a) P(2, 5) y Q(—3, 4) en R, b) Pl, —2, 4) y Q(6, 0, —3) en R® Q-P=[-3-2,4-5]=[-5, -1] Q-P=[6-1,0+2,-3-4] a) b) Considérense los puntos P(3, k, —2) y Q(5, 3, 4) en R®. Encontrar un valor de k para el que P@ sea ortogonal al vector u = [4, —3, 2 Primero hallamos v = Q — P = [5 — 3, 3—k, 4+2]=[2, 3—k, 6]. A continuacién calculamos urv=4:2—33-K+2-6=8-943k412= 341 Por ultimo, imponemos u-v = 0 6 3k + 11 =0, de donde k= —11/3. Considérese el hiperplano H en R® identificable con el conjunto solucién de la ecuacién lineal AX, + gy to + GX, = b ] donde u = [a,, a3, .... 44] #0. Demostrar que el segmento dirigido PO para cualquier par de puntos P, QeH es ortogonal al vector de coeficientes u. Se dice que el vector u es normal al hiperplano H. OP y w. Sean w; Pero entonces OG; por consiguiente, PG. Por [1], w-w, =b y w-w; =. Wa — uw, —w)=urw,—urw, =b-b=0 De este modo, » PO es ortogonal al vector normal w Encontrar una ecuacién del hiperplano H en R* que pasa por el punto P(3, —2, 1, —4) y es normal al vector u = (2, 5, —6, —2). La ecuacion de H es de la forma 2x + Sy — 62 — 24 en esta ecuacién obtenemos k A, puesto que es normal a u. Sustituyendo P 2, Por consiguiente, una ecuacién de H es 2x-+ Sy—62—2w= —2, Hallar una ecuacién del plano H en R* que contiene P(1, —5, 2) y es paralelo al plano H’ determinado por 3x — 7) +42 = 5. H y H' son paralelos si y s6lo si sus normales son paralelas o antiparalelas. Por tanto, una ecuacin de H sera de la forma 3x—7y+4z=k. Sustituyendo P(I, —5, 2) en la ecuacién obtenemos k = 46. En consecuencia, la ecuacion requerida es 3x — Ty + 4z = 46. Hallar una representacion paramétrica de la recta en R* que pasa por el punto P(4, —2, 3, 1), en la direccién de u = (2, 5, —7, U1]. 72 ALGEBRA LINEAL La recta L en R" que pasa por el punto P(a,), en la direccién del vector no nulo u = [u;] consta de los puntos X = (x;) que satisfacen la ecuacién X=Ps+m 0 x=aqtut (para i= 1,2,...,n) fol donde el pardmetro 1 toma todos los valores reales, Asi obtenemos xe 442 : © | 442, -2454,3—7, 1+ Lt) 2.37. Hallar una representacién paramétrica de la recta en R® que pasa por los puntos P(5, 4, —3) y Q(1, —3, 2). Primero calculamos « = PQ = [1 — Problema 2.36 para obtener x — 4,2 =(—3)] =[—4, —7, 5]. Entonces utilizamos el <4 y=4-7 —3+5¢ 2.38. Dar una representacién no paramétrica para la recta del Problema 2.37. Despejamos ¢ de la ecuacién de cada coordenada e igualamos los resultados Ilegando a x-5_y-4 243 = -7 5 Be © al par de couaciones lineales 7x — 4y = 19 y Sx + 4: 2.39, Encontrar una ecuacién paramétrica de la recta en R? perpendicular al plano 2x—3y+72=4, que intersecta al mismo en el punto P(6, 5, 1). Como la recta ¢s perpendicular al plano, debe estar en Ia direccin de su vector normal u=[2, —3, 7]. De donde 6+ og +7 2.40. Considérese la siguiente curva C en R*, donde 0 (Comparese con el Teorema 2.2, referente a vectores en R".) Je aay, + 0g Wa to + Bayi Hayy + 2g Wy $0 + 24H) = HUD) iii) Método 1. Dado que ze (2W yy 2Way ss 2Wy), (20) = 2,20, + 220, + Método 2. Utilizando i) y ii), us (eo) = PROBLEMAS SUPLEMENTARIOS VECTORES EN R* 2.71, Sean u = (2, —1,0, —3), v= (1, —1, <1, 3), w= (1, 3, —2, 2). Hallar: a) 2u — 30; b) Su — 30 — aw; ) —u 4 2v — 2; d) urn, ww y vw; e) full. lol ¥ ll 2.72. Determinar x ¢ y si: a) x(3, = 2y, — 1); b) x(2, y) = y(l, =2). 2.73. Hallar d(u, v) y proy (u, v) cuando: a) w = (1, 3). 6 4,1); b) w= 2, 1,0, D0 = (=H, 1, 2). 82 ALGEBRA LINEAL COMBINACIONES LINEALES. INDEPENDENCIA LINEAL 2.74, Sean 1 1 1 0 wy={1 uy =| 2 1 1 3 Expresamos © como combinacién lineal de u,, u3, us, donde i 1 ‘a @) v=(-2 b v=[3}, oo v=(b 5 “ 2.75, Determinar si los siguientes vectores u, v, w son linealmente independientes y, en caso de no serlo, expresar uno de ellos como combinacién lineal de los otros. ® u=(1,0,1),0 b) u=(1,0,1, 9 u=(1,2,0=(, ~1),w =, 5). 4 1=(1,0,0, 1, 0= (1,2, 1),w = (1,2, 3.4) 2) u=(1,0,0, 0,0 VECTORES LOCALIZADOS. HIPERPLANOS, RECTAS, CURVAS 2.76. Encontrar el vector (localizado) » de a) P(2, 3, —7) a Q(1, —6, —5); b) P(I, — OG, —5, 2, —4). —4, 6) a 2.77. Hallar una ecuacion del hiperplano en R® que: a) Pasa por (2, ~7, 1) yes normal 2 (3, 1, —11). b) Contiene (1, 2, 2), (0, 1, 3) y (0, 2, —1). ©) Contiene (1, —5, 2) y es paralelo a 3x — Ty + 4z = 5. 2.78, Encontrar una representacién paramétrica de la recta que: a) Pasa por (7, —1, 8) en la direccion de (1, 3, —5). 5) Pasa por (1, 9, —4, 5) y (2, —3, 0, 4). ©) Pasa por (4, ~1, 9) y es perpendicular al plano 3x —2y +2 = 18, VECTORES ESPACIALES (EN R*), PLANOS, RECTAS, CURVAS Y SUPERFICIES EN R® 2.79, Hallar la ecuacién del plano H: 4) Con normal N = 3i—4j + 5k, que contiene el punto P(1, 2, —3). 4) Paralelo a 4x — 3y + 2z = 11, que contiene el punto P(1, 2, —3). VECTORES EN R” Y C”. VECTORES ESPACIALES 83 2.80. Encontrar un vector unitario u que sea normal al plano: a) 3x—4y—122=11; 6) 2x-y-2=7 2.81. Hallar cos @, siendo 9 el dingulo entre los planos: a) 3x—2y—42= Sy x+2y—62 b) Wx+Sy—4z= ly 4xt3y 422 2.82. Determinar Ia ecuacién (paramétrica) de la recta L: a) Que pasa por el punto P(2, 5, —3), en la direcci6n de v = 41 b) Que pasa por los puntos P(I, 2, —4) y QG, — ©) Perpendicular al plano 2x — 3y + 72 =4 y que contiene el punto P(1, ~5, 7). Si + 7k. 2.83. Considérese la siguiente curva, donde 0< t < 5: FQ) = Pi- Pj + 2 —3)k a) Hallar F(t) cuando r= 2 5) Determinar los extremos de ta curva. ) Encontrar el vector unitario T tangente a la curva cuando 1 = 2. 2.84, Considérese la curva F(t) cos t)i + (sen fj + tk. a) Determinar el vector unitario T(2) tangente a la curva. 4) Hallar ef vector unitario N(1) normal a la curva normalizando U(s) = dT()at. ©) Encontrar el vector unitario B(t) binormal a la curva utilizando B= T x N. 2.85. Considérese un mévil B cuya posicion en cl instante 1 viene dada por R(t) [Entonces V(t) = dR(e)/dt denota la velocidad de By A(t) = dV(t)jde su aceleracion.] a) Determinar la posicién de B cuando t 6) Determinar ta velocidad, v, de B cuando t = 1 ©) Determinar la rapidez, s, de B cuando ¢ 4) Determinar la aceleraci6n, a, de B cuando Pi +O + 2tk, 2.86. Hallar el vector normal N y el plano tangente H a la superficie en el punto dado: a) Superficie x*y + 3yz = 20 y punto P(I, 3, 2). 6) Superficie x + 3y — 52? = 16 y punto P(3, —2, 1). 287, Dada z= f(x, y) =x? + 2xy, encontrar el vector normal N y el plano tangente H para x = 3, y PRODUCTO VECTORIAL El producto vectorial s6lo esti definido para vectores en R°. 2.88. Dados u = doxu 31 4j + 2k, v= + S]— 3k, w= 4i + 7+ 2k. Hallar: a) ux v, b) wx w, c) vx w, 2.89, Hallar un vector unitario w ortogonal a a) u=(1, 2, 3) y v= (1, 1, 2); 6) w=3i—j+2k y v=4i-Jj—k, 84 2.90. ALGEBRA LINEAL Demostrar las siguientes propiedades del producto vectorial: a) uxv=—(exu) 4) wx (+ Ww) = (ux v) + (ux w) 5) ux u=0 para todo vectoru —e) (0+ w) x w= (Xu) + (Ww XU) ©) (hu) x v= Ru xv) =u x (ke) f) (wx 0) x w= (wwe (ow) NUMEROS COMPLEJOS 291. 2.92. 2.93, 2.94, 2.95. 2.96, Simplificar: a) (4 — 7i)(9 + 2i; b) 3 — 5i)*: I 31 Simpliicar: a) 5 6) = Ge OM PS Md) (; Sean 2 Siy w= 7+ 3i, Caleular: a) 2+ ws b) 20; 0) z/w; d) Z, ie) lel, fw) Sean + iy w=6—5i, Caleular: a) z/w; b) 2. ©) |z), jw. Demostrar que a) Re z= 4(z + 2); b) Imz 2)/2i. Demostrar que zw = 0 implica : = 0 0 w VECTORES EN C" 2.97. Demostrar las siguientes afirmaciones: Para vectores arbitrarios wv, weC* Wt) weuweoew; i) weUtd=weutweo, 2.98. Probar que la norma en C* satisface: {W,] Para cualquier vector u, full 2 0; y ull = 0 si y solo si u = 0. (W2] Para cualquier vector u y cualquier nimero complejo [N3] Para vectores cualesquiera uy v, ju + ol) < ull + Jol RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 2.1. a) 2u~30=(1, 1,3, -15) @ u-v=-6u-w= 70+ 4) Su 3v—4w = (3, —14, 11-32) e) ful = /14, Jo] = 2/3, wl ©) -w+ 2v—2w = (—2, -7,2, 5) 27 a) 2.73. a) -44 49), 2.14, 2.75, 2.76. 2.77. 2.78. 2.79, 2.81. 2.82. 2.83. 2.84. 2.85. 2.86. 2.87. 2.88, 2.89, 2.91. 2.92, 4) 5) ° a) dependientes; b) independientes; ¢) dependientes; ) % @) o) a VECTORES EN R” Y C”. VECTORES ESPACIALES 85 b= (3), — Suz + 3s =u; + 2 v= [(a— 2b + c/2]u, + (a + b — chu, + [lc — a)/2]us. ©) dependientes. -9.; Bb) v= (2,3,6,-10) Bx+y—M2=-12; 6) Bxt4y+2=7; o) 3x—Ty +42 = 46. +hya—143,2=8—5 xy a1 +h xy 9 = 12x = 4 + A xy = Se +3,y=—1-2y2=9+t 3x—4y+5e——20; 6) 4x +3y—22=16. —4j-12ky13;—-) w= J} — Wy. 23/29/41); ) 15/45/29). 24Ayy=5-Shz— 347. +2y=2-9,2= 446 x=lt2,y=—5-3,2=74+7 S—4jtk: —b) —3k y 1251-2574 7k; 0) T= (1-2 + kY//AI. T(0) = (—sen Di + (cos Hj + W)//2. N(t) = (—cos t)i — (sen £)). B(t) = (sen Hi — (cos j + W//2. j+%; M+ 34%; 9 VI d) H4G N= 6+ 749k, 6x + Ty +92 =45. N = 61 — 12) — 10k, 3x — 6y — 52 = 16 81+ Gk, Bx + by is W+1B+WR —)_- 3-16} - 6k — 2+ 443K — d) 21-13) 23k (1.1, 3B; BY (SE 11 — 2/50. 50-55; by) 16-30; ce) (+765; od) (131/25) -his By + 270/58 O -ii-1; d+ 30/50 86 ALGEBRA LINEAL 293, @) z+w=9-2) @ 2-245, 8 = 7-31 b) 29-291 2 121= 2, [wl = JB a: =(-1-419/58 294, a) c= (7+ 1661; 6) P= 2-1 = 9 lel= V3 [w= (01=0. De aqui |2|=0 0 |wi=0; y por tanto z=00 w=0. 2.96, Si zw=0, entonces |2wi = CAPITULO 3 Matrices 3.1. INTRODUCCION Las matrices ya se trataron en el Capitulo 1, y sus elementos se relacionaron con los coeficientes de sistemas de ecuaciones lineales. Aqui introduciremos nuevamente esas matrices y estudiaremos ciertas operaciones algebraicas definidas sobre ellas. El material aqui expuesto est destinado principalmente al calculo. No obstante, tal y como ocurria con las ecuaciones lineales, el tratamiento abstracto presentado posteriormente nos ayudaré a profundizar en la estructura de las matrices, Las entradas de nuestras matrices procederin de un cuerpo K arbitrario, pero fijo. (Véase el Apéndice.) Los elementos de K reciben el nombre de escalares. No se perder nada esencial sil lector supone que K es el cuerpo real, R, 0 el complejo, C. Por iiltimo, advertimos que los elementos de R" o C* se representaran convenientemente por vectores fila» © avectores columna», que son casos particulares de matrices. 3.2. MATRICES Una matriz sobre un cuerpo K (0 simplemente una matriz, si K viene dado implicitamente) es una tabla ordenada de escalares-a,j-de la forma My My + ay ay 22 Fan is Gan ve La matriz anterior se denota también por (a,)), i= 1, ..., m, j= 1, ..., m, 0 simplemente por (ay) Las m n-plas horizontales (04 p25 o+29 Baas aay aay +29 Gandy +25 (Bas Sma» ++ Sma) 87 88 ALGEBRA LINEAL son las filas de la matriz, y las n m-plas verticales ays\ faye’ 21) | a2 (mi) \Gqa) son sus columnas, Notese que el elemento a;;, lamado entrada ij 0 componente ij, aparece en la fila i€sima y en la columna j-ésima. Una matriz con m filas y n columnas se denomina matriz m por n, 0 matriz m x m; el par de mimeros (m, n) se Hama su tamaiio o forma. Las matrices se denotaran usualmente por letras mayisculas, A, B,..., y los elementos del cuerpo K por miniisculas, a, b, .... Dos matrices A y B'son iguales, escrito A = B, si tienen la misma forma y si sus elementos correspondientes coinciden. Asi la igualdad de dos matrices m xn equivale a un sistema de mn igualdades, una por cada par de componentes. EJEMPLO 3.1 1-3 4 Sus filas son (1, —3, 4) y (0, 5, —2); sus columnas son ((): ) y ( i. >) La ase 8 xty 24+w)\ (3 8 nil = es equivalente al siguiente sistema de ecuaciones: x-y z-w) \i 4 xty=3 x-y 2+0 z-wed La solucién del sistema es x = 2, y= 1,2 = .we al Nota: Para referirse a una matriz con una sola fila se utiliza también la expresién vector fila; y para referirse a una con una columna, la expresion vector columa. En particular, un elemento del cuerpo K puede verse como una matriz 1 x 1. 3.3. SUMA DE MATRICES Y PRODUCTO POR UN ESCALAR Sean A y B dos matrices con el mismo tamaiio (esto es, con el mismo numero de filas y de columnas), digamos dos matrices m x n: an MATRICES 89 La suma de A y B, escrito A + B, es la matriz. obtenida sumando las entradas correspondientes de ambas: yy + diy Aya diz) Gan + Dan! A+ Ba| tb daz tbaz -- dant bay ee El producto de un escalar k por la matriz A, escrito k- 4 o simplemente kA, es la matriz obtenida multiplicando cada entrada de A por k: kay, Ray... ay, baa | Rta Rta Kaan Kg, Kg Kab Obsérvese que A + By kA son matrices m x n también. Ademis definimos -1:A yy A~B=A+(—B) La suma de matrices con tamaiios diferentes no esta definida. 1-20 3 EJEMPLO 3.2. Sean a-( ) yB -( 45 6, 2) Entonces 8 - 342 4 - ave-(143 240 *2)-(_ 2 2) 4-7 S41 648, 36 2, qan(2l 3-9 3:3) 73 -6 9 TNR4 365 3+(-6/\I2 15-18, 2 -4 6) (-9 0 -6)_(/~7 -4 oO 2a—a9=(5 10 iG 33 a-(G 7 sa) La matriz m x n cuyas entradas son todas nulas se conoce como matriz cero y se denotard por Op, 0 simplemente por 0, Por ejemplo, la matriz cero 2 x 3 es 00 0 0090 La matriz cero es similar al escalar 0, y se utilizara el mismo simbolo para ambos. Para cualquier matriz A, A+0=0+4=4 Las propiedades basicas de las matrices, bajo las operaciones de suma matricial y producto por un scalar, se enuncian a continuacién. 90 ALGEBRA LINEAL Teorema 3.1: Sea V el conjunto de todas las matrices m x n sobre un cuerpo K. En tal caso, para matrices arbitrarias A, B, CeV y escalares cualesquiera k,, ky¢K, i) (A+B)4+C=A4+B40 V) k(A + B)=kA+ kB i) A+0=4 vi) (ky th)A= kA +k A iii) A+(-A)=0 Vii) (kykaJA = ky(ky A) iv) A+ B=B+A vii) 1-4=4 y04=0 Utilizando las propiedades vi) y vii) se puede ver también que A + A = 24, A+ 4+A=34, Nota: Supongamos que los vectores en R" se representan por vectores fila (o vectores columna), es decir, u= (ay, a2,.. ay) y Entonees, vistos como matrices, la suma u + v y el producto ku son los siguientes: = (iy bay -s+2 by) MADR (G+ Pat bay det) yk = (kay, kay, ..., ka) Pero esto corresponde precisamente a la suma y el producto por un escalar, tal y como se definieron en el Capitulo 2, Dicho de otro modo, tas operaciones sobre matrices anteriores pueden verse como una generalizacién de las operaciones correspondientes introducidas en el Capitulo 2, 3.4. PRODUCTO DE MATRICES El producto de dos matrices A y B, escrito AB, es algo complicado, Por esta razén, comenzare- mos con un caso particular. El producto A-B de una matriz fila A = (a,) y una matriz columna B niimero de elementos, se define como sigue: by by a 4,) = ayby + agby to + ayby = Y aydy 4 ot ba Notese que A-B es un escalar (0 matriz 1 x 1). El producto A-B no esta definido si A y B tienen niimeros diferentes de elementos. (b,), con-él mismo 1, 42,. EJEMPLO 3.3 3 8-4, 2]=8-3+(-4)-245-(-1)=24—8- =1, Haciendo uso de lo anterior, definimos ahora el producto de matrices en general. Definicion: | Supongamos que A = (a,;) y B = (b,j) son matrices tales que el néimero de colum- nas de A coincide con el mimero de filas de B; es decir, A es una matriz mx p y Buna MATRICES 91 matriz.p x n. Entonees el producto AB es la matriz m x n cuya entrada jj se obtiene multiplicando |a fila i-ésima 4; de A por la columna j-ésima B! de B As BY Ay? BP. Ay BM apa( 42°38) 42°B? Aa BY A,, * B" Esto es, aay a1,\ (bi by ban eu Con ys By : =| - i Font Amp] \Bpr bys Le mi mal 2 donde ¢; = a),by) + digbaj + + Aipdyy = Yd byy- rt Subrayamos el hecho de que el producto AB no esta definido si A es una matriz m x p y B una matriz q X n con p # q. EJEMPLO 3.4 é (: s\/a, a, a3) _ (ra, + sb, raz + sb, ras + sby t ub, by bs)” \ta, + ub, ta; + uby tay + uby, py (1 21 1) (tet42-0 tet4a-2) fs 3 40 2)°\3-144-0 3144-2) 7\3 aL 1AVt 2)_ (1141-3 1241-4) (4 6 0 2A3 4)” \o-142-3 0-242-4)7 \o 8, El ejemplo anterior muestra que el producto de matrices no es conmutativo, es decir, los productos AB y BA de matrices no son necesariamente iguales. El producto de matrices satisface, sin embargo, las siguientes propiedades: Teorema 3.2: i) (AB)C = A(BC) (ley asociativa). ii) A(B + C) = AB + AC (ley distributiva por la izquierda). iii) (B+ C)A=BA+CA (ley distributiva por la derecha), iv) k(AB) = (kA)B = A(KB), si k es un escalar. Se supone que las sumas y productos del teorema estan definidos. Hacemos notar que 0A = 0 y BO = 0, donde 0 es la matriz cero. 92 ALGEBRA LINEAL 3.5. TRASPUESTA DE UNA MATRIZ La traspuesta de una matriz A, denotada por AT, es la matriz obtenida escribiendo las filas de A, por orden, como columnas: M1 aay Gm M42 a2 g, Fin Bay se Opn En otras palabras, si A = (a,) es una matriz m x n, entonces AT = (aZ) es la matriz n x m con a}, = ay para todos los valores de iy j Advigrtase que la traspuesta de un vector fila es un vector columna y viceversa. La operacién de trasposicin definida sobre matrices satisface las siguientes propiedades: Teorema 3.3: i) (A +B)" =A? + BT ii) (ANP =A. (kA)" = kAT (si k es un escalar). iv) (AB)" = BTAT. Observamos en iv) que la traspuesta de un producto es el producto de las traspuestas, pero en orden inverso. 3.6. MATRICES Y SISTEMAS DE ECUACIONES LINEALES Consideremos nuevamente un sistema de m ecuaciones lineales con n incégnitas: F yyXq = by + day Xy 4X, + 42%2 +° y,X, + 033%, + Bu Ay 4X1 + OgaX2 + ° El sistema es equivalente a la ecuacion matricial: ayy aya 7 by | Ca 21 Io. | ioe xs |=| "| osimplemente AX =B », donde A = (ay) es la llamada matriz de los coeficientes, X = (x,) la columna de inc6gnitas y B= (6) la columna de constantes. La afirmacién de que son equivalentes significa que toda solucién del sistema [3.1] es solucién de la ecuacién matricial, y viceversa. MATRICES 93 La matriz ampliada del sistema [3.1] es la matriz: an a2 Qa, 2 Am Gm Esto es, la matriz ampliada del sistema AX = B consiste en la matriz A de coeficientes, seguida por la columna B de constantes. Observemos que el sistema [3.1] esta completamente determi- nado por su matriz ampliada. EJEMPLO 3.5. A continuacién se dan, respectivamente, un sistema de ecuaciones lineales y su ecuacion matricial equivalente. 2x4 3y—42=7 2 3 -a\l*\ 7 xody-Se=3 * a -2 -5\] =A 2, (Notes que el tamaiio de la columna de incégnitas no es igual al tamafio de la columna de constantes.) La matriz ampliada del sistema es 203-4 7 1-2-5 3 Al estudiar ecuaciones lineales, suele ser mas sencillo emplear el lenguaje y la teoria de matrices, como sugieren los siguientes teoremas. Teorema 3.4: Supongamos que u, tz, ...,M, Son soluciones de un sistema de ecuaciones lineales homogéneo AX =0. Entonces toda combinacién lineal de los u; de la forma ky, + kay +++ + Kytlyy donde los k; son escalares, es también una solucién de AX =0. En particular, todo miiltiplo ku de cualquier solucién u de AX =0 es también solucion del sistema homogéneo, Demostracién. Se nos dice que Au, = 0, Au; =0,..., Au, = 0. Por consiguiente, Alt, + kit + +++ + kay) = key Auy + ke Aug +000 + ky Atty = =k +k, 0+ +k,0=0 De acuerdo con ello, kyu, +++ + katt, ¢8 una solucién del sistema homogéneo AX = 0. Teorema 3.5: La solucién general de un sistema inhomogéneo AX = B puede obtenerse sumando el espacio solucién W del sistema homogéneo AX = 0a una solucién particular v del sistema inhomogeneo. (Esto es, vy + W es la solucién general de AX = B.) Demostracién. Sea w cualquier solucion de AX = 0. En tal caso, A(vo + W) = A(vo) + A(w) =B+0=B Es decir, la suma vg + w es solucion de AX = B. 94 ALGEBRA LINEAL Por otra parte, supongamos que v es cualquier solucién de AX = B (que puede ser distinta de vg). Entonces Alo — 00) Av ~ Avg = B-B=0 Esto es, la diferencia v — vg es solucin del sistema homogéneo AX = 0. Pero v= t+ (vu) De este modo, cualquier solucion de AX = B puede obtenerse sumando una solucion de AX a la solucién particular vy de AX = B. Teorema 3.6: Supongamos que el cuerpo K es infinito (por ejemplo, si K es el cuerpo real R © el complejo C). En tal caso, el sistema AX = B no tiene solucién, tiene una Gnica solucién, o tiene infinitas. Demostracién. Basta probar que si AX = B tiene mas de una solucién, necesariamente tiene infinitas. Supongamos que w y v son soluciones distintas de AX = B; es decir, Au = By Av=B. Entonces, para todo ke K, Alu + Ku — v)] = Au + k(4u — Av) = B+ K(B— B)=B En otras palabras, para todo ke K, u + k(u —v) es solucion de AX = B. Dado que todas las soluciones tales son distintas (Problema 3.21), AX = B tiene un nimero infinito de soluciones, como se pretendia. 3. . MATRICES POR BLOQUES Utilizando un sistema de lineas (discontinuas) horizontales y verticales podemos partir una matriz A en otras mas pequefias llamadas bloques (0 celdas) de A. La matriz A se denomina entonces una matriz por bloques. Obviamente, una matriz dada puede dividirse en bloques de diversas maneras; por ejemplo, 1-2 0 1 2 93 5 7 3 1 4 = 5 La conveniencia de la division en bloques reside en el hecho de que el resultado de las operaciones entre matrices por bloques puede obtenerse Ievando a cabo el cilculo con éstos, como si realmente fueran los elementos de las matrices. Esto se ilustra a continuacién Supongamos que A se ha partido en bloques; digamos Air Ay vs Aa An Az MATRICES 95 Multiplicar cada bloque por un escalar k equivale a hacerlo con cada elemento de A; asi KA Aye kAn Aza KA, KAay kA KAm KAg2 Km Supongamos ahora que B es una matriz dividida en el mismo mimero de bloques que A; digamos By: Biz. Bay! pu |B Ba Bu But Bra. B, Ain mas, supongamos que los bloques correspondientes de A y B tienen el mismo tamafo. Sumar dichos bloques equivale a hacerlo con los elementos correspondiente de A y B, de acuerdo con lo cual, Aut Bi Ait Biz Ant Bus Aepa| 40 tBa dort Bar. Anat Ba Ani + Bm Amz + Bua El caso del producto de matrices es menos obvio, pero afin cierto, Supongamos que dos matrices U y V se dividen en bloques como sigue Un Van! Von Var oo Vpn de forma que el numero de columnas en cada bloque U, es igual al numero de filas en cada bloque ¥%;,. En tal caso, Wa donde Wig = UnVay + Vir Vay + +77 + Vip Voy La demostracién de la formula anterior es directa, aunque detallada y larga. Se deja come problema suplementario. 96 ALGEBRA LINEAL PROBLEMAS RESUELTOS UMA DE MATRICES Y¥ PRODUCTO POR UN ESCALAR -1.2 3-5 3.1. Calcular: 1 PO) 440 para A=( : ye arinst © b) 34y -54,dondea=(1 —2 3 jonde' A = y A - a) Sumamos los elementos correspondientes: _(l#1 24) 342)_(21 5 asan(155 543 srees)-( 8 ) 1b) Multiplicamos cada entrada por el escalar dado: san(2t 3D 33 3-6 ’) “\3-4 355) 3+(-@/ 7 \12 15-18, san(~Stt ~S-% =513.)_( 5 10-19 TOON -5:4 -5+5 -5+(-6) \-20 -25 30, T2 3 300 2 y B= : (; 5 a) 2 (3 1 ‘) Primero efectuamos los productos por los escalares y Iuego la suma de matrices: 2-4 6) (-9 0 -6).(-7 -4 0 24 -3B= = G 10 _a)*( 2-3 |) ( » 7 =) (Adviértase que multiplicamos B por —3 y después sumamos, en lugar de multiplicar B por 3 : restar. Esto suele evitar errores.) . x y\_[ x 6 40 oxty 33. Hata x3. yw si3(’ ry=(3 ee 4 ). Comenzamos escribiendo cada miembro como una sola matriz: 3x 3y\_( xt4 xty46 32 3w) \ztw—l Qw+3 Igualamos las entradas correspondientes entre si obteniendo el sistema de cuatro ecuaciones 3.2. Hallar 24 — 3B, donde A x axa dad Byaxty4+6 | dy 6H 3e=ztw-1 awn 3w = 2w +3 w La solucién es: lw=3 MATRICES 97 3.4, Demostrar el Teorema 3.1 v): Sean A y B dos matrices m x n y k un escalar. Entonces k(A + B)=kA + kB. Supongamos A = (a) y B = (b,). En tal caso, aj, +b; es la entrada ij de A + B, y por tanto K(a;; + b,;) es la de k(4 + B), Por otra parte, ka,; y kb,; son las entradas ij de kA y kB, respectiva- mente, y en consecuencia ka,; + kb,; es la de kA +kB. Pero k, a;; y b,; son escalares en un cuerpo, de donde K(ay + by) = kay + kby para todos los i. j Asi K(A-+ B) = kA + KB, ya que sus entradas correspondientes son iguales PRODUCTO DE MATRICES 3 3.8. Calcular: a) (3,8,-2,4-1], 6) (1, 8,3, 46, 1, -3, 5) 6 4) EI producto no esta definido cuando las matrices fila y columna tienen nimeros diferentes de elementos. b) El producto de dos matrices fila no esta definido, el 3-2 6, a) Dado que A es 2x 2 y Bes 2x3, el producto AB est definido y es una matriz 2 x 3. Para obtener las entradas en la primera fila de 4B, multiplicamos la primera fila (1, 3) de A por las 2 0\ (-4 columnas ( 5}. y(~¢) de B, respectivamente: B32 0 HA) (/1-243-3 1-043-(-2 1-(-4) 43-6 2-13 (=2 6) (oe 0-6 ane <4) Para obtener las entradas en la segunda fila de AB, multiplicamos la segunda fila (2, —1) de A por las columnas de B, respectivamente: 1 3/2) 0 | no -6 14 asia -2 6/"\4-3 042 -8-6 Ai as-(" 6 14 12-14, 1 3 2 Oo -4 36. Sean A= y B= Hallar a) AB, b) BA 1b) Nétese que B es 2x 3 y A es 2 x 2. Como los néimeros interiores 3 y 2 no son iguales, el producto BA no esti definido. 2-1 ne) 3.7. Dadas A=| 1 0 ya=( alla «) AB, 8) Ba “3 al er an) 98 ALGEBRA LINEAL 4) Como A es 3x2 y B es 2x 3, el producto AB esta definido y es una matriz 3 x 3, Para obtener la primera fila de AB, multiplicamos la primera de A por cada columna de B: a a -1 -8 =1 : oC asa s)- 10 +0) fo 8 ‘ _3 4{\o i Para obtener la segunda fila de 4B, multiplicamos la segunda de A por cada columna de B: 2 l\ at 1-8 10 -1 -8 ~10) 1 ol(5 Be )- 140 -240 -s+o0}=| 1 -2 -5 34 2-1 -1 -8 -10 -1 -8 -10) io\itay(a 2 s)(4 35 4) —3+12 6416 1540, 9 22 15, -1 -8 -10 Asi AB= 1 =f 9 2 15, b) Dado que Bes 2x 3y Aes 3x 2, el producto BA esti definido y es una matriz 2 x 2. Para obtener su primera fila, multipticamos ta primera de B por cada columna de_A: € a: m= 7 S “R08 knee) (" ~) 34 Ole Ey Para obtener su segunda fila, multiplicamos la segunda de B por cada columna de A: 1 =z 6=8 ol-( 3 um \_(is -2 Ai eae, 5 “\o+44+0 -3+0+0/° \10 -3, : 15-21 Asi = wale oa) Nota: Obsérvese que en este problema tanto 4B como BA estan definidos, pero no son iguales; de hecho, ni siquiera tienen la misma forma. =1 3.8. Determinar AB, siendo 3.10. 3.1. 3.12. MATRICES 99 Como A es 2x 3 y Bes 3 x 4, el producto esta definido y es una matriz 2 x 4. Multiplicamos las filas de A por las columnas de B para llegar a gpa(2t3-4 249-1 O-1542 1243-2) (3 6 -13 13 “\g-24+20 -4-6+5 0410-10 24-2410)" \26 -s 0 32, Refiramonos al Problema 3.8. Suponiendo que sélo la tercera columna del producto AB fuera de interés, ,c6mo podria calcularse de forma independiente? Segiin la regla del producto de matrices, la columna j-ési factor por el j-ésimo vector columna del segundo. Siendo asi 2 3-1 f\o 0-15+2)_ (13 4-2 s\5} > \o+ 10-10, 0, De forma similar, la fila i-ésima de un producto es igual al /-simo vector fila del primer factor por el segundo factor. 1a de un producto es igual al primer Sea A una matriz m x n, con m>1 y n> 1. Suponiendo que u y v sean vectores, discutir las condiciones bajo las cuales a) Au, b) vA esta definido. a) El producto Au esti definido tnicamente cuando u ¢s un vector columna con n componentes, es decir, una matriz n x 1. En tal caso, Au es un vector columna con m componentes. 1b) El producto vd esti definido s6lo cuando v es un vector fila con m componentes, en cuyo caso vA ¢s otro vector fila, con n componentes. 2 2 Calcular: a) [ 3]6 dy y 6 5 3]. = =| a) El primer factor es 3 x 1 y el segundo 1 x 3, por lo que el producto esta definido como una matriz 3 x 3: 2 2X6) (2X4) XS) 12 -8 10) 3X6 -4 =| CH) —BX-4) XS) J= [| 18-12 15 aH (106) (—1K-4) (19) \-6 4 = 5, b) El primer factor es 1 x3 y el segundo 3 x 1, de modo que el producto esta definido como una matriz 1 x 1, que escribimos frecuentemente como un escalar. 2 sf 3)=02-12-5 -4 6 Demostrar el Teorema 3.2 i): (AB)C = A(BC). Sean A = (a;), B= (by) y C= (cy). Ademés, sean AB (a) y BC = (ty). Entonces Sa Grbra + Gizbre + Ginbae = YF ayda A 4 brea t hace + bus Sibu 100 ALGEBRA LINEAL Ahora, multiplicando $ por C, esto es, AB por C, el elemento en la fila é-ésima y en la columna Lésima de la matriz (AB)C es Sanlu t Sine t "+ Sines = ¥ sacu= YY lay bak mi Por otra parte, multiplicando A por T, es decir, A por BC, el elemento en la fila i-ésima y en la columna L-ésima de la matriz A(BC) es Gita + ia tay $0 inl = Ea 5 Savtacnd Siendo iguales las sumas anteriores, el teorema queda probado, 3.13. Demostrar el Teorema 3.2 ii Sean A= (a,), B= (bg) ¥ C= (ca). Ademis, sean D = B+ C= (dy), E= AB= (¢4) y F= AC = (fy). Entonces : A(B + C)=AB + AC. dy = bgt ep Cn = Buda t+ iz bay +--+ Gindan = Yo aybp i A i Sin = Mn Cin + Gin Ca + °° + Gig Cme = YE yop im Por tanto, el elemento en la fila i-ésima y en la columna k-ésima de la matriz AB + AC es Sata + en) 1 } fat lam Sauber Sauce | I Por otto lado, el elemento en la fila i-ésima y en la columna k-ésima de la matriz AD = A(B + C) es Gandy + Onda + °° + Cindy = Yo aydy = Y aifby + ey) A it Asi A(B + C) = AB + AC debido a que los elementos correspondientes son iguales. | TRASPUESTA 3.14, Dada 4 -({ 7 :) hallar AT y (AT). 6 -7 -8, Reescribimos las filas de A como columnas para obtener AT y a continuacion reescribimos las filas de AT como columnas para obtener (47)?: 1 6 AT=(3 -7 anr=(5 7 3) * 5 -8, [Tal y como cabia esperar por el Teorema 3.3 ii), (A7)" = A) MATRICES 101 3.15. Probar que las matrices AA” y ATA estan definidas para cualquier matriz A. Si A es una matriz mx n, AT sera una matriz n x m. Por consiguiente, 4A estaré definida como una matriz mx my ATA lo estaré como una matriz n x 7 1 2 3.16. Encontrar 4A” y ATA, donde A -( ‘) 3-1 4, Obtenemos AT reescribiendo las filas de A como columnas: 1 3 13 ra rfl 2 0 (pt Ar =(2 -1] dedonde AA’ (} ' ‘2 -1 -( ») 0 4) o 4 1 x 12 oy [ite 2-3 oF12 to -1 12 ATA=(2 1 (5 i = 2-3 441 0-4 ' 0 4 +12 0-4 0416, 3.17. Demostrar el Teorema 3.3. iv): (AB)™ = BTA’. Si A = (ay) y B= (by), la entrada ij de AB es Airbag + diabay + om + dimPrg a De este modo, [1] es la entrada ji (orden inverso) de (AB)". Por otra parte, la columna j de B se convierte en la fila j de BT y Ia fila i de A en la columna i de A’. Consecuentemente, la entrada ji de BTAT es ay (ayy Baye svn Dal 9? 1 iy + Baya + °° + Bey i a, Asi (4B)" = BT AT, puesto que las entradas correspondientes son iguales MATRICES POR BLOQUES 3.18. Calcular AB empleando multiplicacién por bloques, donde | EF R Ss Aqui A= ( ) yB= ( i} donde E, F, G, R, $y T son los bloques dados, Por O62 & O23 T, tanto, ms 9 12 15 3 1 (en a7) (5 3) G)+@)\_(2 2 8 8 Dear OE 0 0 0 a @ 0 9 Q 102 ALGEBRA LINEAL 3.19. Evaluar CD mediante multiplicacion por bloques, siendo G aha A) Onna se i S41 2 " 7 - i 30401 ~ 41 344-248 ° 76 0 O _[\9+8 —6+ 16 a 71 0 oO 9 2 542-8 10-34+2\]~| 0 0 -1 3+8-4 6—-124+1 PROBLEMAS VARIOS 3.20. Demostrar las siguientes afirmaciones: a) Si A tiene una fila nula, entonces AB la tiene también. b) Si B tiene una columna nula, también la tiene AB. 2) Sean R; la fila nula de A y BY, ..., BY las columnas de B. Entonces Ia fila i-ésima de AB es (Ry BY, Ry BY, ..., Ry BY) = (0,0, ..., 0) 4) Sean C; la columna nula de By Ay, ..., Ay las filas de A. En tal caso, la columna j-ésima de ABes Ac) [0 Ai*C,|_[ 0 An C)) \o 321. Sean u y v dos vectores distintos. Probar que, para cada escalar ke K, los vectores u + k(u — v) son distintos. Es suficiente probar que si w+ kyu 0) =u t kyl — 0) uw ‘entonces k, = ky. Supongamos que se verifica [1]. En tal caso, k(u-v)=k(u-v) 0 (ky —ky)(u—v) =0. Como w y v son distintos, u—v #0. Por consiguiente, k; — k = 0 y ky = ky. . FT E_E MATRICES 103. PROBLEMAS SUPLEMENTARIOS OPERACIONES MATRICIALES Los Problemas 3.22-3.25 estan referidos a las siguientes matrices: hoe BOR k § G 3.30, 331. a-G Hallar 5A — 2B y 24 + 3B. Hallar: a) AB y (AB)C, b) BC y A(BC). [Notese que (AB)C = A(BC)] Hallar A7, BT y ATBY, [Notese que ATB™ # (AB)"] Hallar AA = A? y AC. a, a, a5 a, 10,0), = (0,0, 1, 5=(0.0. Dy A=(b, 6, bs by). Hallar e, 4, Cu os Cy Supéngase que e, eA y ed. (0, ..., 0, 1,0, ..., 0), donde | es la componente i-ésima. Demostrar las siguientes afirmaciones: 4) ¢A= A, la Fésima fila de una matric A. b) Bef = By, la j-sima columna de B. ¢) Si eA = @B para todo i, entonces A = B. 4) Si Ae] = Be? para todo j, entonces A = B. 12 Sea A= ( a) Encontrar una matriz 2 x 3 B con entradas distintas tal que AB = 0. Demostrar el Teorema 3.2: ili) (B+ C)A = BA + CA; iv) k(AB) = (k)B = A(kB), donde k es un escalar. [Las partes i) y ii) se probaron en los Problemas 3.12 y 3.13, respectivamente,] Demostrar el Teorema 3.3: i) (A + B)” = AT + BY ii) (AT)? = A; iii) (kA)? = kAT, siendo k un escalar. [La parte iv) se demostrd en el Problema 3.17,] SupOngase que A = (Aq) y B = (B,,) son matrices por bloques para las que AB esta definida y que el niimero de columnas de cada bloque 4, es igual al niimero de filas de cada bloque B,,. Demostrar que AB = (C,), donde Cy =D Ay By 104 ALGEBRA LINEAL RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS oa Gy ht o) a oS h(n ts ae)9(6 5) on CCH) os (5 SHG a) 3.26. (ay, 3, 3, 4), (by, Ba, Bs, bg); (Cas Cas C5; C4), Tas filas de A. 2 4 6 “ \-1 -2 -3, 21 105 98 17 -285 296, CAPITULO 4 Matrices cuadradas. Matrices elementales 4.1, INTRODUCCION Las matrices con el mismo niimero de filas que de columnas se denominan matrices cuadradas. Son de importancia capital dentro del algebra lineal y se emplearan a lo largo de todo el texto. Este capitulo introduce dichas matrices junto a un cierto nimero de sus propiedades basicas. ‘demas, el capitulo nos presenta las matrices elementales, que estin estrechamente ligadas a las operaciones elementales entre filas del Capitulo 1. Las utilizaremos para justificar dos algoritmos: uno que determina la inversa de una matriz, y otro que diagonaliza una forma cuadratica. ‘A menos que sc establezca o sobrentienda lo contrario, los escalares serin nimeros reales en este capitulo. No obstante, discutiremos el caso especial de las matrices complejas y algunas de sus propiedades. 4.2. MATRICES CUADRADAS Una matriz cuadrada es la que tiene el mismo mimero de filas que de columnas. Se dice que una matriz cuadrada n x m es de orden n y se le asigna el nombre de matriz n-cuadrada. Recuérdese que no todo par de matrices puede sumarse 0 multiplicarse. Sin embargo, cuando nos limitamos a considerar las de un orden dado, n, este inconveniente desaparece. Especificando, las operaciones de suma, producto, producto por un escalar y trasposicién pueden efectuarse sobre todas las matrices n x n y el resultado es nuevamente una matriz n x n. 1 2 3 2-5 1 EJEMPLO 4.1. Sean A= (-4 —4 -4] y B=[0 3 —2). Entonces 4 y B son matrices 56 7 12-4 cuadradas de orden 3. Ademas, 105 106 ALGEBRA LINEAL I & rs 2 L s A+B=(-4 -1 -6 2d4—{-8 -8 -8 AT=(2 -4 6 6 8 3 10 12 14/ 3-4 7 y 24043 -546+6 1-4-12 5 7 -15) AB=|-8+0-4 2-12-8 -4+8+416]=(-12 0 20 104047 -25418+14 5-12-28 177-35 son matrices de orden 3 Nota: Una coleccién no vacia A de matrices se denomina un dlgebra (de matrices) si es cerrada bajo las operaciones de suma, producto por un escalar y producto, Asi la coleccién M, de todas las matrices n-cuadradas constituye un Algebra de matrices. MATRICES CUADRADAS COMO FUNCIONES Sea A cualquier matriz n-cuadrada, A puede verse como una funcién A:R" > R" de dos formas diferentes: 1. A(u) = Au, donde w es un vector columna. 2. Alu) = uA, donde u es un vector fila. En este texto se adopta el primer significado de A(u), esto es, la funcién definida por la matriz A seré A(u) = Au. De acuerdo con esto, a menos que se establezca o sobrentienda lo contrario, se supondra que los vectores 1 en R" son yectores columna (no vectores fila). Por conveniencia tipografica, tales vectores columna w se presentaran a menudo como vectores fila traspuestos. 1-203 EJEMPLO 4.2. Sead={4 5 ~6 ]. Siw=(1, ~3, 7)”, entonces 2 0-1 1-2 3\/ t\ fis6+a 28 Aw)=Au=|4 5 —6}/-3)=[4-15-42] =( 33 2 0 -1/\ 7) \ 240-7 -5 Siw = (2, —1, 4)", entonces 1-2 3\f 2) f2+24i) 16) Aws)=Aw=[4 5-6] -1]=(8-s—24}=(-21 2 0 -1/\ 4/ \a+o-4 9 Advertencia: En algunos textos se define la funcidn 4 ant Au) = uA F como donde se supone que los vectores u en R" son vectores fila. Evidentemente, si uno solo trabaja con vectores en R" y no con matrices, carece de importancia la forma en que se definan éstos. MATRICES CUADRADAS. MATRICES ELEMENTALES 107 MATRICES QUE CONMUTAN Se dice que las matrices A y B conmutan si AB = BA, condicién sélo verificable por matrices cuadradas del mismo orden. Por ejemplo, supongamos 12 5 4 G2)» Ga) Entonces S412 44+22\_(17 26 paa(St 2 W416) _(17 26) AB=\i5 424 12444) “(39 56, e 6+33 12444)” \39 56 A Como AB = BA, las matrices conmutan. 4.3. DIAGONAL Y TRAZA. MATRIZ IDENTIDAD Sea A =(a,) una matriz. n-cuadrada. La diagonal (0 diagonal principal) de A consiste en los elementos 4, y2, «+5 Myy- La traza de A, escrito tr A, es la suma de los elementos diagonales, es decir, te A= ayy +Gg2 +7 + Om = Dy La matriz n-cuadrada con unos en la diagonal y ceros en cualquier otra posicién, denotada por J, 0 simplemente por J, se conoce como matriz identidad (0 unidad). La matriz. I se asemeja al escalar 1 en que, para cualquier matriz. A (del mismo orden), AI=IA=A Con mayor generalidad, si B es una matriz m x n, BI, = Be I,B = B (Problema 4.9). Para un escalar arbitrario ke K, la matriz kf, que contiene k en las posiciones diagonales y 0 en cualquier otro lugar, se denomina la matriz escalar correspondiente al escalar k. EJEMPLO 4.3 a) La delta de Kronecker 3, se define como 0 sits by { sii=j Siendo asi, la matriz. identidad puede definitse como I = (6,). b) Las matrices escalares de érdenes 2, 3 y 4 correspondientes al escalar 5 (3) 0 5, 0 (Es practica comin el omitir bloques o disposiciones de ceros como se ha hecho en la tercera matriz.) = 5 son, respectivamente, 3 euo wes EI siguiente teorema se demostrara en el Problema 4.10. | | 108 ALGEBRA LINEAL Teorema 4.1: Supongamos que A = (ay) y B= (by) son matrices n-cuadradas y que k es un escalar. En tal caso, i) t(A+B)=-t A+B, il) kA=k-tr A, iii) te AB=tr BA 4.4. POTENCIAS DE MATRICES. POLINOMIOS DE MATRICES Sea A una matriz n-cuadrada sobre un cuerpo K. Las potencias de A se definen como sigue: A? = AA BP APA, coy AO My ve y A=l También se definen polinomios en la matriz A. Concretamente, para cualquier polinomio, SX) = ag + ayx + a,x? 4° + a,x" donde los a; son escalares, (A) se define como la matriz S(A) = dg + ayA + a, A? +--+ +a, A" [Notese que f(A) se obtiene de f(x) sustituyendo la variable x por la matriz A y el escalar ay Por la matriz escalar ap/.] En caso de que f(A) sea la matriz cero, A recibe el nombre de cero © raiz del polinomio f(x). EJEMPLO 4.4. Sea A= (; F Entonces «G0 )-G a) > 2 -4, Si f(x) = 2x? — 3x + 5, entonces sav 5 a) +0 (ar) Si g(x) = x? + 3x — 10, entonces (5 a) 2-6 1)-G 9) Asi A es un cero del polinomio g(x). it 38 57 —106, La aplicacién anterior del anillo K[x] de los polinomios sobre K en el algebra M, de las matrices n-cuadradas definida por F(x) > f(A) se lama aplicacién de evaluacién en A. Es aplicable el teorema enunciado a continuacién (y probado en el Problema 4.11). MATRICES CUADRADAS. MATRICES ELEMENTALES 109 Teorema 4,2: Sean f(x) y g(x) dos polinomios y A una matriz n-cuadrada (todos sobre K). Se cumple: i) (f+ A) = f(A) + 9A). ii) (foXA) = fA)ol 4). iii) f(A)g(A) = ofA) f(A) Dicho de otro modo, i) y ii) establecen que si primero sumamos (multiplicamos) los polinomios f(x) y g(x) y luego evaluamos la suma (producto) en A, el resultado coincide con el que obtendriamos si primero evaluaramos f(x) y g(x) en A y después sumaramos (multiplica- ramos) las matrices f(A) y g(A). La parte iii) establece que dos polinomios cualesquiera en A conmutan. 4.5. MATRICES INVERTIBLES (NO SINGULARES) Se dice que una matriz cuadrada A es invertible (0 no singular) si existe una matriz B con la propiedad de que AB=BA=I siendo I ta matriz identidad. Tal matriz B es tinica, puesto que AB,=B,A=I y AB,=B,A=I implica B, = B,I = B,(AB,) = (B,A)B, = IB, =B, Denominamos a la matriz B la inversa de A y la denotamos por A~'. Observemos que la relacion anterior es simétrica, 0 sea, si B es la inversa de A, necesariamente A es la inversa de B. 2 S\/ 3 -5\_(6-5 -10+10)_(1 0} aa-(} 3\-1 G03 eO-G ‘=r 3 -s\/2 5 6-5 15-15\_ (1 0 wa-(} MG )-(855 pela ‘= De este modo, A y B son invertibles, siendo cada una la inversa de la otra. EJEMPLO 4.5 Entonces os a) Supongamos A -( ) yB 3-5 13 1 1 0 2 22 4) Supongamosd=[ 2 -1 3]yB={ -4 0 1]. Entonces 4 1 8 6-1 -1 1140412 240-2 240-2) /1 0 Oo AB=|—224+44+18 440-3 4-1-3}=[0 1 o}=7 44448 8+0-8 8+1-8/ \o 0 1, 110 ALGEBRA LINEAL Por el Problema 4.21, AB = 1 si y sélo si BA = I; por consiguiente, no necesitamos comprobar sf BA =I. Siendo asi, A y B son cada una inversa de la otra. Consideremos ahora una matriz 2 x 2 general ab ed Podemos determinar cuando es 4 invertible y, en caso de serlo, dar una formula para su inversa. Para empezar buscamos escalares x, y, 2, 1 tales que a b\/x y\_(1 0 a ‘ax +bz ay+bi -( °) ce dz t})” \o 1, ex+dz cy+dt}) \o 1, lo cual se reduce a resolver los dos sistemas: eas fyeunt cx+dz=0 cy + dt donde la matriz original A es la matriz de los coeficientes de cada sistema. Tomemos |A| = ad — be (el determinante de A). Segin los Problemas 1.60 y 1.61, los dos sistemas son resolubles y por ende A es invertible si y sélo si |A] # 0. En ese caso, el primer sistema tiene la solucién tnica x =dijAl, z= —cjlA] y el segundo la solucién tinica y = —bjAl, t = a/|A]. De acuerdo con esto, ana( MAl von a “) “\-elAl afl TAl\-e Expresado en palabras: Cuando [4| #0, la inversa de una matriz 2 x 2 A se obtiene: i) inter- cambiando los elementos de la diagonal principal, ii) tomando los opuestos de los otros elementos, iii) multiplicando la matriz resultante por 1/\Al. Nota 1: La propiedad de que A es invertible si y sélo si su determinante |A| # 0 es cierta para matrices cuadradas de cualquier orden. (Véase Capitulo 7.) Nota 2: Supéngase que A y B son invertibles. En tal caso, AB es invertible y (AB)"! = B71A7* Con mayor generalidad, si Ay, A, ..., 4, Son invertibles, entonces su producto también lo es y (Ay At = Apt Agta! que es el producto de las inversas en orden inverso. 4.6. TIPOS ESPECIALES DE MATRICES CUADRADAS Esta seccién describe un cierto niimero de clases especiales de matrices que desempefian un papel importante en el algebra lineal. MATRICES CUADRADAS. MATRICES ELEMENTALES 111 MATRICES DIAGONALES ‘Una matriz cuadrada D = (d,j) es diagonal si todas sus entradas no diagonales son nulas. Tal matriz se denota frecuentemente por D = diag (d,,, dz2, .-. dq), donde algunos o todos los d,; pueden ser nulos. Por ejemplo, ao ol 4 0 0 0-7 0 0 -9 2 son matrices diagonales que pueden representarse, respectivamente, por diag (3, —7, 2) diag(4,-5) yy — diag(6, 0, —9, 1) (Obsérvese que se han omitido disposiciones de ceros en la tercera matriz.) Claramente, la suma, producto por un escalar y producto de matrices diagonales son nuevamente diagonales. De esto modo, todas las matrices diagonales n xn forman un algebra de matrices. De hecho, las matrices diagonales forman un Algebra conmutativa, porque dos matrices diagonales n x n cualesquiera conmutan. MATRICES TRIANGULARES Una matriz cuadrada A= (aj) es una matriz triangular superior o simplemente una matriz sriangular si todas las entradas bajo la diagonal principal son iguales a cero, esto es, si 5; =0 para i> j. Las matrices triangulares superiores genéricas de Ordenes 2, 3 y 4 son, respectivamente, b, i b. Cin Cin Sra Cra 0 an, 2 C33 C34 bay a Como con las matrices diagonales, es prictica comin el omitir disposiciones de ceros.) Las matrices triangulares superiores también forman un Algebra de matrices. De hecho, ‘Teorema 4.3: Supongamos que 4 =(q,) y B= (bj) son matrices triangulares superiores. Ezzonces yy + Dy) i) A+ Bes triangular superior, con diag (a;, + 611, @22 + baa - 3) kes triangular superior, con diag (kay 4, kaz35 «+++ Kay) AB es triangular superior, con diag (a, by 1. 42322. +++ GynPm) Para cualquier polinomio f(x), Ia matriz f(A) es triangular superior, con diag (f(a), f(a22), +--+ f(a) ») Acs invertible si y slo si cada elemento diagonal a, 4 0. 112 ALGEBRA LINEAL Anilogamente, una matriz triangular inferior es una matriz cuadrada cuyas entradas sobre la diagonal principal son todas nulas, y un teorema andlogo al 4.3 rige para tales matrices. MATRICES SIMETRICAS Una matriz real es simétrica si AT = A. Equivalentemente, A = (a,;) es simétrica si los elementos simétricos (iméigenes especulares respecto a la diagonal) son iguales, es decir, si cada aj; = ay. (Notese que A debe ser cuadrada para que pueda ser A? = A.) Una matriz real A es antisimétrica si AT = —A. Equivalentemente, una matriz A = (a,) es antisimétrica si cada a,j = —a,, Claramente, los elementos diagonales de una matriz antisimétrica deben ser nulos, ya que a,, = —a,, implica ay = EJEMPLO 4.6. Consideremos las siguientes matrices: 2-3 38 0 3-4 A=(-3 6 7 B-(-3 0 5 e-(} ° ‘) 5 7 -8 4-5 9 4@) Por simple inspeccién, vemos que fos elementos simétricos de A son iguales, 0 que A? = A. Siendo asi, A es simétrica. 'b) Por inspeccién, vemos que los elementos diagonales de B son 0 y que los elementos simétricos son ‘opuestos entre si. De este modo, B es antisimétrica, ©) Como C no es cuadrada, no es simétrica ni antisimétrica. Si A y B son matrices simétricas, A+ B y kA también lo son. Sin embargo, AB no es necesariamente simétrica. Por ejemplo, 12 a-(} )o a= Asi las matrices simétricas no forman un algebra de matrices. EI siguiente teorema se demostrara en el Problema 4.29. 1417 23 28, 4s ceri 5g) son simétricas, pero AB = ) no es simét Teorema 4.4: Si ‘A es una matriz cuadrada, entonces i) A+ AT es simétrica; ii) A— AT es antisimétrica; iii) A = B + C para alguna matriz simétrica B y alguna antisimétrica C. MATRICES ORTOGONALES Se dice que una matriz real A es ortogonal si AAT = A" = 1. Observemos que una matriz ortogonal A es necesariamente cuadrada e invertible, con inversa A~! = AT. i a MATRICES CUADRADAS. MATRICES ELEMENTALES 113, 4 § 3 EJEMPLO 4.7. Sea d=({$ —$ —$]. Entonces B84 $$ -8\/ $ 5 SB) | [1464416 4-32428 848 ~16) AAT=|$ -§ -3H $ -% s)-a 4-324+28 16416449 32-4-28) = 8 8 s/\-3 -b 4, 8+ 8-16 32- 4-28 6441416, 1/1 0 o) ft 0 oO =qlo st oj=(0 1 o}=r o o8i/ \o o 1 Esto significa que AT = A~' y por tanto ATA =I. Asi A es ortogonal. Consideremos ahora una matriz 3 x 3 arbitraria a, a, a Si A es ortogonal, Esto proporciona Q+a+ay=i yb, +azb,+a3by=0 aye +.4,C2 + aye bya, + bya, + b3a3=0 bi +634 b3=1 byey + Baca + yey = C10, +24, + C34; =0 cyby + 2b; +0363 =0 tht ey ©, en otras palabras, wry = 1 uy ty + us =0 ua ay uy u,* Us" us Us * us = donde u, = (,, ay, 03), ty = (by, bp, b5), ty = (C1, €2, €) Son las filas de A. Ast las filas 1, up ¥ 4, son ortogonales entre si y tienen longitudes unidad, 0, dicho de otro modo, forman un conjunto ortonormal de vectores. La condicién A’ A =I muestra, similarmente, que las colum- nas de A constituyen un conjunto ortonormal de vectores. Ain mas, dado que cada paso es reversible, el reciproco es cierto. El resultado relativo a matrices 3 x 3 anterior es valido en general. Esto es, Teorema 4.5: Sea A una matriz real. Son equivalentes las afirmaciones: a) A es ortogonal; 5) las filas de A forman un conjunto ortonormal; c) las columnas de A forman un conjunto oxtonormal. Para n = 2 tenemos el resultado siguiente, probado en el Problema 4.33. | 114. ALGEBRA LINEAL 0 send 0 send Teorema 4.6: Toda matriz ortogonal 2 x 2 tiene la forma( °°" eR), ( $08 — send cose) °\sen0 —cos 0, para algan ntimero real 0. Nota: La condicién de que los vectores tt, uz, ..., u» formen un conjunto ortonormal puede describirse sencillamente como u,-u; = ,,, donde 6,, es la delta de Kronecker [Ejemplo 4.3 a)]. MATRICES NORMALES Una matriz real A es normal si conmuta con su traspuesta, esto es, si AAT = A? A. Obviamente, si Aes simétrica, ortogonal o antisimétrica, es necesariamente normal. No obstante, éstas no son las unicas matrices normales. 6-3 EJEMPLO 4.8. Sea A= ( a Entonees 6 -3\// 6 3\_(4 OF Fim a cai (5 ae A ( 0 s) » Como AAT = ATA, la matriz A es normal. Je (5 4) El teorema que sigue, demostrado en el Problema 4.35, caracteriza completamente las matrices reales normales 2 x 2. Teorema 4.7: Sea A una matriz real normal 2 x 2. En tal caso, A es bien simétrica o bien la suma de una matriz escalar y otra antisimétrica. 4.7. MATRICES COMPLEJAS Sea A una matriz compleja, es decir, una matriz cuyas entradas son nimeros complejos. Recordemos (Seccién 2.9) que si z = a + bi es un numero complejo, 7 = a — bi es su conjugado. La conjugada de la matriz compleja A, escrito A, es la que se obtiene de A tomando el conjugado de cada una de sus entradas, esto es, si A = (a,,), entonces A = (b;,), donde b,; = a. [Denotamos este hecho escribiendo A = (@;).] Las operaciones de trasposicién y conjugacin conmutan para cualquier matriz compleja A, es decir, (A)" = (47). De hecho, para la traspuesta conjugada de A, se utiliza la notacién espe- cial A¥. (Notese que si A es real, A" = A") 248) 5-3 4-7 LO 4.9. )-Entones a 2-81 6 T—4i)=(54+3) 1441 FT FF2/ \a+n 3-2, Ata MATRICES CUADRADAS. MATRICES ELEMENTALES 115, MATRICES COMPLEJAS HERMITICAS, UNITARIAS Y NORMALES Se ice que una matriz cuadrada compleja A es hermitica 0 antihermitica segin sea A¥=A 0 AH=—A Si A= (a,) es hermitica, a; a y por tanto cada elemento diagonal a;; debe ser real. De forma similar, si A es antihermitica, cada elemento diagonal a, = 0. Se dice que una matriz cuadrada compleja A es unitaria si Ate Act Una matriz compleja A es unitaria si y sélo si sus filas (columnas) forman un conjunto ortonormal de vectores respecto al producto interno de vectores complejos. (Véase el Proble- ma 4.39.) Notese que cuando A es real, hermitica es lo mismo que simétrica y unitaria es lo mismo que ortogonal. Se dice que una matriz cuadrada compleja A es normal si AA" = ANA Esta definicién se reduce a la dada para matrices reales cuando A es real. EJEMPLO 4.10: Consideremos las siguientes matrices: if toni wall 3 1-2 447 , vaste +i Ba(t+% -4 2 ca(?4* i ) I4i -14i 0 4% m2 f aea a) Aes unitaria si a’ probar que 44! = I: A>‘ osi Ad” = AMA = I. Tal y como se indicd previamente, sélo es neces: pfrt- Be 1-1 AA = AAT = oti 1 1tiy, i 1 -1-i}= t+i -1+i 0 -it-i 0 if 14142 —i-t+% = 1-i+i-140\ f1 0 oO) amyl tein 14142 itt-1-i }={0 1 of=r 1+i-i-140 -i+1-14i40 242+0 o 0 | De acuerdo con esto, 4 es unitaria. 1b) Bes hermitica, puesto que sus elementos diagonales 3, —4 y 2 son reales, y los elementos simétricos 1—2iy 142i, 44 Wy 4—Ti, y —2i y 2i son conjugados. c) Para probar que C es normal, evaluamos CC" y CC: acer (243 1 \f2-31 -1)\_( 4 4a cor moto" aT soa) =(eea 5") wo. (2731 243i 1) (4 4-4 ore=cre=( 1 a i saal=(a4 6 ) Como CC" = CC, la matriz compleja C es normal. 116 ALGEBRA LINEAL 4.8, MATRICES CUADRADAS POR BLOQUES Una matriz por bloques A se llama matriz cuadrada por bloques si: i) A es cuadrada, ii) los bloques forman una matriz cuadrada, iii) los bloques diagonales son también matrices cuadradas. Las dos tiltimas condiciones se daran si y s6lo si hay el mismo némero de lineas horizontales y verticales y estin situadas simétricamente. Consideremos las dos matrices por bloques: 30415) 1oiit 4° 404 30513, 3°53 A no es una matriz cuadrada por bloques debido a que los bloques diagonales segundo y tercero no son matrices cuadradas. Por el contrario, B es una matriz cuadrada por bloques. Una matriz diagonal por bloques M es una matriz cuadrada por bloques en la que todos los no diagonales son matrices cero. La importancia de estas matrices radica en el hecho de que el Algebra de las matrices por bloques se reduce frecuentemente a la de los bloques individuales. Especificamente, supongamos que M es una matriz diagonal por bloques y que f(x) es cualquier polinomio. En tal caso, M y f(M) tienen la siguiente forma: Au INA) An SM) = ; An SA) (Como de costumbre, empleamos espacios en blanco para disposiciones 0 bloques de ceros.) Andlogamente, una matriz cuadrada por bloques recibe el nombre de matriz triangular superior por bloques si los bloques bajo la diagonal son matrices cero, y el de matriz triangular inferior por bloques si lo son los bloques sobre la diagonal S(Az2) 4.9. MATRICES ELEMENTALES. APLICACIONES Comencemos recordando (Seccién 1.8) las lamadas operaciones elementales entre filas en una matriz A: [E,] (Intercambio de filas) Intercambiar las filas i-ésima y j-ésima: RoR, [E.] (Cambio de escala de filas) Multiplicar la fila -ésima por un escalar no nulo k: KR}>R, k #0 [Es] (Adicidn de filas) Sustituir ta fila i-ésima por ella misma mas k veces la j-ésima AR, + RR, MATRICES CUADRADAS. MATRICES ELEMENTALES 117 Cada una de las operaciones anteriores tiene una inversa del mismo tipo. De forma especifica (Problema 4.19): 1. Ry Ryes su propia inversa. 2. KR, R; y 7! R, + R, son inversas. 3. kRy + Ry > Ry y —kR, + Ry > R, son inversas. Recordemos también (Seccidn 1.8) que se dice que una matriz B es equivalente por filas a otra A, escrito A~ B, si B puede obtenerse de A mediante una sucesin finita de operaciones elementales entre filas, Dado que éstas son invertibles, la equivalencia por filas es una relacién de equivalencia; es decir; a) A~ A; b) si A~ B, entonces B~ A; c) si A~B y B~C, necesariamente A ~ C. Asimismo, establecemos de nuevo el siguiente resultado bisico, relativo a la equivalencia por filas: Teorema 4: filas. Toda matriz A es equivalente por filas a una tnica matriz en forma canénica por MATRICES ELEMENTALES Denotemos por ¢ una operacién elemental entre filas y por e(A) el resultado de efectuarla sobre una matriz 4. La matriz E obtenida efectuando ¢ sobre la matriz identidad, E=e(l) se lama la matriz elemental correspondiente a la operacién elemental entre filas e. EJEMPLO 4.11. Las matrices 3-cuadradas elementales correspondientes a las operaciones elementales entre filas R,«>R, —6R, +R, y —4R, + Ry > Ry son, respectivamente, a) 1 0 oO 1 0 0 Ej=(0 0 1 E,=(0 -6 0 Ey=-{ 0 1 0 o 1 0 0 4 -4 0 | El siguiente teorema, probado en el Problema 4.18, muestra la relacién fundamental entre las operaciones elementales entre filas y sus matrices elementales correspondientes. Teorema 4.9: Sean e una operacién elemental entre filas y E la matriz m-cuadrada elemental correspondiente, es decir, E = e(I,,). En tal caso, para cualquier matriz m x nA, e(A) = Esto es, el resultado de efectuar una operacién elemental entre filas e sobre una matriz A puede obtenerse multiplicando por la izquierda A por la matriz elemental correspondiente E. Ahora supongamos que e’ es la inversa de una operacion elemental entre filas e. Sean E y E’ las matrices correspondientes. Probaremos en el Problema 4.19 que E es invertible y que E’ es su inversa, Esto quiere decir, en particular, que cualquier producto PE, E,Ey de matrices elementales es no singular. 118 ALGEBRA LINEAL Haciendo uso del Teorema 4.9 podemos, asimismo, demostrar (Problema 4.20) el resultado fundamental, referente a matrices invertibles, que sigue: Teorema 4.10: Sea A una matriz cuadrada. Entonces son equivalentes las asercion i) Aes invertible (no singular), ii) A es equivalente por filas a la matriz identidad I. iii) A es producto de matrices elementales. También utilizaremos el Teorema 4.9 para probar los que se enuncian a continuacion: Teorema 4.11: Si AB =I, necesariamente BA = I y por consiguiente B= A~'. Teorema 4.1 que B= PA. B es equivalente por filas a A si y sélo si existe una matriz no singular P tal APLICACION AL CALCULO DE INVERSAS Supongamos que una matriz A es invertible y, digamos, es reducible por filas a la matriz identidad 1 mediante la sucesién de operaciones elementales ¢;, ¢3, ...,€,. Sea E; la matriz elemental correspondiente a la operacién e,. Segin el Teorema 4.9, “E,EA=1 y (Ey E,E,DA=1 potloque A“! =E, ~~ EyEy! En otras palabras, A~} puede obtenerse efectuando las operaciones elementales entre filas 45 Cay wey &g SObTe 1a matriz identidad I. La discusion anterior nos conduce al siguiente algoritmo (eliminacién gaussiana) que bien halla la inversa de una matriz n-cuadrada A, 0 bien determina que 4 no es invertible. Algoritmo 4.9: Inversa de una matriz 4 Paso 1. Constrvir la matriz [por bloques] n x 2n M = (AiI; esto es, A esta en la mitad izquierda de M y la matriz identidad I cn la derecha, Paso 2. Reducir por filas M a forma escalonada. Si el proceso genera una fila nula en la mitad A de M, terminar (4 no es invertible). En caso contrario, la mitad A adoptard forma triangular. Paso 3. Mas aim, reducit M a la forma canonica por filas (J{ B), donde I ha reemplazado a A en la mitad izquierda de la matriz. Paso 4. Tomar A~' = B. MATRICES CUADRADAS. MATRICES ELEMENTALES 119, ie Oaald EJEMPLO 4.12. Supongamos que queremos encontrar la inversa de A= {2 —1 3). Primero 41 8 11) y la reducimos a forma escalonada: construimos la matriz por bloques M = (4 10 2:1 0 0} ff 0 2; 1 0 OO f1 0 2; 1 0 O m=(2-1 3! 0 1 oj~fo -1 -1;-2 1 o}~fo -1 -1'-2 1 0 41 8:0 0 1 \o 1 Of -4 0 Y \o oO -1;-6 1 4, En forma escalonada, la mitad izquierda de M esté en forma triangular; por consiguiente, A es invertible. A continuacion reducimos M a su forma canénica por filas: 1 0 o;-u 2 A ft o o'-n 2 2 M~{O -1 0; 4 © -1}~{0 1 0! -4 0 1 o o tf: 6 -1 -1/ \o 0 1) 6 -t =1, La matriz identidad ocupa ta mitad izquierda de la matriz final; de aqui, 1a mitad derecha es A+. Dicho de otro modo, —u 2 2 At=[-4 0 1 6 -1 -1 4.10. OPERACIONES ELEMENTALES ENTRE COLUMNAS. EQUIVALENCIA DE MATRICES Esta seccién repite parte de la discusién de la precedente, utilizando las columnas de una matriz en vez de sus filas. (La eleccion de utilizar primero las filas proviene del hecho de que las operaciones entre filas estan fuertemente ligadas a las operaciones con ecuaciones lincales.) Mostramos también la relacion existente entre las operaciones entre filas y columnas y sus matrices elementales, Las operaciones elementales entre columnas andlogas a las operaciones elementales entre filas son las siguientes: [F,] (Intercambio de columnas) Intercambiar las columnas i-ésima y j-sima: qec [F;] (Cambio de escala de columnas) Multiplicar la columna i-ésima por un escalar no nulo k: KCC; (k #0) [Fs] (Adicién de columnas) Sustituir la columna i-ésima por ella misma mas k veces la j-ésima: KC; + C,>C, 120 ALGEBRA LINEAL Cada una de las operaciones anteriores tiene una inversa del mismo tipo, tal y como sucedia con las operaciones entre filas correspondientes. Denotemos por f una operacién elemental entre columnas. La matriz F, obtenida efectuando f sobre la matriz identidad 1, es decir, F=f) se conoce como la matriz elemental correspondiente a la operacién elemental entre columnas f. EJEMPLO 4.13. Las matrices 3-cuadradas elementales correspondientes a las operaciones elementales entre columnas C+ Cy, ~2C3 + Cy y —5C + Cy Cy son, respectivamente, oO o 1 1 0 0 Oo o f F=(0 1 0 o 1 0 Fy=(0 1 -5 1 0 9 0 0 -2; o 0 4 A lo largo de toda la discusion posterior, e y f denotarin, respectivamente, operaciones elementales entre filas y columnas correspondientes y E y F sus matrices elementales asociadas. Lema 4.13: Supongamos que A es cualquier matriz. Entonces S(A) = [eA esto es, efectuar la operacién entre columnas f sobre una matriz A conduce al mismo resultado que efectuar la operaci6n entre filas correspondientes ¢ sobre AT y Inego tomar Ia traspuesta. La demostracién del lema se obtiene directamente del hecho de que las columnas de A son las filas de AT, y viceversa. El lema anterior muestra que F=f) = (el = [ey = £7 En otras palabras, Corolario 4.14: F es la traspuesta de E. (De este modo, F es invertible porque E lo es.) Ademas, de acuerdo con el lema precedente. SA) [e(AT)" = [EAT]! = (AT) ET = AP lo que prueba el siguiente teorema (que es andlogo al Teorema 4.9 relativo a las operaciones elementales entre filas): Teorema 4.15: Para cualquier matriz 4, f(A) = AP. Es decir, el resultado de efectuar una operacién elemental entre columnas f sobre una ma- triz A puede abtenerse multiplicando por la derecha A por la matriz. elemental correspondiente F. Se dice que una matriz B es equivalente por columnas a otra A si B puede obtenerse de A . mz MATRICES CUADRADAS. MATRICES ELEMENTALES 121 mediante una sucesi6n finita de operaciones elementales entre columnas. Usando el argumento andlogo al dado para el Teorema 4.12 llegamos al: Teorema 4.16: B es equivalente por columnas a A si y solo si existe una matriz no singular Q tal que B= AQ. EQUIVALENCIA DE MATRICES Se dice que una matriz B es equivalente a otra A si B puede obtenerse de A mediante una sucesion finita de operaciones elementales entre filas y columnas. Alternativamente (Problema 4.23), B es equivalente a A si existen matrices no singulares P y Q tales que B = PAQ. Al igual que la equivalencia por filas o por columnas, la equivalencia de matrices es una relaciOn de equivalencia. EI principal resultado de esta subseccién, demostrado en el Problema 4.25, se enuncia a continuacién: Teorema 4.17: Toda matriz m x n Aes equivalente a una anica matriz por bloques de la forma (3) donde J, es la. matriz identidad r x r. (El entero no negativo r se lama el rango de A.) 4.11. MATRICES SIMETRICAS CONGRUENTES. LEY DE INERCIA Se dice que una matriz B es congruente a otra A si existe una matriz no singular (invertible) P tal que B=P™AP Por el Problema 4.123, la congruencia es una relacién de equivalencia, Supongamos que A es simétrica, o sea, AT = A. En tal caso, BT =(PTAP)P = P7ATPTT PTAP = B ¥ por tanto B es simétrica también. Dado que las matrices diagonales son simétricas, se deduce ‘que tinicamente matrices simétricas son congruentes a matrices diagonales. EI siguiente teorema juega un importante papel en el algebra lineal. ‘Teorema 4.18 (ley de inercia): Sea A una matriz real simétrica. Entonces existe una matriz no singular P tal que B = P’ AP es diagonal. Aun mas, todas las matrices diagonales B que cumplan la condicion anterior tienen el mismo nimero p de entradas positivas y el mismo nimero n de entradas negativas. El rango y la signatura de 1a matriz anterior A se denotan y definen, respectivamente, por rangoA=p+nm oy sig A=p—n 122 ALGEBRA LINEAL Estos estan univocamente definidos, segin el Teorema 4.19. {La nocion de rango se define en realidad para cualquier matriz (Seccién 5.7), y la definicidn precedente concuerda con la general.) ALGORITMO DE DIAGONALIZACION El algoritmo expuesto a continuacién diagonaliza (bajo congruencia) una matriz real simétrica A= (a) Algoritmo 4.11: Diagonalizacién bajo congruencia de una matriz simétrica Paso I. Construir la matriz [por bloques] n x 2n M = (Ai); esto es, A es la mitad izquierda de M y la matriz identidad 1, la derecha. Paso 2.. Examinar la entrada a,, Caso I: a), #0. Efectuar las operaciones entre filas —a;, Ry + @y,R) Ry 1= 2,-0.0, después las operaciones entre columnas correspondientes —4,;C, + 4,,C;—> C; para reducir la matriz M a la forma w=(% Ors ‘) 0 B Caso I: ay; = 0, pero a;, #0 para algin i> 1. Efectuar la operacién entre filas Ry» R, y luego la operacion entre columnas correspondientes C, + C; para llevar a, a Ja primera posicion diagonal. Esto reduce la matriz a la del Caso I. Caso II. Todas las entradas diagonales cumplen a, =0. Elegir i, j tales que a, #0 y efectuar la operacién entre filas R) + R,> R, junto a la operacidn entre columnas correspon- diente C,+C,+C, para llevar 24;, #0 a la i-ésima posicién diagonal. Con esto se reduce la matriz a la del Caso II. En cada uno de los casos reducimos finalmente M a la forma [I] en la que B es una matriz simétrica de orden menor que el de A. Nota: Las operaciones entre filas variaran las dos mitades de M, pero las operaciones entre columnas sdlo cambiaran su mitad izquierda, Paso 3. Repetir el Paso 2 con cada nueva matriz. (despreciando las primeras fila y columna de la precedente) hasta que A esté diagonalizada, esto es, hasta que M se transforme en una M' = (D, Q), donde D es diagonal. Paso 4. Tomar P = Q". Entonces D = P™AP. La justificacion del algoritmo anterior se da a continuacién. Sean e,, ¢2, ..., ¢ todas las operaciones elementales entre filas en el algoritmo y fy, fa, «--. f; las correspondientes operacio- nes elementales entre columnas. Supongamos que E, y F, son las matrices elementales asociadas. Segiin el Corolario 4.14, MATRICES CUADRADAS. MATRICES ELEMENTALES 123 Por el algoritmo anterior, Q=E, + E,E,1 = Ey + E,E, ya que la mitad derecha J de M sélo es alterada por las operaciones entre filas. Por otra parte, la mitad izquierda A de M es transformada por las operaciones tanto entre filas como entre columnas; por consiguiente, D = By Ey E,AF,Fy "+ Fy = = (Ey: Ep EAE, Ea By? = QAQ? = PTAP donde P = Q" I 2-3 EJEMPLO 4.14. Supongamos 4 2 5 —4), una matriz simétrica. Para encontrar una matriz -3 -4 8 no singular P tal que B= P™AP sea diagonal, empezamos construyendo la matriz. por bloques (4{ 1) 1 2 -3;1 0 O 2 5 -4;0 1 0 -3-4 810 0 | Efectuamos las operaciones —2R, + R; > Ry y 38, +Ry—+ Ry para (Aj) y después las correspondientes =2C, + Cz Cz y 3C, + C+ C, sobre A obteniendo 1 2-311 0 oO 1 0 O11 0 oO Oo 1 2;-2 1 0 y luego Oo 1 2/-2 1 0 o 2-1; 3 0 | oO 2-1: 3 0 |, A continuacion efectuamos —2R + Ry > Ry y entonces la correspondiente —2C, + C3 + Cy para obtener 1 0 0: t 0 Oo 1 0 0; 1 0 Oo o 1 2'-2 1 0) ytmego fo 1 O;-2 1 0 9 0 -Si 7 -2 |, 0 0-51 7-2 |, Se ha diagonalizado 4, Tomemos 1-2 7 a) P=(0 1 -2]) yentonces B=P'AP=(0 1 0 o oY 0 0 -5 Notese que B tiene p = 2 entradas positivas y n= 1 entrada negativa, 4.12. FORMAS CUADRATICAS. Una forma cuadrdtica q en las variables x1, x, ..., X_ eS un polinomio Wor X25 +2 Xe) = L iS (4.1) 124 ALGEBRA LINEAL (donde cada término es de grado dos). Se dice que la forma cuadratica esta diagonalizada si e155 <5 Xy) = CasXd + C2999 $00 + Co XE esto es, si q carece de términos con productos cruzados x;x; (con i # j). La forma cuadratica [4.1] puede expresarse de modo tnico en la forma matricial 4X) = XTAX (4.2) donde X = (x1, x2, ...,x,)” y A= (aj) es una matriz. simétrica. Las entradas de A pueden obtenerse a partir de (4.1] tomando Yo ay=ag=eJ2 (para #j) es decir, 4 tiene entrada diagonal a,, igual al coeficiente de x? y entradas aj; y ay iguales a la mitad del coeficiente de x,x,, De este modo, lays gy 2. ay, 43, 22. aay YX) = (5-2 Xi) = a1 yz. yy) \Xy Dy XX = Xt + Oy XF +--+ yg XZ +2 E aay xix; 4 % La matriz simétrica anterior A se denomina la representacién matricial de la forma cuadrati- ca q. Aunque muchas matrices A en [4.2] conducirin a la misma forma cuadratica q, solo una de ellas es simétrica. Reciprocamente, toda matriz simétrica A define una forma cuadratica q mediante [4.2]. Siendo asi, existe una correspondencia uno-a-uno entre las formas cuadraticas q y las matrices simétri- cas A. Adin mas, una forma cuadratica q esta diagonalizada si y sélo si la matriz simétrica asociada A es diagonal. EJEMPLO 4.15 a) La forma cuadritica as, ¥, 2) Oxy + By? — 4xr + Syr + 72? puede expresarse en la forma matricial 1-3 =2\/x WK D=H%RBY—3 8 Ffy -2 3 \z donde la matriz definidora es simétrica, También puede expresarse en la forma matricial 1-6 ~4\/x\ GW %DV=(% HHO 8 SHy 0 0 az, en la que la matriz definidora es triangular superior. MATRICES CUADRADAS, MATRICES ELEMENTALES 125 2 b) La matriz. simétrica fe ) determina la forma cuadritica 2 3V2)_1, : en-@ a3 35) =a" + 6xy + 5y Nota: Por razones de indole tedrica, supondremos siempre que una forma cuadratica q esté representada por una matriz simétrica A. Dado que A se obtiene de q mediante divisién por 2, tendremos que suponer también que | + 140 en nuestro cuerpo K. Esto es siempre cierto si K es el cuerpo real R 0 el complejo C. MATRIZ DE CAMBIO DE VARIABLES Consideremos un cambio de variables, digamos de xj, X35 ..-, %y @ Yis Pay ---5 Yor Por medio de una sustitucién lineal invertible de la forma % = Padi + PaY2t"+ Pin (i= 1, 2,-.., m) (Aqui invertible significa que se puede despejar cada una de las variables y de forma unica en términos de las x.) Tal sustitucién lineal puede expresarse en la forma matricial X=PY (4.3) donde X= Cry M9 MT Y= dares) Y P=@y) La matriz P recibe el nombre de matriz de cambio de variables; es no singular, puesto que la sustitucién lineal es invertible. Reciprocamente, cualquier matriz no singular P define una sustitucién lineal invertible de variables, X = PY. Ademas, Y=P"X proporciona la formula que expresa las variables y en términos de las x Existe una interpretacion geométrica de la matriz de cambio de variables P, que se ilustra en el proximo ejemplo EJEMPLO 4.16. Consideremos el plano cartesiano R? con los ejes xe y usuales y la matriz no sin- gular 2% 2 a of P= ro Las columnas u, = 2, 1)? y tz = (1, 1) de P determinan un nuevo sistema de coordenadas en el plano, digamos con ejes s y t, como se muestra en la Figura 4-1. Esto es 1. El eje s esta en la direccién de u, y su unidad de longitud es la longitud de 1. 2. El eje ¢ esta en la direccién de uz y su unidad de longitud es la longitud de uw, 126 ALGEBRA LINEAL Figura 4-1, Un punto cualquiera Q en el plano tendré unas coordenadas respecto a cada sistema, digamos Q(a, b) respecto a los ejes x € y y Qld’, b’) respecto a los s y r. Estos vectores de coordenadas estin relacionados mediante la matriz P. Concretamente, (GY) 2 xe donde X = (a,b)? © ¥= (a, /)". DIAGONALIZACION DE UNA FORMA CUADRATICA Consideremos una forma cuadratica q en las variables x,, x2, ..., Xq, es decir, g(X) = X7AX (donde A es una matriz simétrica). Supongamos que se efectiia un cambio de variables en q empleando la sustitucién lineal [4.3]. Tomando X = PY en q se llega a la forma cuadratica q(¥) = (PY) A(PY) = Y™(P?AP)Y Asi B= PTAP es la representacién matricial de ta forma cuadritica en las nuevas variables Yay Yar «=-5 Jur Observemos que la nueva matriz B es congruente a la inicial A, que representaba q. Se dice que la sustitucién lineal anterior Y = PX diagonaliza la forma cuadratica q(X) si q(¥) es diagonal, esto es, si B= P’AP es una matriz diagonal. Como B es congruente a A y A es una matriz simétrica, podemos enunciar otra vez el Teorema 4.18 como sigue. Teorema 4.19 (ley de inercia): Sea q(X) = X7AX una forma cuadratica real. Entonces existe una sustitucién lineal invertible Y= PX que diagonaliza q. Ain mas, cualquier otra representa- cién diagonal de q tiene el mismo niimero p de entradas positivas y el mismo numero n de entradas negativas. El rango y la signatura de una forma cuadratica q se denotan y definen por rangog=p+n y sigg=p—n Estan univocamente definidos, de acuerdo con el Teorema 4.19. MATRICES CUADRADAS. MATRICES ELEMENTALES 127 Dado que diagonalizar una forma cuadratica q equivale a diagonalizar bajo congruencia una matriz simétrica, el Algoritmo 4.11 puede utilizarse también aqui. EJEMPLO 4.17. Consideremos ta forma cuadratica ax, 95 2) = 2? + day + Sy? — Ore — Byz + 82? 0) La matriz simétrica A que representa q es: 1 2 -3 A={ 2.5 -4 -3 -4 8, Segin el Ejemplo 4.14, Ia matriz no singular P siguiente diagonaliza A bajo congruencia: 1-2 1 1 0 Oo P=(o 1 -2 y B=Ptap=(0 1 0 o 0 | 0 0 =5) De acuerdo con esto, q puede diagonalizarse mediante la sustitucién lineal: s+ Tt s-2 : a t De forma especifica, sustituyendo x, y y z en [I] se llega a la forma cuadratica: ars, Q=P 42-50 Aqui p =2 y n= 1; por tanto, rangoq=3 yy sigq=1 Nota: Existe una interpretacién geométrica de la ley de inercia (Teorema 4.19) que damos aqui utilizando la forma cuadratica del Ejemplo 4.17. Consideremos la siguiente superficie Sen R*: AX, Jy 2) = x? + Axy + Sy? — Oxz — Byz + 82? = 25 Bajo el cambio de variables x 2s+7t yos—2 ret ©, equivalentemente, relativa a un nuevo sistema de coordenadas con ejes r, sy t, la ecuacion de S se convierte en ar, 8, ) =r? +s? — 51? = 25 De acuerdo con ello, 5 es un hiperboloide de una hoja, ya que hay dos entradas positivas y una negativa en la diagonal. Atin mas, S sera siempre un hiperboloide de una hoja, con independencia del sistema de coordenadas. Siendo asi, cualquier representacién diagonal de la forma cuadriitica a(x, y, 2) contendra dos entradas positivas y una negativa en la diagonal 128 ALGEBRA LINEAL MATRICES SIMETRICAS Y FORMAS CUADRATICAS DEFINIDAS POSITIVAS Se dice que una matriz teal simétrica A es definida positiva si XTAX>0 para todo vector (columna) no nulo X en R*. Anilogamente, se dice que una forma cuadratica 4 es definida positiva si q(v) > 0 para todo vector no nulo en R*. De forma alternativa, una matriz real simétrica A o su forma cuadritica q es definida positiva si cualquier representacién diagonal tiene s6lo entradas positivas. Tales matrices y formas cuadraticas desempefian un papel muy importante dentro del algebra lineal, Se estudiardn en los Problemas 4.54-4.60. 4.13. SIMILARIDAD Una funcién f:R"-+R" puede verse geométricamente como «enviando» o «aplicando» cada punto Q sobre un punto f(Q) en el espacio R". Supongamos que la funcién f puede representarse de la forma SQ AQ donde A es una matriz n x n y las coordenadas de Q se escriben como un vector columna. Ain mas, supongamos que P es una matriz no singular que puede verse como introduciendo un nuevo sistema de coordenadas en el espacio R". (Véase Ejemplo 4.16,) Probamos que, referida a este nuevo sistema de coordenadas, f est representada por la matriz B= PAP esto es, FQ) = BQ donde Q’ denota el vector columna de las coordenadas de Q respecto al nuevo sistema de coordenadas. EJEMPLO 4.18. Consideremos la funcién f:R? > R? definida por S(x,y) = (Bx = 4y, Sx + 2y) ral) ame ol) Supongamos que se introduce en R* un nuevo sistema de coordenadas con ejes s y t por medio de la matriz no singular 2-1 i a8 Pa(, o) yportimo rt=( 1) ©, equivalentemente, MATRICES CUADRADAS. MATRICES ELEMENTALES 129 (Vease la Figura 4-1.) Respecto a este nuevo sistema de coordenadas de R?, la funcién f puede representarse ie a rre($ MIE DED) $46, 1) = (8 — Ht, Ms +H) donde En otras palabras, La discusi6n precedente nos conduce a la siguiente: Definicién: Una matriz B es similar a otra A si existe una matriz no singular P tal que B=P"'AP La similaridad, como la congruencia, es una relacion de equivalencia (Problema 4.125); por consiguiente, podemos decir que A y B son matrices similares cuando B = P~? AP. Se dice que una matriz A es diagonalizable si existe una matriz no singular P tal que B= P~!AP es una matriz diagonal. La cuestién de si una matriz dada A es o no diagonalizable y el hallar la matriz P en caso de serlo juegan un papel importante en el algebra lineal. Estas cuestiones se acometerdn en el Capitulo 8. 4.14, FACTORIZACION LU Supongamos que A es una matriz. no singular que puede Ilevarse a forma triangular (superior) U mediante el uso de operaciones de adicién de filas exclusivamente, esto es, supongamos que 4 puede triangularizarse por medio del siguiente algoritmo, que escribimos empleando la notacién caracteristica de los ordenadores. Algoritmo 4.14, Triangularizacion de la matriz 4 = (ay) Paso 1. Repetir para i=1, 2, ....—1; Paso 2. Repetir para j= i +1, ... a) Tomar mj:= a;/a,. b) Tomar Ry:= mR, + R,. [Fin del bucle interno Paso 2] [Fin del bucle externo Paso 1] Paso 3. Salir. 130 ALGEBRA LINEAL Los mémeros m, se denominan multiplicadores. A veces seguimos la pista de dichos multi- plicadores a través de la siguiente matriz triangular inferior L: 1 ° 0 ws 0 oO —m, 1 Ds o 0 L=|—m, -m, 1... 0-0 2 My ys O sea, L tiene unos en la diagonal, ceros sobre ésta y los opuestos de los m,; como entradas ij bajo la misma. La matriz triangular inferior precedente L puede describirse alternativamente como se hace a continuacion, Denotemos por ¢,, ¢2, ..., & la sucesién de operaciones elementales ente filas en el algoritmo anterior. Las inversas de dichas operaciones son las siguientes. Para i= 1, 2, ,n— 1 tenemos —myR,+Rj>R, (j= +1...,n) Efectuar estas operaciones en orden inverso sobre la matriz. identidad I proporciona la matriz. L. Asi pues, L=E;'E;! iy donde E,, ..., Ey son las matrices elementales asociadas a las operaciones ¢,, .... ey Por otra parte, las operaciones elementales e,, ..., ¢, transforman la matriz original, A en la matriz triangular superior U. Siendo asi, E, --- EE, A = U. De acuerdo con esto, A=(EVB3! + Bp =(E;*By! + Bg 'NU = LU Esto nos da la factorizacion LU clasica de una matriz A. Establezcamos formalmente este resultado como un teorema. Teorema 4.20: Sea A una matriz como la precedente. Entonces 4 = LU, donde L es una matriz triangular inferior con unos en la diagonal y U una matriz triangular superior sin ceros en la diagonal Nota: Subrayamos el hecho de que el teorema anterior s6lo se aplica a matrices no singulares A que pueden Hlevarse a forma triangular sin ningin intercambio de filas. Se dice que tales matrices son factorizables LU o que tienen una factorizacion LU 1 2 -3' EJEMPLO 4.19. Sea 4= {-3 —4 13}. Emtonces 4 puede reducirse a forma triangular por medio 2 1-5 de las operaciones 3R, + R, > R; y —2R, + R3 > Rs, y luego (3)R, + R3 > Ry: 1 x 1 a4 A~|0 2 4}~10 204 0 3 1 o 0 y MATRICES CUADRADAS. MATRICES ELEMENTALES 131 Esto nos da la factorizacién A = LU, donde a) 1 2 -3) L=(-3 1 0 2-31 o 0 7 Adviértase que las entradas —3, 2 y —3 de L provienen de las operaciones elementales entre filas anteriores y que U es la forma triangular de A. APLICACIONES A LAS ECUACIONES LINEALES Consideremos un algoritmo de ordenador, M. Denotemos por C(n) el tiempo de ejecucién del algoritmo en funcidn del tamaiio n de la entrada de datos. [La funcion C(n) se Hama a veces la complejidad temporal o, simplemente, la complejidad del algoritmo.] Con frecuencia, C(n) simple- mente cuenta el nimero de multiplicaciones y divisiones efectuadas por M, pero no el niamero de adiciones y sustracciones debido a que se invierte mucho menos tiempo en su ejecucion. Consideremos ahora un sistema de ecuaciones lineales AX =B donde A = (a) tiene factorizacién LU y Sey B= (by, By)” Entonces el sistema puede Ilevarse a forma triangular (para poder efectuar la sustitucion hacia atris) aplicando el algoritmo anterior a la matriz ampliada M = (A, B) del mismo. La comple- jidad temporal del algoritmo y de la sustitucion hacia atras son, respectivamente, Cn) = nP/2 y(n) & 3} siendo n el néimero de ecuaciones. Por otra parte, supongamos que disponemos ya de la factorizacion A = LU. En tal caso, para triangularizar el sistema sdlo es necesario efectuar las operaciones entre filas del algoritmo (retenidas en la matriz L) sobre el vector columna B, con lo que la complejidad temporal es Cn) = n?/2 Por supuesto, obtener la factorizacién LU requiere el uso del algoritmo original, donde C(n) = n°/2. De este modo, podria no ganarse nada encontrando primero la factorizacién LU cuando se halla implicado un solo sistema. No obstante, existen situaciones, ilustradas mas adelante, en las que la factorizacion LU resulta itil Supongamos que para una matriz dada 4 necesitamos resolver el sistema repetidamente, para una sucesin de vectores constantes diferentes, digamos By, Bs, .... Supongamos ademas que algunos de los B; dependen de la solucién del sistema obtenida al 132 ALGEBRA LINEAL utilizar los vectores precedentes B, En tal caso, resulta més eficaz hallar primero la factoriza- cién LU de A y después emplearla para resolver el sistema para cada nuevo B. EJEMPLO 4.20. Consideremos el sistema x= 2pn x= Sy— 0 AX=B 0) =3x + 10y — 1-2 -1 hy donde A=[ 2-5 -1] y Balk, 3 10-3 ey Supongamos que queremos resolverlo para By, B,, Bs, B,, donde B, = (1, 2, 3)" y Bir =By+X, — (paraj> 1) siendo X; la solucién de [1] usando B;. Aqui es mas eficaz empezar por obtener la factorizacisn LU de A y luego utilizarla para resolver el sistema con cada uno de los vectores B. (Véase el Problema 4.73.) PROBLEMAS RESUELTOS ALGEBRA DE MATRICES CUADRADAS, a) 4.1, Sea A=(2 -5 8}. Determinar: a) la diagonal y la traza de A; b) A(u), donde 4-2 7 u=(2, ~3, 5)"; ¢) A(v), siendo v = (1, 7, 2). 4) La diagonal consiste en los elementos situados desde la esquina superior izquietda hasta la inferior derecha de la matriz, esto es, los elementos a,,, 423. dys. De este modo, la diagonal de A consiste en los escalares 1, —5 y 7. La traza de A es la suma de los elementos diagonales; por consiguiente, tr A= 1— 54 13 6\f 2) /2-9+430\ /23! b) Au) =Au=|2 -5 8}{-3]=(4415+40]=(59 4-2 \ 5) \s+o+35/ \ay, ©) Segiin nuestro convenio, A(») no esta definido para un vector fila. 42, Sea A= (; 3) a) Hallar A? y 4*. b) Hallar f(A), donde f(x) — ti ( itswtCtw®CO«®;w MATRICES CUADRADAS. MATRICES ELEMENTALES 133 > 1 2/1 2)\_(1+8 2-6) / 9 - 4 4 =44=(\ Ke ae a) (2 ") seaee(l 29 ~A\_ (9-16 -4434)_/-7 30 Aa -( Ks "(sere ts) (e 3) b) Para encontrar f(A), primero sustituimos x por A y la constante 5 por S/ en el polinomio dado, f(x) = 2x* — 4x + 5: a -7 30 1 2 1 0 panre—assnX 2)-4' 204% 9) Después multiplicamos cada matriz por su respectivo escalar: 4 0) | ( -4 -8) (5 0} 120 -134/"\-16 12/7 \o 5, Por iiltimo, sumamos los elementos correspondientes de las matrices: paya(T- 445 O- 840 —13 32) 120-16 +0 -134+12+5)"\ 104 —117, (2 2 43. Sea A G i) Hallar g(A), siendo g(x) = x? —x—8, 6 eas 29-08 #=(5 )-G )-G 1) “GS D+ )°6 9) AH Asi A es un cero de g(x). 1 3 x 44. Se da la matriz A= (; ) Encontrar un vector columna no malo u= (') tal que - y Alu) = 3u. Comenzamos por establecer la ecuacién matricial Au = 3u: (o -)0)-0) Escribimos cada miembro como una sola matriz. (vector columna) (es (3 4x — 3y) ~ \3y, 134 45, 4.6. 47. ALGEBRA LINEAL Igualamos entre si los elementos correspondientes para Hegar a un sistema de ecuaciones y lo reducimos a forma escalonada: x3y—_3x)_ berate 97M 2g sya 4x —3y =3yf ” [ax — 6y = 0} 0=0 El sistema se reduce @ una ecuacién homogénea con dos incégnitas y por tanto tiene un nimero infinito de soluciones. Para obtener una solucion no nula, tomemos, por ejemplo, y = 2; entonces x= 3. Esto es, u = (3, 2)? tiene la propiedad deseada, 1 2 -3 SeaA={2 5 —1). Hallar todos los vectores u = (x, y, 2)" tales que A(u) = 0. 5 12 -5, Establecemos la ecuacién Au =0 y luego escribimos cada miembro como una sola matriz: 1 2 —3\/x' ‘0! x+ 2y—32' 0 2 5 -tHy}={o] 0 [2x4 sy- z}=[o 5 12 —5/\z, 0/ Sx + 12y — 52; \0/ Igualamos entre si los elementos correspondientes para conseguir un sistema homogéneo y redu- cimos éste a forma escalonada: x4 2y—3=0) [x42y- 3=0) 7 9) 5g 2x+ Sy— z=0P5 y+ 52=0 aS Sx + 12y—52=0, 2y +102 = 0) 7 . En la forma escalonada, z es la variable libre. Para llegar a la solucin general, tomamos z =.a, siendo a un parametro. La sustitucion hacia atras conduce a y = —5a y después a x = 13a. Siendo asi, w= (13a, —Sa, a)" representa todos los vectores tales que Au = 0. ‘ st Demostrar que la coleccién M de todas las matrices 2 x 2 de la forma ( ) es un s algebra conmutativa de matrices. s ‘ab ed Claramente, M es no vacia. Si A= yB pertenecen a M, entonces ba de ‘ate d+B ba ("2 apa (% td ad + be bed ate, kb ka, be tad bd + ac, también pertenecen a M. Asi M es un algebra de matrices. Ademas, cat db ch +da’ wa (io fee) A+B De este modo, AB = BA y en consecuencia M es un Algebra conmutativa de matrices. x y 1d Encontrar todas las matrices M ( | que conmutan con A -(; :) 48. 49. 4.10. MATRICES CUADRADAS. MATRICES ELEMENTALES 135 Primero hallamos ( yt z ot Luego imponemos AM = MA para llegar a las cuatro ecuaciones xtz=x yeraxty 2 +t t= De la primera ecuacién, o de la tiltima,-z = 0; de Ia segunda, x = ¢. En ese caso, M es cualquier matriz de la forma (5 *. Sea ¢ = (0, , 0), donde i=1,..., n, el vector (columna) en R" con | en la posicién i-esima y 0 en cualquier otra, y sean A y B dos matrices m x n. a) Probar que Ae, es la i-ésima columna de 4. b) Supéngase Ae, = Be, para cada i. Probar que 4 = B. ©) Supéngase Au = Bu para todo vector wen R". Demostrar que A = B. a) Sean A= (aj) y Ae; = (by, .--, b,)”- Entonces b= Ree donde R, es Ia fila k-ésima de A. Asi Ar > ind O, see OF = ty Ae, = (yyy ay e025 Oy)” que es la columna i-ésima de A. b) Ae; ¢) Si Au = Bu para todo vector w en R", necesariamente Ae; = Be, para cada i, con lo que A = B. Be, significa que A y B tienen la misma columna i-ésima para todo i, Por tanto, A= B. Supéngase que A es una matriz m x n. Mostrar que: a) 1,4 = A, b) Al, = A. (De este modo, AI = [A = A cuando A es una matriz cuadrada.) Utilizamos el hecho de que I= (6,,), donde 6, es la delta de Kronecker (Ejemplo 4.3) a) Supongamos 1,4 = (f,). Entonces Sum Sut = buy = ay Siendo asi, I, = A, ya que las entradas correspondientes coinciden. 6) Supongamos AI, = (gy). Entonces G5 De este modo, AI, = 4, puesto que las entradas correspondientes son iguales. Demostrar el Teorema 4.1 i) Sea A+ B= (c,). Entonoes ¢,;= ay) + yy por lo que (A+B= Yous E@tb= Yat Dot AterB ee ee 136 ALGEBRA LINEAL ii) Sea kA = (c,). Entonces cj; = kay y trkA=J kay =kYay=k-tr A iii) Sean AB = (¢,) y BA = (d,,), Entonces cy = Yo dyby ¥ dy = SS Byayy de donde iF tAB= Seu=S Sautu= ¥ Sbvay = Fay = tr BA Tc it wt 4.11, Demostrar el Teorema 4.2. Supongamos f(x) = 5 a,x! y glx) = S b,x! i) Podemos tomar r ‘=n sumando potencias de x con coeficientes nulos. En tal caso, See) + 0) = F(a, + bye! De aqui (74 0A) = Sle, 4 b)A'= Saal + Eb! =f) + aA) a & ii) Tenemos f(x)g(x) = Y. ajb,x!4, Entonces S(Adg(A) = ( aA\(5 by 4’) © a1byA = (fa) ili) Usando f(x)g(x) = g(x)f(x) tenemos S(A)GA) = (aX A) = (9 SKA) = 9A) f(A) 4.12. =kI la matriz escalar asociada al escalar k. Probar que: a) D,A = kA, b) Bc) Dy + De = Duss d) DyDy = Dux. @) DA =(KI)A = KIA) = kA b) BD, = Bik) = k(B1) = kB ©) D+ Dy KI + KIT =k +R = Dyyye d) Dy Dy = (KINKT) = RRL) = KK = Dy. MATRICES INVERTIBLES. INVERSAS 4:13. Hallar la inversa de f 2). _— OO EE MATRICES CUADRADAS. MATRICES ELEMENTALES 137 Método 1. Buscamos escalates x, y. zy w para los que (; ye v\_(1 5 (ae452 3y4 sw) _(1 0} | 2 3Az w} \o 1 2x+3z 2y+3w/ \O 1, © que satisfagan 3x4 Sz— 1 3y + Sw o 9 2x +32 2y + 3w La solucién del primer sistema es x 2, y la del segundo y a 3 inversa de la matriz, dada es 2-3 ab Método 2. La formula general para la inversa de la matriz 2 x 2 A= ( ) es ed, cL ( MAL -bAly_ (a 8 4 me donde [Al = ad — ee aA) TAi\-e a) Some A= ad— be . a8 ; Asi, si A=() ae primero hallamos || =-(3)(3) — (5)(2) = —1 #0. A continuacion intercambia- mos los elementos diagonales, tomamos los opuestos de los otros elementos y multiplicamos por I/lAh grea? 3).(3 3 - -2 3) \ 2 -3 1 2 -4' 1 3-4 4.14, Caleular las inversas dea) A=[-1 -1 sfya)B={1 5 -1 2 7 -3 3 13 -6/ y la reducimos por filas a forma escalonada: 1 2-4;1 0 Of ft 2-4; 1 0 oO M=(-1 -1 5/0 1 O}~f0 1 1) 1 1 OF~ 207-350 0 41 0 3 Si-2 0 1], 1 2-4; 1 0 ~fo torr to 0 0 11-5 -3 1 La mitad izquierda de M esti ahora en forma triangular; por consiguiente, 4 tiene inversa Vamos mis alld, reduciendo por filas M a su forma candnica por filas: 2 01-9 -6 2% /1 0 oO1-16 -1 3) 1 0; 3 § -$}~fo 1 0; 3 § -4)=U14 0 1;-$ -2 4 Oo 0 1; -$ =F Y 138 ALGEBRA LINEAL 5) Formamos la matriz por bloques M = (B/) y la reducimos por filas a forma escalonada: 1 3-4; 1 0 oO} fi 3 -4: 1 0 O 1 5-1} 0 ft O}nfo 2 33-1 4 ofr 3 13 -6;0 0 1 \o 4 61-3 0 f, 0 0 10 —2 | En forma escalonada, M tiene una fila nula en su mitad izquierda; es decir, B no es reducible por filas a forma triangular. De acuerdo con ello, B no es invertible. 4.15. Demostrar las siguientes proposiciones: a) Si A y B son invertibles, entonces AB también lo es y (AB)"! = B-' A}. 5) Si A,, A,, .... A, son invertibles, entonces (A, A, A,)"' = Ag! ASMAT. c) Aes invertible si y slo si lo es A”. @) Las operaciones de inversion y trasposicién conmutan: (A?)~' = (4>')T a) Tenemos (ABYB-*A~') = A(BB~')A~* = AIA“? = AA“! = 1 (BA 1{AB) = B>'(A~1A)B = B-'1B = BB = 1 Por tanto, B-'A~! es la inversa de AB. 6) Por induccién en 1 y utilizando la parte a), (Ago Ag Ag) = Ay + Ag DAQI? = AG MAL Aga) d = At AZ ATT ©) Si Aes invertible, existe una matriz B tal que AB = BA = I. En tal caso, . (4By" =(BAy" = 17 — por lo que BT AT = ABT Por consiguiente, A” es invertible, con inversa B’. El reciproco deriva del hecho de que (ar 4) Segiin ta parte ¢), BT es la inversa de AT, esto es, BT = (A")~!. Pero B= A~ ayaa 4.16. Probar que, si tiene una fila o columna nula, A no es invertible. De acuerdo con el Problema 3.20, si A tiene una fila nula, AB también la tendra. Asi, si A fuera invertible, AA~! = 7 implicaria que J tiene una fila nula. Por esta razén, A no es invertible. Por otra parte, si A tiene una columna nula, AT debe tener una fila nula, por lo que A no sera invertible, De este modo, A tampoco es invertible. MATRICES ELEMENTALES 4.17. Encontrar las matrices 3-cuadradas elementales E,, E>, Es que corresponden, respectiva- ‘mente, a las operaciones entre filas R, R,, —7Ry > Ry y —3R, + Ry + Ro. MATRICES CUADRADAS. MATRICES ELEMENTALES 139 10 0) Efectuamos las operaciones sobre la matriz identidad 7,= {0 1 0} para obtener 0 0 4, fo 1 0) 1 0 Ol 1 0 oO E,=(1 00 =(0 1 0 E,=(-3 1 0 0 0 1, 0 0 -7, 0 0 1 4.18. Demostrar el Teorema 4.9. Sea R, la fila i-ésima de A, lo que denotamos escribiendo A = (Rj, ..., Rm). Si Bes una matriz para la que AB esta definida, se sigue directamente de la definicién de producto matricial que AB = (R,B, ..., RB). Tomamos ademas 4=(0,...,0.00,...,0, 7 =i Aqui * =i significa que 1 es la componente i-ésima. Por el Problema 4.8 sabemos que ¢,4 = R, Hacemos notar también que I= (¢;, ...5 ¢q) €8 la matriz identidad i) Sea e la operacién elemental entre filas R;++ R,. Entonces, para =i y B= Al) = Cay ones By ooo rons Om) 1A) = (Ray ooo yy ooey Ros eoee Rad De este modo, E 4 z FCA GA, oey Ay woes CAV (Ray oy Ry cory Roy coop Ryd = (A) ii) Ahora sea e la operacion elemental entre filas kR, > R,, k #0. En tal caso, para * EAH ep eeey ent) YY AAV Rees Ry) Asi | EA = (6A, 0005 Rep, sey CA) = (Ryp oes ARs ooos Ry) = A) iii) Finalmente, sea e la operacién elemental entre filas kR, + R, > R;. Entonces, para * Bae Cons keyt Byes te) yA = (Ryans RFR, Usando (ke; + ¢,)A = ke;A) + eA + kR, + R, tenemos — oe EA =(,A,..., (ke, + @)A, ...5 6 A) = (Ry, 4 RRy + Ryy --- Ry) = (A) Por tanto, el teorema queda demostrado. 4.19. Probar las siguientes aserciones: a) Cada una de las operaciones elementales entre filas expuestas a continuacién tiene una operacién inversa del mismo tipo. [E,] Intercambiar fas filas i-ésima y j-ésima: R,<> Ry. 140 4.20. 4.21. 4.22. 4.23. ALGEBRA LINEAL [£,] Multiplicar la fila -ésima por un escalar no nulo k: KR; Rj, k #0 [Ej] Sustituir ta fila a por ella misma mds k veces la j-ésima: kR; + R,— R b) Toda matriz elemental E es invertible y su inversa es una matriz elemental. a) Se trata cada operacién por separado. 1. Intercambiando dos veces el mismo par de filas obtenemos la matri2 original; esto es. esta operacién es su propia inversa. 2. Multiplicando la fila i-ésima por k y después por k~', 0 por k~! y luego por k, obtenemos la matriz original. En otras palabras. las operaciones kR; > R, y k~'R, -» R, son inversas. 3. Efectuando Ia operacién kR, + R,->R, y a continuacion la —kR,+ R\-+ R,, 0 primero la —KR +R, R, y después la kR; +R; R,, tendremos la mairiz original. Dicho de otro modo, las operaciones KR; + R,> R, y —kR, + Ry R, son inversas. +b) Sea E la matriz elemental asociada a la operacién elemental entre filas e: e() operacion inversa de e y E' su matriz elemental correspondiente. Entonces T=e(e)) =e(E)=EE © = e(e(I)) = eB) = EE Por consiguiente, £’ es la inversa de E. E. Sea ela Demostrar el Teorema 4.10. Supongamos que A es invertible y equivalente por filas a una matriz B, en forma canénica por filas. En tal caso, existen matrices clementales E,, Ey, ..., E, tales que E, -- E:E,A = B. Dado que tanto A como cada E; son invertibles. necesariamente lo es B. Pero si B #1, B tiene una fila nula ¥ por ende no es invertible. En consecuencia, B =I y a) implica b). Si se verifica b), existen matrices elementales E,, Ey. .... E, tales que E, - E:E,A =I y por tanto A= (E, + E,E,)~ Ez! +» E,'. Pero las E;? son también matrices elementales. De este modo, b) implica c). Si se cumple c), A= E,E, ~~ E,. Las E, son matrices invertibles; de aqui que también lo séa su producto, 4. Asi c) implica a). De acuerdo con ello, el teorema queda demostrado. Demostrar el Teorema 4.11 Supongamos que A no es invertible, de forma que no es equivalente por filas a a matriz, identidad, sino que lo es a una matriz con una fila nula. Dicho de otro modo, existen matrices elementales Ey, ..., E, tales que E, » EE, A tiene una fila nula. Por consiguiente, £, --- E,E,AB = ~ B,Ey, que es una matria invertible, tiene asimismo una fila nula. Pero las matrices invertibles no pueden tener filas nulas; por tanto, A es invertible, con inversa A~#. Ademés, (4-1A)B= A“ AB)= At = A>! B=IB= Demostrar el Teorema 4.12. Si B~ A, entonces B= e,(...(es(e,(A)))...) = E, «- EzE,A = PA, donde P = E, - E;E, es no singular. Reciprocamente, supongamos que B= PA con P no singular. Segin el Teorema 4.10, P es un producto de matrices elementales y en consecuencia B puede obtenerse a partir de A mediante tuna sucesion de operaciones elementales entre filas, es decir, B ~ A. Queda asi probado el teorema Probar que B es eqi B= PAQ. Si B es equivalent a A, entonces B= E, - E,E,AF,F -~ F, yo alente a A si y sélo si existen matrices invertibles P y Q tales que PAQ, donde P = E,--- E,E, 1 Fz“ F, son invertibles. El reciproco deriva del hecho de que cada paso es reversible. MATRICES CUADRADAS. MATRICES ELEMENTALES 141 4.24, Probar que la equivalencia de matrices, escrita ~, es una relacién de equivalencia a) AXA. b) Si AB, entonces B~ A. c) SiA~ By BC, entonces Ax C. a) A= TAI, donde I es no singular; de aqui A= A b) Si Ax B, necesariamente A = PBQ, siendo P y Q no singulares. En ese caso, B= P~'AQ-', donde P-! y Q~' son no singulares. Por consiguiente, B > A ©) Sidx By BxC, entonces A= PBQ y B= P’'CQ’, donde P, Q, P,Q’ son no singulares. En consecuencia, A = P(P'CO')Q = (PP)C(QQ) siendo PP’ y QQ" no singulares. De aqui se llega a A= C. 4.28. Demostrar el Teorema 4.17. La demostracion es constructiva, en forma de algoritmo, Paso 1, Reducir A a forma canénica por filas, con entradas principales no nulas ay. 3), --+5 dy, Paso 2. Intercambiar C, y C,,, Cy ¥ Cy, 0. ¥ CY C;,. Esto proporciona una matriz de la forma dy, (: Paso 3. Utilizar operaciones entre columnas, con los a, como pivotes, para sustituir cada entrada de B por un cero; esto es, para 5 con entradas principales no nulas a,,, TIPOS ESPECIALES DE MATRICES 8-57 4.26. Encontrar una matriz triangular superior A tal que A? = é a) Tomemos A ( ) Entonces A? tiene la forma (5 5) Asi ,, por Jo que x 2 z 0 27, por lo que z 2 y\f2 y ‘4 sy ‘2 y\V/4 sy ‘8 19y) Po = P= = 4 ( Ne 3) ( >) _ # ( ye ) ( 27 Z. +3. De acuerd: » A= isc inde(? Seguidamente, calculamos 4* usando x=2y 2 Por tanto, 19y = —57, 0 y= 4.27, Demostrar el Teorema 4.3 iii). Sea AB c,). Entonces cu= Vewby yy Cu= Le dabas a fo 142 4.28. 4.29. 4.30. 4.31. ALGEBRA LINEAL Supongamos que / > j. En tal caso, para cualquier k, es i> k 0 k > j, de modo que bien ay bien b,; = 0. Siendo asi, ¢,; = 0 y AB es triangular superior. Supongamos ahora que i = j. Entonces, para k i, by; = 0. Por consiguiente, ¢;; = aj:b4. como se pretendia {Qué matrices son simulténeamente triangulares superiores ¢ inferiores? Si A es tanto triangular superior como triangular inferior, toda entrada fuera de la diagonal principal debe ser nula. Por tanto, A es diagonal Demostrar el Teorema 4.4. i) (AAT = AT 4 (AT = ATH AR A+ AT, ii) (A— AT) = AT— (AT) = AT A = -(4 7). iii) Elegimos B= (4 +A") y C Nétese que no hay otra eleccién posible. (A= AY) y recurrimos a i) y i). es Escribir A = G g) como la suma de una matriz simétrica B y una antisimétrica C 41) gr ( ~4) gn 1o 16f%A~4 = lg gf: Emtonces 0 = 2 0 27 Calculai Te A ” santas tra? Ma x 4 Determinar x, yz. s,¢si4=(% 4. y] es ortogonal zs t Denotemos por Rj. R2, Rs las filas de A y por C,, C,, C, sus columnas. Como R, es un vector unitario, x? + § + $= 10 x= +4. Como R, es un vector unitario, $+ 4+ y? = 10 y = +3. Dado 0, Megamos a 2x/3 +3 + 2y/3=0 0 3x +3y La ‘inica posibilidad es x =4 y= 2A cya —2. Asi $e 3 A=|h 4-3 Es Como las columnas son vectores unitarios, dege2e1 f4g4s—1 g4g4e Por tanto. z= +3,s= +2 y t= 44 Caso i): z=}. Como C, y C; son ortogonales, Caso i) =4. Como C, y C, son ortogonales, s 3: como C, y C, son ortogonales, 1 = —}. Por consiguiente, hay exactamente dos soluciones posible: 3 3 @ 4a? A=|3 4-3 y gob -# a-f 4 -$ F -4, 4.32. 4.33. 434. 4.35. MATRICES CUADRADAS. MATRICES ELEMENTALES 143 b Supongamos que 4 = (: ‘) es ortogonal. Probar que a? +b? =1y ab ab A o A= ( 2) (ao Dado que A es ortogonal, sus filas constituyen un conjunto ortonormal. De aqui e+@=1 acrbd=0 Similarmente, las columnas forman un conjunto ortonormal, de modo que ab + cd =0 a+b Peat = b?, de donde Peal Por este motivo, ¢? = 1 — = 4b. Caso i: a +b. Entonces b(a +d) =0 0 d= —a; la matriz correspondiente es ( ) ab Caso ii): ¢= —b, Entonces b= (d— a) =0 0 d =a; la matriz correspondiente es | _ —b a Demostrar el Teorema 4.6. Scan a y b cualesquiera nmeros reales tales que a? +b? = 1, En ese caso, existe un nimero real 0 tal que a = cos 0 y b =sen 0. El resultado se obtiene ahora del Problema 4.32. Encontrar una matriz ortogonal 3 x 3, P, cuya primera fila sea un miltiplo de w, =(1, 1, 1) y cuya segunda fila lo sea de uy = (0, —1, 1). Primero hallamos un vector u3 ortogonal a u, y a wz, como puede ser (el producto vectorial) uy =u, X tg = (2, —1, —1), Sea A la matriz con filas u,, uz y ty y P la que se obtiene de A normalizando sus filas. De este modo, Yon aw A=(0 -1 1 y 2-1 =1, Ws WA ua WW ue -11f6 Wf 0 2/6 P= Demostrar el Teorema 4.7. b ; 7 (4 da c)_ (a+b? ee) Aa=\e ao a) \actbd e+, gan(? NO) (844 ab red “\o de a)” \ab+ed b+ a? Dado que AAT = ATA, llegamos a @ +b aa +c? C+ abd ae + bd = ab + ed 144 ALGEBRA LINEAL La primera ccuacién conduce a 6? Por tanto, b= cob b Caso i): b = (que incluye el caso b= —c = 0), Obtenemos la matriz simétrica A = ( ) Caso ii): b= —c #0. Entonces ac+ bd =b(d—a) y ab-+ed=b(a—d). Asi b(d—a)=b(a—d) y por tanto 2h(d — a) = 0, Como b # 0, obtenemos a = d. Asi A tiene la forma (29-6929) que es la suma de una matriz escalar y una antisimétrica. MATRICES COMPLEJAS ; ; i 3- i 4.36. Determinar la conjugada de la matriz A = ( th aoa 4+ a) 6-i 2-9 5+ 6i, = bi) 3-35 8-05 345i 8) Tomamos el conjugado de cada elemento (siendo a+ bi 2-9 S46) \o+i 249 5-65, 2-31 548i 4.37. Hallar A" cuando A = 4 3-Ti). -6-i Si AH = AT. la traspuesta conjugada de A, Por tanto, ata(2=) =4 S6=7)_ (2431-4 -64 SHR HOF J \s—8 347% —5i 2461 S437 4.38. Escribir A = en la forma A = B + C, donde B es hermitica y C anti- hermitica. ‘Comenzamos caleulando 2—-6i 9+9 4 14+ 48 1 44 2 ne " Ate A (23 ana) AA tsa 8 ) A-4 (i 41 ) 6 2 +7 2+ -2 4.39. Definir un conjunto ortonormal de vectores en C* y demostrar el andlogo complejo al Teorema 4.5: En consecuencia, las matrices requeridas son 2 742 7-% 4 peta =( caha-a5 Teorema: Sca A una matriz compleja. Las siguientes afirmaciones son equivalentes: @) A es unitaria. 6) Las filas de A forman un conjunto ortonormal. c) Las columnas de A forman un conjunto ortonormal. MATRICES CUADRADAS. MATRICES ELEMENTALES 145 Los vectores ty, ta, ..., 4, de C* constituyen un conjunto ortonormal si u,- producto escalar en C* se define segin (Gy ay voy Oy) “(B15 Bas ---s BY) = aby + aby +> + 4,5, y djs la delta de Kronecker. [Véase Bjemplo 4.3 @).] Denotemos por R,, ..., R, las filas de A; entonces R7, .... RT son las columnas de A", Sea AAM = (c,)). De acuerdo con ia definicién de producto matricial, ¢,, = RR} = R,: R,, En ese caso, AA" = 131 y solo si R,-R, = dyy lo que se verifica si y s6lo si Ry, Ro, .... R, forman un conjunto ortonormal. Asi a) y b) son equivalentes, De forma similar, A es unitaria si y sélo si A" es unitaria, lo que se verifica si y s6lo si las filas de A" son ortonormales, para lo que es necesario y suficiente que lo sean las conjugadas de las columnas de A, lo que se da, finalmente, si y s6lo si las columnas de A son ortonormales. De este modo, a) y c) son equivalentes y queda probado el teorema. 4-H a Pg.) es unitaria Ho 3-H Las filas constituyen un conjunto ortonormal: G- 3° G-H W=G4+ H+ $= 8-44 + (- Hi -4-W= GF H+(-Fi- HHO (-H, -4- (4-H $4 G48) Siendo’ asi, 4 es unitaria, donde el Wy = bys 4.40. Mostrar que A MATRICES CUADRADAS POR BLOQUES 4.41, Determinar cual de las siguientes matrices es cuadrada por bloques: 1 213;4 5 121314 8) taitiait toasted 9 Te 5 B=|9 331353 3 a 131517 9 1 Aunque 4 es una matriz cuadrada 5 x 5 y una matriz por bloques 3 x 3, los bloques diagonales segundo y tercero no son matrices cuadradas. Por consiguiente, A no es una matriz cuadrada por bloques B es una matriz cuadrada por bloques. 123 ne 4.42. Completar la particion de C 98 7 en una matriz cuadrada por bloques. 3°33 13°55 Una de las lineas horizontales esta entre las filas segunda y tercera; por tanto, afiadimos una linea vertical entre las columnas segunda y tercera. La otra linea horizontal esta entre las filas cuarta y quinta; por consiguiente, aiadimos una linea vertical entre las columnas cuarta y quinta. [Las 146 4.43. 4.44. 4.45. ALGEBRA LINEAL lineas horizontales y verticales deben situarse simétricamente para obtener una matriz cuadrada por bloques|] Esto nos conduce a la matriz cuadrada por bloques Determinar cudles de las matrices cuadradas por bloques siguientes son triangulares inferiores, triangulares superiores 0 diagonales: Aes triangular superior porque el bloque bajo la diagonal ¢s nulo. B cs triangular inferior porque todos los bloques sobre la diagonal son nulos, C cs diagonal porque los bloques sobre y bajo la diagonal son nulos. D no es triangular superior ni inferior. Atin mas, ninguna otra particién de D hard de lla una matriz triangular superior o inferior por bloques: Considérense las siguientes matrices diagonales por bloques, de las cuales los bloques diagonales correspondientes tienen el mismo tamaiio: M =diag(A,, 4),-.,4,) y N= diag(By, By, ..., B,) Hallar: a) M +N, b) kM, c) MN, d) f(M) para un polinomio dado f(x), 4) Nos limitamos a sumar los bloques diagonales: M+ .N =diag(A,+B,, A, +B, ..., 4,+B,). ») Simplemente multiplicamos los bloques diagonales por k: kM = diag (ky, kA, .... kA,). ©) Simplemente multiplicamos los bloques diagonales correspondientes: MN = diag(4,B,, A,B, 4) Determinamos f(4,) para cada bloque diagonal 4,. Entonces f(M) + A,B.) iag (f(Ay) (Az) f(A,)). i 2 Encontrar M?, siendo M = Dado que M es diagonal por bloques, elevamos al cuadrado cada bloque: (Xa DCs 2) (SKS) = (25) (3G 2)-( &) MATRICES CUADRADAS. MATRICES ELEMENTALES 147 Entonces M? = MATRICES SIMETRICAS CONGRUENTES. FORMAS CUADRATICAS 1-3 2 4.46. Scad=|-3 7 —S] una matriz simétrica. Hallar: a) una matriz no singular P tal 2-5 8 que P’AP sea diagonal, esto es, la matriz diagonal B = P™AP, b) la signatura de A. 4) Construimos primero la matriz por blogues (4 {I): 1-3 211 0 0 (in-[-3 7-50 1 0 2-5 8;0 0 | Efectuamos las operaciones entre filas 3R, + R, +R, y —2R, + Ry—+ Ry sobre (A £1) y luego las correspondientes operaciones entre columnas 3C, + Cz>C3 y —2C, + C3 C, sobre 4 para obtener 1-3 2:1 0 O 1 0 OF 1 0 O 0-2 1! 3 1 0} ydespuss (0 -2 1} 3 1 0 Oo 1 4)-2 0 | Oo 1 4;-2 0 | A continuacién efectuamos la operacion entre filas R +2R, > Ry, seguida de la correspon- diente operacién entre columnas C; + 2C, + C, obteniendo 1 0 0: 1 0 O 1 0 of 1 0 Ol 0-2 1: 3 1 0} ydespuss {0 -2 0; 3 1 0 0 O 9}-1 1 yy 0 0 Wi-t 1 Q Se ha diagonalizado A. Tomamos 13-4 1 0 ol P=(o0 1 1] yentonces B=PTAP=(0 -2 0 o 0 2 0 0 18 b) B tiene p = 2 elementos diagonales positives y n = | negativo, de donde sig A=2—1=1 FORMAS CUADRATICAS 5 - 4.47. Determinar la forma cuadratica q(x, y) correspondiente a la matriz simétrica A ( ) 3 9) =o} G)- Sx — 3y, -3+ 89(’) = = Sx? — 3xy — Ixy + By? = Sx? — xy + By? 148 4.48. 4.49. 4.50. ALGEBRA LINEAL Hallar la matriz simétrica A que corresponde a la forma cuadritica a(x, Y, 2) = 3x? + 4xy — y? + Bxz — 6yz + 2? La matriz simétrica 4 = (a,,) que representa q(x, .... x,) tiene la entrada diagonal ay igual al coeficiente de x7 y las entradas a,; y ay iguales a la mitad del coeficiente de x,x,, Por tanto, 3 2 4 A=(2 -1 -3 4-3 Encontrar la matriz simétrica B, asociada a la forma cuadratica: a) q(x, y)= 4x? + Sxy—Ty? yb) g(x, y, 2) = 4xy + Sy? 3 7 4 cientes en q sean enteros.) ): (La division por 2 puede introducir fracciones incluso aunque los cocfi- 6) A pesar de que sélo x ¢ y aparecen en el polinomio, la expresién q(x, y, 2) indica que hay tres variables. En otras palabras, Mx, Y, 2) = Ox? + dxy + Sy? + Oxz + Oyz + 02? w 1 Cue oun eos Considérense la forma cuadratica q(x, y)=3x? +2xy—y? y la sustitucién lineal x y=2ste. Br, 4) Reescribir q(x, y) en notacion matricial y hallar la matriz A que representa la forma cuadratica, 5) Reescribir la sustitucién lineal empleando notacién matricial y encontrar la matriz P correspondiente a la sustitucion. ©) Hallar q(s, ) utilizando sustitucion directa. d) Hallar q(s, #) usando notacién matricial. . = I\(x 3 ? @ Advice =O) _ 5 )(). Por tanto, a=(1 |) y giX)=X7AN, donde X -i)ly, = 6) Tenemos (*)=(! ~*)(*). De este modo, p=(1 ~3 Jy, 2 Mr, 204 Jy xa donde X e (s, 0)". ©) Sustituimos x e y en g obteniendo Ms, t) = Hs — 31)? + As — 32s + 1) - Qs 407 = Hs? — 6st + 917) + 22s? — Sst — 312) — (5? + dst + £2) = 3s? — 32st + 2007 452. 4.53. MATRICES CUADRADAS. MATRICES ELEMENTALES 149 @) Aqui g(X) = XTAX y X= PY. Siendo asi, XT = ¥7PT. Por consiguiente, tpt apy — 1023) t/t -3V/s\_ ao=an=verrrmod 2 NS Y)- col 2 V2) 52 : = 60g s)=3" 32st + 200 [Tal y como cabia esperar, los resultados en ¢) y d) son iguales.] Sea L una sustitucién lineal X = PY, como en el Problema 4.50. a) {Cuando es L no singular, zy ortogonal? b) Describir una ventaja esencial de una sustitucién ortogonal sobre una no singular. c) Es la susi tucién lineal del Problema 4.50 no singular?, iy ortogonal? 4a) Se dice que L es singular u ortogonal segim lo sea la matriz P que la representa. 1b) Recordemos que las columnas de la matriz P, que representa la sustitucién lineal, introducen un nuevo sistema de referencia. Si P es ortogonal, los nuevos ejes son perpendiculares y tienen las mismas unidades de longitud que los originales, ) La matriz P 2 1-3 ( ) es no singular, pero no es crtogonal; en consecuencia, la sustitucién lineal es no singular, perd no es ortogonal Sea q(x, y, 2) =x? + 4xy + 3y? — 8xz — 12yz + 92?. Encontrar una sustitucién lineal no singular que exprese las variables x, y, z en términos de las r, s, t, de forma que q(r, 5, ¢) sea diagonal. Asimismo, hallar la signatura de q. Formamos la matriz por bloques (4 {1), siendo 4 la matriz que representa la forma cuadratica 1 2-4;1 0 O (iD=| 2 3 -6:0 1 0 4-6 9:0 0 | Efectuamos —2R, + Ry + R2 y 4R, + Ry — Rj y las correspondientes operaciones entre columnas ya continuacion 2R, + Ri +R; y la operacién entre columnas asociada para llegar a 1 0 0; 1 0 Ol 1 0 0; 1 0 O -t 2;-2 1 0} yluecgo {0 -1 O'-2 1 0 o 2-71 4 0 4 oO 0-3; 0 2 Y De este modo, la sustitucion lineal x =r — 2s, y= 5 + 21,2 proporcionara la forma cuadratica rz ar, s,t) 3 Ademés, sig q -1 Diagonalizar la siguiente forma cuadritica q mediante el método conocido como «com- pletar el cuadradon: q(x, y) = 2x? — 12xy + Sy? Comenzamos sacando como factor comiin de los términos en x? y xy el coeficiente de x2: g(x, y) = 2(a? — Oxy) + 5y? 150 ALGEBRA LINEAL Acto seguido, completamos el cuadrado entre paréntesis sumando un maltiplo apropiado de y°, restando después la cantidad correspondiente fuera de los paréntesis. Con esto conseguimos as Y= Gxy + 99%) + Sy? — By? = 2x — 3y)? — 13y* (El -18 proviene del hecho de que el 9y? dentro de los paréntesis se multiplica por 2.) Sean s=x—3y,1=y. En tal caso, x= 5+ 31, y= t, La sustitucin lineal conduce a la forma cuadratica als, 1) = 2s? — 130 FORMAS CUADRATICAS DEFINIDAS POSITIVAS 4: 1. Sea q(x, y, 2) =x? + 2y? — dxz — dyz + 72. {Es q definida positiva? Diagonalizamos (bajo congruencia) la matriz simétrica A asociada a q (cfectuando 2R, + RyRy Y2C, + Cay y lego Ry + Ry Ry y Cz + Cs > Cy) 1 0-2) /1 0 oo ft o ol A 0 2 -2}4f0 2 -2Js(0 2 0 -2 -2 a \o -2 3/ \b o 4 La representacion diagonal de q sélo contiene entradas positivas, 1, 2 y 1, en la diagonal, luego q es definida positiva 455. Sea q(x, y, 2) =x? + y? + 2xz + 4yz + 32%, GEs q definida positiva? Diagonalizamos (bajo congruencia) la matriz. simétrica A correspondiente a ¢: 1 0 th ft o oo fi 0 Ol A={o 1 2}4f0 1 ajsfo 1 0 1 2 3 \o 2 2 \o 0 -2) Hay una entrada negativa, —2, en la representacion diagonal de q, por lo que q no es definida positiva, 2 4.56. Probar que q(x, D=b* —4ac <0. Supongamos v = (x, ») #0, digamos y #0. Sea t= es definida positiva si y sdlo si el discriminante 'y. Entonces Qe) = y*Lalx/y)? + Hox/y) + c] = y*(at? + bt + c) De cualquier modo, s = at? + br + ¢ esti por encima del eje x, es decir, ¢¢ positive para cualquier valor de ¢ si y solo si D = b? ~ 4ac <0. Siendo asi, q es definida positiva si y sélo si D <0. Determinar qué forma cuadratica es definida positiva: @) ax, y) =x? — dxy + Sy? B) ges, y) = 2? + Gxy + 3y? a) Método 1. Diagonalizamos completando el cuadrado: ale, y) = x? = Any + 4y? + Sy? — Ay? = eI + aE donde 5 =x — 2y, — = y. Asi q es definida positiva MATRICES CUADRADAS. MATRICES ELEMENTALES 151 Método 2. Calculamos el discriminante D = b? — 4a definida positiva. 16-20 4. Siendo D <0, q es b) Método 1. Diagonalizamos completando el cuadrado: a&, y) = x? + Oxy + 9y? + 3y? — Dy? = (x + 3y)? — 6)? donde s = x +3y, t= y. Como —6 es negativo, g no es definida positiva. Método 2, Caleulamos D = b? — dae = 36 ~ 12 = 24. Siendo D > 0, no es definida positiva. 8-6 4.58, Sca B una matriz no singular arbitraria y sea M = B™B. Demostrar que: a) M es simétrica, b) M es definida positiva. a) M7 =(B"B)" = BTBTT = BTB = M; por consiguicnte, M es simétrica. 5) Dado que B es no singular, BX #0 para todo XR" no nulo. En consecuencia, el producto escalar de BX por él mismo, BX BX = (BX)"(BX), es positivo. Asi @X) = X™MX = X™(BTB)X = (X™BTYBX) = (BX)"(BX) > 0 De este modo, M es definida positiva. 4.59. Demostrar que q(X) = ||X\|?, el cuadrado de la norma de un vector X, es una forma cuadratica definida positiva. Para X = (xj, Xa. ---. X,) tenemos g(X) =x} + x3 ++ +x2, Ahora bien, g es un polinomio con todos los términos de grado dos y esta en forma diagonal con todas sus entradas positivas. Por tanto, q es una forma cuadritica definida positiva 4.60. Demostrar que las dos definiciones siguientes de forma cuadratica definida positiva son equivalentes: a) Las entradas diagonales son todas positivas en cualquier representacién diagonal de q. b) q(¥)>0 para todo vector no nulo ¥ en R. Supongamos q(¥) = a, yi + a,y3 + ~~ +.a,x3. Si todos los coeficientes a, son positivos, clara mente q(Y) > 0 para todo vector no nulo Y en'R", de modo que a) implica b). Reciprocamente, supongamos a, <0. Sea ¢, = (0, ..., 1, ..., 0) el vector cuyas entradas son todas 0 exceptuando un 1 en Ia k-ésima posicién, En tal caso, q(e,) = a, <0 para ¢, #0. Asi b) implica a). De acuerdo con esto, a) y b) son equivatentes. SIMILARIDAD DE MATRICES 4.61. Considérese el plano R? con los ejes usuales x e y. La matriz 2 x 2 no singular (19) determina un nuevo sistema de coordenadas en el plano, digamos con ejes sy t. (Véase Ejemplo 4.16.) a) Trazar los nuevos ejes s y t en el plano R?. 6) Hallar las coordenadas de Q(1, 5) en el nuevo sistema, 152 ALGEBRA LINEAL Figura 4-2. a) Trazamos el eje s en Ia direccion de la primera columna u, = (1, —1)? de P con unidad de Jongitud igual a la longitud de u,. De forma similar, trazamos el eje t en la direccién de la segunda columna u; = (3, 2)" de P con unidad de longitud igual a Ia longitud de u,. Véase la Figura 4-2. Hi 4 =4 bs 5) Encontramos P~* ) usando, por ejemplo, la formula para la inversa-de una ma- triz 2 x 2. Luego multiplicamos el vector (columna) de coordenadas de Q por P~! re 10-4 Asi Q'(—12, §) representa Q en el nuevo sistema ‘8, §) rep Q 4.62. Definase f:R? + R? segin f(x, y) = (2x — Sy, 3x + 4y). a) Utilizando X = (x, y)", escribir f en notacién matricial, esto es, hallar la matriz A tal que f(X) = AX. 5) Refiriéndose a los nuevos ejes coordenados s y 1 de R? introducidos en el Proble- ma 4.61 y usando Y = (s, t)", hallar f(s, 1) encontrando primero la matriz B tal que S(¥) = BY. » agi (*)=(2 ~S)(* wiente, A= (2 ~> a) Aqui cxcipsiea a ~ a N= \3. 4] fi PF conse 34, 2 -32\/2 -s\f 1 3) 7p 6 Cateuamoe 2 PAP =(3 aC IC a : 3) Entonces A)-( al) Ast f(s, ) = (Bs — 421, $8 +t) te i MATRICES CUADRADAS. MATRICES ELEMENTALES 153 4.63. Considérese el espacio R* con los ejes x, y, z usuales. La matriz 3 x 3 no singular 1 3 -2) -2 -5 2 1 2 41 determina un nuevo sistema de coordenadas para R*, digamos con ejes r, s, ¢. [Alternati- vamente, P define la sustitucién lineal X = PY, donde X = (x, y, z)" e Y=(r, s, t)"] Hallar las coordenadas del punto Q(1, 2, 3) en el nuevo sistema Empezamos calculando P~!. Construimos ta matriz por bloques M = forma canénica por filas: y la reducimos a 103-2 1t 0 OO ff 3-2; 1 0 Oo M=|-2 -S 2;0 1 Oj~fo 1 -2; 2 14 o}~ 1 2 t10 0 wf \o -1 3-1 0 14 1 3 -2)1 0 OO fi 3 0:3 2 2 ~(O 1-2) 2 1 of~fo 1 014 3. 2}r o o rit 1 tf \o o tito a 41 1 0 01-9 ~7 -a) ~[o 1 0; 4 3 2 Ce ee ee De acuerdo con esto, 9 -7 -4 -7 -4\/1\ /—a7) Pinl 4 30 2 y 3 a}faj={ 16 toi y 1X3 6 Siendo asi, Q'(—47, 16, 6) representa Q en el nuevo sistema, 4.64. Definase f:R° + R° segin S(% y, z) = (x + 2y — 3z, 2x +z, x—3y +2) + y sea P la matriz no singular de cambio de variables del Problema 4.63. [De este modo, X = PY, siendo X = (x, y, 2)" ¢ Y=(r, s, )"] Encontrar: a) la matriz A tal que f(X) = AX, b) la matriz B tal que f(¥) = BY, &) flr, s, 0. 4) Los coeficientes de x. yy = proporcionan la matriz. A x) ft 2 —3\ fx 1 2 =3 yJ=(2 0 1]fy) yportanto A=[2 0 1 7} \t -3 1/2, 1-3 1 b) Bes similar a A con respecto a P, esto ¢s, -9 -7 -4\/1 B=P4P=( 4 3 2\(2 0 1f'-2 f\t tot 3 li 2 4 154 ALGEBRA LINEAL ©) Utilizamos la matriz.B para llegar a S(t 5, 1) = (r — 198 + 58t, 7 + 12s — 274, Sr + 15s — 110) 4.65. Supéngase que B es similar a 4. Mostrar que tr B= tr A. Siendo B similar a A, existe una matriz no singular P tal que B= P~' AP. Utilizando el Teo- rema 4.1, tu B=trP AP =u PPA=tr A FACTORIZACION LU 1 3 2) 4.66. Encontrar fa factorizacion LU de A=| 2 5 6). 3-2 «7 Reducimos A a forma triangular por medio de las operaciones —2R, + Ry Ry y 3R, + Ry—>Rs y luego 7R, + Ry > Ry: 1 3 A fp 3 a A~{o -1 2}~{o -1 2 o 7 Bf \o 0 7, Empleamos los opuestos de los multiplicadores —2, 3 y 7 de las operaciones entre filas precedentes para construir la matriz L, y la forma triangular de A para conseguir la matriz. U; esto es, 1 0 oO 1 3 2 1 0 y Usfo -1 2 “3-7 0 0 27 (Como comprobacién, multipliquense L y U para verificar que A = LU.) 4.67. Hallar la factorizacion LDU de la matriz A del Problema 4.66. La factorizacion A = LDU se refiere a la situacién en la que L es una matriz triangular inferior con unos en Ja diagonal (como en fa factorizacion LU de A), D una matriz diagonal y U una matriz triangular superior con unos en la diagonal. De este modo, bastard sacar como factores las entradas diagonales de Ia matriz U en la factorizacién LU anterior para obtener las matrices D y U. Por consiguiente, 1 0 0 1 0 0 1 3 2) t={ 2 1 0 D=(0 -1 0 u=|0 1 -2 3-7 0 0 ty o 0 4 1 4 -3) 4.68. Hallar la factorizacion LU de B=| 2 8 1 -5 -9 7 4.69. MATRICES CUADRADAS. MATRICES ELEMENTALES 155. Reducimos B a forma triangular efectuando primero las operaciones —2R, +R, Ry y SR. +R, > Ry: 1 4 3 B~(o 0 7 om -8 Obsérvese que la segunda entrada diagonal es 0. Siendo asi, B no podri Ievarse a forma triangular sin operaciones de intercambio de filas. Dicho de otro modo, B no es factorizable LU. 1 2 -3 4\ ae 2 3-8 5 2 Encontrar la factorizacion LU de A = 1 3 1 3 por un método directo, 3 8 -1 13, Comenzamos por construir las siguientes matrices Ly U: 1 0 0 oO My, Myz yy yg Po 0 a tas te “lh ba 1 0 0 0 fess M4 a ta asf 0 0 0 wl La parte del producto LU que determina la primera fila de A conduce a las cuatro ecuaciones wyy=t M2520 wy=-3 ad y la que determina la primera columna a las ecuaciones fit = 2 baa = dati obs Inet la =3 Llegando a este punto, las matrices L y U presentan la forma 10 0 0 1 2 -3 4 al (a 3 laa laa 1 0 0 0 4 La parte del producto LU que determina el resto de las entradas en la segunda fila de A proporciona las ecuaciones 4tu2= 3 6+ urs Mag = 1 -8 = 84uny= 5 3 tay te y la que determina el resto de las entradas de la segunda columna nos Ileva a 2+ Iya. =3 6+ leattan ° la = -2 De este modo, Ly U tienen ahora la forma 1 0 0 | 1 2-3 4 21 0 0 Oo -1 2 -3 ‘li 1 1 of ) YHly 9 gs a 3-2 ly o 0 0 156 4.70. 471. ALGEBRA LINEAL Continuando con Ia tercera fila, tercera columna y cuarta fila de A obtenemos ty3 = 2, después ay = y, por iltimo, 4g =3 Asi 1 0 0 ol 1 2-3 4 z z 0 cv) oO -1 -2 -3 Petr -1 1 0f 3%) Y*lo 0 2 -1 3-2 2 1, 0 0 oO 3 Hallar la factorizacion LDU de la matriz A del Problema 4.69. Aqui U debe tener unos en la diagonal y D ser una matriz diagonal. Asi, usando Ia factorizacién LU precedente, sacamos como factores las entradas diagonales de aquella U legando a 1 1 2-3 4 -1 102 3 D a y Us i Rs, 3. -4R, + RyRy 12 N ft 2 2 A~{O -1 1)~{o -1 1 o -4 sf lo o 1 1 0 oO i) 2, Por tanto, L={ 2 1 0 y o-1 1 3 4 4, o 0 1 Las entradas 2, —3 y 4 de L son los opuestos de los multiplicadores en las operaciones entre filas precedentes, 4.73. Resolver el sistema AX = B para B,, B, y Bs, donde A es la matriz del Problema 4.72 y B,= (1 1, 1), By = By + X,, By = By +X, (aqui X; es la solucién cuando B = B,) a) Caleulamos L~"B, 0, equivalentemente, efectuamos las operaciones entre filas (1), (2) y (3) sobre B,, Io que nos conduce a Wye 4 3) . va f_4)_o (_ Y 4 5 Resolvemos UX =B para B=(1, —1, 8)" por sustitucién hacia atras obteniendo X, =(—25, 9, 8)". 4) Hallamos B, = B, +X, = (I. 1, 1) + (—25, 9, 8) = (—24, 10, 9). Efectuamos las operaciones (1), @) y @) sobre B, legando a (24, 58, —63)" y luego a B = (—24, 58, —295)?, Resolvemos UX = B por sustitucién hacia atras obteniendo X; = (943, —353, —295), ©) Caleulamos By = B, + X; = (—24, 10, 9) + (943, —353, —295) = (919, —343, —286). Blec- tuamos Tas operaciones (1), (2) y (3) sobre B, legando a (919, ~2187, 2671)" y después a B= (919, —2181, 11,395)". Resolvemos UX = B por sustituciin hacia atris obteniendo X 37.628, 13.576, 11.395), PROBLEMAS SUPLEMENTARIOS ALGEBRA DE MATRICES 12 474. Sead=() |). Caleular 4% ko 475. Supongase que la matriz 2 x 2 B conmuta con cualquier matriz 2 x 2 A. Probar que B= ( ) para algin escalar k, es decir, B es una matriz escalar. 158 476. 477. 4.78. 4.79, 4.80. ALGEBRA LINEAL St 2 5 ; Sea d= € i; Encontrar todos los nimeros k para los que A es una raiz del polinomio k, = 7x +10, 5) a0) a) (x) — 25, e) hax 4 0 Sea B= (si a» Hallar una matriz A tal que A? 100 oo10 tt 8 Sean 4=(5 9 9 y]¥8= (0 1 1}, Calcular: a) AX para todos los enteros positives n, 0009 oot ») B® para todos los enteros positivos n. Imponer sobre las matrices A y B las condiciones necesarias para que A? — B? = (A + B)(A — B). MATRICES INVERTIBLES, INVERSAS. MATRICES ELEMENTALES Hallar la inversa de cada una de las matrices: 13-2 2 1 at 1-2 0 {2 8 -3},H(5 2 -3),9(2 -3 1 i) 7 |, 8) 4 11 4, Hallar la inversa de cada una de las matrices: tora d 1 2 1 0) o 1 1 th fo 1 vt a No o 1 apy 3 1 2 0 0 oO 1 1 4-2 4 12 Expresar cada una de las siguientes matrices como producto de matrices elementales: a) ( . »(3 8 2 4 Expresar A= como producto de matrices elementales. ao omn Supéngase que A es invertible. Demostrar que si AB = AC, necesariamente B = C. Dar un ejemplo de una matriz no nula A tal que AB = AC pero B # C. Si A es invertible, demostrar que kA e: wertible para k #0, con inversa k~1 A>! Supongase que A y B son invertibles y que A + B #0. Probar, con un ejemplo. que A+ B no es necesariamente invertible. MATRICES CUADRADAS. MATRICES ELEMENTALES 159 TIPOS ESPECIALES DE MATRICES CUADRADAS 4.87. 4.88. 4.89, 4.90. 491. 4.92, 4.93. 4.94, 4.95. 4.96. 497. 4.98, 4.99. 4.100, 4101. Utilizando sélo los elementos 0 y 1, hallar todas las matrices triangulares superiores 3 x 3 no singulares, Utilizando sélo los elementos 0 y 1, determinar el mimero de: a) matrices diagonales 4 x 4, 5b) matrices triangulares superiores 4 x 4, c) matrices triangulares superiores 4 x 4 no singulares. Generalizar el resultado a matrices n x n. ‘4 21 1 4 Encontrar todas las matrices reales A tales que A? = B, donde: a) B= (¢ 5 a b) B= ( ) Sea B= Hallar una matriz A con entradas diagonales positivas tal que A? = 8 9 0 uw Supéngase AB = C, siendo A y C triangulares superiores. 4) Demostrar, con un ejemplo, que B no es necesariamente triangular superior, ni siquiera cuando Ay C son matrices no nulas. Ca }) Demostrar que B es triangular superior cuando A es invertible. Probar que AB no es necesariamente simétrica incluso en el caso de que 4 y B lo sean, Sean A y B matrices simétricas. Demostrar que AB es simétrica si y slo si A y B conmutan. Supéngase que A es una matriz simétrica. Probar que: a) 4? y, en general, A son simétricas; b) f(A) es simétrica para cualquier polinomio f(x); c) PAP es siméttica, Encontrar una matriz ortogonal 2 x 2 P cuya primera fila sea a) (2/./29, 5/,/29), b) un miiltiplo de (3, 4). Hallar una matriz ortogonal 3x 3 P cuyas dos primeras filas sean miltiplos de a) (1, 2, 3) y (0, ~2, 3), respectivamente; b) (1, 3, 1) y (2, 0, —1), respectivamente. Supéngase que A y B son ortogonales. Probar que A?, A~! y AB también lo son. {Cuéiles de las siguientes matrices son normales? 1 i L 2-1 + a-(; ~) a-(; = c-fo 1 1}, Lag 2ignit 0 0 L -3 -1 2 Supéngase que A es una imatriz normal. Demostrar que: a) A, b) A? y, en general, A", ©) B=kI + A también lo son. 2 -2 -4\ Una matriz E es idempotente si E? = E. Probar que E=(-1 3 4) cs idempotente. 1-2 -3 Demostrar que si AB = A y BA = B, entonces A y B son idempotentes, 160 4.102. 4.103. 4.104, 4.105, ALGEBRA LINEAL i. wing Una matriz 4 es nilpoteme de clase p si A?=0 pero A" 40. Probar queA=( 5 2 6 -2 -1 ~3 €8 nilpotente de clase 3. Supéngase que A es nilpotente de clase p. Probar que AY =0 para q > p pero A? #0 para q

0. Se Li Dry MATRICES CUADRADAS, MATRICES ELEMENTALES 163 RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 474, 476, 471. 478. 479, 480. 481. ( 7) @) k=2, b) k=—5, c)ninguno, (5) 0 oo 2001) g_loooe 1 amo P= P= A¥=0 para k>3; - 94-1) oo of Hl0 0 0 of para k> (08 " 0 0 0 9 0 0 0 a ) -10 -20 4 7 o 1-1 0 6 -tes2 lo 0 1-1 a 8 32 =3 o 0 0 203-1 -4 1 01 -1\/1 0. 1 O\/1 of 2 4 (2 XE “NE ol HE 9 2. wort pos amie tiene inversa. 164 ALGEBRA LINEAL 4.87. Todas las entradas diagonales deben ser I para que sean no singulares. Hay ocho elecciones posibles para las entradas sobre la diagonal: CoO HC OE HE oC HC oC 2) 2 4\ (2 -7\ (-2 7\ (-2 -4 2 CAE 302 92 SW te 120 490. 31 2, i ai i 2 46 wn 9 a-(! an(s 2en( 9 1 23 3\_(9 4% la ahs kn 8 495. @) (2 $8) » (GG ) & w/a W/E Way ft YT 496. a) 0 -y/B 3B}, » |W? 0 -V2 12/,/157 —3/,/157 —2),/157) 3/22 2/23/22) 498. 4,C. bay bas ae bay baa bas a, ay 4. 414, [21 922 2 ba ba bse 32°53 O54 2 Le a an a 43 bag bas sa bss 11 0) anos, 1 1 1 o 1 4 4.106. a) x=a(parametro), y= 0, 2 = 4109. A,B,C Atl, A — MATRICES CUADRADAS. MATRICES ELEMENTALES 165 4.118, 4.119, 4.120, 4.121, 4.122, 304 il 15 gil 30 41 Mo = 9 12 57 78 24 33, 156 213, 1-1 -1 26 1 [9 103 13 1 P=ln go 1 9 1 sig A =2 \o 0 0 7, 469) a) x=r—3s+19, yas4Tt,2=1, a0 5, t) =? — 5? + 3607, rango q=3, sig q=1 b) x=r—U,y=s42,2=1, (r,s, t) = 27? — 3s? + 2977, rango q =3, sig q= 1 o) x=r—2s418t,y=s—Thz=1, a(t, 8, t)= 1? +5? — 620, rango 4 @) x=r-s—ty=s—tret, 4(% J, 2) = 77 + 2s%, rango q = 2, sig q =2. a) k>% b) k<-120k> 12; ) k>S, 9 y=? —y?, w= (1, 2, 0=(1, =1). Supongamos que A se ha diagonalizado a P?4P = diag (a,). Definase Q = diag (b,) por {" Jia si a, 40 1 ia. o7 Entonces B= OPTAPO = (PQ)"A(PQ) tiene la forma requerida. siq= 166 4.124, 4.126. 4.127. ALGEBRA LINEAL a) 17, 5,3), (b) f(r, 8,1) = (17r — 61s + 1348, 4r — 415 + 46t, 3r — 25s + 258), ©) alt, s,) = (Gtr + 5 — 3301, 16 + 35 — 91t, 9r — ds — 44) Se ea so o-oo Shel CAPITULO 5 Espacios vectoriales 5.1. INTRODUCCION Este capitulo introduce 1a estructura algebraica subyacente al Algebra lineal, la de espacio vectorial de dimensién finita. La definicién de espacio vectorial involucra un cuerpo arbitrario (wéase el Apéndice) cuyos elementos se denominan escalares. Se utilizara la siguiente notacion (a menos que se establezca o implique otra cosa): K el cuerpo de escalares a,b,cok — los elementos de K Vel espacio vectorial dado u,v, los elementos de ¥ No se perderé nada esencial si el lector supone que K es el cuerpo real R 0 el complejo C. El capitulo no abarca conceptos como longitud y ortogonalidad, puesto que no se consideran parte de la estructura fundamental de un espacio vectorial. Se incluiran como estructura adicional en el Capitulo 6. 5.2, ESPACIOS VECTORIALES A continuacién se define la nocién de espacio vectorial o lineal. Definicién: Sean K un cuerpo dado y V un conjunto no vacio, con reglas de suma y producto por un escalar que asignan a cada par u, ve V-una suma u+veV y a cada par ueV, keK un producto kue V. V recibe el nombre de espacio vectorial sobre K (y los elementos de V se llaman vectores) si se satisfacen los siguientes axiomas (véase el Problema 5.3). 167 168 ALGEBRA LINEAL [A,] Para toda terna de vectores u, v, we V, (u-+0) + w=u+ (+ w), [4,] _ Existe un vector en V, denotado por 0 y denominado el vector cero, tal que u + 0 = para todo vector we V. [43] Para todo vector we V existe un unico vector en V, denotado por —u, tal que u+(-u)=0. [A,] Para todo par de vectores u, ve V,u-tv=v+u. [M,] Para todo escalar ke K y todo par de vectores u, ve V, k(u + v) = ku + ke. [Mz] Para todo par de escalares a, be K y todo vector we V, (a + b)u = au + bu. [Mg] Para todo par de escalares a, be K y todo vector we V, (ab)u = a(bu). [Mg] El escalar unidad 1¢K cumple 1u =u para todo vector we V. Los axiomas precedentes se desdoblan de forma natural en dos categorias.. Los cuatro primeros atafien Unicamente a la estructura aditiva de Vy pueden resumirse diciendo que V es un grupo conmutativo (véase el Apéndice) bajo la suma. De ello se deriva que cualquier suma de veetores de la forma by +o to +o, no requiere paréntesis y no depende del orden de los sumandos, que el vector cero, 0, es tinico, que el opuesto —u de w es tinico y que se verifica la ley de cancelacién; esto es, para tres vectores cualesquiera w, v, we V. u+w w implica Asimismo, la resta se define segin uu u+(—0) Por otra parte, los cuatro axiomas restantes se refieren a la «accién» del cuerpo K sobre V. Obsérvese que la rotulacion de los axiomas refleja este desdoblamiento, Empleando estos axiomas adicionales probaremos (Problema 5.1) las siguientes propiedades elementales de un espacio vectorial. Teorema 5.1: Sea V un espacio vectorial sobre un cuerpo K. i) Para todo escalar keK y 0eV, k0 =0. ii) Para 0eK y todo vector eV, Ou = 0. iii) Si ku=0, donde keK y weV, entonces k=0.0u=0. iv) Para todo keK y todo ue V, (—k)u = k(—u) = —ku. 5.3. EJEMPLOS DE ESPACIOS VECTORIALES Esta seccion enumera una serie de ejemplos importantes de espacios vectoriales que se utilizardn a lo largo de todo el texto. ESPACIOS VECTORIALES - 169 ESPACIO &” Sea K un cuerpo arbitrario. La notacién K” se usa frecuentemente para designar el conjunto de todas las n-plas de elementos de K. Aqui K” se ve como: un espacio vectorial sobre K, en el que la suma vectorial y el producto por un escalar se definen segin (Gy Ga, ey Gy) + (By, Bay eos Ba) (ay + Byy dg + Bay osnn dy + by) Kay, gy 5 ,) = (Kg, Kady, «24 Kay) El vector cero en K" es la-n-pla de ceros 0=(0, 0, ..., 0) y el opuesto de un vector se define por (Ags 2, vey Gy) = (= Ay, — Ary «25 — Gy) La demostracién de que K" es un espacio vectorial es idéntica a la del Teorema 2.1, que ahora puede considerarse como la afirmacién de que R", con las operaciones alli definidas, es un espacio vectorial sobre R. ESPACIO DE MATRICES M,,, , La notacién M,,',, 0 simplemente M, se utilizar para designar el conjunto de todas las matrices m Xn sobre un cuerpo arbitrario K. My, €8 un espacio vectorial sobre K con respecto a las operaciones usuales de suma matricial y producto por un escalar. (Véase el Teorema 3.1.) ESPACIO DE POLINOMIOS P(1) Denotemos por P(t) el conjunto de todos los polinomios Oy tat tat? + +a,t con coeficientes a, en algtin cuerpo K. (Véase el Apéndice.) P(t) es un espacio vectorial sobre K con respecto a las operaciones usuales de suma de polinomios y producto de un polinomio por una constante. ESPACIO DE FUNCIONES F(X) Sean X un conjunto no vacio y K un cuerpo arbitrario. Consideremos el conjunto F(X) de todas las funciones de X en K. [Notese que F(X) es no vacio por serlo X.] La suma de dos funciones f, g¢ F(X) es la funcién f + ge F(X) definida por (F+ a @=Se) +9) YxeX 170 ALGEBRA LINEAL y el producto de un escalar ke K por una funcién fe F(X) es la funcion kfe F(X) definida por (KN) kf(x) YxeX (El simbolo ¥ significa «para todo».) F(X), con las operaciones anteriores, es un espacio vectorial sobre K (Problema 5.5). EI vector cero en F(X) es la funcién cero, 0, que aplica cada xe X en OeK, es decir, O(x)=0 vrex Asimismo, para cualquier funcién fe F(X), la funcién —f definida por (-D@&)=—-f(e) Vxex es la opuesta de la funcion f. CUERPOS Y SUBCUERPOS. Supongamos que E es un cuerpo que contiene un subcuerpo K. E puede verse como un espacio vectorial sobre K como sigue. Tomemos como suma vectorial la suma usual en E, y como pro- ducto kv del escalar ke K por el vector ve E el producto de ky v como elementos del cuerpo E. En tal caso, E es un espacio vectorial sobre K, esto es, E y K satisfacen los ocho axiomas de espacio vectorial precedentes. 5.4. SUBESPACIOS Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se denomina un subespacio de V si es a su vez un espacio vectorial sobre K con respecto a las operaciones de V, suma vectorial y producto por un escalar. Un criterio simple para identificar subespacios es el siguiente (véase el Problema 5.4 para su demostracién). Teorema 5.2: Supongamos que W es un subconjunto de un espacio vectorial V. Entonces W es un subespacio de V si y sdlo si se cumple: i). 0ew. ii) Wes cerrado bajo la suma de vectores, es decir: Para todo par de vectores u, ve W, la suma u + ve W. iii) W es cerrado bajo el producto por un escalar, esto es: Para todo we W y para todo keK el miltiplo kwe W. Las condiciones ii) y iii) pueden combinarse en una sola, como se hace, mas abajo, en i (véase la demostracién en el Problema 5.5) Corolario 5.3: W es un subespacio de V si y solo si: i) Oew. ii) au + bveW para todos los u, ve W y a, beK. Se ESPACIOS VECTORIALES 171 EJEMPLO 5.1 a) Sea V cualquier espacio vectorial. Entonces, tanto el conjunto {0}, que consiste en el vector cero solo, como el espacio V entero son subespacios de V. 5) Sea W el plano xy en R° consistente en aquellos vectores cuya tercera componente es 0: 0, en otras palabras, W = {(a, b, 0):a, beR}. Notese que 0 = (0, 0, 0)e W ya que la tercera comporiente de 0 es 0. Para todo par de vectores u = (a, b, 0) y v= (c, d, 0) en W y todo escalar KER tenemos que utv=(ateb+d,0) y — ku= (ka, kb, 0) pertenecen a W, luego W es un subespacio de R® ©) Sea V=M,,, el espacio de las matrices x n. El subeonjunto W, de las matrices triangulares (superiores) y el W, de las matrices simétricas son subespacios de V’ puesto que son no vacios y cerrados bajo la suma de matrices y el producto por un escalar. 4d) Recordemos que P(t) denota el espacio vectorial de los polinomios, Denotemos por P,(t) el subconjun- to de P(t) que consiste en todos los polinomios de grado R, y obtenemos una matriz B. En ese caso, cada fila de B es, claramente, bien una fila de 4,0 bien una combinacién lineal. de filas de A, por lo que el espacio fila de B esta contenido en el de A. 174 ALGEBRA LINEAL Por otra parte, podemos efectuar la operacién elemental entre filas inversa sobre B y obtener A, luego el espacio fila de A esta contenido en el de B. De acuerdo con esto, A y B tienen el mismo. espacio fila, lo que nos conduce al teorema enunciado a continuacién. Teorema 5.7: Las matrices equivalentes por filas tienen el mismo espacio fila. En particular, demostraremos (Problemas 5.51 y 5.52, respéctivamente) los siguientes resulta- dos fundamentales, referentes a matrices equivalentes por filas. Teorema 5.8: Dos matrices en forma canénica por filas tienen el mismo espacio fila si y solo si tienen las mismas filas no nulas. Teorema 5.9: Toda matriz es equivalente por filas a una Gnica matriz en forma canénica por filas. En el proximo ejemplo aplicamos los resultados anteriores. EJEMPLO 5.4. Demostremos que el subespacio U de R* generado por los vectores 4 =(2-13) m=241-2 y w=G6,63-7 y el subespacio W de.R¢ generado por los vectores my =(42.-41D y=. 4, -5, 14) son iguales, esto es, que U = W. Método 1. Demostramos que cada u, es combinacién lineal de v, y v; y que cada v; lo es de uy, us y us. Obsérvese que debemos probar la compatibilidad de seis sistemas de ecuaciones lineales. Método 2. Construimos la matriz 4, cuyas filas son los u,, y la reducimos a forma canénica por filas: 1 2-1 XN ft 2-1 3) fi 2 0 @ A=(2 4 1 -2}~fo 0 3 -s}~{o o 14 -§ 3 6 3-7 \o 0 6 -t6 \o 0 0 Ahora construimos la matriz. B, cuyas filas son v, y 02, y la reducimos a forma candnica por files: o-(! 2-4 i) (1 2-4 ny 1 2 0 F 2 4-5 14/~\o 0 3 -8/~\o 0 1 -4, Como las filas no nulas de las matrices reducidas son idénticas, los espacios fila de A y B son iguales, de modo que U = W. 5.6. DEPENDENCIA E INDEPENDENCIA LINEAL A continuacién se definen las nociones de dependencia ¢ independencia lineal. Estos conceptos juegan un papel esencial dentro de la teoria del algebra lineal y de las matematicas en general aa ESPACIOS VECTORIALES 175 Definicién: Sea V un espacio vectorial sobre un cuerpo K. Se dice que los vectores 0), ..-. ¥m€V. son linealmente dependientes sobre K, 0 simplemente dependientes, si existen escalares a}, ... dy © K, no todos 0, tales que 4,0, + yd) + F Og? = (a) En caso contrario se dice que los vectores son linealmente independientes sobre K, 0 simplemente independientes, Observemos que la relacién (+) se verificard siempre si los a, son todos 0. Si la relacién sélo se verifica en este caso, es decir, 4,04 +4302 + -~ +a qty =O implica a, los vectores seran linealmente independientes. Sin embargo, si (*) también es valida cuando uno de los a, no es 0, los vectores serdn linealmente dependientes. Se dice que un conjunto {v,, v3, ..., 0%} de vectores es linealmente dependiente o indepen diente segiin lo sean los vectores 0, 9, ..., tq. Un conjunto infinito $ de vectores es linealmente dependiente si existen vectores u;, ..., 4 en S que lo son; en caso contrario, S es linealmente independiente. Las siguientes observaciones derivan de las definiciones precedentes Nota 1: Si 0 es uno de los vectores v,, ..., v,,, digamos v, = 0, los vectores deben ser linealmente dependientes, ya que Loy + Ov, +--+ + 0p 0404-4050 y el coeficiente de v; es distinto de 0. Nota 2: Cualquier vector no nulo v es por si solo linealmente independiente, debido a que kv=0, v#0 implica =k =0 Nota 3: Si dos de los vectores v1, v2, ..., tq Son iguales, o si uno es un miltiplo escalar de otro, digamos v, = kvz, los vectores son linealmente dependientes, puesto que 0, — ko, + O05 +--+ 00q 0 y el coeficiente de v, no es 0. Nota 4: Dos vectores v, y v2 son linealmente dependientes si y sélo si uno de ellos es miltiplo del otro. Nota 5: Si el conjunto {v,, ..., tq} es linealmente independiente, cualquier reordenacion de los vectores {0,,, Vj,, ---, 0, también lo es, Nota 6: Si un conjunto $ de vectores es linealmente independiente, necesariamente lo es cual quier subconjunto de S. Alternativamente, si $ contiene un subconjunto linealmente dependiente, Ses linealmente dependiente. 176 ALGEBRA LINEAL Nota 7: En cl espacio real R°, la dependencia lineal de vectores puede describirse geométrica- mente en los siguientes términos: a) Dos vectores cualesquiera u y v son linealmente dependien- tes si y s6lo si yacen en la misma recta que pasa por el origen, como se ilustra en la Figura 5-2(a). 5b) Tres vectores cualesquiera u, vy w son linealmente dependientes si y s6lo si yacen en el mismo plano que pasa por el origen, como se muestra en la Figura 5-2(b). (a) wy v son linealmente dependientes (b) uw, v y w son linealmente dependientes Figura 5-2, A continuacién se dan otros ejemplos de vectores linealmente dependientes ¢ independientes EJEMPLO 5.5 a) Los vectores u = (1, —1, 0), 0 = (I, 3, —1) y w=(5, 3, —2) son linealmente dependientes porque 3(1, —1, 0) + (1, 3, —1) — (, 3, —2) = (0, 0, 0) Esto es, 3u + 20—w=0, 1b) Probamos que los vectores u independientes. Supongamos que xu + yu + zw = caso, (0, 5, —3, 1) y w=(0, 0, 7, —2) son linealmente |, donde x, y y z son escalares desconocidos. En tal 0, 0, 0, 0) = x16, 2, 3, 4) + 910, 5, -3, 1) + 20,0, 7, -= =x, 2x + Sy, 3x — 3y + 12, dx + y — 22) y asi, por la igualdad de las componentes correspondientes, 6 =0 2x+5y <0 3x—3y+72=0 ax+ y-=0 La primera ecuacion conduce a x =0; la segunda, con x =0, proporciona y=0, y la tercera, con x=0e y=0, lleva a z= 0. De este modo, xut+yo+2w=0 implica x =0, y En consecuencia, u, v y w son linealmente independientes. ii ESPACIOS VECTORIALES 177 COMBINACIONES LINEALES Y DEPENDENCIA LINEAL Las nociones de combinacién lineal y dependencia lineal estén estrechamente relacionadas. De forma especifica, demostraremos que los vectores v;, 03, ..., ty, cuando hay mas de uno, son Tinealmente dependientes si y s6lo si uno de ellos es una combinacién lineal de los otros. Supongamos, por ejempio, que v; es una combinacion lineal de los otros: Fy Ho a + Mies H+ atin Entonces, sumando —v, a ambos miembros, obtenemos yD, HE ate OE Ope Foo + hy = 0 donde el coeficiente de v, no es 0; por consiguiente, los vectores son linealmente dependientes. Reciprocamente, supongamos que los vectores son lincalmente dependientes, digamos byoy to + Bi tt Bde donde —b #0 En ese caso, 2y = — by "yo, — 1g 4 0j-4 — BF By Opa — oo = BF Dl de modo que vj es una combinacién lineal del resto de los vectores. | Establecemos ahora un resultado algo mas potente que el anterior (véase el Problema 5.36 para su demostracién), que tiene numerosas consecuencias importantes. Lema 5.10: Supongamos que dos 0 mas vectores no nulos v,, 03, -.., %, son linealmente dependientes. Entonces uno de los vectores es una combinacidn lineal de los. precedentes, esto es, existe un k> 1 tal que Dy = Cp0s + Cady Ho yA EJEMPLO 5.6. Consideremos la siguiente matriz en forma escalonada: oO 2 3 4 5 6 7 0 0 4-4 4-4 4 A=]0 0 0 0 7 8 9 0 0 0 0 o 6 ~6 o 0 0 0 6 0 9, Observemos que las filas Rs, Rs y Ry tienen ceros en la segunda columna (bajo el elemento pivote de R,) Y que, por tanto, cualquier combinacion lineal de Ry, Ry y R, debe tener un cero como segunda componente. Siendo asi, R, no puede ser una combinacion lineal de las filas no nulas situadas bajo ella. De forma similar, las filas Ry y Ry tienen ceros en la tercera columna, bajo cl elemento pivote de Ry: por consiguiente, R, no puede ser una combinacién lineal de las filas no nulas situadas bajo ella. Finalmente, R, no puede ser un méltiplo de R,, puesto que ésta tiene un cero en la quinta columna, bajo el elemento pivote de aquélla. Mirando las filas no nulas de abajo a arriba, Rs, Ry, Ro, Ry, constatamos que ninguna de ellas es combinacién lineal de las precedentes. De este modo, las filas no nulas son linealmente ‘independientes, de acuerdo con el Lema 5.10. 178 ALGEBRA LINEAL El argumento del ejemplo anterior puede aplicarse a las files no nulas de cualquier matriz escalonada. Asi pues, tenemos el siguiente resultado (demostrado en el Problema 5.37), muy util. Teorema 5.11: Las filas no nulas de una matriz en forma escalonada son linealmente inde- pendientes. 5.7. BASES Y DIMENSION Comenzamos estableciendo dos caminos equivalentes (Problema 5.30) para definir una base de un espacio vectorial V. Definiciin A: Un conjunto $ dos condiciones: Wj, Up, «+5 th} de vectores es una base de V si se verifican las 1. uy, up, ..., t, Son linealmente independientes. 2. tgs May sony ty generan V. B: Un conjunto $= {u,, uz, ... uy} de vectores es una base de V si todo vector ve V puede escribirse de forma tinica como combinacién lineal de sus vectores. Se dice que un espacio vectorial V es de dimension finita n 0 que es n-dimensional, escrito dim V si V tiene una base como la anterior, con m elementos. La dimension esta bien definida, a la vista del siguiente teorema (demostrado en el Problema 5.40). Teorema 5.12: Sea V un espacio vectorial de dimensién finita. Entonces todas las bases de V tienen el mismo numero de elementos. El espacio vectorial {0} tiene dimensién 0, por definicidn, Cuando un espacio vectorial no es de dimension finita, se dice que es de dimension infinita EJEMPLO 5.7 a) Consideremos el espacio vectorial Mz, 5 de todas las matrices 2 x 3 sobre un cuerpo K. Las seis matrices siguientes forman una base de Mg, 5 10 0 O10 oor 000 000 0 0 0 0 0 0, 0 0 0, 0 0 9, 10 9, 0 1.0, Cn ‘Con mayor generalidad, en el espacio vectorial M,,, de las matrices r x s, sea E,; 1a matriz. cuya entrada ij es 1, siendo 0 las restantes, Todas las matrices E,; tales constituyen una base de M, ,, denominada su base usual. Consecuentemente, dim M,,, = rs. En particular, e, = (1, 0, ..., 0), e ++ €y = (0, 0, ..., 0, 1) forman la base usual de K”. +4) Consideremos el espacio vectorial P,(t) de los polinomios de grado + Ca ty Denotemos por P la traspuesta de la matriz de coeficientes anterior: O sea, P = (p,), donde pi = cy. Esta P recibe el nombre de matriz de cambio de base (0 el de matriz de transicién) desde la «antigua base» $ hasta la «nueva base» S’ Nota: Como los vectores »,, 02, ..., 0, de S’ son linealmente independientes, la matriz P es invertible (Problema 5.84). De hecho (Problema 5.80), su inversa P~' es la matriz de cambio de base desde la S', volviendo a la S. EJEMPLO 5.17. Consideremos las dos bases de R?: S={u; = (1, 2), wz = GB, E={e,=(1,0), 2 =, 1} De u, =%, + 2c, uz = 3e, + Se, se sigue que = Su, + 2, 3uy— a ESPACIOS VECTORIALES 191 Escribir los coeficientes de w, y uz como columnas proporciona la matriz de cambio de base P desde la base S hasta la base usual E: Ss 3 os ( 2 4) = e420, , 5) = Be, + Se, Ademas, como E es la base usual, Escribir los coeficientes de e, y ey como columnas proporciona la matriz de cambio de base Q desde la base E, regresando a la base S: Observemos que P y Q son inversas: 5 Vfl 3 1 0 PO=\ a -ik2 5)7lo 1 El siguiente teorema (demostrado en el Problema 5.19) nos describe cémo son afectados los vectores (columna) coordenados por un cambio de base. I Teorema 5.27: Sea P la matriz de cambio de base desde una base S hasta otra S’ en un espacio vectorial V. En ese caso, para todo vector ve V, tenemos Plols =[els ys por consiguiente, — P~ [vy = [v]y. Nota: - A pesar de Ilamarse P la matriz de cambio de base desde la antigua base S hasta la nueva 5’, ¢s P~* Ia que transforma las coordenadas de v relativas a S en las coordenadas de v telativas a S$‘ Iustramos el teorema precedente en el caso dim V = 3, Supongamos que P es la matriz de cambio de base desde la base $= {u,, uz, uj} hasta la S’ = {v,, v5, v5}; es decir, Dy = Gyuy + yy + 5 Uy a = byt, + bry + Baty 05 Sc, + Cau + C5 My Por tanto, fa, by ey =a: br es ay by. Supongamos ahora que veV y digamos v= k,v, + ky02 + kyvs. Expresando lo anterior en ‘s=aminos de v,, v, y v, obtenemos ms B= kyla, + aug + a5 us) + Kelby, + bz uy + Bas) + ks(cithy + €9 Uy + catty) = = (aiky + dyke + caks)us + (dg ky + by ky + C2 ks)ug + (a3 ky + by ky +005 ka)uy 192 ALGEBRA LINEAL Asi ey yk, + Byky + eyky [els =| ke ¥ Ws =| aaky + baka + coks ey ay ky + Dy ky + cakes De acuerdo con esto, ay by cy ak, + Byky + cyky Pols =|, bz ¢2 a, ky + by ky + cks| = [ols a3 by; 3k, + Dy ky + ck, Asimismo, multiplicando la ecuacién precedente por P~*, P'[p]s = P-'PLe]y = Moly = Dols Nota: Supongamos que $= {u,, u,,..., %} es una base de un espacio vectorial V sobre un cuerpo K y que P = (p,,) es una matriz no singular arbitraria sobre K. Entonces los n vectores fy Doresce son linealmente independientes (Problema 5.84) y por ende forman otra base S’ de V. Mas ain, P seri la matriz de cambio de base desde S hasta la nueva base 5’. P= Party + Pasta + °°" + Ppa ly PROBLEMAS RESUELTOS ESPACIOS VECTORIALES 5.1. Demostrar el Teorema 5.1. i) Por el axioma [4,], con u = 0, sabemos que 0 +0 = 0. Por tanto, segiin el axioma [M,], 0 = k(O + 0) = kO-+ KO Sumando —K0 a ambos miembros conseguimos el resultado deseado. ii) Una propiedad de K es que 0 +0=0. Por consiguiente, de acuerdo con el axioma [M;], Qu = (0 + 0)u = Ou + Ou. Sumando —Ou a ambos miembros llegamos al resultado requerido. iii) Supongamos que ku = 0 y k # 0, Entonces existe un escalar k~? tal que k~'k = 1, luego ul (k-*ku = kM ku) = k-0 = 0 iv) Utilizando w+ (—u) ambos miembros, —ku = k(—u). Usando k + (—k) = 0 obtenemos 0 = Ou = (k + (—K))u = ku + (—k)u. Sumando —ku a ambos miembros, —ku = (—)u. De este modo, (—k)u = k(—u) = — ku. obtenemos 0 = kO = k(u + (—1)) = ku + k(—u), Sumando —ku a a > or 5.2. ESPACIOS VECTORIALES 193 Probar que para todo escalar k y todo par de vectores u y 0, k(u— v) = ku — ko Utilizamos la definicién de resta u—v =u + (—v) y el resultado k(—v) = —kv para obtener: Au — 0) = Ku + (2) = ku + M—0) = ku (— ke) = ke — ko 5.3. Sea V el conjunto de todas las funciones de un conjunto no vacio X en un cuerpo K. Para todo par de funciones f, geV y todo escalar keK, sean f +g y kf las funciones en V definidas como sigue: CF + ae) =F) + 9) y (Ax) = kf) WxeX Demostrar que V es un espacio vectorial sobre K. Como X es no vacio, también lo seré ¥. Necesitamos ahora probar que se verifican todos los axiomas de un espacio vectorial [A\] Sean f, g, heV. Para demostrar que (f +9) +h=f + (g +h) es necesario comprobar que las dos funciones asignan el mismo valor a cada xe X. Ahora bien, + a) + Wx) = + ax) + Me) = 0) + ox) + HX) Vee X + 9 + AY) =SO) + G+ Hx) = fla) +(x) +H) VEX Pero f(x), g(x) y I(x) son esealares en el cuerpo K, donde la suma de escalares es asociativa; de aqui (£00) + af) + he) = fle) + (ale) + Ax) De acuerdo con esto, (f+ 9) +h=f+ +h). [4,] | Denotemos por 0 la funcién cero: O(x) = 0, ¥xreX. Para cada funcién fe V, (f+ Ox) =f) + 06) = f(x) +0 = fee) YeeX Asi pues, f-+0= fy 0 es el vector cero en V. [4] Para cada funeién fe ¥, sea —f la funcibn definida por (—/)(x) = —f(x). Entonces + (Sk) = £00 + (A) = Se) — [) = 0 = Hx) vee X De aqui f+ (—/) =0 [Ag Sean f, ge V. En tal caso, + WX) = L(x) + 92) = 9%) +f) = +) vee X Por tanto, f +9 =9 + f. [Notese que f(x) + g(x) = 9(x) + fle) deriva del hecho de que f(x) y g(x) son escalares en el cuerpo K, en el que Ia suma es conmutativa.] [M,] Sean f, ge K. Tendremos HLF + aon) = UF + aX) = KIC) + aX) = 1) + kas) = = (Ne) + kaka) = (IF + kal) veeX En consecuencia, k(f-+ 9) = kf + ky. [Notese que k(f(x) + g(x) = kf(x) + ka(x) se sigue del hecho de que k..f(x) y g(x) son escalares en el cuerpo K, donde el producto es distributivo respecto a la suma.] [M,] Sean fe Vy a, be K. Entonces (a + BYARD) = (2 + BY) = af) + FO) = (AND + HF) = = (of + DK), Wx X Por consiguiente, (a + b)f = af + bf. 194 ALGEBRA LINEAL [M,] Sean feV y a, beK. Entonces ((ab)f x) = (b)F(%) = LHF) = ACK) = AEA) Wee X Por tanto, (ab)f'= albf). [M4] Sea fev. Para la unidad 1eK, (If)(x) = If(x)) = (a), VxeX. Asi If =f Como se satisfacen todos los axiomas, V es un espa io vectorial sobre K. SUBESPACIOS 5.4. Demostrar el Teorema 5.2. Supongamos que W satisface i), ii) y iii). Por i), Wes no vacio, mientras que por ii) y ii), las operaciones de suma vectorial y producto por un escalar estan bien definidas sobre W. Ademés, los axiomas (A,). [Ah (Mi), [Mah [Mal y [M4] se verifican en HV, puesto que los vectores de W perte- necen a V. Por tanto, solo necesitamos probar que [Ag] y [Aa] también se verifican en W. Por i), Wes no vacio, digamos we W. Entonces, por iii), Ou=0eW y v +0 =v para todo ve, luego W satisface [43], Finalmente, si ve W, necesariamente (~1)» = —veW y v + (—v) = 0; por com: guiente, W es un subespacio de V. Reciprocamente, si W es un subespacio de V, es claro que se verifican i), ii) y ii) 5.5. Demostrar el Corolario 5.3. ‘Supongamos que W satisface i) y ii). De acuerdo con i), W es no vacio. Ademés, si v, we W, entonces, por ii), v + w= lv + IweWs y si veWy keK, por ii), ke = kv + Ove W. Asi, sogin el Teorema 5.2, Wes un subespacio de V. Reciprocamente, si W es un subespacio de V, claramente se verifican i) y ii) en W. 5.6, Probar que Wes un subespacio de R*, donde W = {(a, b, c): a+b + c= 0}, esto es, W consiste en aquellos vectores con Ia propiedad de que la suma de sus componentes es cero. 0 = (0,0, 0) W porque 0 + 0 + 0 = 0. Supongamos que v = (a, b,c), w aW,es decir, a+b+e=O0yad +b +e ko +k y, ademas, a’, b,c’) pertenecen 0. Entonees, para dos escalares cualesquiera k y k’, = Ka, b,c) + ka’, bY c) = (ka, kb, ke) + (Kal, Kb, Ke’) = (ka + Ka’, kb + kb, ke + Ke) (ka + Ka’) + (kb + Kb) + (ke + ke’) = a+ b +c) + k(a +b +c)=h0+kO=0 De este modo, kv + K we W y por tanto Wes un subespacio de R°. 5,7. Sea V el espacio vectorial de todas las matrices cuadradas n x n sobre un cuerpo K Mostrar que W es un subespacio de V, donde: a) W consiste en las matrices simétricas, es decir, todas las matrices A que ay =a, (a) para las b) W consiste en todas las matrices que conmutan con una matriz dada T: esto es, W ={AeV: AT =TA} a) OeW, ya que todas las entradas de 0 son 0 y por tanto iguales. Supongamos ahora que A= (a) y B= (by) pertenceen a W, 0 sea, ay = a5; ¥ bj, = by, Para todo par de escalares a, 5.8. 5.9, 5.10. ESPACIOS VECTORIALES 195 beK, ad + bB os la matriz cuya entrada ij es aay + bby. Pero aay + bby = aa,; + bb, Siendo asi, aA + bB es también simétrica, de modo que W es un subespacio de V. 5b) DEW, puesto que OT=0= TO. Supongamos ahora que A, BeW, es decir, AT=TA y BT = TB. Para todo par de escalares a, be K, (GA + bB)T =(aA)T + (bB)T = (AT) + BT) = T(aA) + T(bB) = T(aA + bB) De este modo, aA + bB conmuta con T, 0 sea, pertenece a W; por consiguiente, W es un subespacio de V. (TA) + WT B)= Sea V el espacio vectorial de todas las matrices 2 x 2 sobre el cuerpo real R. Probar que W no es un subespacio de V si: 4) W consiste en todas las matrices con determinante nulo. 4) W consiste en todas las matrices A para las que A? = A. & 1 0 0 0 0) [rte oe a(t Paattu =(! 8) 3-(° 9) nme ; 0 0, 10) : a W, pues det (A) = 0 y det(B) = 0. Sin embargo, 4+B=( |} no pertenece a W debido a que det (4 + B) = |. Por tanto, W no es un subespacio de V. IL 6) La matriz unidad 1 -( o PHC Yo) 9) 20) Pero 2/ = ( ’) no pertenece a W porque * 2. (2 2 0)_(4 0 2 ny a 0 4)t2 En consccuencia, W no es un subespacio de V. Sea V el espacio vectorial de todas las funciones del cuerpo real R en R. Probar que W es un subespacio de V, donde W consiste en todas las funciones impares, esto es, aquellas funciones f para las que f(—x) = —f(x). Denotemos por 0 la funcién cero: O(x) ‘Supongamos f, ge W, 0 sea, f(—x) quiera a y b, (af + bX —x) = af(—x) + ba —x) = —af(x) — balx) = —(af lx) + balx)) = —(af + bax) Asi pues, af + bge Wy por consiguiente W es un subespacio de V. para todo xeR. Oe W puesto que 0(—: =O). f(x) ¥ g(—x) = —g(x). Para dos nimeros reales cuales- Sea Vel espacio vectorial de los polinomios ay + a,t + a)t® + --- + a,t" con coeficientes reales, es decir, a,eR. Determinar si W es o no un subespacio de V, donde: a) W consiste en todos los polinomios con coeficientes enteros. 196 5.11. ALGEBRA LINEAL b) W consiste en todos los polinomios de grado <3 ©) W consiste en todos los polinomios en los que s6lo aparecen potencias pares de 1 4) W consiste en todos los polinomios que tienen por raiz a \/ @) No, porque los miiltiplos escalares de los vectores en W no siempre pertenecen a W. Por ejemplo, 345t+7PeW pero Wad+h+ieew (Obsérvese que W es «errado» bajo la suma vectorial, esto es, las sumas de elementos de W pertenecen a W.) b), cy d) Si, puesto que, en cada caso, Wes no vacio, Ia suma de elementos de W pertenece a W y los miltiplos escalares de cualquier elemento de W pertenecen a W. Demostrar el Teorema 5.4. Sean {Wi:i¢1} una coleccién de subespacios de V y W= )(W,:ie1). Dado que cada W, es un subespacio, 0 W, para todo ie. Por tanto, 0¢ W. Supongamos que u, ve W. En ese caso, u, ve W, para todo ie/. Como cada W; es un subespacio, au + bue W; para cada ie. Por consiguiente, au + bve W. De este modo, W es un subespacio de V. COMBINACIONES LINEALES. ENVOLVENTES LINEALES. 5.12. 5.13, 1, —2, 5) en R? como combinacién lineal de los vectores u,, 12, us, siendo ty Hay Hay =), u3 = (1, —5, 7). Expresar » u, = (1, ~3, 2), m= Q, — Primero tomamos . (, -2, 5) = x(1, —3, 2) + 2, —4 -1) + afl, -5, = (x + 2y +z, —3x — 4y — Se, 2x — y+ 72) Fofmamos el sistema de ecuaciones equivalente y lo reducimos a forma escalonada’ xtdyt z= 1 x+dyt 2=1 x+2yt ze -3x-4y-St=-2 0 2-2-1 dy-2e=1 dxe- yt+tem 5 —Sy+52=3 o= El sistema no tiene solucién. De aqui que © no sea combinacién lineal de u,, us, Uy Expresar el polinomio sobre R v = t? + 4t — 3 como combinacién lineal de los polinomios pi =O — 245, py = 20? — 3t, py = 043. Tomamos ¢ como combinacién lineal de p,, pay Ps utilizando incégnitas x, y, P44 —3= xP = 2 +5) + 2-3) + ALT= = x = 2xt + 5x + 2yt? — Bye t+ t+ 32 = (x + 2y)e? + (—2x — By + aye + (Sx + 32) Igualamos entre si los coeficientes de las mismas potencias de ry reducimos el sistema a forma escalonada: ety = 1 xt2y =] 2-3 z= 4 0 ° yt= 6 Sx $32—-3 132 = 52 El sistema esté en forma triangular y tiene solucién, Resolver por sustitucién hacia atrs conduce a. 4, Asi pues, ESPACIOS VECTORIALES 197 1 0 0 0 2 A= By C= ( a) ( ') 2 ( ai) Tomamos E como combinacién lineal de A, B, C usando las incégnitas x, y, 2: a: L 1 L 0 0 0 2 ( G tr 1) +40 24) x x) (0 0) (0 22) -( x xt *) x Oty gto 2) "ety yz Construimos el sistema de ecuaciones equivalente igualando entre si las entradas correspondientes: x=3 xty=l x+2 a. of 5.14. Escribir la matriz E = (; ') como combinacién lineal de las matrices = 4A + yB +20. yors-l Sustituimos x =3 en las ecuaciones segunda y tercera para obtener y= —2 y z= —1, Como estos valores también satisfacen la ultima ecuacién, forman una solucion del sistema. Por tanto, E=34—-2B-C. 5.18. Encontrar una condicién a imponer sobre a, b, ¢ para que w = (a, b, c) sea combinacién lineal de w= (1, —3, 2) y v= (2, —1, 1), esto es, para que w pertenezca a lin (u, v). Tomamos w = xu + yo utilizando incégnitas x ¢ y: (@, bc) = x(1, ~3, 2) + 902, — 1, 1) = (x + 2y, 3x —y, 2k +) Construimos el sistema equivalente y lo reducimos a forma escalonada: x+2y=a x+2y= a x+2y= a -3x- y=b 0 Sy=3a+b ° Sp=3a4b 2+ yae —3y=-2a4e O= -a+ 3b + 5c El sistema es compatible si y s6lo si a— 3b — Se = 0, luego w es combinacional lineal de u y 0 cuando a~ 3b ~ Se = 0. 5.16. Demostrar el Teorema 5.6. Supongamos que S es vacio. Por definicién, lin $ = {0}. Por consiguiente, lin S = {0) es un subespacio y SS lin S. Supongamos que $ es no vacio y que veS. En ese caso, Iv = velin S; por tanto, 5 es un subconjunto de lin S. Siendo asi, lin S es no vacio porque S ¢s no vacio. Supongamos ahora que v, welin S, por ejemplo PEMD age web to + byw, donde »,, #/€5 y ai, by son escalares. Entonces DEW Hayy t+ + Og dy + dyWy bo + Dey y, para cualquier escalar k, ky = Kady +2 + 0g) = hays ++ + kiby Dy Pertenecen a lin S, puesto que cada uno es combi subespacio de V. jacién lineal de vectores en S. Asi lin $ es un 198 ALGEBRA LINEAL Ahora supongamos que W es un subespacio de V que contiene $ y que vj, -..; 5S W. En tal caso, todos los milltiplos 4,0), ..., dq? W, donde ae K, y la suma 4,0, + + dyv,e W. Esto es, W contiene todas las combinaciones lineales de elementos de S. En consecuencia, lin $ es un subespacio de W, como se pretendia, DEPENDENCIA LINEAL 5.17. 5.18. 5.19. Determinar si dientes. 1—3t + 21? — 313 y v= —3 + 9¢ — 61? + 913 son linealmente depen- Dos vectores son linealmente dependientes si y s6lo si uno es un miiltiplo del otro. En este caso, v= -3u, Determinar si los siguientes vectores en R* son o no linealmente dependientes: u=(l,—2, D,0= (2,1, -1,w=(7, —4, 0). ‘Método 1. Igualamos a cero una combinacién lineal de los vectores con escalares desconocidos x, yys xl, 2, 1) + y(2, 1, —1) + 2(7, —4, 1) = (0, 0, 0) Entonces (& —2x, x) + Qy, ¥, —y) + (Tz, —42, 2) = (0, 0, 0) © sea, (+ 2y + Tz, —2x + y— 42, x—y +2) = (0,0, 0) Igualamos entre si las componentes correspondientes para llegar al sistema homogéneo equivalente y lo reducimos a forma escalonada: x+2y472=0 x+2y+ 72-0 -2x+ y-4z=0 0 Sy +102 =0 ire x- y+ 220 -3y— 6 =0 a EI sistema, en forma escalonada, tiene tinicamente dos ecuaciones no nulas en las tres incdgnitas, de aqui que el sistema tenga una solucién no nula. Asi que los vectores originales son linealmente dependientes. Método 2, Construimos Ia matriz cuyas filas son los vectores dados y la reducimos a forma esca- Ionada utilizando las operaciones elementales entre filas 1-2 1) ft -2 1) ft -2 2 2 1 -1}~{0 5 -3]~(0 5 -3 7-4 I \o 0 -6 \0o o g Dado que la matriz escalonada tiene una fila nula, los vectores son linealmente dependientes. (Los tres vectores dados generan un espacio de dimensién 2.) Considérese el espacio vectorial P(t) de los polinomios sobre R. Determinar si los polino- mios u, v y w son linealmente dependientes, siendo u=0? +41? —2+3, v=t9 +6027 —t+4, w= 3 +8? — 847. 5.20. 5.21. ESPACIOS VECTORIALES 199 Igualamos al polinomio cero una combinacién lineal de u, v y w con escalares desconocidos x, JY 5 esto es, tomamos xu + yo + zw = 0. Entonces OO $40? = 243) + HO + 6 144) + 23 + 8? — B+) =0 ° xt + xt? — Det + 3x + yt? + Oye? — yt + dy + 320? + Br? — Birt + 72 =0 ° (ety + 32) + Gx + 6y + 82)e? + (— 2K — y— B2)t + Gx + 4y + 72) =0 Igualamos a cero los coeficientes de cada potencia de t y redu 0s el sistema a forma escalonada: x4 yt3z 4x + 6y+82=0 -2x- y-Br=0 3x4 4y +72 xtyt3i y2 o finalmente EI sistema en forma escalonada tiene una variable libre y por tanto alguna solucién no nula. Hemos probado que xu + yo + zw =0 no implica x = 0, y = 0, 2 = 0, luego los polinomios son linealmente independientes. Sea V el espacio vectorial de las funciones de R en R. Probar que f, g, heV son linealmente independientes, donde (1) = sen t, g(t) = cos t, h(@) = t Igualamos a la funcién cero, 0, una combinacién lineal de las funciones con esealares desconocidos 2 xf + yg + zh = 0, para luego demostrar que, necesariamente, x = 0, y = 0, z = 0. Hacemos Enfasis en que xf + yg + xk = 0 quiere decir que, para todo valor de t, xf(&) + yg(t) + xh(e) = 0. En Ia ecuacién x sen t + y cos t + zt = 0 sustituimos 0 paragbtener x04 y-14+2-0=0 osea m2 paraobtener = x-1+y-O+z/2=0 osea x +22] t=m — paraobtener — x-0+ y(—1)+z-7=0 Osea —ytaz yoo Resolvemos el sistema y x + z/2 = 0 y conseguimos la solucién Gnica: x = 0, y = 0, z= 0. -ytar=0 Por consiguiente, f, g y h son linealmente independientes. Sea V el espacio vectorial de las matrices 2 x 2 sobre R. Determinar si las matrices 4, B, CeV son linealmente dependientes, siendo: 1 10 acl As B= =) ( ') ( 1 ©=\o 0 Tgualamos a la matriz cero una combinacién lineal de A, B y C con escalares desconocidos x, y yz es decir, tomamos xA + yB-+2C = Le 6 oC 9) (eas) 6) es decir, 200 ALGEBRA LINEAL Igualamos entre si las componentes correspondientes para legar al sistema de ecuaciones lineales equivalente: xtytz=0 xtz=0 x 0 xty=0 0, Hemos demos- s A, By C son Resolviendo el sistema obtenemos tinicamente la solucién nula: x = 0, trado que x4 + yB-+2C =0 implica x= 0, y=0, 7=0; por tanto, las matri linealmente independientes. 5.22. Supdngase que u, v y w son vectores linealmente independientes. Probar que también lo sonu+v,u—vyu— w+. Supongamos x(w + 0) + yu —v) + 2(u— 20 + w) = 0, donde x, y y z son escalares. Entonces xu-+ xp + yu — yo + 2u— Qe + w= 0 0 sea, (xt y +24 (x — y— 220 + 2w=0 Pero u, © y Ww son linealmente independientes, por lo que los coeficientes en la relacién anterior son todos 0: xty+ 220 x-y-2=0 z=0 La iinica solucién del sistema precedente es x = 0, y u — 2v + w son linealmente independientes. 0, z= 0. En consecuencia, w+ 0, u—v y 5.23, Demostrar que los vectores v= (1 +i, 2!) y w= (1, 1 +i) en C? son linealmente dependientes sobre el cuerpo complejo C, pero linealmente independientes sabre el cuerpo real R. Recordemos que dos vectores son linealmente dependientes (sobre un cuerpo K) si y slo si uno de ellos es miiltiplo de otro (por un elemento de K). Como (4 w= 40,149 = +5, 29 by w son linealmente dependientes sobre C. Por el contrario, v yw son linealmente independientes sobre R, ya que ningin miltiplo real de w puede ser igual av. Concretamente, cuando k es real, la primera componente de kw = (k, k + ki) és real y nunea puede ser igual a la primera componente 1 +i de v, que es compleja. BASES Y DIMENSION 5.24, Determinar si (1, 1, 1), (1, 2. 3) y (2, —1, 1) constituyen una base del espacio vectorial R? Los tres vectores forman una base si y sélo si son linealmente independientes, Construimos la matriz A cuyas filas son los vectores dados y la reducimos por filas a forma escalonada: t a “avi fied ii fe vat 1 2 3}efo 1 2)xfo 1 2 2-1 1 \o -3 -1/ lo 9 4 A La matriz escalonada no tiene filas nulas, Iuego los tres vectores son linealmente independientes y en consccuencia forman una base de R*, EE 5.25. 5.26. 5.27. 5.28. ESPACIOS VECTORIALES 201 Determinar si (1, 1, 1, 1), (1, 2, 3, 2), (2, 5, 6, 4) y (2, 6, 8, 5) forman una base de R' Construimos la matriz A cuyas filas son los vectores dados y la reducimos por filas a forma escalonada: roaoia Nf aot \ for oa \ Aor a gd 1 2 3 2) fo 1 2 1) fo 1 2 1) fo 1 2 4 2 5 6 4}/~{o 3 4 2}/~Jo 0 -2 -1]~Jo 0 2 1 2 6 8 s}/ \o 4 6 3/ \o 0 -2 -1/ lo 0 0 0 La matriz escalonada tiene una fila nula; por consiguiente, los cuatro vectores son linealmente dependientes y no constituyen una base de R*. Considérese el espacio vectorial P,(t) de los polinomios en 1 de grado Ty , a #0, luego Pero los v; son vectores no nulos; My = — ay aD, — = — ay yyy Esto es, v4 es una combinacién lineal de los vectores precedentes. 5.37. Demostrar el Teorema 5.11. Supongamos que Ry, Ry... Ry son linealmente dependientes. Una de las filas, digamos Ry, debe ser combinaci6n lineal de las precedentes: Ru = Ome iRntt + Ome Rm 2 +2 + OgRy Sea ahora la k-ésima componente de R,, su primera entrada no nula, En tal caso, dado que la matriz esta en forma escalonada, las componentes k-ésimas de Ry... .... R, son todas 0 y la componente k-ésima de (x) es, pues, nit OF dyes OF $a,50=0 Pero esto contradice la suposicion de que la componente k-sima de Ry no es 0. Por consiguiente, Ry, «+1, Ry Son linealmente independientes. 206 ALGEBRA LINEAL 5.38. Supéngase que {0,, ..., vy} genera un espacio vectorial V. Se pide demostrar: a) Si weV, entonces {w, v,, ..., ¥,} es linealmente dependiente y genera V. b) Si», es una combinacién lineal de los vectores (0), 02, ..+. ¥j-1), entonces {Bay soos Uhm ay Pros oy Um} genera V, a) El vector w es una combinacién lineal de los v, ya que-{r,} genera V. De acuerdo con ello. {0, D1, +5 Og} @8 limealmente dependiente. Obviamente, w y los v, generan V, puesto que ya lo hhacian los v, por si mismos. O sea, fw, Dj, .-y tq} genera V. 1b) Supongamos v= ky + + k-10)~1. Sea we V. Como {v,} genera V, u es una combinacién lineal de los v,, por ejemplo, u = d,0, + --- + dqy- Sustituyendo v, obtenemos Fata) + Brewin He + gg = ma tien $+ Oe by +o + ay gO + AKO, + HG + ky Ho Hay + ak ASI {0,, --05 Ointy iets «e+e Og} Benera V, En otras palabras, podemos suprimir v, del conjunto generador y tener todavia un conjunto generador. 5.39. Demostrar el Lema 5.13. Basta demostrarlo en ef caso de que los v, no sean todos 0. (Pruébese.) Como los v; generan V, tenemos, de acuerdo con el Problema 5.38, que {1 Day oosy Ua O) ¢s linealmente dependiente y genera V. Por el Lema 5.10 sabemos que uno de los vectores en [1] es una combinacién lineal de los precedentes. Este vector no puede ser w,, luego debe ser uno de los v, digamos v,. De este modo, segin el Problema 5.38, podemos suprimir v, del conjunto generador (1] obteniendo el conjunto generador {15 Ops sees Ojos Uyeay oes Ua 2 Ahora repetimos el argumento con el vector w;. Bs decir, como [2] genera V, ef conjunto {045 Way py very Opmty Ops vy Pa) Bl ¢s lincalmente dependiente y también genera V. De nuevo por el Lema 5.10 uno de los vectores es combinacién lineal de los precedentes. Subrayamos el hecho de que este vector no puede ser w, ni W2 Porque {W,..., Wy} &S independiente; por consiguiente, debe ser uno de los v, por ejemplo, v,. En ese caso, segiin el problema precedente, podemos suprimir o, del conjunto generador [3] obteniendo {1s Woe Pas eoey Dyas Opts oe Dhats Date eee Dah Repetimos el argumento con ws, y asi sucesivamente. En cada paso somos capaces de afiadir uno de los w y suprimir uno de los v en el conjunto generador. Si m n no es posible. En caso contrario, tras n de los pasos anteriores, obtendriamos el conjunto gencrador {W), ..., W,}- Esto implicaria que w,,, €8 combinacidn lineal de Ww, +5 Wy, 10 que contradice la hipétesis de que {w,} es linealmente independiente. Wms De 5.40. Demostrar el Teorema 5.12. Supongamos que {ut ts, --.) ty} y {0,, Up, «..} Son dos bases de ¥, Dado que {u} genera V, la base {v4, v2, -..} debe contener no menos vectores, o bien ser linealmente dependiente, de acuerdo ee ! 5.41. 5.42. 5.43. 5.44, ESPACIOS VECTORIALES 207 con el Problema 5.39 (Lema 5.13). Por otra parte, si la base {v,, v2, ...} tiene menos de n clementos, {us tas sos ty} 8 linealmente dependiente, segin el Problema 5.39. Siendo asi, la base {0,, U3...) contiene exactamente n vectores y el teorema es, pues, cierto. : Demostrar el Teorema 5.14. Supongamos que B = {w,, ws, ..., wy} es una base de V. i) Como B genera V, n+1 0 mas vectores arbitrarios son linealmente dependientes por el Lema 5.15, fi) Segin el Lema 5.13, pueden afiadirse elementos de B a S para formar un conjunto generador de V con n elementos. Dado que $ ya tiene n elementos, $ es, en si mismo, un conjunto generador de V. Por tanto, S es una base de V. iii) Supongamos que T es linealmente dependiente. En ese caso, algiin v, es combinacién lineal de los vectores precedentes. Por el Problema 5.38, V estara generado por los vectores de T sin ;, que son n~ 1. De acuerdo con el Lema 5.13, ef conjunto independiente B no puede tener mas de n~ 1 elementos. Esto contradice el hecho de que B tiene n elementos, luego T es linealmente independiente y por ende es una base de V. Demostrar el Teorema 5.15. i) Supongamos que {v;,.... tq} eS un subconjunto linealmente independiente maximal de S y que wes. En consecuencia, {0,. ... tq 0} € linealmente dependiente. Ningin v, puede ser combinacién lineal de los vectores precedentes, Iuego w es combinacién lineal de Ios r;. De este modo, welin ¢; y por consiguiente $< lin v,. Esto conduce a Valin Sctino,cv Asi pues, {v,} genera Vy, como es linealmente independiente, é una base de V. ii) Los restantes vectores forman un subconjunto linealmente independiente maximal de S y por la parte i) es una base de V. Demostrar el Teorema 5.16. Supongamos que B= {w,, W2,.... W,} €5 una base de V. Entonces B genera Vy por tanto V esta generado por SS Bm elgg thay oes py Way Way oes Mah De acuerdo con el Teorema 5.15, podemos suprimir de SUB todo vector que sea combinacién lineal de los precedentes para obtener una base B’ de V. Como S es linealmente independiente, ningin 4, es combinacién lineal de los vectores precedentes, por lo que B contiene todos los vectores de S. Siendo asi, Ses parte de la base B de V. Demostrar el Teorema 5.17. Dado que V es de dimensién n, n+ 1 0 mis vectores son linealmente dependientes. Ademis, como toda base de W’consiste en vectores linealmente independientes, no puede contener mas de n elementos. De acuerdo con esto, dim W'S n En particular, si {w,,....W.} es una base de W. por ser un conjunto independiente con n elementos, es tambien base de V. De este modo. W= V cuando dim W'= n. 208 ALGEBRA LINEAL ESPACIO FILA Y RANGO DE UNA MATRIZ, 5.45. Determinar si las siguientes matrices tienen el mismo espacio fil 1-1 -1 a) it 1 a-( 3 ) a=(} -2 3) “ot 3-1 Y Dos matrices tienen e] mismo espacio fila si y sélo si sus formas canénicas por filas tienen las mismas filas no nulas; por consiguiente, reducimos cada matriz. a forma can6nica por filas: tor sy a 1 sy fo 2 23 3/~\o 1 3/*\o 1 3 pellet =) 1-1-2) (1 0 2 “\3 -2 -3J~\o 1 3/70 1 3 1-1 -1\) ft -1 -1\ fi -1 -1 1 0 2 c=(4 -3 -1}~{o 1 3}~fo 4 3] a {0 1 3 3-1 3 \o 2 6 \o o 0 0 9 Dado que las filas no nulas de las formas reducidas de A y C son las mismas, A y C tienen el mismo espacio fila, Por el contrario, las filas no nulas de la forma reducida de B no coinciden con las de las otras, por lo que B tiene un espacio fila diferente, 1 3 $ 1 2 3) 5.46. ProbarqueA=|1 4 3]yB=|-—2 -—3 —4})tienen el mismo espacio columna 1 1 g 7 121, Observemos que A y B tienen el mismo espacio columna si y solo si las traspuestas A” y BT tienen el mismo espacio fila. Siendo asi, reducimos A? y B7 a forma canénica por filas: 1 roy ff 1 Nh fp a ot 1 0 3 AT=(30 4 i}efo 1 -2]~fo 1 -2 o 1 -2 5 3 9 \o -2 4 \o 0 g Ce) 1-2 WN ft -2 WN fi -2 7 1 0 3) Br=(2 -3 12}~(0 1 -2]~{o 1 -2 o 1 -2 3-4 17/ \o 2 -4/ \0 0 g Ce) Como 7 y B? tienen el mismo espacio fila, A y B tienen el mismo espacio columna, 5.47. Considérense los subespacios U = lin (u,, uz, U3) y W = lin (w,, wp, w) de R, donde: uz = (2,3, -1), w= (3, 2, —8), 4, = (1,1, -1), w= (1, -1, -3), -— 43 =, 1, -5) w= (2,1, -3) 5.48. 5.49. ESPACIOS VECTORIALES 209 Probar que U = W. Construimos la matriz. A cuyas filas son los u; y la reducimos a forma canénica por filas: 1 1-1) ft 1-1) fi 0 2) A=(2 3 -1}~fo 1 t}-fo 1 2 3 1 -s/ \o -2 -2/ \o 0 A continuacién construimos la matriz B cuyas filas son los w; y la teducimos a forma canénica por filas: 1-1 -3\ fi -1 -3\ fi 0 -2) B=|3 -2 -8}~{0 1 a}~{o 1 1 2 1 -3/ \o 3 3 \o Dado que A y B tienen la misma forma candnica por filas, sus espacios fila son iguales y en consecuencia U = W. Hallar el rango de Ja matriz A, donde: 1 2 -3 1 3 2 1 0 0 -2 a A= 2 -1 3h b) A= een -1 4 -3 -2 3 2) Como los rangos por filas y columnas son iguales, es més facil tomar la traspuesta de A y después reducirla por filas a forma escalonada: 102-2 -1\) fi 2 -2 -1\ fir 2 -2 -1 A’=[2 1-1 4}ef0 -3 3 6)~{0 -3 3 6 -3 0 3 -7/ \o 6 -3 -s/ lo 0 3 4, Asi rango A +») Las dos columnas son linealmente independientes porque no son una miltiplo de la otra. Por tanto, rango A= 2, Considérese una matriz arbitraria A= (a,,). Supéngase que u— (bj, ...,b,) es una combinacién lineal de las filas Ry, ...,R, de A; por ejemplo, u = kyRy +++ + KyRye Demostrar que by = kya + hy ay tt hmm = = 1,2,...,0) donde aj, .... d,; on las entradas de la i-ésima columna de A. Se nos da u=kyRy +--+ kyRqs POF tanto, ay ones B= Kalas oes yg) +0 Ral o209 Bi) = thay Ft gts oon agg 4 hg gd Igualando entre si las componentes correspondientes, obtenemos el resultado deseado. 210 ALGEBRA LINEAL 5.50. Supéngase que A = (a,,) y B = (b,;) son matrices escalonadas con entradas pivote: Bape Mahar Ory Yay Bangs oor Bray ty sseeee but eeenee ay eens buy eee seh Bape a, ** bats Supéngase, asimismo, que A y B tienen el mismo espacio fila. Demostrar que las entradas pivote de A y B estén en las mismas posieiones, esto es, demostrar que j, =k, jr = hy oh akeyr Claramente, A = 0 si y s6lo si B = 0, de manera que sélo es necesario probar el teorema cuando r= 1ys2 1. Mostramos primero que j, = k,. Supongamos que j, < ky. En tal caso, la columna ji-ésima de B es cero, Como la primera fila de A esta en el espacio fila de B, tenemos, por el problema precedente 44, = 610+ 04° +e,0=0 para ciertos escalares cj. Pero esto contradice el hecho de que el elemento pivote a.,, #0. Por consiguiente, j, 2, y, de forma similar, ky > j,. Asi pues, j, = Sean ahora 4’ la submatriz de A obtenida suprimiendo su primera fila y B' la obtenida de B mediante el mismo procedimiento, Probamos que los espacios fila de 4’ y BY coinciden. El teorema se deduciré entonces por induccion, puesto que 4’ y B’ son también matrices esealonadas. Sean R= (a,, a3, ..., d,) cualquier fila de A’ y Ry, .... Ry, las filas de B. Dado que R esta en el espacio fila de B, existen escalares dy, ..., dy tales que R'=d,R, + d;R, +--+ d,R,. Puesto que A esti en forma escalonada y R no cs su primera fila, la j,-ésima entrada de R es cero: para i=j, = k,. Ademés, como B esta en forma escalonada, todas las entradas en su k. columna son 0 salvo la primera: by, #0, pero b,, = 0, ..., bya, = 0. Siendo asi, O Prey Oma, Abia, + 20+ +d,0= Ahora bus, #0 y entonces d, = 0. De este modo, R es una combinacién lineal de Ra, ..., Ry ¥ por tanto est en el espacio fila de B'. Como R era cualquier fila de 4’, el espacio fila de “t’ esti contenido en el de B’, Similarmente, el espacio fila de B’ esté contenido en el de 4’. Asi A’ y BY tienen el mismo espacio fila y queda demostrado el teorema. 5.51. Demostrar el Teorema 5.8. Obviamente, si A y B tienen las mismas filas no nulas, necesariamente tienen el mismo espacio fila, de modo que s6lo tenemos que demostrar el reciproco. Supongamos que A y B tienen el mismo espacio fila y que R #0 ¢s la i-ésima fila de A. En ese caso existen escalares c;, ..., ¢, tales que R donde las R; son las filas no nulas de B. El teorema quedara demostrado si probamos que R = Rj, 0 ¢; =I pero o,=0 para k #3. Sea ay, Ia entrada pivote de R, o sea, la primera entrada no nula de R. Segin [1] y el Proble- ma 5.49, Rite Ry to +6,R, iby Ay = Cy Dy; + Cad ay, + + + Cay 2] 5.52. 5.53. ESPACIOS VECTORIALES 211 Pero por el problema precedente, by, es una entrada pivote de B y, como B esta reducida por filas, es la tnica entrada distinta de cero en su columna j-ésima. Asi pues, de [2] obtenemos a, = cb, De cualquier modo, a= 1 y by, = 1 porque A y B estén reducidas por filas; por consiguiente, c, Supongamos que k#iy que by,, es la entrada pivote de Rj. De acuerdo con [1] y con el Problema 5.49, Gig = Crbiy + Cabay + o> + Codes, B] Puesto que B esti reducida por filas, by, ¢s la nica entrada distinta de cero en Ia columna j,-ésima de B; por tanto, segiin [3], aij, = cb,),- Ademas, por el problema precedente, a,,, es una entrada pivote de A y, como A esta reducida por filas, a,,, = 0. Siendo asi, cb, = 0 y, dado que by, = |, = 0. En consecuencia, R = R, y el teorema queda demostrado, Demostrar el Teorema 5.9. Supongamos que A es equivalente por filas a dos matrices A, y A, en forma canénica por filas. Entonces fin A = Flin A, y f-lin A = Flin Ay. Por consiguiente, Flin A, = Flin Az. Como A, y A, estan en forma canénica por filas, A, = A, segin el Teorema 5.8. Queda asi demostrado el teorema, Demostrar el Teorema 5.18. Sea A una matriz m x n arbitraria: Denotemos sus filas por Ry, Ra, Ry = py 125 oo yg --oy Ry = mts Ona Fn) Supongamos que el rango por filas es r y que los r vectores que siguen forman una base del espacio fila: $1 = Oar Bias ns Bagh Sa = Caps Bay -o-y Banh «0 S; = rts Bpns -o-s Ba) En tal caso, cada uno de los vectores fila es una combinacién lineal de los 5): Ry = ky, + kya Sa + Ry = ky, + kaa Sz + + ky 5, “+ ka S, R, Keg Sy + Kegan Sa + o° + Ky Sy donde los k, son escalares. Igualando entre si las componentes i-ésimas en cada una de las ecuaciones vectoriales anteriores llegamos al siguiente sistema de ecuaciones, cada una vilida para Iam + Ray bye + habe Kiba + Rona Bat to + Kee ba 212 ALGEBRA LINEAL Asi, para i .n, ay kia! Kear’ et + ba) tL eb wd \ia) Vey he De este modo, la dimensién del espacio columna de A es a lo sumo r, esto ¢s, el rango por columnas es menor 0 igual que ry por ende menor o igual que el rango por filas. De forma similar (o considerando la matriz traspuesta 4") obtenemos que el rango por filas es ‘menor o igual que el rango por columnas. Siendo asi, los rangos por filas y columnas son iguales. 5.54. Supéngase que R es un vector fila y que A y B son matrices tales que RA y RB estan definidos. Demostrar: @) RB es una combinacién lineal de las filas de B. b) El espacio fila de AB esta contenido en el de B. c) El espacio columna de AB esta contenido en el de A. d) rango AB 4. Pero dim(U + W) no puede ser mayor que 6, ya que dim V= 6. Por tanto, tenemos dos posi- bilidades: i) dim (U + W) = 5, 0 ii) dim(U + W) = 6. Por el Teorema 5.22, dim (U m9 W) = dim U + dim W — dim (U + W) = 8 — dim (U + #) Asi, i) dim(U 9 W) = 3, 0 ii) dim(U NW) = 2. Considérense los siguientes subespacios de R*: U =lin {(1, 1, 0, ~1), (1, 2, 3, 0), (2, 3,3, —D} W = lin {(1, 2,2, -2), 2, 3,2, —3), (1.3, 4, —3)} Hallar: a) dim(U + W), b) dim(Uo W). a) U + Wes el espacio generado por los seis vectores. Construimos, pues, la matriz cuyas filas son los seis vectores dados y la reducimos por filas a forma escalonada: 216 ALGEBRA LINEAL 1 1 0 =1 1 0 =" 1 1 0 =1 1 2 3 of fo 1 3 1) fo 1 3 4 203 3-1] [o 1 3 1) fo 1 2-1} 1 2 2-2) "{o 1 2 -1]~}0 0 0 0 2 3 2 -3f lo 1 2-1] \o 0 0 0 130 4 -3/ \o 2 4 -2/ \o 0 0 1 1 0 =1 o 1 4 1 w{0 0 -1 -2 0 0 0 0 0 0 0 0 0 0 0 o ‘Como la matriz escalonada tiene tres filas no nulas, dim(U + W) = 3. 5) Hallamos primero dim U y dim W. Formamos las dos matrices cuyas filas son los generadores de U y W, respectivamente, y las reducimos por filas a forma escalonada: yoroo-\ fi 1 oo =) ft 1 0-2 10203 of~fo 1 3 aJafo 1 3 4 2 3 3 -1/ \o 1 3 Y \o 0 0 102 2-2 f1 2 2 -N fr 2 2 —2 203° 2 -3})~(o -1 -2 1}~fo -1 -2 1 1 3 4 -3/ \o 1 2 -1/ lb» 0 0 g Dado que cada una de las matrices escalonadas tiene dos filas no nulas, dim U.=2 y dim W = 2. Usando el Teorema 5.22, esto es, dim(U + W) = dim U + dim W— dim(Un W), tenemos 3 +2-dim(UNW) 0 dimWaw)=1 5.64, Sean U y W los siguientes subespacios de R*: U={Gbod:b+ce+d=0}, W = (a, b,c, d):a+b=0,¢ = 2d} Encontrar una base y la dimension de: a) U, b) W, c) Un W, d) U + W. a) Buscamos una base del conjunto de soluciones (a, b, ¢, d) de la ecuacion b+e+d=0 ° Oatbt+c+d=0 Las variables libres son a, ¢ y d. Tomemos: 1. a=1,¢=0,d=0 para obtener la solucién v, = (1, 0, 0, 0). 2. a=0,c=1,d=0 para obtener la solucin v, = (0, —1, 1, 0). 3. a=0,¢=0, d= 1 para obtener la solucion vs = (0, —1, 0, 1) El conjunto {0,, v2, v3} es una base de U y dim U = 3. 5) Buscamos una base del conjunto de soluciones (a, b, ¢, d) del sistema atb=0 a+ b=0 c= °c u=0 5.65. ESPACIOS VECTORIALES 217 Las variables libres son b y d. Tomemos: 1. b= 1, d=0 para obtener la solucién v, = (—1, 1, 0, 0) 2. b=0,d=1 para obtener Ia solucién v, = (0, 0, 2, 1) El conjunto {v,, v3} es una base de Wy dim W = 2. ¢) UW consiste en aquellos vectores (a, b, c, d) que satisfacen las condiciones que definen U y las que definen W, es decir, las tres ecuaciones bte+d=0 a+b =0 a+b =0 0 b+et+ d=0 © =2d c-W@=0 La variable libre es d. Tomemos d= 1 para obtener la solucién v = 3, —3, 2, 1). De este modo, {v} es una base de UN Wy dim(Un W) = 1 4) Segi el Teorema 5.22, dim (U + W) = dim U + dim W — dim (Un W)=342-1=4 Asi U + W= R*, De acuerdo con esto, cualquier base de R*, por ejemplo la base usual, seré una base de U + W. Considérense los siguientes subespacios de R*: U =lin {(1, 3, —2, 2, 3), (1, 4, -3, 4,2), (2,3, -1, —2, 9} W = lin {(1, 3,0, 2, 1), (L, 5, —6, 6, 3), (2, 5, 3, 2, D} Hallar una base y la dimension de a) U + W, b) UAW. a) U + Wes el espacio gencrado por los seis vectores. Por tanto, formamos la matriz cuyas filas son los seis vectores dados y después la reducimos por filas a forma escalonada: 1 3-2 2 HN fl 3-2 2 H fl 3-2 2 2 104-3 4 2) fo 1-1 2-1) fo. 1 -1 2 -1 2 3-1-2 9| fo -3 3-6 3] fo 0 0 o of 1 3 0 2 41]~fo 0 2 0 -2}~}o 0 2 0 -2 1 5-6 6 3 \o 2-4 4 of lo 0 -2 0 2 2 5 3 2 \o -1 7 -2 -s/ \o 0 6 0 5 1 3-2 2 3 oO t-t 2-1 OmnO a opEal “lo 0 0 0 o 0 0 0 0 oO 0 0 0 0 El conjunto de filas no nulas de la matriz escalonada, {Q, 3, -2, 2, 3, © 1, 1, 2, -1), @, 0, 2, 0, —2)} es una base de U + W, de modo que dim (U + W) = 3. 'b) Hallamos primero los sistemas homogéneos cuyos conjuntos solucién sean U y W, respecti- vamente. Construimos la matriz cuyas tres primeras filas generen Uy cuya altima fila sea (2 5, 0). Luego la reducimos por filas a forma escalonada: 218 ALGEBRA LINEAL 1 3-2 2 3 1 3 —2 2 # L 4-3 4 2 o 1 -t 2 -1 203-1 -2 9{~{o -3 3-6 3 oa y Zz s t 0 —3x+y 2x+z -2e+s —3x+t 1 3 2 2 3 oO 1 =f 2 -1 “lo 0 -x4y4z2 4x—2yes —Oxtyse o oO 0 0 0 Tgualamos a cero las entradas de la tercera fila para conseguir el sistema homogéneo cuyo espacio solucién es U: axtytz=0 4x—2y+s=0 —o&ty+i=0 Ahora formamos la matriz cuyas primeras filas generen W, siendo Ia tltima (x, y, 2, 5. f). Acto seguido, la reducimos por filas a forma escalonada: i 3 0 ga aN fa 3 o 2 1 1 5-6 6 3] /o 2-6 4 2\_ 2 5 3 2 1{~fo -1 3-2 -1 xy zs th \O ~3xty 2 -2xts —xty os 0 2 1 o 1 -3 2 1 “lo 0 -ox4+3y42 4x—2yts 2x—yee o 0 0 0 0 Tgualamos a cero las entradas de la tercera fila para conseguir el sistema homogéneo.cuyo espacio solucion es W: ~%+3y42=0 4x—2y+s=0 2%-y4r=0 Combinamos los dos sistemas precedentes para obtener un sistema homogéneo cuyo espacio solucién es UM Wy lo resolvemos: -xt yte -0 axtyta =0 4x-2y +s =0 Wares =0 6+ y +i=0 | -Sy-6 +40 9x 4 3y 42 =0 ~6y— 82 =0 4e-2y ts <0 warts =0 ay +1=0 y+22 +t=0 oxty+ 2 o wearts =0 et yt 2 ° Br4+5s42=0 0 Be ae 4rt3s = ene s-2=0 aoe Hay una variable libre, que es t; por consiguiente, dim (Uo W) = 1. Haciendo 1 = 2 llegamos ala solucion x= 1, y=4, z= —3, s= 4, £=2. Siendo asi, {(1, 4, —3, 4, 2)} es una base de UnW. 5.66. 5.67. 5.68. ESPACIOS VECTORIALES 219 Sean U y W los subespacios de R° definidos segiin U=((a, bey a=b=c) y W={(0,b,0)} (Nétese que W es el plano yz.) Probar que R? = U@ W. Adviértase primero que Um W= {0}, para v = (a, b, c)e Uo W implica que a=b y @=0 loque implica que a =0,b=0,c=0 Afirmamos también que R? = U + W. Ello es debido a que si v = (a, b, c)eR®, v=(a,a,a)+(@,b—-a,c—a) donde (aaajeU yy (0, b-a,c—aleW Ambas condiciones, Ur W= {0} y R? = U + W, implican R® = U @ W. Sea Vel espacio vectorial de las matrices n-cuadradas sobre un cuerpo K. a) Probar que V= U @ W, donde U y W son los subespacios de las matrices simétricas y antisimétricas, respectivamente. (Recuérdese que M es simétrica si y sélo si M= M, y antisimétrica si y slo si M7 = —M.) 6) Probar que V# U@ W, donde U y W son los subespacios de las matrices triangu- lares superiores ¢ inferiores, respectivamente. (Notese que V= U + W.) a) Comencemos por demostrar que ¥= U + W. Sea A una matriz n-cuadrada arbitraria, Adviér- tase que A=HA+ A) +HA—A7) Afirmamos que 4(4 + A") U y que $(4 ~ a7) eW. Esto se debe a que (HA + AT)? = (4 + AT = HAT + AM) = 4+ 47) ‘0 sea, 4(A + A”) es simétrica. Ademas, (HA — AT) = HA — ATY = HAT — A) = - HA - A?) esto es, (4 — AT) es antisimétrica. A continuacién mostremos que Un W = {0}. Supongamos que MeU AW. En ese caso, M=M" y M’=—M, lo que implica M=—M y por tanto M=0. Asi UAW= 0}. En consecuencia, Y= U @ W. 6) UAW# {0} porque Um W esta constituido por todas las matrices diagonales. La suma no puede, pues, ser directa Supéngase que U y W son subespacios de un espacio vectorial V, que S = {u,} genera U y que T= {w,} genera W, Demostrar que Su T genera U + W. (De acuerdo con ello, por induccién, si $, genera W, para i= 1, 2, ..., 2, 5; U-- US, genera W, +--+ W,.) Sea ve U + W. Entonces v = u + w, donde we U y we W. Puesto que S genera U, ues combina- cid lineal de los u,, y dado que T genera W, w es combinacién lineal de los w,: Wat, + dy +o + ay, aeK WH dw + baw, t+ bw, EK De este modo, VEU t wm ay, + 2M, + °° tau, + Dims, + By Wy too + OW yy En consecuencia, SUT = {u, vj} genera U + W. 220 5.69. 5.70. ALGEBRA LINEAL Demostrar el Teorema 5.22. Observemos que UAW es subespacio tanto de U como de W. Supongamos que dim U =m. dim W=ny dim U oW =r. Supongamos, asimismo, que {0,, .... %) e8 una base de Uo W. Segiin el Teorema 5,6, podemos extender {o,} a una base de U y a una de W; por ejemplo, ane} Une} son bases de U y W, respectivamente, Sea Day oooy Ups May {Bas s-r Pra Was + B= {045 005 Ups May oes Manes Wa ore Me Nétese que B tiene exactamente m +n—r elementos. El teorema quedara demostrado si somos capaces de probar que B es una base de U + W. Como {v;, uj} genera U y {0 wi} genera W, Ta unin B= (0, ty W,} generar U + W. Por tanto, basta demostrar que B es independiente. Supongamos que yoy 001 + 00 itty +E Bartle HW HE m donde a, bj, cy son escalares. Sea p= ayo, +00 + ay, + Dally +o + Dr Ql Por [1] tenemos también que pe ey 8) Como fo, 4} EU, v€U por [Pk y como {wy} =H, veW por [3]. En conseouencia, velo W. ‘Ahora bien, {o,} es una base de UW, por lo que existen escalares dj, ..., dj para los que p= dy0, + + dtp Asi por [3] tenemos 0 dys +007 + d,0, + OyWa to Ow Pero {ty wy} es una base de W y necesariamente es independiente. De aqui que la ecuacion anterior haga forzoso c, = 0, ..., ¢,-,= 0. Sustituyéndolo en [1], yoy +o + a0, + Bylty Hoe + Balle =O Pero {o, u)} es una base de U y por tanto es independiente. De aqui que la eeuacién anterior haga forz0s0 ay = 0, «5 @, = 0, By =05o0-9 bye = 0. Dado que la ecuacién [1] implica que los a, b; y son todos 0, B = (vi, 4), 4} es independiente y queda probado el teorema. Demostrar el Teorema 5.23. Supongamos V =U W. Cualquier vector ve V puede, pues, eseribirse de forma tnica como weve con weU y weW. Asi, en particular, Y= U + W. Supongamos ahora que ve Uo W. Entonces; 1. +0, donde veU, OW. 2, v= 040; donde 0eU, veW. Como tal suma-para p debe ser iinica, » = 0, De acuerdo con ello, Un W = {0} Por otta parte, supongamos que V=U + Wy UnW= {0}. Sea veV. Dado que V= U + W. exten ueU y wel tales que v=u-+w. Debemos probar que la suma es tinica” Para ello, supongamos que v= w' + w' también, donde We U y weW. En tal caso, utwouw+w — yportanto 5.71. ESPACIOS VECTORIALES 221 Pero w—weU y w’— weW; por consiguiente, como Un W = {0}, u—uw=0, w—w=0 y uaw,w De este modo, tal suma para ve Ves tnica y V= U@ W. Demostrar el Teorema 5.24 (para dos sumandos): Supongamos que V= U @ W. Supon- gamos que $= {1ly,..-5 My} YS’ = {W1, --y W_} SON subconjuntos linealmente independien- tes de U y W, respectivamente. En tal caso: a) Su S’ es linealmente independiente en V; 5) si Ses una base de U y S’ una de W, SUS’ es base de V; c) dim V = dim U + dim W. 4) Supongamos a,j + ~~ # dyity + biWy +--+ + By, = 0, donde a,, b, son escalates. Entonces o donde 0, au, +++ + git U y 0, by Wy +--+ + byt, W, Puesto que tal suma para 0 es éinica, esto nos conduce a (Qyy +00" + gt) + (byWy +++ + Bw) = 040 Oath, + °° + Og tly = 0 baw, to +m, = 0 Como § es linealmente independiente, cada a,=0, y como S’ es linealmente independiente, cada bj = 0. Siendo asi, $US" es linealmente independiente. ») Por la parte a) sabemos que $5" es linealmente independiente, y por el Problema 5.68 que SUS" genera V. Por tanto, SUS" es una base de V. ©) Se obtiene directamente de la parte b). VECTORES COORDENADOS 5.72. 5.73, Sea S$ la base de R? consistente en u, nado [v] de v relativo a S, siendo v @, 1) y w = (1, -1). Hallar el vector coorde- a, b). Tomamos v= xu, + yu, para obtener (a, b) = (2x-+ y, xy). Resolvemos 2x + y para obtener x = (a + bY/3, y = (a — 26)/3. Asi [o] = [la + b)/3, (a — 26)/3] yx-yab Considérese el espacio vectorial P3(t) de los polinomios reales en t de grado <3. 4) Probar que $ = {1, 1—1, (1-1), (1 —)°} es uma base de P,(t). 5) Hallar el vector coordenado [u] de u = 2~ 31 + 31? +2 respecto a S. 4) El grado de (1 — 1) es k, Iuego ningiin polinomio en $ es combinacién lineal de los precedentes, Los polinomios son, pues, linealmente independientes y, dado que dim P,(t) = 4, forman una base de P3(t). 5) Tomemos «como combinacién lineal de los vectores de la base utilizando incdgnitas x, y, 2, s: wa2-3+0 +2 = x1) + (1-9 +21 — 9? 491-9 = 1) + A 9) + ot — 264) 4 9 = 30 + 32? + ym yet 2 Qet + at? + 5 — 3st + 3st? — se =H Yt Ets) + (—y—2e— Isle + (2 + 35)? + (se? A continuacién igualamos entre si los coeficientes de las mismas potencias de #: xt+ytits=2 —y-%e-3s=-3 z+ 3s=1 as=2 Resolviendo, x = 2, y= —5, 7,9= -2. Asi [ul = -5,7, -2) 222 ALGEBRA LINEAL 2 3 ; 5.74. Considérese la matriz A ( ex el espacio vectorial V de las matrices reales 2 x 2 4-7, Determinar el vector coordenado [4] de la matriz A respecto a {6 0) oC oC 0} TE ee Dee Jed 90 He De este modo, x = 2, y=3, 2=4, r= —7. Por tanto, [4] = [2, 3, 4, —7], cuyas componentes som los elementos de A escritos fila a fila la base usual de V. Nota: El resultado anterior es vilido en general, es decir, si A es cualquier matriz en el espacio vectorial de las matrices m x n sobre un cuerpo K, el vector coordenado [4] de A relativo a Is base usual de V es el vector coordenado mn de K"™ cuyas componentes son los elementos de 4 escritos fila por fila, CAMBIO DE BASE En esta seccidn se representard un vector ve V respecto a una base S de V por su vector columna coordenado, a, Qols= |“ |= (a, a3,....0,)7 (que es una matriz n x 1). 5.75. Considérense las siguientes bases de R?: Si={u=( -2m=G8=9} yy $= fo, =(1,3, 02 = 6,8} a) Encontrar las coordenadas de un vector arbitrario v = (a, b) relativas a la base Si= {ay ty} 6) Hallar la matriz de cambio de base P desde S, hasta S,. c) Encontrar las coordenadas de un vector arbitrario » = (a, b) relativas a la base S2= {01 02}. d) Determinar la matriz de cambio de base Q desde S, hasta S,. e) Comprobar que Q = P~'. f) Mostrar que Plels, = [t]s, para todo vector v = (a, b). (Véase el Teorema 5.27.) 9) Mostrar que P~'[uls, = [vls, para todo vector v = (a, b). (Véase el Teorema 5.27.) ESPACIOS VECTORIALES 223 @) Sea v= xu, + yu, para incdgnitas x e y: ‘a nif? x+3y=a b = -4) ° ~2x-ay=b ° 2y=2a+b Despejamos x e y en términos de a y b para Negara x = —2a— 3b, y= a + 4b. Asi pues, (a,b) =(—2a — 3)u, + (a+ $b. (a, Bs, = [—20 — 9, a + 4b)" 5) Usamos a) para escribir cada uno de los vectores 0, y , de Ia base S, como combinacién lineal de los vectores uw, y uz de S, my = (1, 3) =(—2 — Su, +1 + Yu, = (— Buy, + (Huy 0, =, 8) = (—6 ~ 12)u, +B + 4)u, = — 18m, + Tuy Entonces P es la matriz cuyas columnas son las coordenadas de v, y v, respecto a la base S,, © sea, ye -18) P= one ) Sea v = xv, + yo para escalares desconocidos x e y: a\_f? 3 xtiyna | xt3yna B)-A3) 8) 8 ae Bye ~y=b-3a 8a + 3b, y = 3a—b. Asi (4, b) = (—8a + 36), + Gabe, 0 [la B))S, = [Ba + 3b, 3a — 8)" Resolvemos para x € y Ilegando a x = 4) Usamos ¢) pata escribir cada uno de los vectores uy 1s de la base $, como combinacién lineal de los vectores v, y 0, de S, 4, =(L, —2)= (8 — 6), +8 +2), = — 140, + Soy 42 = (3, —4) = (—24 — 120, + 9 + 40, = —360, + 130, Eseribimos las coordenadas de ts, y u, respecto a S, como columnas obteniendo -14 ~36)/-¥% -18) (1 oO} 9) on=( s Bh ¢ (3 ‘yer S) Utilizamos a), b) y c) para obtener —# -18\/—8a +30 rina) -( 9) Utilizamos a), ¢) y d) para obtener (s -36 a) 5 BA a+4b —36 13, P "Pols, = Ofels, E sie + + sé 224 5.76. 5.77. ALGEBRA LINEAL Supéngase que los siguientes vectores constituyen una base S de K": a), 02 = (by, ba, ..., By) a Dy = (Cas Crs 005 Cy) Probar que la matriz de cambio de base desde la base usual E = {e,} de K" hasta la base S es la matriz P cuyas columnas son los vectores 0, 03, ..., Yy Fespectivamente. 1 = (1, a2, -- Como ¢), ¢>, ..., ¢, forman la base usual E de K*, Me = (yy aay ooo Gy) = yey + O2ey ++ + OQey (b, by, ---5 By) = byey + Brey +--+ bye = (61s Cay von Gy) = C1ey + Cpa H+ yey Escribiendo las coordenadas como columnas tendremos como se pretendia. Considérese la base $ = {u, = (1, 2, 0), up = (1, 3,2), uy = @, 1, 3)} de R®. Hallar: a) La matriz de cambio de base P desde la base usual E = {e,, ¢;, €3} de R® hasta la base S. 5) La matriz de cambio de base Q desde la base anterior $ regresando hasta la base usual E de R?, 4) Dado que E es la base usual, escribimos sencillamente los vectores de Ia base S como columnas: 110) Pa[231 0 2 3 5) Método 1. Expresamos cada vector de la base E como combinacién lineal de los vectores de {a base S, calculando primero las coordenadas de un vector arbitratio v = (a, b, c) relativas a la base S. Tenemos: a) ft\ f\ fo x+y sa b)=x2]+93] +41] 0 axe3yt rab ce} of. \2/\3, 2tae=e Despejamos x, y, z legando a x =7a—3b +c, y= —6a + 3b—c, 2 = 4a — 2b +c, Entonces (a, b, €) = (Ta ~ 3b + chuy + (—6a + 3b ~ clus + (da — 2b + chy ° [els = [a,b dls = [7a — 3b + 6, — 6a + 36-0, 4a— 26 +c} Empleando la formula para [oJ precedente y escribiendo después las coordenadas de los ¢, como columnas, 21 =(1,0,0)= Tuy — 64 + 45 3 of = (0, 1, 0) = —3u, + 3u, — 2uy y 3-1 4=001= 4-4 u, 2 4 ESPACIOS VECTORIALES 225 Método 2. Calculamos P~' reduciendo por filas M = (P{I) a la forma (11 P~*): 1 1 O11 0 oO fi 1 oF 1 oO M=|2 3° 1;0 4 o}~(o 1 13-2 1 O}~ o 20 310 yo \o 2 31 0 0 4, fed oo 4 \ ff 1 or 1 0 Ol ~fo 1 1)-2 1 of~fo 1 o!-6 3 ~1}~ oO O 1, 4 = y oO O 11 4 -2 41 1 0 0; 7-3 2 ~fo 1 0;-6 3 4 0 O ti 4-2 4 7 al De este modo, Q=P-'=(-6 3 -1). 42 41 5.78. Supdngase que los ejes x ¢ y en el plano R® se giran 45° en el sentido contrario al de las. agujas de un reloj, de forma que el nuevo eje x’ esté a lo largo de la recta x=y y el nuevo eje y' a lo largo de la recta x = —y. Encontrar: a) la matriz de cambio de base P; 5) las muevas coordenadas del punto A(5, 6) bajo la rotacion dada. 4) Los vectores unitarios en las direcciones de los nuevos ejes x € y’ son, respectivamente, 41 = (22,22) yt =(-/2/2, /2/2) (Los vectores unitarios en las ditecciones de los ejes originales x ¢ y son los vectores de la base usual de R%) Escribimos, puss, las coordenadas de w, y u2 como columnas para obtener ra (V ~V22 V3p J b) Multiplicamos las coordenadas del punto por P~* (wae Yank) Yin) [Dado que P es ortogonal, P~' es simplemente la traspuesta de P.] 5.79. Considérense las bases $ = {1, i} y S’= {1 +i, 1 +21} del cuerpo complejo C sobre el cuerpo real R. Hallar: a) la matriz de cambio de base P desde la base S hasta la S'; b) la matriz del cambio de base Q desde la base S’ volviendo hasta la S. a) Tenemos 1+ i=1 +10 tanto p(t! 14a=1ay+ay YPertanto P= \y 4 : b) Utilizamos la férmuta para la inversa de una matriz 22 para conseguir Q=P 226 5.80. 5.81. ALGEBRA LINEAL Supéngase que P es la matriz de cambio de base desde una base {u,} hasta otra {w,} ¥ que Q es la matriz de cambio de base desde la {w,} hasta la {u,}. Probar que P es inver- tible y que Q = P~'. Supongamos, para i = 1, 2, ..., n, We dials + dials + °° Aiglly = Yay ty uw] a y, para j= 1,2, ....m, iW + Bawa to + by Wy = Yo bam 2) mH Sean A= (ay) y B= (bj). En ese caso, P= A” y Q = B". Sustituyendo [2] en [1] m= Ea(Sien)=F (Eenalu aN a Puesto que {w,} es una base, Y ayby = 54, donde dy es la delta de Kronecker, esto es, 64 = 1 si i= k pero 8, =0 si i# k. Supongamos que AB = (cy). Entonces cy — dq. De acuerdo con ello, AB =I, luego QP = BTAT = (4B) = 17 Asi pues, Q = Demostrar el Teorema 5.27. Supongamos que $= {u,, ..., uy} y S’ = {w,, ..., Wy}, ¥ que, para Wem ate + oat +--+ aay = Saye & Por consiguiente, P es la matriz n-cuadrada cuya fila j-ésima es inj) o Asimismo, supongamos » = k,w, + kW +--+ kw, = J k,w;. Entonces (iy ary Dols: = ayy ays oy Kal 2) Sustituyendo los w, en la ecuacién para v obtenemos += Same Sila) “(Sauk Dias ka + cag ka + 2° + Oph) fm En consecuencia, [b]s es el vector columna cuya entrada ésima es Oy + dajky to + Oygky BI Por otra parte, la entrada j¢sima de Ploy se obtione multiplicando la j-ésima fila de P por [oly 0 sea, [1] por [2]. Pero el producto de [1] y [2] es [3k de aqui que Plelyy [vl, tengan las mismas entradas. Asi Plt]. [vls. como se pretendia. AGn més, multiplicar lo anterior por P~! conduce a P~*[o]y = Pils = [els ESPACIOS VECTORIALES 227 PROBLEMAS VARIOS 5.82. 5.83. 5.84, Considérese una sucesién finita de vectores $= {0,, 0, .., 0,}. Sea T la sucesion de vectores que se obtiene de S$ mediante una de las siguientes «operaciones elementales»: i) intercambiar dos vectores, ii) multiplicar un vector por un escalar no nulo, iii) sumar a un vector un miiltiplo de otro. Probar que S y T generan el mismo espacio W. Probar también que Tes independiente si y sélo si lo es S. Observemos que, para cada operacion, los vectores de T son combinaciones lineales de los de S. Por otra parte, cada operacion tiene una inversa del mismo tipo. (Demuéstrese.) En consecuencia, los vectores de S son combinaciones lineales de los de T. De este modo, S y T generan el mismo espacio W. Ademés, T es independiente si y s6lo si dim W'= n, lo que es cierto si y solo si $ tambien Sean A= (a,,) y B= (bj) matrices mx n sobre un cuerpo K equivalentes por filas y M1, vey Uy Vectores cualesquiera en un espacio vectorial V sobre K, Sean My = Oy yVy + yg 0g to + Oy Dy Uz = 2,04 + 2202 + + aq Dy iPr + yp 02 Hoo + Dandy bz 10, + by202 + 7+ + Bayt mnt D1 + Dye Pa + °-* + Dan Dy Hyg = G1 + Oya 2 + + Gyan Oy Wm Probar que {u,} y {w,} generan el mismo espacio. Efectuar una «operacién elemental» de las del Problema 5.82 sobre {u,} equivale a efectuar una operacién elemental entre filas sobre fa matriz A. Como 4 y B son equivalentes por filas, B puede obtenerse de A por medio de una sucesién de operaciones elementales entre filas; por tanto, {w,} puede obtenerse de {u;} mediante la sucesion de operaciones correspondiente. De acuerdo con esto, {uw} y {w;} generan el mismo espacio. Supéngase que 1, ..., v portenecen a un espacio vectorial V sobre un cuerpo K. Sean 1D + yt, +° 21% +2202 +° Dy + dya02 + +a ,P, + 290, + dant y donde aye. Sea P la matriz n-cuadrada de los coeficientes, esto es, sea P = (a) a) Supéngase que P es invertible. Mostrar que {w;} y {v;} generan el mismo espacio y por ende {w,} es independiente si y s6lo si lo es {v4} 5) “Supéngase que P no es invertible. Mostrar que {w,} es dependiente. ©) Supéngase que {w;} es independiente. Mostrar que P es invertible. 4) Como P es invertible, es equivalente por filas a la matriz. identidad I. Por tanto, segun el problema precedente, {w;} y {vy} generan el mismo espacio. Asi uno es independiente si y s6lo silo es el otro. 5) Dado que P no es invertible, es equivalente por filas a una matriz con una fila nula. Esto quiere decir que {13} genera un espacio que tiene un conjunto generador con menos de n elementos. Siendo asi, {w,} es dependiente. c) Esta es la contrarreciproca de la afirmacién b), luego se deduce de b). 228 5.85. 5.86. ALGEBRA LINEAL Supéngase que Ay, A», ... son conjuntos linealmente independientes de vectores y que A, SA, S ~~. Probar que la unién A = A, UA, U- también es linealmente indepen- diente, Supongamos que 4 cs linealmente dependiente. En ese caso existen vectores 0, ... e%4€A y escalares dy, ..., aK, no todos 0, tales que 4, 0y Fay Ho + yd, = 0 w Como A = UA; y los 24, existen conjuntos 4, ..., A, tales que MEAL UE Aly oo EAL Sea k el maximo indice de los conjuntos 4,,:k = max (i,, .., i). Se sigue entonces, dado que A, SA, S +, que cada Aj, estd contenido en Ay. Por consiguiente, v4. vz. ..., Ie Ay ¥ asi, de acuerdo con [1], A, es linealmente dependiente, lo que contradice nuestra hipdtesis. De este modo. A 6s linealmente independiente. Sea K un subcuerpo de un cuerpo L que a su vez es subcuerpo de un cuerpo E; es decir, K SL < E. (Por tanto, K es subcuerpo de E.) Supdngase que E es de dimension n sobre L y L de dimensién m sobre K, Demostrar que E es de dimensién mn sobre K. Supongamos que {0,,..., %} es una base de E sobre Ly {aj, ..., dq} una de L sobre K. Afirmamos que {4,0,:1=1,....m, j=1,..., mn} es una base de E sobre K. Adviértase que {a, contiene mn elementos. Sea'w un elemento arbitrario de E. Como {v,, ..., t,} genera E sobre L, Wes una combinacién lineal de los n, con coeficientes en L: W= boy + by0) +--+ byt, BEL 7 ri) Como {4;,... dq} genera L sobre K, cada b,¢L es combinacidn lineal de los a, con coeficientes en K: by = Rr + Randa +7 + kine by = yyy + hay +00 + kag Oy py gi + hyn dy tt an donde k,j€K. Sustituyendo en [1] obtenemos wee Cheats Foe + Rim bdo + aay + °°° + Ram dda H+ + (gry H+ Ky Oy = hyiayoy $2 + hams + hye +--+ + ag ga + * =Tkdae) oi kg Qy0y + Kam Py donde k,,¢K. Siendo asi, w es una combinacién lineal de los a;v; con coeficientes en K, por lo que {aioj} genera E sobre K. La demostracion seré completa si probamos que {a,j} es linealmente independiente sobre K. Supongamos que, para escalares xyeK, Y x;(a,v;) = 0; esto es, (andar + p22, + 0+ + Xam D4) +7 + (eg BD y + yn Oa Dy Eo + gm gy) =O ” (earn + Xp2 da Hoes + Xa Ges +0 + Xyray + Karz +--+ Xp FeO, =O ESPACIOS VECTORIALES 229 Dado que {v,, .... tg} es linealmente independiente sobre L y que los anteriores coeficientes de los 1; pertenecen a L, cada uno de los coeficientes debe ser 0: Raids +1202 +--+ andy = 0, 20, +X q2 Oy Ho + X ym dig =O Pero {a,, ..-. dg} €8 linealmente independiente sobre K; por consiguiente, como los xpeK, Xn =O, Rag = Oy oes Kage = Oy ooey Xx = Oy Xpz = Oy 0025 Xe = En consecuencia, {a:v;} es linealmente independiente sobre K y queda demostrado el teorema. PROBLEMAS SUPLEMENTARIOS ESPACIOS VECTORIALES 5.87. Sea V el conjunto de los pares ordenados (a, b) de niimeros reales con suma en V y producto por un escalar en V definidos segin @H)+CGd=t+eb+d) y (a, b) = (ka, 0) Demostrar que V satisface todos los axiomas de un espacio vectorial excepto [Ml: lu =u. Por tanto, [Mg] no es consecuencia de los otros axiomas. 5.88. Probar que cl siguiente axioma [44] puede derivarse de los otros axiomas de un espacio vectorial [Ag] Para todo par de vectores u, veV, ut v=o4u. 589. Sea V el conjunto de sucesiones infinitas (a,, a, ...) en un cuerpo K con suma en V y producto por un escalar en V definidos por (ay, a2, ..) + (by, ba, (a, + by, a, +b3,..) Hay, aa, ...) = (kay, kag, ...) donde a, bj, keK, Probar que V es un espacio vectorial sobre K. SUBESPACIOS 5.90. Determinar si Wes o no un subespacio de R?, donde W consiste en aquellos yectores (a, b, c)eR® para los que a) a= 2b; b) a rango A, rango B b) rango (A + B) = rango A = rango B ESPACIOS VECTORIALES 233 SUMAS. SUMAS DIRECTAS. INTERSECCIONES 5.124, 5.125. 5.126, 5.127. 5.128. 5.129. 5.130, 5.131. 5.132, 5.133, Supéngase que U y W’son subespacios bidimensionales de R°, Demostrar que Un W# {0} Supéngase que U y W son subespacios de V y que dim U = 4, dim W= 5 y dim V=7. Encontrar todas las dimensiones posibles de Un W. Sean U y W subespacios de R? para los que . dim W=2 y UEW. Probar que R=UOW. | Sean U el subespacio de R* generado por (,.3,-3,-1-4 4 y Wel generado por {0,6.2,-23) 8-1, — 1-2-2) 29,0, — Dy 3) (1,3, 1, 5, -6} Hallar: a) dim(U + W), b) dim(U n W). Sea Vel espacio vectorial de los polinomios sobre R. Hallar: a) dim(U + W), b) dim(UnW), donde u w in (+4? — 643,08 +57 +5, 30° + 107 — 5145) in (+ 4P 46,0 42° 145,20 42 3049) Sean U el subespacio de R° generado por (1, -1, —1, -2, 0) (1, =2, 2,0, —3) y (, ~1, =2, =2, 1) y Wel generado por (1, -2, -3,0, —2) (1, =, -3,2, -4) y (dy ~1, 2,2, ~5) 4) Encontrar dos sistemas homogéneos cuyos espacios solucién sean U y W, respectivamente. 6) Encontrar una base y la dimensién de Un W. Sean U,, Uz y Us los siguientes subespacios de R®: U,={@bo:atb+c=0} Us = {(a, b, 0: Us ={0,0,0:ceR} Probar que: @) R° = U, + U2, b) R° = Us + Uy, c) R¥ = U, + Uy, Cuando es directa la suma? Supéngase que U, Vy W son subespacios de un espacio vectorial. Demostrar que (UAVY+UnW)sunv +H) Encontrar subespacios de R? para los que la igualdad no sea cierta. La suma de dos subconjuntos (no necesariamente subespacios) no vacios arbitrarios $y T de un espacio vectorial Vse define como S + T= {s + 1:seS, tT}. Probar que esta operacién satisface a) Ley conmutativa: S+T=T+S o) S+{0}=(}+5=5 b) Ley asociativa: (S, +5,)+5;=S,+(S,+5,) d) SHV=V4S=¥ Supongase que W,, W,, ..., W, son subespacios de un espacio vectorial V. Probar que: 4) Hin Wi, Way os WE Wy + We to 5) SiS; genera W; para i= 1, ....r, entonces $,US,U--US, genera W, + Wy +--+ W, 234 5.134, 5.135. 5.136. 5.137. 5.138. ALGEBRA LINEAL Demostrar el Teorema 5.24. Demostrar el Teorema 3.25, Sean U y W espacios vectoriales sobre un cuerpo K. Sea Vel conjunto de pares ordenados (u, 1), donde w pertenece a U y wa W: V= {(u, w): weU, we W}. Probar que V es un espacio vectorial sobre K con suma en Vy producto por un escalar en V definidos segiin m+ w)=tuswtw) — y —— k(u, w) = (ku, kw) donde u, weU, w, we Wy keK, (Este espacio V se denomina la suma directa externa de Uy W.) Sea V la suma directa externa de los espacios vectoriales U y W sobre un cuerpo K. (Véase el Problema 5.136.) Sean O = {(u, 0): weU}, W= {(0, w): we W}. Probar que a) Oy Wson subespacios de V y que V= 0 @ W. 5) U es isomorfo a 0 bajo la correspondencia u++(w, 0) y que W es isomorfo a W bajo la cortespondencia w+ (0, w). c) dim V=dim U + dim W. Supéngase V = U @ W. Sea fla suma directa externa de U y W. Probar que V es isomorfo a 7 bajo la correspondencia 0 = u + wes (, w). VECTORES COORDENADOS 5.139, 5.140, 5.141, Considérese la base S = {u, = (1, —2), uz = (4, —7)} de R?. Hallar el vector coordenado [x] de v relativo a S, siendo a) v = (3, 5), b) v= (I, 1), ¢) = (a, b). Considérense el espacio vectorial P,(t) de los polinomios de grado <3 y la base $= {1,141.1 +1, +12} de P,(0. Encontrar el vector coordenado de » respecto a S, donde: a) v = 2—3t+ 1° + 20: byv= 3-4 c)omat bet ct? + de Sea S Ia siguiente base del espacio vectorial W de las matrices 2 x 2 reales simétricas: (a )G C3 Encontrar el vector coordenado de Ia matriz AeW relative a la base anterior S, donde: om ole} CAMBIO DE BASE 5.142, Calcular la matriz de cambio de base P desde la base usual {(1, 0), (0, 1)} de R? hasta la base S, la matriz de cambio de base Q desde la base § regresando hasta la base E y el vector coordenado de v = (a, b) relative a S, donde 4 $= (2,08,5} 9 $={(2,5,8,0} ) S=(L-9G-3} — 5= (23,45) 5.143, 5.144, 5.145. 5.146, ESPACIOS VECTORIALES 235 Considérense las siguientes bases de R?: S 1, 2), wz = (2, 3)} ¥ S'= {0, = (1, 3), 02 = (1, 4)} Hallar: a) la matriz de cambio de base P de Sa 5‘, b) la matriz de cambio de base Q desde S’ volviendo a S. Supéngase que los ejes x ¢ y en el plano R? se giran 30° en el sentido contrario al de las agujas de un reloj proporcionando unos nuevos ejes x’ ¢ y' para el plano. Hallar: a) los vectores unitarios en las direeciones de los nuevos ejes, b) la matriz de cambio de base P para el nuevo sistema de coordenadas, ¢) las nuevas coordenadas de cada uno de los siguientes puntos respecto al nuevo sistema: A(1, 3), BQ, —5), C(a, b). Calcular In matriz de cambio de base P desde la base usual E de R° hasta la base S, la matriz de cambio de base Q desde S hasta E y el vector coordenado de » = (a, b, c) relativo a S, estando S constituida por los vectores: 2) uy 11,0), uy = 0,12) up = (1,1) o) y= ,2, 1, uy = (1,3, 4) ty = 25,6) 5) my =(,0, 1), 4, = (1, 1,2), us = (1,2, 4) Supongase que S,, S, y $5 son bases de un espacio vectorial V y que P y Q son las matrices de cambio de base desde 5, hasta S, y desde S, hasta 53, respectivamente, Demostrar que el produc- to PQ es la matriz de cambio de base desde S, hasta $3. PROBLEMAS VARIOS 5.147, 5.148. 5.149, Determinar la dimension del espacio vectorial W de las matrices n-cuadradas sobre un cuerpo K: 4) simétricas, b) antisimétricas. Sean V un espacio vectorial de dimensién n sobre un cuerpo K y K uno de dimension m sobre un subcuerpo F. (Por tanto, V puede verse también como un espacio vectorial sobre el subcuerpo F_) Demostrar que la dimensién de V sobre F es mm Sean t,, f2, .., fy simbolos y K cualquier cuerpo. Sea V el conjunto de expresiones Qt dat + bat, donde qeK Definase Ia suma en V segiin (ats + at +00 + yt) + (byt, + Baty +++ + byt) = (ay + By + (ay + Badly + + (ay + bit, Definase el producto por un escalar en V segun Mayty + yt) +--+ yt) = kayty + kagty +--+ ka,ty Probar que V es un espacio vectorial sobre K con las operaciones anteriores. Probar, asimismo, que {f;,..., t4} €8 una base de V; donde, para i=, ..., 1, t Oty oe Otay # ey + Oey +o + Oty 236 ALGEBRA LINEAL RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 5.90. 5.92. 5.93. 5.95, 5.99, 5.105, 5.106, 5.107. S412. 5.113. 5.114, 5.115. 5.116. 5.117. 5.118, a) Si, 5) No; por ejemplo, (1, 2, 3)eW pero —2(1, 2, 3)¢ W. ©) No; por ejemplo, (1, 0, 0), (0, 1, 0)€ W, pero no su suma. a) Si. ©) No: por ejemplo, (9, 3, O)e W pero 2(9, 3, 0) EW. X= 0 no es solucién de AX = B. No. Aunque uno pueda «identificar» el vector (a, 6) R? con, digamos (a, b, 0) en el plano xy de R®. son elementos distintos pertenecientes a conjuntos distintos, disjuntos. a) Sean f, geW con cotas My y M,, respectivamente. En tal caso, para todo par de escalares a, beR, Mah + baXx)| = | af) + bafx)| < Laf(s)| + [balx)| = 1a F091 + 1bI1 900] Sla|M,+|b|M, Esto es, lal M, + |b| M, es una cota para la funcién af + bg. 4) (af + baX—x) = af(—x) + bal —x) = af (x) + bax) = (af + box). 2, =5, 0) a) Dependientes, h) _Independientes. ) Independientes, b) Dependientes. 4) Q%-1+)=-14KI-49; by ,142/9=6- $08 4+7214+ Jd. AD) Maytag) B) ty ty ta yyy gs) yy tg ty a) Base, {(1, 0, 0, 0), (0, 2, 1, 0), (0, —1, 0, 1}: dim U = 3. +b) Base, {(1, 0, 0, 1), (0, 2, 1, 0)}; dim W = 2, ©) Base, {(0, 2, 1, 0)}; dim (Un W) = 1. Indicacion: Ur W debe satisfacer las tres condiciones sobre a, b,c yd. 4) Base, {(2, —1, 0, 0, 0), (4, 0, 1, =1, 0), (3, 0, 1, 0, 1)}; dim W= 3. +b) Base, {(2, —1, 0, 0, 0), (1, 0, 1, 0, 0)}; dim W = 2. Sxty—z—s=0 xty-2-1=0 @) Sib) No, porque dim ¥ =n +1, pero el conjunto contiene slo n elementos. a) dim W=2, 6) dim W= 3. dim W= 2. ESPACIOS VECTORIALES 237 S119. U,y Uy $120. a) 3. 6) 2) 3 od) OD 1 5123. a) A -( y 1 ) a-(} 5.128, dim (Ua W) = 5.127. a)dim(U+W)=3, 6) dim(U n W) =2. $128, a)dim(U+W)=3, dim(Un W)=1. - —t=0 4x + 23 -s =0 Am, a pee z t { y Jax +2y +s 20" [9x +2y+2 +1=0 5) {(l, 2, 5,0, 0), (0,0, 1,0, —1)}. dim (U 9 W) = 2. 5.130. La suma es directa en b) y ¢) 5.131, En R¥, scan U. Vy W, respectivamente, la recta y =x y los ejes xe y. 5139. @) [-41,11], 6) [-11,3, 6) [-7a 46,20 +b). 5.140. a) [4,—2,-1,2], b) [4,—1, -1,0), o) [a—b+e-db—c+d,c—d,d] S141. a) [2,—1,1], 6) 23,1, —2)- ea ar) Jet o-(2) me(5 ade-C ahea-(322) oreG ihe aheo-(E23) are pony a}ea-(Ge) 3. 3 2 5.143. a) r-(} i} ) o=(_} S144. a) (6/3/24), (—4, 3/2). oe( a) 238 5.145, 5.147. 5.148, ALGEBRA LINEAL 9 (AD = 13-392, + 3/321, [B] = (2/3 + 5/2, 2 - 5/321, (C1 = [6/30 — by2, (a + /36)2) Como E es la base us sea P sencillamente la matriz cuyas columnas son 1,, tt. us. En tal caso, =P" y[=P-'n Qe. 1 0 oO 1 0 Oo a @ P=(1 1 tho-{ t -1 1hpj={ a-b+e o 2 1 -2 2-1 2a + 2b ~¢ 11 of o-2 1 -2b+e bh P=(O 1 2h0={ 2 3 2) (0) =(20+3b—2 102 4 -1-1 4 —a-bte 1 1 a 22-1 —2a + 2b - el oo P=|2 3 5,Q=|-7 4 -1) fo) =|-t0+40-c¢ 1 9 5-3 4 5a— 3b +¢, a) mn 1), b) mn 1972 Indicacién: La demostracién es casi idéntica a la dada en el Problema 5.86 para el caso especial en el que Ves una extensién del cuerpo K. CAPITULO 6 Espacios con producto interno. Ortogonalidad 6.1. INTRODUCCION La definicién de un espacio vectorial V involucta un cuerpo arbitrario K. En este capitulo nos restringiremos a los casos en que K es el cuerpo real R 0 el complejo C. En concreto, supondre- mos primero, a menos que se establezca o sobrentienda lo contrario, K = R, en cuyo caso V se denomina espacio vectorial real, y en las Ultimas secciones extenderemos nuestros resultados al caso K = C, en cuyo caso V recibe el nombre de espacio vectorial complejo. Recordemos que los conceptos de «longitud y «ortogonalidad» no aparecian en Ia investi- gacién de los espacios vectoriales arbitrarios (aunque lo hicieran en el Capitulo 2, referente a los espacios R” y C"). En este capitulo establecemos una estructura adicional en un espacio vectorial V para obtener un espacio con producto interno. Es en este contexto en el que se definen los conceptos citados. Como en el Capitulo 5, adoptamos la siguiente notacién (a menos que se especifique o venga implicita otra cosa) Vel espacio vectorial dado u,v, w vectores en V K el cuerpo de escalares 4,b,cok — escalares en K Subrayamos que V denotara un’espacio vectorial de dimensién finita salvo que se establezca © sobrentienda lo contrario. De hecho, muchos de los teoremas del capitulo no son validos para espacios de dimension infinita. Esto se ilustrara en algunos de los ejemplos y problemas 6.2, ESPACIOS CON PRODUCTO INTERNO Comenzamos con una definicién. 239 240 ALGEBRA LINEAL Definicién: Sea V un espacio vectorial real. Supongamos que a cada par de vectores u, ve V se le asigna un nimero real, denotado por = adu,, v> + b [Iq] (Propiedad simétrica) > 0; y = c¢v,, u> + ddv,, uy = eCu, 04> + du, v2) ©, equivalentemente, a las dos condiciones a) Cu, 0, + 92> = Cu, o> + Cu, 02> y b) Cu, ko = kKu, v> Esto es, la funcién producto interno es también lineal en su segunda posicin (variable). Por induccién, tendremos Caius + oo* + Git, BY = aC, DY + A2tg, VY +++ + a,Cu,, 0D {ty byvy + bz0, + +++ + b,0,) = b Xu, 01> + bau, vg) + °° + bXu, 0,) Combinar estas dos propiedades nos conduce a la formula general escrita a continuaci61 (rmbt) = B ahtnnsd i it mit Podemos hacer, por orden, las siguientes observaciones: Nota 1: El axioma [J,] por si mismo implica 0, 0) = Ov, 0) = 0p, 0) = 0 En consecuencia, [J,], [/2] ¢ [ls] son equivalentes a [I,], [J] y el axioma: Us] Siw #0, necesariamente 0 O sea, una funcién que satisface [/,], [Ip] e [1] es un producto interno. Nota 2: De acuerdo con [J], es no negativo y por tanto existe su raiz cuadrada real positiva. Utilizamos la notacion full =J ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 241 El nimero real no negativo |u| se denomina la norma o longitud de u. Esta funcién satisface los axiomas de una norma para un espacio vectorial. (Véanse el Teorema 6.25 y la Seccidn 6.9.) Hacemos notar que la relacién |u|? = -f Fae) ae donde f(t) y g(t) son ahora funciones continuas cualesquiera en (a, b). 242 ALGEBRA LINEAL 5) Sea V nuevamente el espacio vectorial de las funciones reales continuas en el intervalo a= Yak oro que ¢s la suma de los cuadrados de los elementos de A. 4) Sea Vel espacio vectorial de las sucesiones infinitas de nimeros reales (a,, 43, ...) que cumplen Lab = ah bat +---| < [Jul] of) A continuacin examinamos Ia desigualdad en casos especificos. ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD 243 EJEMPLO 6.4 4) Consideremos reales arbitrarios ay, ..., dyp by, «++» bye Por Ta desigualdad de Cauchy-Schwarz, (aby + abs + +> + yb)? < (Gf +++ + a2} +--+ +b) es decir, (wp)? < |u| lol, donde u = (a;) y v= (by. b) Sean fy g funciones reales continuas arbitrarias definidas en el intervalo unidad 0 <¢ <1. Segan la desigualdad de Cauchy-Schwarz, 1: pot 1 Kho? -(f soa dt) <{ LO « ‘ro at =f IP Vg? Aqui V es el espacio con producto interno del Ejemplo 6.2 a) EI teorema que sigue (demostrado en el Problema 6.11) nos da las propiedades basicas de una norma; la demostracién de la tercera requiere el uso de la desigualdad de Cauchy-Schwarz. Teorema 6.2: Sea V un espacio con producto interno. La norma en V satisface las propiedades: {Nil [ell = 0; y [ell =0 si y solo si v= 0. {Na} | kel] = JA! loll. IN3] lu +l < [ul + lol. Las propiedades [N], [Nx] y [Ns] precedentes son las que se han elegido como axiomas de una norma abstracta en un espacio vectorial (véase la Seccién 6.9). El teorema anterior dice, pues, que la definida por un producto interno es realmente una norma. La propiedad [N4] se llama a menudo desigualdad triangular porque, si vemos u + como cl lado del triangulo formado con u y v (como se muestra en la Figura 6-2), [N3] establece que la longitud de un lado de un tridngulo es menor o igual que la suma de las longitudes de los otros dos. uty Figura 6-2, Podemos hacer, por orden, una serie de observaciones. 5 Nota 1: Si ju = 1, o, equivalentemente, si

You might also like