You are on page 1of 548
Educaciow D.R ara todoy Chucaciin pora todor no es un proyecto lucrativo, sino un esfuerzo colectivo de estudiantes y profesores de la UNAM para facilitar el acceso a los materiales necesarios para la educacién de la mayor cantidad de gente posible. Pensamos editar en formato digital libros que por su alto costo, o bien porque ya no se consiguen en bibliotecas y librerias, no son accesibles para todos. Invitamos a todos los interesados en participar en este proyecto a sugerir titulos, a prestarnos los textos para su digitalizacion y a ayudarnos en toda la labor técnica que implica su reproduccién. EI nuestro, es un proyecto colectivo abierto a la participacién de cualquier persona y todas las colaboraciones son bienvenidas. Nos encuentras en los Talleres Estudiantiles de la Facultad de Ciencias y puedes ponerte en contacto con nosotros a la siguiente direccién de correo electrénico: eduktodos@hotmail.com http://eduktodos.dyndns.org. Algebra lineal STEPHEN H. FRIEDBERG ARNOLD J. INSEL LAWRENCE E. SPENCE Illinois State University PRIMERA EDICION MEXICO, 1982 PUBLICACIONES CULTURAL,S.A. Contenido PROLOGO 1 ESPACIOS VECTORIALES 1 1,1 Introduocién 1 1.2 Espacios vectoriales 6 1.3 Subespacios 16 1.4 Combinaciones lineales y sistemas de ecuaciones lineales 24 1.5 Dependencia e independencia lineal 36 1.6 Bases y dimension 41 1.7* Subconjuntos méximos linealmente independientes 57 Indice de las definiciones para el capitulo 1 60 2 TRANSFORMACIONES LINEALES Y MATRICES 63 2.1 Transformaciones lineales, espacios nulos y rangos 63 2.2 Representacién matricial de una transformacién lineal 75 2.3 Composicién de transformaciones lineales y multiplicacion de matrices 82 2.4 Invertibilidad ¢ isomorfismos 95 2.5 La matriz de cambio de coordenadas 104 2.6" Espacios duales 103 2.7* Ecuaciones diferenciales lineales homogéneas con coeficienes constantes 119 Indice de las definiciones para el capitulo 2 137 3 > OPERACIONES ELEMENTALES EN MATRICES Y SISTEMAS DE ECUACIONES LINEALES 139 3.1. Operaciones clementales en matrices y matrices elementales 140 3.2 El rango de una matriz y la inversa de una matriz 146 vill Contenido 3.3 Sistemas de ecuaciones lineales: aspectos tedricos 161 3.4 — Sistemas de ecuaciones lineales: aspectos de cdlculo 173 Indice de las definiciones para el capitulo 3 182 DETERMINANTES 185 4.1 Determinantes de orden 2 186 4.2 Determinantes de orden n 196 4.3 Propiedades de los determinantes 205 44 La adjunta clasica y la regla de Cramer 2/8 4.5 Resumen—Conceptos importantes sobre determinantes 223 Indice de las definiciones para el capitulo 4 230 DIAGONALIZACION 231 5.1 Eigenvalores y eigenvectores 231 5.2 Diagonalizabilidad 248 5.3* Limites de matrices y cadenas de Markov 268 5.4 Subespacios invariantes 297 5.5 El teorema de Cayley-Hamilton 305 5.6 El polinomio minimo 311 Indice de Jas definiciones para el capitulo 5 319 FORMAS CANONICAS 321 6.1 Eigenvectores generalizados 321 6.2 Forma canénica de Jordan 339 6.3* Forma canénica racional 359 Indice de las definiciones para el capitulo 6 378 _ESPACIOS CON PRODUCTO INTERIOR 379 7.1 Productos interiores y normas 379 7.2 El proceso de ortogonalizacién de Gram-Schmidt y complementos ortogonales 389 7.3 El adjunto de un operador lineal 398 7.4* La teoria especial y relatividad de Einstein 403 7.5 Operadores normales y autoadjuntos 417 7.6* El condicionamiento y el cociente de Rayleigh 424 7.7 — Operadores unitarios y ortogonales y sus matrices 432 7.8* La geometria de los operadores ortogonales 445 7.9 Proyecciones ortogonales y el teorema espectral 455 Contenido ix 7.10* Aproximacién por minimos cuadrados 462 7.11* Formas bilineales y cuadraticas 468 Indice de las definiciones para el capitulo 7 495 APENDICES 497 Conjuntos 497 Funciones 499 Campos 501 Nimeros complejos 504 Polinomios 508 moOneDp RESPUESTAS A LOS EJERCICIOS SELECCIONADOS 519 LSTA DE SIMBOLOS USADOS FRECUENTEMENTE 535 INDICE ALFABETICO 537 Prologo El lenguaje y los conceptos de la teoria de matrices y, mas generalmente del Algebra Lineal han Iegado también a aplicarse én las ciencias natu- rales y en las ciencias sociales. Pero eso no priva que el Algebra Lineal continte teniendo su importancia extraordinaria en el tratamiento moderno. de la geometria y el anilisis. EI propésito esencial de este libro es presentar cuidadosamente los principales temas del Algebra lineal e ilustrar la utilidad de la materia a través de una amplia variedad de aplicaciones. Aunque para el uso for- mal de este libro se supone que los alumnos han debido llevar un curso previo de calculo, el contenido de los capitulos 6 y 7 no requieren mas aparato matematico que el contenido en los estudios de ensefianza media superior en los cuales puede haber habido o no una iniciacién al Algebra lineal. El libro esté concebido de manera tal que permite ser utilizado en cursos de diferente duracién. El material esencial del Algebra lineal (es- pacios vectoriales, transformaciones lineales y matrices, sistemas de ecua- ciones lineales, determinantes y diagonalizaci6n), se encuentra en los capitulos 1 al 5; los otros capitulos, que tratan las formas canénicas y espacios con producto interior, son completamente independientes y que se pueden estudiar en cualquier orden. Ademés, a lo largo del libro se encuentran diversas aplicaciones para reas tales como ecuaciones dife- renciales, economia, geometria y fisica. Estas aplicaciones, claro esté, no son imprescindibles para el desarrollo matematico y pueden muy bien eliminarse a criterio del profesor. Hemos procurado que resultara posible abarcar la mayoria de los te- mas importantes de Algebra lineal en un curso semestral. Esta meta nos permitié desarrollar los temas més importantes con menos preliminares innecesarias, que en los textos tradicionales. Nuestro tratamiento de Ja forma canénica de Jordan, por ejemplo, no requiere de la teoria de polinomios. La economia lograda en extensién permite desarrollar la mayor parte del libro (si se omiten muchas de las partes optativas y detallados de los determinantes), en un curso semestral de xi Prélogo 4 horas semanales para aquellos estudiantes que hayan tenido conocimien- tos previos de Algebra lineal. El capitulo 1 del libro presenta la teoria basica de espacios vectoriales de dimensiones finitas, subespacios, combinaciones lineales, dependencia e independencia lineal, bases y dimensién. El capitulo termina con una seccién optativa en la cual se prueba la existencia de una base en los espa- cios vectoriales de dimensiones infinitas. En el capitulo 2 se desarroflan las transformaciones lineales y sus relaciones con las matrices; ahi se discute el espacio vacio y el limite de una transformaci6n lineal, representaciones matriciales de una transfor- macién, isomorfismos y cambios de coordenadas. El capitulo se termina con las secciones opcionales sobre espacios duales y ecuaciones lineales diferenciales homogéneas. En el capitulo 3 se encuentran las aplicaciones de la teoria de espa- cios vectoriales y transformaciones lineales a los sistemas de ecuaciones lineales. Este importante tema lo hemos pospuesto intencionadamente para que se pueda presentar como consecuencia del material anterior. Este enfoque da pie al tema familiar de los sistemas lineales para aclarar la teoria abstracta, y permite evitar confusos célculos de matrices en los capitulos 1 y 2. En esos capitulos habra ejemplos ocasionales donde ten- dremos la oportunidad de solucionar sistemas de ecuaciones lineales (na- turalmente estos ejemplos no forman parte del desarrollo teérico). En la seccién 1.4 se hallan las bases necesarias para ello. Los determinantes, tema del capitulo 4, tienen ahora mucho menos importancia que hace algin tiempo, para un curso abreviado es preferible tratarlos ligeramente, puesto que consideramos necesario dedicar mas tiempo a los temas que se desarrollan del capitulo 5 al 7. De ahi que hayamos presentado dos alternativas en el capitulo 4: un desarrollo com- pleto de Ia teoria (secciones 4.1 a 4.4) y un resumen de los puntos importantes, indispensables para el resto de los capitulos (seccién 4.5). En el capitulo 5 se desarrollan eigenvalores, eigenvectores y diago- nalizacién. Una de sus aplicaciones mds importantes se encuentra en el calculo de limite de matrices. Se ha incluido, sin embargo, una seccién opcional sobre limite de matrices y cadenas de Markov, aunque la general mayoria de algunos de sus resultados requiera un conocimiento de las formas candnicas de Jordan. Las secciones 5.4, 5.5 y 5.6 contienen in- formaci6n sobre subespacios invariantes, el teorema de Cayley-Hamilton y del polinomio minimo, respectivamente. Las formas canénicas se tratan en el capitulo 6, secciones 6.1 y 6.2 desarrollan la forma Jordan y la seccién 6.3 presenta la forma racional. Los espacios con producto interior son el tema del capitulo 7. La teo- ria _matematica basica (productos interiores y el proceso de ortogonali- zacién de Gram-Schmidt; las transformaciones del adjunto: normal, auto- adjunto, ortogonal y operadores unitarios; proyecciones ortogonales yel Prélogo XU teorema espectral) se desarrollan en las secciones 7.1, 7.2, 7.3, 7.5, 7.7 y en la 7.9. En las secciones 7.4, 7.6, 7.8 y 7.10 se encuentran varias aplicaciones de la estructura del producto de interior. El capitulo ter- mina con un analisis de las formas cuadraticas y bilineales (seccién 7.11). En el texto se encuentran también cinco apéndices. En los primeros cuatro se analizan respectivamente, conjuntos, funciones, campos y ntime- ros complejos con el fin de repasar las ideas bésicas que se desarrollan a través del libro. En apéndice E sobre polinomios se utiliza primor- dialmente en los capitulos 5 y 6, en especial en la seccién 6.3. Se ha preferido que esos apéndices no se analicen en forma independiente sino hacer referencia a ellos segin se requiera. . EI siguiente diagrama muestra la dependencia entre los capitulos del libro. Capitulo 1 Capitulo 3 Secciones 4.1-4.4 © secciones 4.5 Capitulo 7 Secciones 6.1 y 6.2 Secciones 5.5 y 5.6 Ahora unas palabras finales, que creemos necesarias respecto a nues- tra notacién. Las secciones indicadas con un asterisco (*) son opcionales y pueden omitirse si asi lo considera el profesor. Todo ejercicio indicado xIV Prélogo por el simbolo (+) no es opcional; lo usamos para identificar un ejer- cicio que sera citado posteriormente en el texto. ‘Agradecemos a Douglas E. Cameron (University of Akron), Ed- ward C. Ingraham de (Michigan State University), David E. Kullman (Miami University), Carl D. Meyer, Jr. (North Carolina State University) y Jean E. Rubin (Purdue University) por haber revisado el manuscrito completo del texto, asi como también a nuestros colegas y estudiantes por las sugerencias y estimulos recibidos durante el periodo en el que se estaba desarrollando el manuscrito de esta obra. También hacemos men- cién especial a Miss Jana Gehrke y a Marilyn Parmantie por su ayuda en el trabajo de mecanografia, asi como a Harry Gaines, Ian List y al equipo de Prentice-Hall por su colaboracién durante los procesos de pro- duccién. Normal, Illinois STEPHEN H. FRIEDBERG ArNoLp J. INSEL LawrENCE E. SPENCE Capitulo 1 Espacios vectoriales 11 INTRODUCCION Muchas nociones fisicas comunes, tales como las fuerzas, velocidades * y aceleraciones, involucran una magnitud (el valor de la fuerza, velocidad © aceleracin) y una direccién. Cualquier entidad que involucre magni- tud y direccién se lama vector. Los vectores se representan por flechas en las que la longitud de ellas define la magnitud del vector, y la direc- cién de la flecha representa la direccién del vector. En la mayor parte de las situaciones ffsicas que involucran vectores, tinicamente la magnitud y direccién del vector son significativas; consecuentemente, consideraremos a los vectores con la misma magnitud y direccién como iguales, indepen- dientemente de sus posiciones relativas. En esta seccién se discutira la geometria de los vectores, geometria que se deriva de los experimentos fisicos que dan fe de Ja forma de inter- accion entre dos vectores. Muchas situaciones comunes sugieren que cuando dos vectores acttian simulténeamente en un punto, la magnitud del vector resultante (el vector obtenido sumando los dos vectores originales) no es necesariamente igual a la suma de las magnitudes de los dos vectores. Por ejemplo, un nadador que nada contra la corriente con una velocidad promedio de 3.2 km/h, siendo la velocidad de la corriente de 1.6 km/h, no avanzaré con una velocidad promedio de 4.8 km/h. En este caso los movimientos del nadador y el de la corriente son contrarios y, por tanto, la velocidad pro- medio del nadador es tnicamente de 1.6 km/h. Si, por el contrario, el nadador avanzara aguas abajo (a favor de la corriente), entonces su avance promedio si seria de 4.8 km/h. Los experimentos muestran que los vectores se suman de acuerdo con la siguiente ley del paralelogramo. (Véase la fig. 1.1.) * La palabra “velocidad” est4 siendo utilizada con su connotacién cientifica, como una entidad que tiene magnitud y direccién. La magnitud de una velocidad (independientemente de la direccién del movimiento) se Mama rapidez. 2 Espacios vectoriales figura 1.1 Ley del Paralelogramo para la Suma de Vectores. La suma de dos vectores x y Y que actian sobre un mismo punto P es el vector que, en el paralelo- gramo que tiene a x y y por lados adyacentes, se representa por la diagonal que parte de P. Como los lados opuestos de un paralelogramo son paralelos y de igual longitud, el extremo Q de la flecha que representa a x + y también se puede obtener permitiendo que x actte sobre P y luego permitiendo que y acttie sobre el extremo de x; 0, de la misma manera, puede ser obtenido permitiendo que primero actie y sobre P y posteriormente que x actie sobre el extremo de y. De este modo, dos vectores x y y que acttian sobre un punto P pueden ser sumados “cola con cabeza”; esto es, se puede aplicar cualquiera de los vectores x o y en P y un vector que tenga la misma magnitud y direccién que el vector restante puede ser aplicado entonces en el extremo del primero —el extremo de este segundo vector es el extremo de x + y. La suma de vectores puede ser descrita algebraicamente mediante el uso de geometria analitica. En el plano que contiene a x y a y, introdiiz- case un sistema de coordenadas con P por origen y sea (a, az) cl extremo de x y (bs, be) el de y. Entonces, tal como lo muestra la figura 1.2, las coordenadas de Q, extremo de x + y, son (a, + by, a + by). De aqui en adelante, cuando se haga referencia a las coordenadas del extremo de un vector, se considerar4 que el vector parte del origen. Mas atin, como un vector que principia en el origen queda completamente determinado por (a, + by,a +62) ft {i ' ' / / LS (ay + by, b2) Gro)? figura 1.2 Introducci6n 3 Jas coordenadas de su punto extremo, nos referiremos algunas veces al punto x en vez de al extremo del vector x cuando x sea un vector que parte del origen. Ademés de la operacién de suma de vectores existe otra operacién natural que se puede realizar con los vectores —la longitud de un vector puede ser amplificada o reducida sin cambiar la direccién del vector. Esta operacién, Hamada multiplicacién por un escalar, consiste en multiplicar ‘un vector por un niimero real. Si el vector x esté representado por una flecha, se tiene que para cualquier numero real 1 > 0 el vector tx que- dard representado por una flecha que tiene la misma direccién de la flecha que representa a x pero su longitud seré 1 veces mayor. Si t <0, el vector tx quedara representado por una flecha cuya direccién sea opuesta a la de x y con una longitud de | 1| veces la longitud de la flecha que representa a x. Dos vectores no nulos x y y se denominan paralelos si y = & para cualquier numero real ¢ no nulo. (Asi, los vectores no nulos con direcciones iguales u opuestas, son paralelos.) Para describir algebraicamente la multiplicacién por escalares, intro- duzcase de nuevo un sistema de coordenadas en un plano que contenga al vector x tal que x parta del origen. Si el extremo de x tiene por coordenadas a (a;, a:), entonces puede mostrarse facilmente que las coordenadas del extremo de tx son (ta;, fa). (Véase el ejercicio 5.) Las descripciones algebraicas de la suma de vectores y de la multi- plicacién de vectores por escalares en un plano, implican las siguientes propiedades para vectores arbitrarios x, y, y z y numeros reales arbitra- tios a y b: a(x + y) = ax + ay. (a + b)x = ax + bx. 1 oxty=ytx. 2 (ty) $2=x4+ (42). 3. Existe un vector llamado 0 tal que x + 0 = x para todo vector x. 4. Para cada vector x existe un vector y tal que x + y = 0. 5S. Ix=x. 6. (ab)x = a(bx). 7. 8. Argumentos semejantes a los antes mencionados muestran que estas 8 propiedades, asi como las interpretaciones geométricas de suma de vecto- res y multiplicacién por escalares, son validas para vectores que actian en el espacio y no slo en un plano. Utilizaremos estos resultados para escribir las ecuaciones de rectas y planos en el espacio. Considérese primero la ecuacién de una recta en el espacio que pasa por dos puntos distintos P y Q. Sea O el origen de un sistema de coorde- nadas en el espacio y sean u y v los vectores que parten de O y terminan respectivamente en P y Q. Si w es el vector que principia en P y termina en Q, la suma “cabeza con cola” muestra que u+ w =v y por tanto Espacios vectoriales w=v—u donde —u representa al vector (—1)u. (Véase la fig. 1.3 en donde el cuadrilétero OPQR es un paralelogramo.) Como un miltiplo de escalar w es paralelo a w, pero posiblemente de una longitud diferente a w, cualquier punto de la recta que une a P y Q se puede obtener como el extremo del vector que principia en P y que tiene la forma tw para figura 1.3 algin numero real t. Reciprocamente, el extremo de cada vector de la forma tw que principia en P yace en la linea que une a P y Q. Luego, una ecuacién de la recta que pasa por Py Qesx = u + tw=u+t(v—u), donde # es un ntimero real y x es un punto arbitrario de la recta. Véase también que el extremo R del vector v — u de la fig. 1.3 tiene coorde- nadas iguales a la diferencia de las coordenadas de Q y P. Ejemple. Encontremos la ecuacién de la recta que pasa por los pun- tos P y Q de coordenadas (—2, 0, 1) y (4, 5, 3), respectivamente. El extremo R del vector que parte del origen y que tiene la misma direc- cién que el vector que principia en P y termina en Q, tiene como coor- denadas (4, 5, 3) — (—2, 0, 1) = (6, 5, 2). Luego, la ecuacién buscada sera: x= (~2, 0, 1) + 4(6, 5, 2). Ahora, sean P, Q y R tres puntos no colineales en el espacio, Estos Puntos determinan un plano tnico cuya ecuacién puede ser encontrada mediante el uso de nuestras anteriores observaciones sobre vectores. Sean wy v los vectores que parten de P y terminan, respectivamente, en Q y R. Obsérvese que cualquier punto del plano que contenga a P, Q y R es el extremo S de un vector x que principia en P y tiene la forma tw + tv para cualquier par de mimeros reales 4 y f:. El extremo de fu serd el Punto de interseccién de la recta que pasa por P y Q con la recta que pasa por S'y es paralela a la recta que pasa por P y R. (Véase fig. 1.4.) Un procedimiento andlogo permitira localizar tv. Introduccién 5 figura 1.4 Mas atin, para cualquier par de nimeros reales t, y h, 4u + tv es un vector ubicado en el plano que contiene a P, Q y R. Por lo tanto, la ecuacién del plano que contiene a P, Q y R es x= P+ tut ty, donde 1, y & son nimeros reales arbitrarios y x es un punto cualquiera del plano. Ejemplo. Sean P, Q y R puntos de coordenadas (1, 0, 2), (—3, —2, 4) y (1, 8, —5), respectivamente. El extremo del vector que parte del origen y tiene la misma longitud y direccién que el vector que va de P a Q es (-3, —2, 4)— (1, 0, 2) = (—4, —2, 2); de la misma forma, el extremo del vector que parte del origen y tiene la misma longitud y direccién que el vector que va de P a R es (1, 8, —5) — (1, 0, 2) = = (0, 8, —7). Luego, la ecuacién del plano que contiene a los tres puntos dados es = (1, 0, 2) + a(—4, —2, 2) + 4(0, 8, —7). Cualquier estructura matemdtica que posea las ocho propiedades de la pagina 3 se llama “espacio vectorial”. En la seccién siguiente defini- remos formalmente un espacio vectorial y consideraremos muchos ejem- plos de espacios vectoriales distintos a los antes mencionados. EJERCICIOS Determinar si los vectores que parten del origen y terminan en los siguientes pares de puntos son paralelos. (a) (3, 1, 2) y (6, 4, 2) (b) (—3, 1,7) y (9, —3, —21) (c) (5, —6, 7) y (—5, 6, —7) (d) (2, 0, —5) y (5, 0, —2) 6 1.2 Espacios vectoriales Encontrar las ecuaciones de las rectas que pasan por los siguientes pares de puntos en el espacio. (a) (3, —2, 4) y (—5, 7, 1) (b) (2, 4, 0) y (—3, —6, 0) (c) (3, 7, 2) y (3, 7, —8) (d) (—2, -1, 5) y (3, 9, 7) Encontrar las ecuaciones de los planos que contienen los siguientes puntos en el espacio. (a) (2, ~5, —1), (0, 4, 6) y (—3, 7, 1) (b) (3, —6, 7), (—2, 0, —4) y (5, —9, —2) (c) (8, 2, 0), (1, 3, 0) y (6, —5, 0) (d) , 1, 1), (5, 5, 5) y (-6, 4, 2) @Cudles son las coordenadas del vector 0 en el plano Euclidiano que satis- facen la condicién 3 de la pagina 3. Demostrar que esta seleccién de coorde- nadas satisface la condicién 3. Demostrar que si el vector x parte del origen del plano Euclidiano y termina en el punto de coordenadas (a,, a:), entonces el vector tr que parte del origen termina en el punto de coordenadas (ta,, ta:). Demostrar que las diagonales de un paralelogramo se bisectan, ESPACIOS VECTORIALES Debido a que entidades tan diversas como las fuerzas que operan en un plano y los polinomios con coeficientes reales permiten definiciones natu- rales de suma y multiplicacién por escalares que poseen las propiedades 1 a 8 de la pagina 3, es evidente que se deban abstraer dichas propieda- des en Ia siguiente definicién. Derinici6n. Un espacio vectorial (0 espacio lineal) V sobre un campo * F consiste de un conjunto en el que estén definidas dos operaciones (Ilama- das adicién y multiplicacin por escalares, respectivamente), tal que para cualquier par de elementos x y y en V exista un elemento tinico x+y en V, ¥ para cada elemento a en F y cada elemento x en V exista un elemento tinico ax en V, de manera que se cumplan las siguientes con- diciones: * Ver apéndice C. Sin embargo, con muy pocas excepciones, el lector puede interpretar la palabra “campo” como “campo de Jos mimeros reales” (denotado Por R) o “campo de Jos nimeros complejos” (denotado por C) Espacios vectoriales 7 (VS 1) Para toda x, y en V, x + y =y +x (conmutatividad de la adicion). (VS 2) Para toda x, y, z en V, (x+y) +2=x+ (y +2) (aso- ciatividad de la adicién). (VS 3) Existe un elemento en V llamado 0 tal que x +0=x Para toda x enV. (VS 4) Para cada elemento x en V, existe un elemento y en V tal quex+y=0. (VS 5) Para cada elemento x en V, 1x = x. (VS 6) Para cada par a, b de elementos en F y cada elemento x en V, (ab)x = a(bx). (VS 7) Para cada elemento a en F y cada par de elementos x, y en V, a(x + y) = ax +ay. (VS 8) Para cada par de elementos a, b en F y cada elemento x en V, (a + b)x = ax + bx. Los elementos x + y y ax se denominan, respectivamente, suma de x y y y el producto de a y x. Los elementos del campo F se Ilaman escalares y los elementos del espacio vectorial V se Haman vectores. El lector no debe confundir este uso de Ja palabra “vector” con la entidad fisica tratada en la’ seccién 1.1; ahora, la palabra “vector” se utilizaré para describir cualquier elemento de un espacio vectorial. Frecuentemente, un espacio vectorial serd tratado en el texto sin men- cionar explicitamente su campo de escalares. El lector cuidard de recordar, sin embargo, que todo espacio vectorial debe considerarse como un espa- cio vectorial sobre un campo, el que se denotara por F. En el resto de 1a seccién introduciremos diversos ejemplos importantes de espacios vectoriales que serdn estudiados a través del texto. Obsérvese que al describir un espacio vectorial no sélo es necesario especificar los vectores, también las operaciones de suma y multiplicacién por escalares. Un objeto de la forma (a;,..., ay), donde los valores o entradas @; son elementos de un campo F, se denomina n-dimensional * con valores de F. Dos n-dimensionales (a;,..., @) y (bi... jn) se defi- nen como iguales si y sélo si a; = 6; parai= 1, 2,..., n. Ejemplo 1. El espacio vectorial F" de mdimensionales con valores de un campo F. El conjunto de todas las n-dimensionales con valores de un campo F forma un espacio vectorial, que denotaremos por F*, bajo las operaciones de suma y multiplicacién coordinada (elemento a elemento); esto es, si X= (Gy... 4 Gn) EF, y= (bys, bn) EF, y CE F, entonces BEY = (Gt by... yan tb) yx = (Cay... Can). * N. del T. En algunos libros de algebra lineal a los n-dimensionales se les da el nombre de n-adas, n-uplas, n-tuplas y otros mas, pero aqui preferiremos Ja citada denominacién, Espacios vectoriales Por ejemplo, en Rt (3, —2, 0, 5) + (-1, 1, 4, 2) = (2, -1, 4, 7) —5(1, —2, 0, 3) = (5, 10, 0, —15). Los elementos de F* a menudo se escribiran como vectores columna: a, q, en vez de como vectores renglén (a:,..., ay). Puesto que un 1-dimen- sional con valor de F puede ser visto como elemento de F, escribiremos F en vez de F para el espacio vectorial de los 1-dimensionales de F. Una matriz de m x n con valores de un campo F es un arreglo rec- tangular de la forma Ay, Ay we yy) Gy Oz, 2. Gay det Oz s+ Omg donde cada elemento ai;(1 1? Justifique su respuesta. Una matriz A de m x n se lama triangular superior si todos los términos ubicados por debajo de la diagonal valen cero, esto es, Ai, = 0 siempre que i > j. Verificar que las matrices triangulares superiors forman un sub- espacio de Mnin(F). Verificar que para cualquier s,€ S, W = {f€ F(S, F): f(so) = 0} es un subespacio de F(S, F). GEs el conjunto de todas las funciones diferenciales de valores reales defi- nidas en R un subespacio de C(R)? Justifique su respuesta. Sea C"(R) el conjunto de todas las funciones de valor real definidas en la recta de los reales que tiene una derivada n-ésima continua (y, por tanto, derivadas continuas de orden 1, 2,..., m). Verificar que C"(R) es un subespacio de F(R, R). Demostrar que un subconjunto W de un espacio vectorial V es un subes- pacio de V si y sdlo si WA y ax€ W y x+y W siempre que aeFy x, yew. Demostrar que un subconjunto W de un espacio vectorial V es un subes- pacio de V si y sélo si 0 € W y ax + y€ Wsiempre que a€ Fy x, yEW. 18. 19. 21. 22. 23. 25. Subespacios 23 Sean W: y Wz subespacios de un espacio vectorial V. Demostrar que W,'U We @s un subespacio de V si y slo si W, CW 0 We C Wi. Sean F, y Fz campos. Una funcién g€ 3(F,, Fz) se llama funcién par si g(—x) = g(x) para toda x€ F; y se llama funcién impar si g(—x) = —g(x) para toda x€ F,. Demostrar que el conjunto de todas las fun- ciones pares en F(F,, F2) y el conjunto de todas las funciones impares en ¥(F;, Fz) son subespacios de F(F,, Fe). Mostrar que F* es la suma directa de los subespacios Wi = ((a1, +, Gn) € F®: Qa = O} We = ((ai,.++ 5 Gn) € FM ap =... = Gna = O}. Sea W; el conjunto de polinomios f en P(F) tales que f(x) = 0 0, en la representacién F(X) = ayx" + aya”? + 20. + ao, los coeficientes a, @:, a), ... de todas las potencias pares de x son iguales a cero. Andlogamente, sea Wz el conjunto de todos los polinomios g en P(F) tales que g(x) = 0 0, en la representacion B(X) = Dax” + Byrd? +... + Boy los coeficientes b,, bs, bs, ... de todas las potencias impares de x son iguales a cero. Demostrar que P(F) = W:@ W2. Sea Wi = {A € Maxn(F): Ai; = 0 cuando i > j} y We = (A © Man(F): Ajj = 0 cuando i < j}. (W, es el conjunto de las matrices triangulares supe- tiores definidas en el ejercicio 12.) Demostrar que Mnxn(F) = W:@ Ws. Sea V el espacio vectorial formado por todas las matrices triangulares supe- riores de n x n (como se definieron en el ejercicio 12), y sea W, el subespacio de V formado por todas las matrices diagonales. Demostrar que V=W,@W., donde We = {AE V: Ai =0 cuando i Una base de V Un subconjunto de V Tinealmente independiente figura 1.6 El siguiente ejemplo ilustra cémo pueden utilizarse estos resultados para obtener una importante conclusion no trivial. Sean Co, Ci, -.., Cy, elementos distintos de un campo infinito F. Los polinomios fo(x), fi(x),-.-, f(x), donde =~ 0). Ce (x = en) 42) (Gi = C0). (CF Cia) (Gr = Cisse (> En) =f) Ho Ci — Gj Bases y dimension 49 se Haman polinomios de Lagrange (asociados a Co, C1, ... , Cy). Tomando a fi(x) como una funcién polinomial f;: F— F, se ve que _f0 sii¥y fle) = {i a (3) Se utilizaré esta propiedad de los polinomios de Lagrange para demos- trar que 8 = {fo, fi, ... , fa} es un subconjunto linealmente independiente de P,(F). Como la dimensién de P,(F) es n+ 1 se tendra por el coro- lario 1 del Teorema 1.11 que £ es una base de P,(F). Para demostrar que f es linealmente independiente, supéngase que: Safi =O para algunos escalares ay, a1, ... 5 du: ico donde 0 es la funcién cero. Entonces Safco) =0 paraj=0,1,..., 0 pero también Daifi(cs) = a i por la ecuacién (13). De aqui que a;=0 para j=0, 1,..., ny se tiene que 8 es linealmente independiente. Como f es una base para P,(F), toda funcién polinomial g en P,(F) es una combinacién lineal de elementos de 8, esto es a= Dbifi. fo Entonces a(6)) = Dds) = bys ico a= Saleh es la representacién unica de g como combinacién lineal de elementos de B. Esta representacién se llama ecuacién de interpolacién de Lagrange. Véase que el argumento anterior muestra que si by, bs, ..., by Son cua- lesquiera n + 1 elementos de F (no necesariamente distintos), entonces Ja funcién polinomial e= Sb. es el dinico elemento dé P,(F) tal que g(c;) = bj. Luego entonces, hemos encontrado el tnico polinomio cuyo grado no excede an que tiene valores 50 Espacios vectoriales especificos b; en puntos dados c; en su dominio (j = 0, 1,..., ).. Por ejemplo, construyamos el polinomio real g de grado maximo 2 cuya grafica contiene a los puntos (1, 8), (2, 5) y (3, —4). (Luego, con la notacién anterior, cy = 1, ¢: = 2, c: = 3, bb = 8, BL =5, y by = —4.) Los polinomios de Lagrange asociados a G, ¢:, y c, son (x—2)(4-3) 1 WO) = Gay 7B Se OD, _ = )@-3)_ WO = Go qaay = I A HD, y _@=-NG@-2) 1g 1) = Gay = 3+ 2d: De aqui, el polinomio deseado es g(x) = Sofi = Bfo(x) + Sfi(x) — 4f.(x) = A(x! — Sx + 6) — S(t = dx + 3) — 2(x — 3x + 2) = 3x + 6x t 5. Una consecuencia importante de la ecuacién de interpolacién de La- grange es el siguiente resultado: Si f€ P,(F) y f(c)) = 0 para m+ 1 ele- mentos diferentes cu, ci, ... 5 Cn en F, f serd la funcién cero. EI siguiente resultado relaciona la dimensién de un subespacio con la dimensién del espacio vectorial que la contiene. Teorema 1.12. Sea W un subespacio de un espacio vectorial V de dimensién n. Entonces, W es dimensionalmente-finito y dim(\W) Zm} CS UNA base para W, + W2. Se seguiré que W, + We es dimensionalmente finita y que dim(W, + W.) = kK+rt+m=(k+r) + (k+m)—k dim(W,) + dim(W.) — dim(W, O Wz). Para demostrar que fo U f; U Bi es una base para W, + W:, demos- traremos primero que fy U ; U B: es linealmente independiente. Supén- gase que Ce para algunos escalares a, ... , di, Bs, .-. Dry Cry «+ 5 Cm SOO vor ant... tam, vw=by t+... + byn Ve = 1%, +... + CmZm3 obsérvese que vo € Wi M W2, vi € Wiy v2 € Wz. La igualdad anterior pue- de expresarse como vy + v, + v2'= 0; asi, vo + ¥; = —Vo. En esta tltima igualdad el miembro izquierdo es un elemento de W, y el miembro derecho es un elemento de W,. Entonces —v, es tanto un elemento de W, como de Wz, esto es, —vz€ Wi M Wz. Como {x ..., X«} es una base para 7 Wi Wo, existen escalares d,,..., dy tales que —v, = dx, +... + + dyxy. Ahora bien, Bases y dimensién 53 O= vo tv + ve (auxr +... + axe) + (by, + 20. + Baye) + (—dix, — «2. — dixx) = (a — dat... + (@ — dm t+ by +... + by i Asi tenemos una combinacién lineal de elementos de 8. U ; que es igual al vector cero; pero f U f; es un conjunto linealmente independiente, y asia — d=... = 4 — d= . = b= 0. De aqui que v, = 0. Entonces 0 = vo + Vy + V2 = Vo + Ve = aX + 1. + aX +e +... + CmZmy de manera que una combinacién lineal de elementos de fo U (2 es igual al vector cero. Como antes, el hecho de que 8. U #2 sea un conjunto lineal- mente ar implica que a, : C=... = ln = 0. Como a, = .. =h=. baa ‘m= 0, hemos de- mostrado que fo U wr U Bz es linealmente independiente. Falta demostrar que 8) U £, U 82 genera a W, + Ws. Pero ahora te- nemos que L(o U 81) = Wi y L(Bo U Bz) = We puesto que Bo UB: y Bo U 2 son bases para W, y Wa, respectivamente. Pero L(Bo U Bi U Bz) = L((Bc U B:) U (Bo U Be)) L(Bo U Br) + L(Bo UV B2) = W, + We por el ejercicio 12 de la seccién 1.4. De aqui que B> U B: U fr genera a W, + W, lo cual completa la demostracién. ill Como una consecuencia inmediata de este resultado, se tiene el si- guiente corolario de utilidad. Corolario. Sean W, y W: subespacios dimensionalmente finitos de un espacio vectorial V tales que V = W, + We. Luego, V es la suma directa de W, y W: si y sdlo si dim(V) = dim(W,) + dim(W:). Ejemplo 43. Sea c un elemento de un campo infinito F, sea W; el con- junto de todas las funciones constantes en P,(F), y definase como = (f(x) €P,(F); f(c) = 0}. Puede verse facilmente que W, y Ws son subespacios de P,(F) y que P,(F) = W, @ W:. (Obsérvese que para cualesquiera f(x) € Pa(F), g(x) = f(c) € Wi, A(x) = f(x) — fc) € We, y f(x) = g(x) + h(x).) Como la funcién constante p(x) = 1 claramen- te constituye una base para W,, se deduce del corolario anterior que dim(W.) = dim(P,(F)) — dim(W,) = (n + 1) len 54 Espacios vectoriales EJERCICIOS 1 Decir si las siguientes afirmaciones son verdaderas o falsas. (a) (b) (c) (d) (e) (f) (g) (h) (i) @ (k) a EI espacio vectorial cero no tiene base. Todo espacio vectorial generado por un conjunto finito tiene una base. Todo espacio vectorial tiene una base finita. Un espacio vectorial no puede tener mds de una base. Si un espacio vectorial tiene una base finita, entonces el nimero de vectores en todas las bases es el mismo. ~ La dimension de P,(F) es n. La dimensién de Mnxn(F) es m+n. Suponer que V es un espacio vectorial dimensionalmente finito, que S, es un subconjunto linealmente independiente de V y que S, es un subconjunto de V que genera a V. Luego, S, no puede tener mas elementos que S2. Si S genera al espacio vectorial V, entonces todo vector en V puede escribirse como una combinacién lineal de elementos de S de una sola manera. Todo subespacio de un espacio dimensionalmente finito’ es dimensio- nalmente finito. Si V es un espacio vectorial de dimensién n, entonces V tiene exacta- mente un subespacio de dimensién 0 y exactamente un subespacio de dimensié6n n. Si W, y Wz son subespacios dimensionalmente finitos de un espacio vectorial, entonces dim(W, + W,) = dim(W,) + dim(W.). Determinar cudles de los siguientes conjuntos son bases para R°. (a) (b) (c) (d) (e) {(, 0, —1), (2, 5, 1), (0, —4, 3)} {(2, —4, 1), (0, 3, —1), (6,0, —1)} {(1, 2, —1), CL, 0, 2), (2, 1, 1} {(~1, 3, 1), (2, —4, —3), (—3, 8, 2)} {(, —3, 2), (—3, 1, 3), (-2, -10, —2)} Determinar cuales de los siguientes conjuntos son bases para P.(R). (a) (b) (c) (d) (e) {-1— xt 2x8,2 +4 — 2x, 1 — 2x + 4x") (1+ 2x+x%,3 +34, x42) {1 + 4x — 2x, -2.4 3x — x7, —3 — 12x + 62°} {-1 + 2x + 4x2, 3 — 4x — 102°, —2 — 5x — 6x) {1 + 2x — x4, 4 — 2x + x4, -1 + 18x — 92°} ¢Generan los polinomios x* — 2x +1, 4x*— x +3 y 3x—2 a P(R)? Justifique su respuesta. Bases y dimensién 55 ds {(1, 4, -6), (1, 5, 8), (2, 1, 1), (0, 1, 0)} um subconjunto lineal- mente independiente de R*? Justifique su respuesta. Dar tres bases diferentes para F? y para Mz.2(F). Los vectores x, (2, —3, 1), x= (1, 4, —2), % = (—8, 12, —4), x, = (1, 37, -17), y xs = (~3, —5, 8) generan a R°. Encontrar un sub- conjunto de {x1, x2, Xs Xs Xs} que sea una base para R°. Sea V el espacio vectorial que consta de todos los vectores de R° para los cuales la suma de las coordenadas es cero. Los vectores n= (2,-3,4,-5,2), m= (6,9, -12, 15, 6), = (3, -2,7,-9,1), 14 = (2, -8, 2, -2, 6), xs = (-1,1,2, 1, -3), xe = (0, 3, —18, 9, 12), x = (1,0, -2,3,-2), a = (2,-1,1,-9,7) generan a V. Encontrar un subconjunto de {2;, .. para V. , Xs} que sea una base Los vectores x1 = (1, 1, 1, 1), 2 = 0, 1, 1, 1), m=, 0, 1, 1), y x, = (0, 0, 0, 1) forman una base para F*, Encontrar la tnica representa- cién de un vector arbitrario (a, az, ds, a) en F* como combinacién lineal de los vectores x,, x: X1, Y Xe Sea V=Ma(F), Wi= {(¢ ae Vv: a, b c€ r} We = {(-2 bev a, bE rt. Demostrar que W; y Wz son subespacios de V y encontrar las dimensiones de Wi, Wa, Wi + We, y Wi 0 We. Sea V un espacio vectorial de dimensién n y sea S un subconjunto de V que genera a V. (a) Demostrar que S contiene al menos n elementos. (b) Demostrar que un subconjunto de 5 es una base para V. (Tenga cui- dado de no suponer que S sea finito.) Sean W, y W: subespacios de un espacio vectorial V de dimensiones m y n, respectivamente, donde m >. Demostrar que dim(W,9W: W se lama transformacién lineal de V en W si para toda x, y€V y CEF tenemos que 64 Transformaciones lineales y matrices (a) T(x +y) = T(x) + T(y). (b) T(cx) = eT(x). A menudo denominaremos a T simplemente lineal. El lector deberd verificar los siguientes hechos sobre la funcién T: V— W. 1, Si T es lineal, entonces T(0) = 0. 2. Tes lineal si y s6lo si T(ax + y) = aT(x) +T(y) para toda x ye Vy a€F. 3. Tes lineal si y s6lo si para x,,..., %€ Vy a, ..., Gn € F te- nemos que (Sax) = Sat(x). Generalmente utilizaremos la propiedad 2 para demostrar que una transformacién dada es lineal. Ejemplo 1. Sea V = P,(R) y W=P,.(R) y definase T: V—>W me- diante T(f) = f’, donde f’ es la derivada de f. Para demostrar que T es lineal, sean g y h vectores en P,(R) y a€ R. Tenemos que T(ag + h) = = (ag + h)! = ag’ +h’ = at(g) +T(h). Entonces, de acuerdo con la propiedad 2, T es lineal. Ejemplo 2. Sea V=C(R) el espacio vectorial de funciones continuas de variable real en R. Sean a, b€ R, aR me- m diante T(f) f f(t)dt para toda f€ V. Entonces, por las propiedades elementales de las integrales, T es una transformacién lineal. Dos ejemplos muy importantes de’ transformaciones lineales que pue- den aparecer a menudo en el resto del libro y que, por tanto, merecen tener una notacién propia, son la transformacién identidad y la transfor- maci6n cero. Para espacios vectoriales V y W (sobre F) definimos la transformacién identidad |: V—>V mediante ly (x) = x para toda x€ V y la transfor- macién cero To: V—>W por To(x) = 0 para toda x € V. Es evidente que ambas transformaciones son lineales. A menudo escribiremos | en vez de |. Veremos ahora algunos ejemplos’ adicionales de transformaciones li- neales. Ejemplo 3. Definase T: RFR? por T(a,, a) = (2a, +a, a). Para demostrar que T es lineal, sean YER, x= (bi, bs), y= (dy, ds), y sea cEF, Transformaciones lineales, espacios nulos y rangos 65 Como = (cb: + dy, cb, + da), tenemos T(cx + y) = (2(cb: + d\) + cbs + day cb, + dh). También cT(x) + T(y) i (2b, + be, bs) + (2d, i+ ds, di) (2cb, + cb, + 2d, + dz, cb, + di) (2(cb, + d,) + cbz + ds, cb, + ds). I Por lo tanto, T es lineal. Ejemplo 4. Definase 1: Mmn(F) > Mmxn(F) mediante 1(A) = At, donde At es tal como se definié en la Seccién 1.3. Entonces, T es una transformacién lineal por el ejercicio 3 de la Seccién 1.3. Como veremos en las Secciones 7.7 y 7.8, las aplicaciones del algebra lineal a la geometria son vastas y variadas. La raz6n principal de esto es que la mayor parte de las transformaciones geométricas son lineales. Tres transformaciones particulares que ahora consideraremos son la rotacién, la reflexion y Ia proyeccién. Dejaremos al lector las demostraciones de linealidad, Ejemplo 5. Para 0 <6 < 2n definamos To: R*—> R® mediante To(ai, a2) = (a; cos 6 — az sen 6, a, sen @ + a; cos 6). T, se denomina rotacién en 0. (Ver Fig. 2.1(a).) Ejemplo 6. Definase T: R’—>R® mediante T(a, a2) = (a, —a2). T se denomina reflexion en torno al eje x. (Ver Fig. 2.1(b).) Ejemplo 7. Definase T: R?—> R? mediante T(a,, a2) = (a1, 0). T se de- nomina proyeccién sobre el eje x. (Ver Fig. 2.1(c).) Nétese que si hacemos W, = ((a,0): a€ R} y Wz = {(0, 4): @€ R} entonces R = Wi @ Ws, T(x) x 8 x 1 To) fa) () te) figura 2.1 66 — Transformaciones lineales y matrices por lo que para toda x€ R* existen vectores tinicos x,€ Wi y x:€ We tales que x = x, + x y T(x) = x. El ejemplo 7 sugiere la siguiente definicién. Definicién. Sean V un espacio vectorial y W, un subespacio de V. Una funcién T: V-+V se lama proyeccién sobre W, si (a) Existe un subespacio W: tal que V = W@W: (b) Para x = x, + Xz, donde x, € W, y Xz € Ws, tenemos T(x) = x1. Se deja como ejercicio para el lector demostrar que T es lineal y que W, = {x: T(x) = x}. Ahora supéngase que existe un subespacio W! Wz tal que W, ® W:. Definase U: V—>V mediante U(x) = x, donde x = x, + x's, 1 € Wi, y 42€ W/, Entonces, U es otra proyeccién sobre W, y de nuevo W, = {x: U(x) =}. Por ejemplo, en el Ejemplo 7 sea Wi = {(a, a): a€ R), tal que (a, a2) = (a) — a2, 0) + (a2, a2) y Ua a2) = (a — as, 0). Entonces existen tantas proyecciones en Wi como subespacios en W: que satisfacen V = W, @ W2. Veremos en el Capitulo 7 que la proyec- cién descrita en la figura 2.1(c) es la proyeccién “natural” a ser estudiada. Este tipo de proyeccién se Hamar4 “proyeccién ortogonal” y esta deter- minada de manera tnica por el subespacio W,. En el Ejercicio 14 de la Seccién 2.3 se dara una caracterizacién de las proyecciones, la que nos permitiré determinar facilmente si una transfor- macién lineal es o no una proyeccién. Ahora pondremos atencién a dos conjuntos muy importantes asociados con las transformaciones lineales: el “rango” y el “espacio nulo”. La de- terminacién de estos conjuntos nos permitiré examinar mds de cerca las propiedades intrinsecas de una transformacién lineal. Definiciones. Sean V y W espacios vectoriales y sea T: V—>W lineal. Defini- ‘mos al espacio nulo (o kernel) N(T) de T como el conjunto de todos los vectores x en V tal que T(x) = 0; es decir, N(T) = {x€ V: T(x) = 0}. Definimos al rango (o imagen) R(T) como el subconjunto de W que consta de todas las imagenes (bajo 1) de los elementos de V; es decir, R(T) = {T(x): x€ V}. Ejemplo 8. Sean V y W espacios vectoriales y sean 1: VV y To: VW respectivamente las transformaciones identidad y cero, tal como se definieron anteriormente. Entonces N(I1) = {0}, R(I) = V, N(To) =V y R(T.) = {0}. Transformaciones lineales, espacios nulos y rangos 67 Ejemplo 9. Sea T: R*—>R? definida mediante T(a,, az, a,) = (a, — a, 2a,). Se deja como ejercicio verificar que N(T) = {(a, a, 0): a@€ R} y R(T) = Re. En el ejemplo 7 se ve facilmente que los subespacios W, = R(T) y W: = N(T). El teorema siguiente nos dice que éste es el caso para todas las proyecciones. Teorema 2.1. Sea V un espacio vectorial y W, un subespacio de V. Sea T una proyeccion sobre W,, y sea W, tal como en la def.nicidn de proyeccion. Entonces Wi = R(T) y Ws = N(T). DEMOSTRACION. Como se observ anteriormente, W, = {x: T(x) = x}. Por lo tanto, W, C R(T). Si x€R(T), entonces: x =T(y) para alguna y€V. Pero y = y, + ye, donde y, CW: y ys€Ws, y entonces x = y,. Por lo tanto, W, = R(T). Como es evidente que W. C N(T), unicamente necesitamos demostrar que N(T) C W.. Con este fin, sea x €N(T). Entonces x = x, + x2 con x EW, y 2 €W:. Asi, 0 = T(x) =x, y por lo tanto x=x,€W:. Hl Este teorema nos dice que W: queda determinada de manera tnica por la proyeccién de T sobre W,. Ademas, como T es una proyeccién sobre su rango, utilizaremos sencillamente el término “proyeccién” sin mencio- nar al subespacio W,. Acabamos de observar en el caso en que T es una proyeccién que N(T) y R(T) son subespacios de V. Puede obienerse el mismo resultado con cualquier transformacién lineal. Teorema 2.2. Sean V y W espacios vectoriales y 1: V—» W lineal. Entonces N(T) y R(T) son subespacios de V y W, respectivamente. DEMOSTRACION. Para aclarar la notaciéa, usaremos los simbolos Oy y Ow para denominar, respectivamente, a los vectores cero de V y W. Como T(0y)= Oy, tenemos que 0, € N(T). Sean x,€N(T) y c€ F. Entonces T(x + y) = T(x) + T(x) = Ow + Oy = Ow, y Tex) = cT(x) = Cw = Oy. Por lo tanto x + y€N(T) y cx€N(T), de manera que N(T) es un subespacio de V. Como T(y) = Oy, tenemos que Oy € R(T). Ahora sean x, y€ R(T) y c€F. Entonces, existen v y w en V tales que T(v) =x y T(w) = y. Asi, T(v + w) = T(v) + Tw) = x+y, y T(cv) =cT(v) = cx. Por Io tanto, x + yER(T) y cx€R(T), de manera que R(T) es un subespacio deW. Tal como en el Capitulo 1, mediremos el “tamajio” de un subespacio por su dimensién. Los dos subespacios anteriores son tan importantes que dedicaremos atencién especial a sus dimensiones respectivas. 68 Transformaciones lineales y matrices Definiciones. Sean V y W espacios vectoriales y sea T: V->W lineal. Si N(T) y R(T) son dimensionalmente finitos, entonces definimos la nulidad de T, expresada como nulidad(T), y el rango de T, expresado como ran- g0(T), como las dimensiones de N(T) y R(T), respectivamente. Reflexionando sobre la accién de una transformacién lineal, vemos in- tuitivamente que mientras mas grande es la nulidad menor es el rango. En otras palabras, mientras mas vectores van a dar al cero, menor es el rango, El mismo razonamiento nos diré que mientras més grande sea el rango, menor es la nulidad. Este balance entre el rango y la nulidad se hard més preciso en el teorema siguiente. Teorema 2.3. Sean V y W espacios vectoriales y sea T: V—>W lineal. Si V es dimensionalmente finito, entonces nulidad(T) + rango(T) = dim(V). DEMOSTRACION. Supéngase que dim(V) =n, y sea {x,,..., x4} una base para N(T). Por el corolario del Teorema 1.12 podemos extender (x1, ..., 2} a una base 8 = (x,,..., x») para V. Demostraremos que el conjunto $= {T(xx1), ... , T(x»)} es una base para R(T). Primero demostraremos que S genera a R(T). Sea y€R(T). Entonces existe x€V tal que y = T(x). Como f es una base para V, tenemos que x=Sax, para algunas a,..., an€F. iat Como T es lineal se tiene que atx) = 3 ata) €L(S) ilker y= T(x) La Ultima igualdad se obtiene de que x, ... , x» €N(T). Ahora demostraremos que $ es linealmente independiente. Supéngase que 3S bite) =0 para bey see, bn EF. De nuevo, utilizando el hecho de que T es lineal, tenemos que - 1 5 bx) =0. icken Entonces 3 oxen. itken Por lo tanto existen c,, ... , c, €F tales que S bx = Sex o bien S(-c)a + 3S bx = 0. sokea joka

You might also like