You are on page 1of 263

Algebra Lineal I

Presentamos unas notas correspondientes al curso de



Algebra Lineal I que
se imparte en la Facultad de Ciencias de la U.N.A.M. Para el desarrollo de
las mismas hemos utilizado como base los textos [1], [4] y [7]. Comenzare-
mos con el estudio de una estructura algebraica llamada campo o cuerpo, la
cual nos sera util para denir lo que es un espacio vectorial. Posteriormente
estudiaremos una serie de espacios vectoriales que seran importantes a lo
largo del curso, como el de las matrices y el de los polinomios, prestando una
especial atencion a las matrices.
En buena medida, el primer curso de

Algebra Lineal esta centrado en el
estudio de los espacios vectoriales (como entes abstactos) y de las transforma-
ciones lineales denidas entre ellos (funciones que respetan las propiedades
que distinguen a un espacio vectorial). Con respecto al primer tema, sera im-
portante poder determinar el n umero de elementos de un espacio vectorial
que son sucientes para poder entenderlo y, con respecto al segundo, ve-
remos como es que la determinacion de dichos elementos es importante para
comprender un espacio vectorial que es imagen, bajo una transformacion
lineal, de otro espacio vectorial que ya comprendimos. Todo lo anterior se
formalizara en su momento. Baste, a manera de ser repetitivo, decir que
una vez que comprendemos un espacio vectorial (cualquier cosa que eso sig-
nique en este momento), podremos en buena medida comprender a otro
espacio vectorial que sea imagen del primero bajo una transformacion lineal.
Los determinantes son otros objetos con los que el estudiante ha trabajado
en cursos como Geometra Analtica y

Algebra Superior. Quiza incluso haya
utilizado sin demostracion las propiedades mas importantes de los mismos.
Es en este curso en donde se probaran dichas propiedades y se mostrara como
utilizarlas para calcular unos n umeros importantes asociados a toda matriz,
i
ii

ALGEBRA LINEAL I
sus valores propios.
Dedicaremos un captulo al estudio de los valores y vectores propios a-
sociados a una matriz. Mostraremos como dichos elementos son importantes
para poder llevar una matriz a otra bastante mas sencilla y que guarda
propiedades similares a la primera. Dicho captulo terminara con la prue-
ba de uno de los resultados importantes del

Algebra Lineal, el Teorema de
Caley-Hamilton.
En los cursos de Geometra Analtica se suele hablar de una operacion
que a cada dos vectores les asocia un n umero real. Tal operacion, llamada
producto interior o producto punto, puede ser denida en espacios mas abs-
tractos. Incluso se llegan a mantener algunas de las propiedades que conoce-
mos (cuando consideramos el producto punto en espacios como R
2
o R
3
) y
tambien se puede hablar de proyecciones vectoriales. El ultimo captulo del
curso esta dedicado al estudio de dichos espacios.
Los requisitos para comprender el presente curso son los de la Teora de
Conjuntos que aprendio en cursos como

Algebra Superior. Nos referimos a
la idea de conjunto, pertenencia, subconjunto, funcion denida entre con-
juntos y, principalmente, la nocion de relacion de equivalencia. Es tambien
importante estar familiarizado con el algebra elemental de los n umeros reales
y complejos. En los respectivos apendices de [1], [4] y [7] los autores dedi-
can unas lneas a dichos conceptos. No obstante, los recordaremos cuando
lo consideremos necesario. Sera tambien importante estar familiarizado con
algunas tecnicas de demostracion, como la induccion matematica y la reduc-
cion al absurdo. Los conocimientos adquiridos en los cursos de Geometra
Analtica, con relacion a la estructura de R
2
y R
3
como espacios vectoriales,
pueden ser de ayuda para entender la nocion abstracta de espacio vectorial
as como algunos conceptos ligados, como el de combinacion lineal y base, y
tambien los de dependencia e independencia lineal.
Las notas que aqu presentamos fueron desarrolladas durante el Semestre
2005-II. Agradezco la ayuda de Maira Madriz Mendoza y Sergio Hernandez
Linares quien en su momento las leyeron y contribuyeron para una mejor
presentacion de las mismas.

Indice general

Algebra Lineal I I
1. Campos 1
1.1. Denicion y Propiedades Elementales . . . . . . . . . . . . . . 1
2. Espacios Vectoriales 9
2.1. Denicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Propiedades Fundamentales . . . . . . . . . . . . . . . . . . . 16
2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . 19
2.4.1. Denicion y Caracterizacion . . . . . . . . . . . . . . . 19
2.4.2. Propiedades de Subespacios . . . . . . . . . . . . . . . 22
2.4.3. Suma y Suma Directa . . . . . . . . . . . . . . . . . . 23
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6. Combinaciones Lineales y Espacio Generado . . . . . . . . . . 28
2.6.1. Combinacion Lineal . . . . . . . . . . . . . . . . . . . . 28
2.6.2. Espacio Generado . . . . . . . . . . . . . . . . . . . . . 30
2.6.3. Subespacios de R
2
. . . . . . . . . . . . . . . . . . . . 34
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.8. Dependencia e Independencia Lineal . . . . . . . . . . . . . . 37
2.8.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . 37
2.8.2. Propiedades Fundamentales . . . . . . . . . . . . . . . 41
2.8.3. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . 42
2.8.4. Caracterizacion de la Dependencia Lineal . . . . . . . . 44
2.8.5. Subconjuntos y Superconjuntos . . . . . . . . . . . . . 46
2.8.6. Preservaci on de la Independencia Lineal . . . . . . . . 47
2.9. Base de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . 51
2.9.1. Denicion y Ejemplos . . . . . . . . . . . . . . . . . . 51
iii
iv

INDICE GENERAL
2.9.2. Resultados para Bases Finitas . . . . . . . . . . . . . . 54
2.10. Existencia de una Base . . . . . . . . . . . . . . . . . . . . . . 60
2.10.1. Una Base no Numerable . . . . . . . . . . . . . . . . . 66
2.11. Dimension de un Espacio Vectorial . . . . . . . . . . . . . . . 67
2.11.1. Denicion y Propiedades Fundamentales . . . . . . . . 67
2.11.2. Suma y Dimension . . . . . . . . . . . . . . . . . . . . 71
2.11.3. Comentarios Finales . . . . . . . . . . . . . . . . . . . 74
2.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3. Sistemas de Ecuaciones 77
3.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2. Sistema de Ecuaciones Lineales . . . . . . . . . . . . . . . . . 79
3.3. Matrices y Operaciones Elementales . . . . . . . . . . . . . . . 83
3.3.1. Operaciones Elementales por Renglon . . . . . . . . . . 83
3.3.2. Matrices Equivalentes por Renglones . . . . . . . . . . 86
3.3.3. Resolviendo un Sistema Homogeneo . . . . . . . . . . . 90
3.3.4. Matriz Escalonada Reducida por Renglones . . . . . . 93
3.4. Solucion de un Sistema de Ecuaciones . . . . . . . . . . . . . . 99
3.4.1. Sistema Homogeneo . . . . . . . . . . . . . . . . . . . . 99
3.4.2. Sistema no Homogeneo . . . . . . . . . . . . . . . . . . 105
3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3.6. Multiplicacion de Matrices . . . . . . . . . . . . . . . . . . . . 111
3.6.1. Denicion y Propiedades Fundamentales . . . . . . . . 111
3.6.2. Producto en Terminos de Columnas . . . . . . . . . . . 117
3.6.3. Producto y Sistemas de Ecuaciones Lineales . . . . . . 118
3.7. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . 121
3.8. La Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . 124
3.8.1. Denicion y Propiedades Fundamentales . . . . . . . . 124
3.8.2. Calculo de la Inversa de una Matriz . . . . . . . . . . . 128
3.8.3. Otras Propiedades . . . . . . . . . . . . . . . . . . . . 132
3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
3.10. Rango y Nulidad de una Matriz . . . . . . . . . . . . . . . . . 136
3.10.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . 136
3.10.2. N ucleo, Imagen, Nulidad y Rango . . . . . . . . . . . . 136
3.10.3. Espacio de los Renglones y de las Columnas . . . . . . 138
3.10.4. Nuc(A) y R
A
son Perpendiculares . . . . . . . . . . . . 143
3.10.5. Las Dimensiones de R
A
y C
A
son Iguales . . . . . . . . 146
3.10.6. Simplicacion de los Calculos . . . . . . . . . . . . . . 149

INDICE GENERAL v
3.10.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 157
3.11. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
4. Transformaciones Lineales 163
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
4.2. Denicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . 165
4.3. Transformacion Lineal Asociada a una Matriz . . . . . . . . . 167
4.4. Propiedades Fundamentales . . . . . . . . . . . . . . . . . . . 168
4.4.1. Un Teorema de Extension . . . . . . . . . . . . . . . . 170
4.5. N ucleo e Imagen de una Transformaci on Lineal . . . . . . . . 173
4.5.1. Propiedades Fundamentales . . . . . . . . . . . . . . . 173
4.5.2. Transformaciones Lineales Inyectivas . . . . . . . . . . 176
4.5.3. Transformaciones Lineales Suprayectivas . . . . . . . . 180
4.5.4. Balance Entre el Rango y la Nulidad . . . . . . . . . . 183
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
4.7. Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
4.7.1. Denicion y Ejemplos . . . . . . . . . . . . . . . . . . 186
4.7.2. V

= F
n
si V Tiene Dimension n . . . . . . . . . . . . . 190
4.7.3. Propiedades Fundamentales . . . . . . . . . . . . . . . 192
4.8. Bases Ordenadas y Coordenadas . . . . . . . . . . . . . . . . . 197
4.8.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . 197
4.8.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 200
4.9. Matriz de Cambio de Coordenadas . . . . . . . . . . . . . . . 204
4.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
4.11. Espacio de Transformaciones . . . . . . . . . . . . . . . . . . . 210
4.11.1. Denicion y Propiedades Fundamentales . . . . . . . . 210
4.11.2. /(V, V ) es un

Algebra Lineal . . . . . . . . . . . . . . 214
4.12. La Funcion A T
A
. . . . . . . . . . . . . . . . . . . . . . . . 216
4.13. Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
4.14. Matriz Asociada . . . . . . . . . . . . . . . . . . . . . . . . . . 222
4.14.1. Comentarios Iniciales . . . . . . . . . . . . . . . . . . . 222
4.14.2. Matriz Asociada . . . . . . . . . . . . . . . . . . . . . 225
4.14.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 232
4.14.4. Propiedades de la Matriz Asociada . . . . . . . . . . . 234
4.15. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . 240
4.16. Cambio de Coordenadas . . . . . . . . . . . . . . . . . . . . . 245
4.16.1. La Matriz de Cambio de Base . . . . . . . . . . . . . . 245
4.16.2. Semejantes . . . . . . . . . . . . . . . . . . . . . . . . 245
vi

INDICE GENERAL
4.16.3. Matrices Semejantes . . . . . . . . . . . . . . . . . . . 250
4.17. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
Captulo 1
Campos
1.1. Denicion y Propiedades Elementales
La idea intuitiva de un campo es la de un conjunto en donde existen dos
operaciones que se comportan como la adicion y multiplicaci on de n umeros
reales. Sabemos que la suma y multiplicaci on de n umeros reales es un n umero
real y que, ademas, dichas operaciones son conmutativas y asociativas. Con
respecto a la suma, un elemento distinguido de R es el n umero 0. Para la
multiplicacion es el n umero 1. Dichos elementos nos permiten hablar de los
inversos aditivos y multiplicativos de reales. El n umero 3, por ejemplo, es
el unico n umero real que sumado a 3 da 0, mientras que
1
2
es el unico real
que multiplicado con 2 da 1. Las propiedades anteriores son la base de la
denicion formal de un campo.
Denicion 1.1. Un campo consiste de un conjunto F en el que estan
denidas dos operaciones, llamadas adicion y multiplicacion, con las si-
guientes propiedades:
1) La adicion es cerrada, es decir, x +y es un unico elemento de F, para
cada x, y F.
2) La adicion es conmutativa, es decir, x +y = y +x, para cada x, y F.
3) La adicion es asociativa, es decir, x + (y +z) = (x +y) +z, para cada
x, y, z F.
4) Existe un neutro aditivo en F, es decir, un elemento 0
F
F tal que
x + 0
F
= x, para todo x F.
1
2 CAP

ITULO 1. CAMPOS
5) Existe el inverso aditivo de cada elemento de F, es decir, para cada
x F existe un elemento y F tal que x +y = 0
F
.
6) La multiplicacion es cerrada, es decir x y es un unico elemento de F,
para cada x, y F.
7) La multiplicacion es conmutativa, es decir x y = y x, para cada
x, y F.
8) La multiplicacion es asociativa, es decir, x (y z) = (x y) z, para
cada x, y, z F.
9) Existe un neutro multiplicativo en F y es diferente al neutro aditivo
de F, es decir, existe un elemento 1
F
F tal que 1
F
,= 0
F
y x 1
F
= x,
para cada x F.
10) Existe el inverso multiplicativo de cada elemento no nulo de F, es decir,
para cada x F con x ,= 0
F
, existe un elemento y F tal que xy = 1
F
.
11) La multiplicacion es distributiva con respecto a la adicion, es decir,
x (y +z) = x y +x z, para cada x, y, z F.
Algunos autores utilizan la palabra cuerpo para referirse a lo que hemos
denido como un campo. Los elementos neutros 0
F
y 1
F
bien pueden deno-
tarse por 0 y 1, entendiendo que no debe de haber confusion con los n umeros
reales cero y uno. Sin embargo, durante los primeros captulos utilizaremos
la notacion con subndices y, mas adelante, cuando hayamos adquirido mas
conanza con su trato, prescindiremos de ellos. Si F es un campo y x, y F,
a los elementos unicos x+y y x y de F les llamaremos la suma y el producto
de x y y, respectivamente. Cuando estemos considerando en F una unica
multiplicacion y no haya lugar a confusion, es usual escribir xy en lugar de
x y para denotar al producto de x y y.
Antes de comenzar a dar una serie de propiedades que cumplen los cam-
pos, es importante dar ejemplos de ellos. Naturalmente los conjuntos R y
C son campos (con las operaciones ordinarias de adicion y multiplicaci on).
Consideramos que C denota al conjunto de los n umeros complejos. El con-
junto Q de los n umeros racionales tambien es un campo, pero no el conjunto
I de los n umeros irracionales (

2 = 2 Q, as que la multiplicaci on no
es cerrada en I). Tampoco es un campo el conjunto Z de los n umeros enteros,
1.1. DEFINICI

ON Y PROPIEDADES ELEMENTALES 3
pues los elementos diferentes de 0, 1 y 1 no poseen neutro multiplicativo.
El conjunto N de los n umeros naturales no es un campo, pues no hay un
neutro aditivo. Consideremos ahora el conjunto F = a + b

2: a, b Q.
Entonces Q F R y, ademas, F es un campo. Es claro que si a
1
+ b
1

2
y a
2
+b
2

2 son elementos de F, entonces


(a
1
+b
1

2) + (a
2
+b
2

2) = (a
1
+a
2
) + (b
1
+b
2
)

2
es un elemento de F. Ademas
(a
1
+b
1

2)(a
2
+b
2

2) = a
1
a
2
+a
1
b
2

2 + b
1
a
2

2 +b
1
b
2

2
= (a
1
a
2
+ 2b
1
b
2
) + (a
1
b
2
+b
1
a
2
)

2
tambien es un elemento de F. Esto muestra que tanto la adicion como la
multiplicacion que denimos son cerradas. Naturalmente, dichas operaciones
son asociativas y conmutativas. Tambien es facil ver que la multiplicaci on
es distributiva con respecto a la adicion. Ahora bien, el elemento neutro en
F es el n umero cero. Notemos que 0 F pues 0 = 0 + 0

2. El inverso
aditivo de a +b

2 es a b

2. El neutro multiplicativo es 1, el cual es un


elemento de F, pues 1 = 1 +0

2. Falta mostrar que los elementos diferentes


de cero admiten un inverso multiplicativo. Tomemos entonces un elemento
a + b

2 de F diferente de cero. Si b = 0, entonces a ,= 0, por lo que a


1
es
un inverso multiplicativo de a + b

2. Naturalmente a
1
se encuentra en F,
pues a
1
= a
1
+ 0

2. Supongamos entonces que b ,= 0. Debemos encontrar


dos n umeros reales x y y de modo que
(a +b

2)(x +y

2) = 1.
La ecuacion anterior equivale a escribir
(ax + 2by) + (ay +bx)

2 = 1.
Tenemos entonces que resolver el sistema de ecuaciones
ax + 2by = 1
bx +ay = 0.
Multiplicando la primera ecuacion por b y la segunda por a obtenemos el
sistema de ecuaciones
abx 2b
2
y = b
abx +a
2
y = 0.
4 CAP

ITULO 1. CAMPOS
Sumando ambas ecuaciones obtenemos que (a
2
2b
2
)y = b. Notemos ahora
que a
2
2b
2
= 0 si y solo si a
2
= 2b
2
. Como b es diferente de cero, la igualdad
anterior equivale a escribir
_
a
b
_
2
= 2. En vista de que a y b son racionales,
el cociente
a
b
tambien es irracional. Como no existe un n umero racional cuyo
cuadrado sea igual a dos, deducimos que a
2
2b
2
,= 0. Entonces podemos
dividir la ecuacion (a
2
2b
2
)y = b entre a
2
2b
2
para obtener
y =
b
a
2
2b
2
.
Sustituyendo dicho valor en la ecuacion bx +ay = 0, sucede que
bx = ay =
(a)(b)
a
2
2b
2
=
ab
a
2
2b
2
.
Ahora bien, como b ,= 0, podemos dividir la ecuacion de arriba entre b para
obtener que
x =
a
a
2
2b
2
.
Notemos ahora lo los n umeros
x =
a
a
2
2b
2
y y =
b
a
2
2b
2
son racionales pues, en vista de que a y b son racionales, el denominador
com un de x y y, que es a
2
2b
2
, es un n umero racional. Ademas el inverso
aditivo de un racional es un racional y la division de racionales nos da un
racional. De esta manera, el elemento de F
a
a
2
2b
2
+
b
a
2
2b
2

2
es un inverso multiplicativo de a +b

2. Esto muestra que F es un campo.


El ejemplo anterior nos indica como construir una innidad de campos,
todos ellos contenidos propiamente en R, pues podemos sustituir en la deni-
cion de F el irracional

2 por cualquier irracional de la forma



p, en donde
p es un n umero primo.
Si F y L son campos bajo las mismas operaciones de adicion y multipli-
cacion y L F, entonces decimos que L es un subcampo de F. En particular,
diremos que Q es un subcampo de R y que R es un subcampo de Q. Note-
mos que todos los subcampos de C que hemos dado, contienen a los n umeros
racionales. Esto es un hecho general.
1.1. DEFINICI

ON Y PROPIEDADES ELEMENTALES 5
Teorema 1.2. Todo subcampo de C contiene a Q.
Demostracion. Sean F un subcampo de C y x Q. Entonces x =
m
n
=
m
1
n
, donde m, n Z y n ,= 0. Como F es un campo resulta que 1 F. Luego
2 = 1 + 1 F y, por tanto, 3 = 2 + 1 F. Continuando este procedimiento,
probamos que [m[, [n[ F, en donde [m[ y [n[ denotan los valores absolutos
de m y n, respectivamente. En vista de que los inversos aditivos de elementos
que estan en F son a su vez elementos de F, tenemos que m, n F. Ahora
bien, como n ,= 0 y F es un campo, el inverso multiplicativo de n es un
elemento de F, esto es,
1
n
F. Tenemos entonces que m y
1
n
son elementos
de F. Luego su producto tambien es un elemento de F. Entonces x F. Esto
muestra que Q F.
Consideremos ahora el conjunto Z
2
= 0, 1 con las operaciones de adicion
y multiplicacion modulo dos: 0 + 0 = 0, 0 + 1 = 1 + 0 = 1, 1 + 1 = 0,
0 0 = 0, 0 1 = 1 0 = 0 y 1 1 = 1. Entonces Z
2
es un campo. De manera
similar podemos construir los campos Z
3
, Z
4
, etc. La operaciones de adicion
y multiplicacion en Z
n
= 0, 1, 2, . . . , n 1 se consideran modulo n. Dados
x, y Z
n
para determinar la suma x + y realizamos lo siguiente: primero
sumamos x y y de manera usual y despues dividimos el resultado entre n. El
residuo obtenido sera x + y. De manera similar obtenemos el producto de x
y y. Por ejemplo, si n = 5, entonces Z
5
es el conjunto cuyos elementos son
0, 1, 2, 3 y 4. Para determinar 3 + 4, sumamos primero dichos n umeros en
forma usual, obteniendo como resultado el n umero 7. Luego debemos dividir
7 entre 5. El cociente que se obtiene es 1 y el residuo es 2. Dicho residuo es
la suma buscada. De esta manera, en Z
5
, sucede que 3 + 4 = 2. El producto
usual de 3 y 4 es 12. La division de 12 entre 5 da como cociente 2 y como
residuo 2. El residuo obtenido es el producto de 3 y 4 en Z
5
. As pues 34 = 2.
Ahora veremos una serie de propiedades generales que cumplen los cam-
pos. Si no se menciona explcitamente, supondremos que la letra F denota
un campo. Comenzamos presentando las Leyes de Cancelacion.
Teorema 1.3. Si a, b, c F, entonces
(a) de a +b = c +b se sigue que a = c;
(b) si ab = cb y b ,= 0
F
, entonces a = c.
6 CAP

ITULO 1. CAMPOS
Demostracion. Supongamos que a +b = c +b. Sea d un inverso aditivo de
b. Entonces (a+b) +d = a+(b +d) = a+0
F
= a y (c +b) +d = c +(b +d) =
c+0
F
= c. Ahora bien, como a+b = c+b, sucede que (a+b)+d = (c+b)+d,
de donde a = c. Esto prueba (a). La demostracion de (b) es similar.
Recordemos que todo campo admite dos elementos neutros: el aditivo y
el multiplicativo. En el siguiente teorema mostraremos que dichos elementos
son unicos.
Teorema 1.4. Los elementos neutros de un campo son unicos.
Demostracion. Supongamos que 0

F
es un elemento de F tal que 0

F
+a = a,
para cada a F. Entonces 0

F
+ 0
F
= 0
F
. Como tambien 0
F
+ 0

F
= 0

F
y la
suma es conmutativa, sucede que 0
F
= 0

F
. Esto prueba que el neutro aditivo
0
F
es unico. De manera similar se prueba que el neutro multiplicativo 1
F
es
unico.
Se puede demostrar el Teorema 1.4 utilizando el Teorema 1.3. Para ver
esto supongamos que 0

F
es otro neutro aditivo. Entonces, dada a A, sucede
que 0
F
+ a = a y 0

F
+ a = a. Luego 0

F
+ a = 0
F
+ a y, utilizando la ley de
cancelacion para la adicion, 0

F
= 0
F
. La otra parte se prueba utilizando la
ley de cancelacion para el producto. Ahora demostraremos que los inversos,
el aditivo y el multiplicativo, tambien son unicos.
Teorema 1.5. Los inversos de un campo son unicos.
Demostracion. Supongamos que un elemento a F tiene dos inversos
aditivos. Entonces existen b, c F tales que b ,= c, a + b = 0
F
y a + c = 0
F
.
Por tanto a + b = a + c y, utilizando la ley de cancelacion para la adicion,
sucede que b = c. Como esto es una contradiccion, el elemento a solo posee
un inverso aditivo. De manera similar se prueba que cada elemento de F,
diferente de 0
F
, posee un unico inverso multiplicativo.
En vista del teorema anterior, si a F entonces a solo tiene un inverso
aditivo, el cual denotaremos por a. Si ademas a ,= 0
F
, entonces a posee
solo un inverso multiplicativo, y este lo denotaremos por a
1
. Las notaciones
que hemos establecido son las que estamos acostumbrados a utilizar cuando
los elementos con los que trabajamos son n umeros reales. Notemos que a
es simplemente un smbolo pues, de momento, no hemos denido una ope-
racion de resta en un campo. De manera similar, como no hemos denido
1.1. DEFINICI

ON Y PROPIEDADES ELEMENTALES 7
una operacion de division en un campo, a
1
es solo un smbolo. Mas adelante
deniremos las operaciones de resta y division en un campo.
Notemos que (a) = a y (a
1
)
1
= a. En efecto, (a) es el unico
elemento de F que sumado a a da el neutro aditivo. Como a es un elemen-
to que sumado a a da el neutro aditivo, necesariamente a = (a). De
manera similar se muestra que (a
1
)
1
= a. A continuacion mostramos otras
propiedades.
Teorema 1.6. Si a, b F, entonces
(a) a0
F
= 0
F
,
(b) (a)b = a(b) = (ab),
(c) (a)(b) = ab.
Demostracion. Como 0
F
+0
F
= 0
F
resulta, utilizando la propiedad distri-
butiva, que a0
F
= a(0
F
+ 0
F
) = a0
F
+ a0
F
. Luego 0
F
+ a0
F
= a0
F
+ a0
F
.
Eliminando el termino a0
F
resulta que a0
F
= 0
F
. Esto prueba (a). Para
mostrar (b) notemos que, de acuerdo con (a),
ab + (a)b = [a + (a)]b = 0
F
b = b0
F
= 0
F
.
Entonces (a)b es un inverso aditivo de ab. En vista de que el inverso
aditivo de cada elemento de F es unico, necesariamente (a)b = (ab).
Como
ab +a(b) = a[b + (b)] = a0
F
= 0
F
,
resulta, utilizando de nuevo la unicidad del inverso aditivo, que a(b) =
(ab). Esto prueba (b). Para probar (c) utilizamos dos veces el inciso (b).
En efecto: (a)(b) = [a(b)] = [(ab)] = ab.
En vista de que el producto de cualquier elemento de F por 0
F
es 0
F
, y
de que 0
F
,= 1
F
, el neutro aditivo no puede poseer un inverso multiplicativo.
Utilizando los elementos inversos, es posible hablar de las operaciones de
resta y division en un campo F. Si a, b F entonces a b = a + (b) y, si
b ,= 0
F
, entonces a/b = ab
1
.
Notemos que en Z
2
tenemos que 1 +1 = 0. En Z
3
sucede que 1 +1 +1 =
0. Esto muestra que, en general, en un campo F una suma de la forma
8 CAP

ITULO 1. CAMPOS
1
F
+1
F
+ +1
F
(con p sumandos) puede ser igual a 0
F
, para alg un entero
positivo p. Cuando esto sucede, al entero positivo mas peque no para el cual
una suma de p unos es igual al cero de F, se le llama la caracterstica de
F. Si tal entero positivo no existe, decimos que el campo tiene caracterstica
cero. De esta mamera Z
2
es un campo de caracterstica 2, mientras que Z
3
es un campo de caracterstica 3 y R tiene caracterstica cero. Si F tiene
caracterstica p, con p ,= 0, entonces x +x + +x (p sumandos) es igual al
cero de F, para cada x F. En efecto
x +x + +x = x(1
F
+ 1
F
+ + 1
F
) = x0
F
= 0
F
.
En un campo de caracterstica nita, especialmente de caracterstica dos,
surgen muchos problemas no usuales. Por esta razon, algunos de los resul-
tados sobre espacios vectoriales que enunciaremos en este trabajo, requieren
que el campo sobre el que se dena el espacio vectorial sea de caracterstica
cero o, al menos, de caracterstica diferente de dos. El estudio de los campos,
como estructuras algebraicas, es bastante mas extenso de lo que aqu hemos
presentado. Sin embargo, para lo que necesitamos en un curso de

Algebra
Lineal I, es suciente.
Captulo 2
Espacios Vectoriales
2.1. Denicion y Ejemplos
En los cursos de Geometra Analtica se ha trabajado con los conjuntos
R
2
y R
3
y, ademas, se ha mencionado que sus elementos son vectores que
se pueden sumar, restar y multiplicar por n umeros reales que llamamos es-
calares. Quiza tambien se menciono que dichos conjuntos son ejemplos de
espacios vectoriales. En este captulo veremos la nocion general de espacio
vectorial, daremos ejemplos de ellos as comos las propiedades basicas que
tienen.
Denicion 2.1. Un espacio vectorial sobre un campo F consiste de
un conjunto V en el que estan denidas dos operaciones, llamadas adicion
y multiplicacion por escalares, con las siguientes propiedades:
1) La adicion es cerrada, es decir x + y es un unico elemento de V, para
cada x, y V.
2) La adicion es conmutativa, es decir, x +y = y +x, para cada x, y V.
3) La adicion es asociativa, es decir, (x +y) +z = x + (y +z), para cada
x, y, z V.
4) Existe un neutro aditivo en V, es decir, un elemento 0
V
V tal que
x + 0
V
= x, para cada x V.
5) Existe el inverso aditivo de cada elemento de V, es decir, para cada
x V existe un elemento y V tal que x +y = 0
V
.
9
10 CAP

ITULO 2. ESPACIOS VECTORIALES


6) La multiplicacion por escalares es cerrada, es decir, ax es un unico
elemento de V, para cada a F y cada x V.
7) Para cada x V sucede que 1
F
x = x, en donde 1
F
es el neutro multi-
plicativo de F.
8) Para cada a, b F y cada x V, sucede que (ab)x = a(bx).
9) Para cada a F y cada x, y V, sucede que a(x +y) = ax +ay.
10) Para cada a, b F y cada x V, sucede que (a +b)x = ax +bx.
Al elemento x + y de V se le llama la suma de x y y, mientras que al
elemento ax de V se le conoce como el producto escalar de a y x. Los
elementos de V se llaman vectores y los de F se llaman escalares.
Notemos que las propiedades 1)-5), para espacios vectoriales, son identicas
a las propiedades 1)-5) para campos. Esto implica que las armaciones que
son validas para la suma en un campo, y que se deducen a partir de las
propiedades 1)-5), permanecen validas para la suma en un espacio vectorial,
pues esencialmente no nos interesa como se esta sumando, sino que dicha
suma satisface las propiedades 1)-5). En particular resulta que el neutro
aditivo es unico y, ademas, el inverso aditivo de cada elemento de V es unico.
En vista de que en un espacio vectorial solo hay un inverso, cuando diga-
mos el inverso de x V, entenderemos que nos referimos al inverso aditivo
de x. Ahora bien, en F seguimos teniendo dos elementos inversos, el aditivo
y el multiplicativo, por lo que las expresiones (a)x y (a
1
)x tienen sentido:
la primera es el producto escalar del inverso aditivo de a con x y, la segunda,
el del inverso multiplicativo de a con x. Si denotamos por x al inverso de x
en V, entonces las expresiones (a)(x), (a
1
)(x) y (a
1
)(x) tambien
tienen sentido.
A los espacios vectoriales se les suele llamar espacios lineales. Al elemento
neutro 0
V
se le suele llamar el vector cero. No se debe confundir el uso de
la palabra vector con la entidad que se estudia en Geometra Analtica
(aquella que tiene magnitud, direccion y sentido). Ahora dicha palabra se
utiliza para describir a cualquier elemento de un espacio vectorial. Tampoco
debemos confundir al vector cero en V con el neutro aditivo de F, y mucho
menos con el n umero real cero. Para eso estamos utilizando los subndices:
2.1. DEFINICI

ON Y EJEMPLOS 11
0
F
0
V
denota, por ejemplo, el producto escalar del neutro aditivo 0
F
del cam-
po F con el vector cero, 0
V
, del espacio vectorial, en vista de que el producto
escalar se realiza entre un elemento del campo F y uno de V. Como co-
mentamos en el captulo anterior, en la medida en que vayamos agarrando
conanza, prescindiremos de los subndices. Sin utilizar subndices, el smbolo
00 debe referirse al producto escalar del cero del campo con el cero del espa-
cio vectorial pues, en un espacio vectorial, no hemos denido una operacion
de multiplicaci on entre vectores.
Formalmente deberamos siempre decir que un espacio vectorial es un
objeto de la forma (V, F, +, ) en donde V es un conjunto, F es un campo, +
es una funcion de V V en V y es una funcion FV en V, de tal manera que
las diez propiedades enunciadas en la denicion anterior se cumplen. Con esto
indicamos que, para que un conjunto V sea un espacio vectorial, necesitamos
un campo F y las operaciones binarias + y . Al cambiar alguna de ellas,
estamos entonces hablando de espacios vectoriales distintos, as ambos esten
denidos en el mismo conjunto V. Una vez entendido esto, en la practica
solemos proceder de una forma bastante mas arbitraria: cuando nos referimos
a un espacio vectorial en el que el campo F y las operaciones + y quedan
sobreentendidas, hacemos referencia unicamente al conjunto V. En ocasiones
tambien solemos referirnos al conjunto V y al campo F y, al decir, V es un
espacio vectorial sobre F, entendemos que se pueden denir las operaciones
+ y de modo que se cumplen las diez propiedades de la Denicion 2.1.
A continuacion daremos una serie de ejemplos de espacios vectoriales.
Ejemplo 2.2. El espacio de los n-tuples o de las n-adas. Supon-
gamos que F es un campo y que n N. Entonces F
n
es un espacio vec-
torial sobre F. Los elementos de F
n
, que se llaman n-tuples o n-adas,
tienen la forma (a
1
, a
2
, . . . , a
n
) donde a
i
F, para cada i = 1, 2, . . . , n. Si
(a
1
, a
2
, . . . , a
n
), (b
1
, b
2
, . . . , b
n
) F
n
, entonces (a
1
, a
2
, . . . , a
n
) = (b
1
, b
2
, . . . , b
n
)
si y solo si a
i
= b
i
, para cada i = 1, 2, . . . , n. Si (a
1
, a
2
, . . . , a
n
), (b
1
, b
2
, . . . , b
n
)
F
n
y c F, la adicion y multiplicacion por escalares estan dados por
(a
1
, a
2
, . . . , a
n
) + (b
1
, b
2
, . . . , b
n
) = (a
1
+b
1
, a
2
+b
2
, . . . , a
n
+b
n
)
y
c(a
1
, a
2
, . . . , a
n
) = (ca
1
, ca
2
, . . . , ca
n
).
12 CAP

ITULO 2. ESPACIOS VECTORIALES


No es difcil vericar que las diez propiedades enunciadas en la Denicion
2.1 se cumplen. El vector cero es el n-tuple (0
F
, 0
F
, . . . , 0
F
) y el inverso de
(a
1
, a
2
, . . . , a
n
) es (a
1
, a
2
, . . . , a
n
).
Si F es un campo entonces, como caso particular del ejemplo anterior, F
es un espacio vectorial sobre F. Ahora bien, por conveniencia, los elementos
de F
n
se suelen escribir como vectores columna
_
_
_
a
1
.
.
.
a
n
_
_
_
en lugar de como vectores renglon (a
1
, . . . , a
n
). Mas adelante utilizaremos
esto.
Ejemplo 2.3. El espacio de funciones sobre un campo. Dados un
conjunto no vaco S y un campo F, consideremos el conjunto
T(S, F) = f : S F[ f es una funcion.
Si f, g T(S, F) decimos que f = g si y solo si f(x) = g(x), para cada
x S. El conjunto T(S, F) es un espacio vectorial sobre F. La suma de
los elementos f, g T(S, F) se dene como (f + g)(x) = f(x) + g(x), para
cada x S. Si c F y f T(S, F), la multiplicacion escalar esta dada por
(cf)(x) = cf(x), para cada x S. No es difcil ver que las diez propiedades
de la Denicion 2.1 se cumplen. El vector cero es la funcion que asigna a
cada elemento de S el escalar 0
F
de F. Dado f T(S, F), el inverso de f
es la funcion f : S F denida como (f)(x) = f(x), para cada x S.
Ejemplo 2.4. El espacio de funciones sobre un espacio vectorial.
Dados un conjunto no vaco S y un espacio vectorial W sobre el campo F,
consideremos el conjunto
T(S, W) = f : S W[ f es una funcion.
Como en el ejemplo anterior, si f, g T(S, W), decimos que f = g si y solo
si f(x) = g(x), para cada x S. El conjunto T(S, W) es un espacio vectorial
sobre el campo F. La suma de los elementos f, g T(S, W) se dene de modo
que (f + g)(x) = f(x) + g(x), para cada x S. Si c F y f T(S, W), la
multiplicacion escalar esta dada por (cf)(x) = cf(x), para cada x S. Como
2.1. DEFINICI

ON Y EJEMPLOS 13
en el ejemplo anterior, las diez propiedades de la Denicion 2.1 se cumplen.
Como caso particular, si V es un espacio vectorial sobre el campo F, entonces
el conjunto
T(V, W) = f : V W[ f es una funcion
tambien es un espacio vectorial sobre el campo F. El conjunto T(V, W)
sera imuy mportante en el Captulo 4. Notemos que el hecho de que T(V, W)
sea un espacio vectorial sobre el campo F, depende solamente de que W es
un espacio vectorial sobre F.
El primer ejemplo es un caso particular del segundo, pues un n-tuple en
F se puede considerar como una funcion del conjunto S = 1, 2, . . . , n en F
(en donde el orden importa, pero a n de cuentas, como una funcion de S en
F). Ademas, el segundo ejemplo es un caso particular del tercero, pues todo
campo F es un espacio vectorial sobre el campo F.
En el siguiente ejemplo veremos el espacio de los polinomios sobre un
campo. En un curso de

Algebra Superior II se estudia la denicion formal de
un polinomio sobre un campo F. A saber, dichos polinomios son sucesiones
de elementos en F en las que casi todos sus elementos son iguales a cero
(esto es, todos son iguales a cero, salvo un n umero nito de ellos). Tambien
en dicho curso se indica la denicion formal de la indeterminada x, as como
la manera de sumar y multiplicar polinomios, justicando con ello el smbolo
ax
n
, para cada a F y cada n N. Ademas se formaliza lo que signica
evaluar un polinomio en un elemento del campo F. Todo esto se hace para
justicar la manera usual de considerar a un polinomio, la que aprendimos en
la secundaria, as como para justicar la manera usual de sumar polinomios,
multiplicar polinomios y evaluar un polinomio en un elemento de F. Para un
curso de

Algebra Lineal I, basta con referirse a dichas maneras usuales.
Ejemplo 2.5. El espacio de los polinomios. Dado un campo F, decimos
que un polinomio sobre F es una expresion de la forma
f(x) = a
n
x
n
+a
n1
x
n1
+ +a
1
x +a
0
donde n es un entero no negativo y a
n
, . . . , a
0
, llamados los coecientes
de f(x), son elementos de F. Si a
n
= a
n1
= a
1
= a
0
= 0
F
, entonces
el polinomio obtenido con dichos coecientes se llama el polinomio cero.
Decimos que dicho polinomio tiene grado 1, mientras que el grado de un
14 CAP

ITULO 2. ESPACIOS VECTORIALES


polinomio diferente del polinomio cero, se dene como el mayor exponente
de x que aparece en la representacion
f(x) = a
n
x
n
+a
n1
x
n1
+ +a
1
x +a
0
(2.1.1)
correspondiente a un coeciente no nulo. Los polinomios de grado cero son
de la forma f(x) = c, donde c es un elemento no nulo de F. Decimos que dos
polinomios son iguales si y solo si tienen el mismo grado y los coecientes
de potencias iguales son iguales. Informalmente solemos considerar que un
polinomio en F es una funcion f de F en F de la forma (2.1.1). Tambien,
de manera informal, si c F el valor de la funcion f en c es el escalar
f(c) = a
n
c
n
+a
n1
c
n1
+ +a
1
c +a
0
. (2.1.2)
Sea P(F) el conjunto de todos los polinomios sobre F. Entonces P(F) es
un espacio vectorial sobre F. La suma y el producto por escalares quedan
denidos como en el Ejemplo 2.3.
Cuando se dene de manera formal lo que es un polinomio sobre un campo
F, el termino x, llamado la indeterminada, resulta ser un elemento que no
se encuentra en F. Por consiguiente, al considerar que f es una funcion de
F en F de la forma (2.1.1), podramos caer en el error de pensar que x
es un elemento de F. Sin embargo, como mencionamos anteriormente, nos
vamos a dejar llevar por la fuerza de la costumbre: un polinomio sobre F
es una expresion de la forma (2.1.1), en donde la letra x es una variable
que no conocemos pero a la que le podemos asignar valores en el campo F,
obteniendo as f(c) como en (2.1.2).
Ejemplo 2.6. El espacio de las sucesiones nitas. Si F es un campo
decimos que una sucesion en F es una funcion : N F. Si (n) = a
n
para n N, entonces a la sucesion en F la solemos denotar por (a
n
)
n
.
Dos sucesiones (a
n
)
n
y (b
n
)
n
en F son iguales si y solo si a
n
= b
n
, para
cada n N. Decimos que (a
n
)
n
es una sucesion nita y no nula en F si
solamente un n umero nito de terminos son no nulos, es decir son diferentes
de 0
F
. Sea V el conjunto de las sucesiones nitas y no nulas en F. Entonces
V es un espacio vectorial sobre F. La suma en V queda como sigue: si (a
n
)
n
y (b
n
)
n
son elementos de V, denimos (a
n
)
n
+ (b
n
)
n
como la sucesion (c
n
)
n
tal que c
n
= a
n
+ b
n
, para cada n N. Si t F denimos t(a
n
)
n
como
la sucesion (d
n
)
n
tal que d
n
= ta
n
, para cada n N. El vector cero es la
2.1. DEFINICI

ON Y EJEMPLOS 15
sucesion (a
n
)
n
, en donde a
n
= 0
F
, para cada n N. Dicha sucesion es un
elemento de V, pues tiene cero terminos no nulos. El inverso de la sucesion
(b
n
)
n
en V es la sucesion (c
n
)
n
en donde c
n
= b
n
, para cada n N.
En el curso de

Algebra Superior II tambien se formaliza el conjunto C
de los n umeros complejos. A saber, C es el conjunto R
2
con dos operaciones
especiales de adicion y multiplicaci on que lo hacen un campo. Tambien en
dicho curso se dice que i = (0, 1) y se explica en que sentido se entiende que
R es un subconjunto de C. Como en el caso de los polinomios, esto se hace
para justicar las cosas que estamos acostumbrados a utilizar. Como este es
un curso de

Algebra Lineal I, procederemos como estamos acostumbrados.
Esto es, supondremos que R C y que los elementos de C son de la forma
a +ib, en donde a, b R y, ademas, i =

1.
Ejemplo 2.7. El conjunto de los n umeros complejos. El conjunto C
de los n umeros complejos es un espacio vectorial sobre R. Inclusive C es un
espacio vectorial sobre C, pues C es un campo (recordemos que todo campo
es un espacio vectorial sobre s mismo). Ahora bien, para n N, R
n
es un
espacio vectorial sobre R. Sin embargo, R
n
no es un espacio vectorial sobre
C. Notemos que C
n
es un espacio vectorial sobre R y sobre C. En todos estos
casos, entendemos que la adicion y la multiplicacion escalar considerados son
las usuales, esto es, las que se denen en el Ejemplo 2.2.
Si alteramos las formulas usuales de adicion y/o multiplicacion escalar,
podemos obtener conjuntos que ya no son espacios vectoriales. Por ejemplo,
consideremos en R
2
la siguiente manera de sumar y multiplicar por escalares
en R:
(a
1
, a
2
) + (b
1
, b
2
) = (a
1
+b
1
, a
2
b
2
) y c(a
1
, a
2
) = (ca
1
, ca
2
).
Entonces (b
1
, b
2
)+(a
1
, a
2
) = (a
1
+b
1
, b
2
a
2
). En vista de que los terminos
a
2
b
2
y b
2
a
2
no necesariamente son iguales, la suma no es conmutativa.
Luego R
2
no es un espacio vectorial sobre R, para esa adicion y esa multi-
plicacion escalar. Ahora sumemos y multipliquemos por escalares en R como
sigue:
(a
1
, a
2
) + (b
1
, b
2
) = (a
1
+b
1
, 0) y c(a
1
, a
2
) = (ca
1
, 0).
En este caso la suma es conmutativa y asociativa, pero no existe un ele-
mento neutro. Por tanto R
2
no es un espacio vectorial sobre R, para esa
16 CAP

ITULO 2. ESPACIOS VECTORIALES


adicion y esa multiplicaci on escalar. Lo anterior ejemplica lo que ya comen-
tamos: un conjunto, por s solo, no es un espacio vectorial. Lo que hace a un
conjunto un espacio vectorial es la manera en como se denen la adicion y la
multiplicacion por los escalares del campo considerado.
2.2. Propiedades Fundamentales
En la presente seccion mostraremos una serie de propiedades que poseen
todos los espacios vectoriales.

Estas son similares a las que se tienen en los
campos. Como ya hicimos ver, el vector cero es unico as como el inverso de
cada elemento de V. A continuaci on enunciamos esto como un teorema.
Teorema 2.8. El vector cero es unico y cada elemento de V posee un unico
inverso.
Recordemos que el inverso aditivo de x V se denota por x. Notemos
que (x) = x. La prueba de esto es identica a la que dimos en el captulo
anterior. Ahora presentamos la ley de la cancelacion para la suma. Durante
esta seccion, pensaremos que V es un espacio vectorial sobre el campo F.
Como se puede vericar, los resultados que enunciaremos no dependen de la
caracterstica de F.
Teorema 2.9. Si x, y, z V son tales que x +z = y +z, entonces x = y.
Demostracion. x = x + 0
V
= x + [z + (z)] = (x +z) + (z) = (y +z) +
(z) = y + [z + (z)] = y + 0
V
= y.
Que sucede ahora con una posible ley de cancelacion para el producto
por escalares? Tal ley en realidad tendra dos modalidades, dependiendo de
si queremos cancelar los elementos de F o bien los de V. Tomemos a, b F
y x V de modo que ax = bx. Se deduce que a = b? Supongamos ahora
que a F y que x, y V son tales que ax = ay. Se deduce que x = y?
Para responder dichas preguntas mostraremos primero que, en un espacio
vectorial, se tienen propiedades similares a las enunciadas en el Teorema 1.6.
En vista de que en un espacio vectorial sobre el campo F solo existe el
neutro aditivo, por lo general escribiremos 1 en lugar de 1
F
, para referirnos
al neutro multiplicativo en el campo F.
2.2. PROPIEDADES FUNDAMENTALES 17
Teorema 2.10. Si V es un espacio vectorial sobre F, entonces
(a) 0
F
x = 0
V
, para cada x V.
(b) (a)x = (ax), para cada a F y cada x V.
(c) (1)x = x.
(d) a0
V
= 0
V
, para cada a F.
(e) ax = 0
V
si y solo si a = 0
F
o bien x = 0
V
.
Demostracion. Notemos que
0
F
x + 0
F
x = (0
F
+ 0
F
)x = 0
F
x = 0
V
+ 0
F
x.
Cancelando el termino com un 0
F
x, obtenemos que 0
F
x = 0
V
. Esto prueba
(a). Para probar (b) notemos que, de acuerdo a la ley distributiva y a lo que
ya probamos en (a):
ax + (a)x = [a + (a)]x = 0
F
x = 0
V
.
Esto muestra que (a)x es un inverso de ax. Como el inverso de ax es unico,
necesariamente, (a)x = (ax). Esto prueba (b). La armacion (c) es un
caso particular de (b), pues 1x = x. Para probar (d) notemos que
0
V
+a0
V
= a0
V
= a(0
V
+ 0
V
) = a0
V
+a0
V
.
Cancelando el termino com un a0
V
, obtenemos que a0
V
= 0
V
. Para probar
(e) supongamos primero que a = 0
F
o bien x = 0
V
. Entonces, utilizando (a) o
(d) seg un convenga, sucede que ax = 0
V
. Supongamos ahora que ax = 0
V
. Si
a ,= 0
F
, entonces a posee un inverso multiplicativo a
1
F. Luego a
1
(ax) =
a
1
0
V
= 0
V
, de acuerdo con (d). Ahora bien, a
1
(ax) = (a
1
a)x = 1x = x.
Entonces x = 0
V
. Esto muestra que si ax = 0
V
, entonces a = 0
F
o bien
x = 0
V
con lo que la prueba de (e) concluye.
De acuerdo con la parte (a) del teorema anterior, 0
F
0
V
= 0
V
. Regresemos
ahora al problema de una posible ley de cancelacion para el producto escalar.
De ax = bx no se sigue que a = b. Para ver esto supongamos que x = 0
V
.
Entonces, por la parte (d) del teorema anterior, ax = 0
V
= bx. Puesto
que todo campo tiene al menos dos elementos (el neutro aditivo y el neutro
18 CAP

ITULO 2. ESPACIOS VECTORIALES


multiplicativo), podemos tomar a y b diferentes. Por otra parte, si V tiene
por lo menos dos elementos, entonces de ax = ay no se sigue que x = y. Para
esto basta con tomar a = 0
F
y suponer que x y y son elementos distintos de
V. Por la parte (a) del teorema anterior, como a = 0
F
, sucede que ax = ay.
Notemos que, a diferencia de los campos, los espacios vectoriales pueden
ser degenerados, esto es, pueden poseer un unico elemento. Supongamos que
V = z y que denimos z + z = z y cz = z para cada c F, donde F es
un campo. Entonces V es un espacio vectorial sobre F y + y son las unicas
operaciones de suma y multiplicaci on escalar que se pueden denir, de modo
que V sea un espacio vectorial sobre F. Naturalmente 0
V
= z. En este caso
es obviamente cierto que ax = ay implica x = y. Por tanto, es valida una
ley de cancelacion para el producto escalar, en vista de que V es degenerado.
Para espacios vectoriales no degenerados, no hay leyes de cancelacion para
el producto escalar, como hicimos ver en el parrafo anterior. En adelante, si
el espacio vectorial V es degenerado, escribiremos que V = 0
V
.
Si V es un espacio vectorial sobre el campo F y x, y V, entonces la
diferencia de x y y se dene como x y = x + (y). Si F = R entonces
solemos decir que V es un espacio vectorial real. Si F = C, entonces decimos
que V es un espacio vectorial complejo. En otras palabras, un espacio vectorial
se llama espacio vectorial real, si el campo en donde se toman los escalares es
el conjunto de los n umeros reales. De la misma manera, un espacio vectorial
complejo, es un espacio vectorial en el que el campo en donde se toman los
escalares es el conjunto de los n umeros complejos.
2.3. Ejercicios
1. Una funcion de valor real denida sobre la recta real es par si f(x) =
f(x), para cada real x. Muestra que el conjunto de las funciones pares
de valor real y denidas sobre la recta real, es un espacio vectorial real,
con las operaciones usuales de suma y multiplicaci on por escalares.
2. Sea V = (a
1
, a
2
): a
1
, a
2
R. Denimos una suma y un producto
escalar como sigue: (a
1
, a
2
) + (b
1
, b
2
) = (a
1
+b
1
, a
2
+b
2
) y, para c R,
c(a
1
, a
2
) =
_
(0, 0), si c = 0;
_
ca
1
,
a
2
c
_
, si c ,= 0.
2.4. SUBESPACIOS VECTORIALES 19
Es V un espacio vectorial real bajo estas operaciones? Es V un es-
pacio vectorial complejo? Justica tu respuesta.
3. Sea V = (a
1
, a
2
): a
1
, a
2
C. Denimos una suma y un producto
escalar como sigue: (a
1
, a
2
) +(b
1
, b
2
) = (a
1
+2b
1
, a
2
+3b
2
) y c(a
1
, a
2
) =
(ca
1
, ca
2
). Es V un espacio vectorial complejo bajo estas operaciones?
Justica tu respuesta.
4. Consideremos en R
n
las operaciones y denidas como sigue: xy =
x y y c x = cx, donde c R. Que axiomas de espacio vectorial
se cumplen para (R
n
, R, , )?
5. Sea V = f : R C[ f es una funcion tal que f(t) = f(t). La barra
indica la conjugacion compleja. Esto es, si z = a + ib es un n umero
complejo, entonces z = a ib. Denamos en V las operaciones usuales
de suma y multiplicaci on escalar, o sea (f + g)(t) = f(t) + g(t) y
(cf)(t) = cf(t), para cada t R. Demuestra que V es un espacio
vectorial real. Exite un elemento f V que no tome valores reales?
Justica tu respuesta.
2.4. Subespacios Vectoriales
2.4.1. Denicion y Caracterizacion
En la presente seccion estudiaremos subconjuntos de un espacio vectorial
que a la vez son espacios vectoriales. Mas precisamente tenemos la siguiente
denicion.
Denicion 2.11. Un subconjunto W de un espacio vectorial V sobre un
campo F, es un subespacio de V si W es un espacio vectorial sobre F, bajo
las operaciones de suma y multiplicacion por escalares denidas en V.
De acuerdo con la denicion anterior, aunque Z
2
es un subconjunto de
R, resulta que Z
2
no es un subespacio de R, pues la suma en Z
2
no es igual
a la suma en R. En Z
2
tenemos, por ejemplo, que 1 + 1 = 0, mientras que
en R sabemos que 1 + 1 = 2. Lo anterior muestra que ser un subconjunto
de un espacio vectorial, puede ser muy distinto a ser un subespacio de dicho
espacio vectorial.
20 CAP

ITULO 2. ESPACIOS VECTORIALES


Notemos que si W es un subconjunto de un espacio vectorial V sobre un
campo F, entonces los elementos de W siempre satisfacen las propiedades de
conmutatividad y asociatividad, ademas de las propiedades 7), 8), 9) y 10)
de la Denicion 2.1. Esto signica que, en un principio, para que el subcon-
junto W de V sea un subespacio de V, necesitamos vericar unicamente las
siguientes propiedades:
1) x +y W, siempre que x, y W;
2) ax W, siempre que a F y x W;
3) el vector cero de V pertenece a W;
4) el inverso de cada elemento de W pertenece a W.
En realidad las cosas se pueden simplicar pues, como se muestra en el
siguiente resultado, la condicion 4) es redundante.
Teorema 2.12. Sean V un espacio vectorial sobre un campo F y W un
subconjunto de V. Entonces W es un subespacio de V si y solo si se satisfacen
las siguientes propiedades:
(a) 0
V
W;
(b) x +y W, siempre que x, y W;
(c) ax W, siempre que a F y x W;
Demostracion. Supongamos que W es un subespacio de V. Entonces W
es un espacio vectorial bajo las operaciones de suma y multiplicacion escalar
denidas en V. Por tanto las propiedades (b) y (c) se cumplen. Ademas existe
un vector cero en W, el cual denotaremos por 0
W
. Dada x W tenemos que
x + 0
W
= x y x + 0
V
= x. Luego x + 0
W
= x + 0
V
y, cancelando x, sucede
que 0
W
= 0
V
. Entonces (a) se cumple.
Supongamos ahora que W es un subconjunto de V que satisface las
propiedades (a), (b) y (c). Para que W sea un subespacio de V basta con
probar que el inverso aditivo de cada elemento de W pertenece a W. Tomem-
os por tanto un elemento x W. Entonces, por (c), (1)x W. Ahora bien,
por la parte (c) del Teorema 2.10 tenemos que (1)x = x. Luego x W
y la prueba termina.
2.4. SUBESPACIOS VECTORIALES 21
Supongamos que V es un espacio vectorial y que W es un subconjunto de
V con las condiciones (b) y (c) del teorema anterior. Supongamos, ademas,
que la condicion (a) de dicho teorema es reemplazada por la condicion: W ,=
. Entonces podemos tomar un elemento x W. Como la condicion (c)
se cumple, (1)x W, de donde x W. En vista de que la condicion
(b) tambien se cumple, sucede que x + (x) W. Luego 0
V
W y, por
tanto, la condicion (a) se cumple. Por consiguiente W es un subespacio de
V. Lo anterior indica que, para determinar si W es un subespacio de V, no
es necesario que siempre veriquemos que 0
V
es un elemento de W, sino que
en W hay al menos un elemento y que luego las condiciones (b) y (c) del
teorema anterior se cumplen. Podemos simplicar a un mas las cosas, seg un
se indica en el siguiente resultado.
Teorema 2.13. Sean V un espacio vectorial sobre un campo F y W un
subconjunto no vaco de V. Entonces W es un subespacio de V si y solo si
para cada x, y W y cada c F resulta que cx +y W.
Demostracion. Supongamos primero que W es un subconjunto no vaco de
V tal que cx + y W, para cada x, y W y cada c F. Como vimos en
el parrafo anterior, del hecho de que W sea no vaco se sigue que 0
V
F.
Entonces W satisface la condicion (a) del teorema anterior. Supongamos
ahora que x, y W. Como 1 F tenemos que 1x + y F, o sea, x + y F,
por lo que la condicion (b) tambien se cumple. Supongamos, por ultimo, que
c F y x W. Como 0
V
W sucede que cx = cx + 0
V
W, as que la
propiedad (c) tambien se cumple. Por consiguiente, W es un subespacio de
V. Supongamos ahora que W es un subespacio de V. Sean x, y W y c X.
Por la propiedad (c) del teorema anterior cx W y, por la propiedad (b),
cx +y W. Esto termina la prueba.
Recordemos que P(F) es el conjunto de todos los polinomios sobre F.
Supongamos que n es un entero no negativo y consideremos el conjunto
P
n
(F) de los polinomios sobre F que tienen grado menor o igual a n. El
polinomio nulo es un elemento de P
n
(F) pues su grado es 1. Ademas es
facil vericar que cf + g P
n
(F) para cada f, g P
n
(F) y cada c F. Por
tanto P
n
(F) es un subespacio de P(F). En R
2
cualquier recta que pasa por
el origen es un subespacio de R
2
. En R
3
tanto las rectas que pasan por el
origen como los planos que pasan por el origen son subespacios de R
3
.
22 CAP

ITULO 2. ESPACIOS VECTORIALES


2.4.2. Propiedades de Subespacios
En la subseccion anterior hemos visto un par de criterios, bajo los cuales,
podemos determinar si un subconjunto W de un espacio vectorial V es un
subespacio de V. En la presente subseccion mostraremos algunas propiedades
que poseen los subespacios. Notemos que si V es un espacio vectorial, en-
tonces V es un subespacio de V. Ademas el conjunto 0
V
es un subespacio
de V. Esto muestra que todo espacio vectorial nodegenerado tiene al menos
dos subespacios vectoriales, los cuales se llaman subespacios triviales. Un
subespacio de V diferente de V y de 0
V
se llama subespacio propio de V.
Los subespacios propios de R
2
son las rectas que pasan por el origen, mien-
tras que los subespacios propios de R
3
son las rectas y los planos que pasan
por el origen.
Estamos ahora interesados en determinar metodos para formar subespa-
cios a partir de otros subespacios. Por ejemplo, saber si la union y la intersec-
cion de dos subespacios es un subespacio. En el siguiente teorema resolvemos
el problema de la intersecci on.
Teorema 2.14. Cualquier interseccion de subespacios de un espacio vectorial
V es un subespacio de V.
Demostracion. Supongamos que W

es una coleccion de subespacios de


V. Sea W =

. Como cada espacio W

contiene al vector nulo, sucede


que 0
V
W. Supongamos ahora que x, y W y que c F. Entonces
x, y W

para cada . Luego, como W

es un subespacio, por el Teorema


2.13, sucede que cx+y W

. En vista de que lo anterior es cierto para cada


, tenemos que cx +y W. Luego, W es un subespacio de V.
Consideremos ahora el problema de si la union de subespacios de V es
un subespacio de V. Supongamos, por tanto, que W
1
y W
2
son subespacios
de V. Entonces 0
V
W
1
W
1
W
2
. Por tanto, 0
V
W
1
W
2
. Supongamos
ahora que x W
1
W
2
y a F. Si x W
1
, entonces ax W
1
pues W
1
es un
subespacio de V. Similarmente si x W
2
, entonces ax W
2
. En cualquier
situacion sucede que ax W
1
W
2
. Por tanto, para vericar si W
1
W
2
es
un subespacio de V basta determinar, de acuerdo con el Teorema 2.12, si la
suma de elementos de W
1
W
2
es un elemento de W
1
W
2
. En realidad esto
es algo que bien puede no suceder, como se muestra en el siguiente resultado.
2.4. SUBESPACIOS VECTORIALES 23
Teorema 2.15. Supongamos que W
1
y W
2
son subespacios de V. Entonces
W
1
W
2
es un subespacio de V si y solo si W
1
y W
2
son comparables, esto
es, si y solo si W
1
W
2
o bien W
2
W
1
.
Demostracion. Si W
1
y W
2
son comparables entonces su union es alguno
de W
1
y W
2
, por lo que es un subespacio de V. Supongamos ahora que
W
1
W
2
es un subespacio de V. Si W
1
y W
2
no son comparables, entonces
existen elementos x W
1
W
2
y y W
2
W
1
. En vista de que W
1
y W
2
son
subespacios, tenemos que x W
1
y y W
2
. Como x, y W
1
W
2
y dicho
conjunto es un subespacio, resulta que x + y W
1
W
2
. Supongamos que
x+y W
1
. Entonces x+(x+y) W
1
o, lo que es lo mismo, y W
1
. Esto
es un contradicci on. Por tanto x + y W
2
. Pero entonces (x + y) + (y)
W
2
, de donde x W
2
. Esto tambien es un absurdo. Luego, W
1
y W
2
son
comparables.
De acuerdo con el teorema anterior, si W
1
y W
2
son subespacios no com-
parables de V, entonces W
1
W
2
no es un subespacio de V. En cierto modo
lo anterior ya lo intuamos pues, por ejemplo, la union en R
2
del eje x con el
eje y no es una recta que pasa por el origen y, por consiguiente, tampoco un
subespacio de R
2
.
2.4.3. Suma y Suma Directa
Como la union de subespacios no siempre es un subespacio, es normal
pensar que debera existir un manera de combinar los subespacios W
1
y
W
2
de V, para obtener un subespacio que contenga a W
1
W
2
, sin que
necesariamente sea todo V. La clave esta en el hecho de que este subespacio
debe ser cerrado bajo la adicion. En la siguiente denicion mostraremos como
realizar lo anterior.
Denicion 2.16. Sean S
1
y S
2
dos subconjuntos no vacos de un espacio
vectorial V. La suma de S
1
y S
2
, que se denota por S
1
+S
2
, es el conjunto
S
1
+S
2
= x +y : x S
1
y y S
2
.
As pues, un elemento v V se encuentra en S
1
+S
2
si v se puede escribir
como la suma de un elemento en S
1
con uno en S
2
. La suma de una cantidad
nita de subconjuntos no vacos S
1
, S
2
, . . . , S
n
de V se dene de manera
similar, a saber:
S
1
+S
2
+ +S
n
= x
1
+x
2
+ +x
n
: x
i
S
i
para cada i = 1, 2, . . . , n.
24 CAP

ITULO 2. ESPACIOS VECTORIALES


En el siguiente resultado mostramos que la suma de dos subespacios de V es
un subespacio de V.
Teorema 2.17. Si W
1
y W
2
son subespacios de un espacio vectorial V, en-
tonces W
1
+W
2
es un subespacio de V.
Demostracion. Como 0
V
W
1
W
2
, resulta que 0
V
= 0
V
+0
V
W
1
+W
2
.
Supongamos ahora que x, y W
1
+ W
2
y c F. Entonces x = x
1
+ x
2
y
y = y
1
+y
2
, en donde x
1
, y
1
W
1
y x
2
, y
2
W
2
. Luego
cx +y = c(x
1
+x
2
) +y
1
+y
2
= (cx
1
+y
1
) + (cx
2
+y
2
).
Como W
1
y W
2
son subespacios resulta, por el Teorema 2.13, que cx
1
+y
1

W
1
y cx
2
+y
2
W
2
. Luego cx+y W
1
+W
2
. Esto muestra, de nueva cuenta
por el Teorema 2.13, que W
1
+W
2
es un subespacio de V.
Corolario 2.18. La suma de cualquier n umero nito de subespacios de V
es un subespacio de V.
Notemos que la suma de un n umero nito de subespacios W
1
, W
2
, . . . , W
n
de V contiene a cada uno de ellos. En efecto, dada i 1, 2, . . . , n y x W
i
resulta que x = x + 0
V
+ 0
V
+ + 0
V
(n sumandos), por lo que x
W
1
+W
2
+ +W
n
. Luego W
i
W
1
+W
2
+ +W
n
as que
W
1
W
2
W
n
W
1
+W
2
+ +W
n
.
De acuerdo con lo anterior, la suma W
1
+ W
2
de los subespacios W
1
y W
2
de V, es un subespacio de V que contiene a la union W
1
W
2
. Mas adelante
veremos que W
1
+ W
2
es, de hecho, el subespacio de V mas peque no que
contiene a W
1
W
2
. Por tanto, no necesariamente W
1
+ W
2
es igual a V, el
cual obviamente es un subespacio de V que contiene a W
1
W
2
.
En la siguiente denicion presentamos una clase especial de suma de su-
bespacios.
Denicion 2.19. Decimos que un espacio vectorial V es la suma directa
de W
1
y W
2
y escribimos V = W
1
W
2
, si W
1
y W
2
son subespacios de V
tales que W
1
+W
2
= V y W
1
W
2
= 0
V
.
Por ejemplo, en R
2
con las operaciones usuales de suma y producto es-
calar, si W
1
= (x, 0): x R y W
2
= (0, y): y R, entonces W
1
y W
2
2.4. SUBESPACIOS VECTORIALES 25
son subespacios de R
2
(son el eje x y el eje y, respectivamente). Ademas
W
1
W
2
= (0, 0) y R
2
= W
1
+W
2
. Por tanto R
2
es la suma directa del eje
x y el eje y.
El espacio vectorial T(R, R) de las funciones de R en R tambien se puede
escribir como una suma directa. Recordemos primero que una funcion f : R
R es par si f(x) = f(x), para cada x R. Decimos que f es impar si
f(x) = f(x), para cada x R. Supongamos que
W
1
= f T(R, R): f es par y W
2
= f T(R, R): f es impar.
Notemos que la funcion cero, que denotaremos por 0
f
, es tanto par como
impar. Luego W
1
,= y W
2
,= . Ademas si f es par e impar, entonces
f(x) = f(x) = f(x) por lo que f(x) = 0, para cada x R. Luego f es la
funcion cero. Esto muestra que W
1
W
2
= 0
f
. Es claro que W
1
+ W
2

T(R, R). Para mostrar la otra contenci on, tomemos un elemento f T(R, R)
y denamos g, h T(R, R) como sigue:
g(x) =
1
2
[f(x) +f(x)] y h(x) =
1
2
[f(x) f(x)],
para cada x R. Notemos que g(x) =
1
2
[f(x) + f(x)] = g(x) mientras
que h(x) =
1
2
[f(x) f(x)] = h(x), para cada x R. Luego g es par y
h es impar. Ademas
g(x) + h(x) =
f(x) +f(x) +f(x) f(x)
2
=
2f(x)
2
= f(x)
por lo que T(R, R) W
1
+ W
2
. Por tanto T(R, R) = W
1
+ W
2
. Resta
probar que W
1
y W
2
son subespacios de T(R, R). Como ya hemos visto,
dichos conjuntos son no vacos. Consideremos ahora f, g W
1
y c F.
Entonces (cf +g)(x) = cf(x) +g(x) = cf(x) +g(x) = (cf +g)(x) por
lo que cf + g W
1
. Esto muestra que W
1
es un subespacio de T(R, R). De
manera similar se prueba que W
2
es un subespacio de T(R, R). Por tanto
T(R, R) = W
1
W
2
.
Supongamos ahora que V es un espacio vectorial tal que V = W
1
+ W
2
,
para alg un par de subespacios W
1
y W
2
de V. Entonces, por denicion, cada
elemento de V se escribe como la suma de un elemento de W
1
con uno de
W
2
. Es decir, si v V, entonces existen w
1
W
1
y w
2
W
2
tales que
26 CAP

ITULO 2. ESPACIOS VECTORIALES


v = w
1
+ w
2
. Bien pueden existir otro par de elementos a
1
W
1
y a
2
W
2
tales que v = a
1
+ a
2
. En otras palabras, la manera de escribir a v como la
suma de un elemento de W
1
con uno de W
2
puede no ser unica. Para mostrar
esto, consideremos los conjuntos
W
1
= (x, y, z) R
3
: z = 0 y W
2
= (x, y, z) R
3
: x = 0.
Entonces R
3
= W
1
+W
2
. Mas a un, para cada c R sucede que
(x, y, z) = (x, y +c, 0) + (0, c, z)
es una representaci on de (x, y, z) como la suma de (x, y + c, 0) W
1
con
(0, c, z) W
2
. Como c puede tomar cualquier valor en R, la representaci on
anterior no es unica. En el siguiente resultado mostramos que, cuando V es
la suma directa de dos de sus subespacios, entonces la representaci on de la
que hablamos es unica. Recordemos que xy = x+(y), para cualesquiera
dos elementos x y y de un espacio vectorial.
Teorema 2.20. Sean W
1
y W
2
dos subespacios de un espacio vectorial V.
Entonces V = W
1
W
2
si y solo si cada elemento de V puede ser escrito de
manera unica como la suma de un vector en W
1
con uno en W
2
.
Demostracion. Supongamos primero que V = W
1
W
2
. Como V = W
1
+
W
2
, cada elemento de V puede ser escrito como la suma de un vector en W
1
con uno en W
2
. Para probar la unicidad de tal representacion supongamos,
por el contrario, que existe un elemento z V tal que z = x
1
+ x
2
y z =
y
1
+ y
2
, en donde x
1
, y
1
W
1
y x
2
, y
2
W
2
. Entonces x
1
+ x
2
= y
1
+ y
2
, de
donde x
1
y
1
= y
2
x
2
. En vista de que W
1
y W
2
son subespacios, resulta
que x
1
y
1
W
1
y y
2
x
2
W
2
. Como dichos elementos son iguales y
W
1
W
2
= 0
V
, sucede que x
1
y
1
= 0
V
= y
2
x
2
. Luego x
1
= y
1
y
x
2
= y
2
. Esto muestra la unicidad de la representaci on de z como la suma de
un elemento de W
1
con uno de W
2
.
Supongamos ahora que cada elemento de V puede ser escrito de manera
unica como la suma de un elemento de W
1
con uno de W
2
. Entonces, en
particular, V = W
1
+ W
2
. Resta probar que W
1
W
2
= 0
V
. Para tal
efecto tomemos un elemento z W
1
W
2
. Como z = 0
V
+ z = z + 0
V
y
0
V
, z W
1
W
2
resulta, por la unicidad de las representaciones, que 0
V
= z.
Entonces W
1
W
2
= 0
V
y, as, V = W
1
W
2
.
2.5. EJERCICIOS 27
2.5. Ejercicios
Los ultimos dos ejercicios muestran la manera en como podemos consid-
erar la multiplicacion y la division entre espacios vectoriales denidos sobre
el mismo campo. Por tanto, y esto dicho de manera un tanto informal, es
posible sumar, multiplicar y dividir espacios vectoriales denidos sobre el
mismo campo.
1. Muestra que W
1
= (a
1
, a
2
, . . . , a
n
) F
n
: a
1
+a
2
+ +a
n
= 0
F
es un
subespacio de F
n
y que W
2
= (a
1
, a
2
, . . . , a
n
) F
n
: a
1
+a
2
+ +a
n
=
1
F
no es un subespacio de F
n
.
2. Verica que para cualquier punto s
0
S, el conjunto W = f
T(S, F): f(s
0
) = 0
F
es un subespacio de T(S, F).
3. Muestra que si W
1
= (a
1
, a
2
, . . . , a
n
) F
n
: a
n
= 0
F
y W
2
=
(a
1
, a
2
, . . . , a
n
) F
n
: a
1
= a
2
= = a
n1
= 0
F
, entonces F
n
es la suma directa de W
1
y W
2
.
4. Consideremos el espacio vectorial P(F) de los polinomios sobre el cam-
po F. Denotemos por 0
P
al polinomio cero. Sea W
1
el conjunto de poli-
nomios f(x) en P(F) tales que f(x) = 0
P
o bien, en la representaci on
f(x) = a
n
x
n
+a
n1
x
n1
+ +a
0
,
los coecientes a
0
, a
2
, a
4
, . . . de todas las potencias pares de x son
iguales a 0
F
. Analogamente, sea W
2
el conjunto de todos los polinomios
g(x) en P(F) tales que g(x) = 0
P
o en la representaci on
g(x) = b
m
x
m
+b
m1
x
m1
+ +b
0
,
los coecientes b
1
, b
3
, b
5
, . . . de todas las potencias impares de x son
iguales a 0
F
. Demuestra que P(F) = W
1
W
2
.
5. Supongamos que V y W son dos espacios vectoriales denidos sobre
el campo F. Si (v
1
, w
1
), (v
2
, w
2
) V W, denimos la suma de dichos
elementos como sigue:
(v
1
, w
1
) + (v
2
, w
2
) = (v
1
+v
2
, w
1
+w
2
).
Notemos que el smbolo v
1
+ v
2
representa la suma, en V, de v
1
y v
2
.
Lo mismo w
1
+ w
2
denota la suma, en W, de w
1
y w
2
. Ahora bien si
28 CAP

ITULO 2. ESPACIOS VECTORIALES


(v, w) V W y c F, entonces denimos la multiplicacion escalar
de dichos elementos como c(v, w) = (cv, cw). Muestra que V W,
con la suma y multiplicaci on escalar que hemos denido, es un espacio
vectorial sobre F.
6. Sea W un subespacio de un espacio vectorial V sobre un campo F. Para
cada v V, v +W = v +w: w W se llama el co-conjunto de W
que contiene a v. Es frecuente expresar a dicho conjunto como v + W,
en lugar de v +W. Prueba que
a) v +W es un subespacio de V si y solo si v W.
b) v
1
+W = v
2
+W si y solo si v
1
v
2
W.
Consideremos ahora el conjunto S = v + W : v V de todos los
co-conjuntos de W. Podemos denir una suma y un producto por ele-
mentos de F como sigue: si v
1
+ W y v
2
+ W son elementos de S,
entonces (v
1
+W) + (v
2
+W) = (v
1
+v
2
) +W. Si v +W S y a F,
denimos a(v +W) = av +W.
c) Demuestra que las operaciones anteriores estan bien denidas. Es
decir, que si v
1
+W = v

1
+W y v
2
+W = v

2
+W, entonces
(v
1
+W) + (v
2
+W) = (v

1
+W) + (v

2
+W)
y a(v
1
+W) = a(v

1
+W), para cada a F.
d) Demuestra que el conjunto S es un espacio vectorial bajo las ope-
raciones denidas anteriormente. Este espacio vectorial se llama
el espacio cociente de V modulo W y se expresa como V/W.
2.6. Combinaciones Lineales y Espacio Gene-
rado
2.6.1. Combinacion Lineal
Supongamos que V es un espacio vectorial sobre el campo F. Dada
n N, consideremos n vectores x
1
, x
2
, . . . , x
n
V as como n escalares
c
1
, c
2
, . . . , c
n
F. Como V es cerrado bajo la multiplicaci on de elementos
2.6. COMBINACIONES LINEALES Y ESPACIO GENERADO 29
de F, sucede que c
1
x
1
, c
2
x
2
, . . . , c
n
x
n
V. Como ademas V es cerrado bajo
sumas de elementos en V, tenemos que
c
1
x
1
+c
2
x
2
+ +c
n
x
n
V.
Las expresiones de la forma c
1
x
1
+ c
2
x
2
+ + c
n
x
n
, en donde combinamos
escalares con elementos de V, son importantes en

Algebra Lineal e incluso se
les da un nombre.
Denicion 2.21. Sea V un espacio vectorial sobre un campo F. Supongamos
ademas que S es un subconjunto no vaco de V. Se dice que un vector x de
V es una combinacion lineal de elementos de S (o simplemente que x
es una combinacion lineal de S), si existen un n umero nito de elementos
x
1
, x
2
, . . . , x
n
S y escalares c
1
, c
2
, . . . , c
n
F tales que
x = c
1
x
1
+c
2
x
2
+ +c
n
x
n
.
Supongamos que S posee solo un elemento, digamos S = x
1
. Entonces
un vector x V es una combinaci on lineal de elementos de S si y solo si
existe un escalar c F tal que x = cx
1
. Notemos que la expresion cx
1
es
lo que com unmente conocemos como m ultiplo escalar de x
1
. Por tanto, las
combinaciones lineales de un conjunto con un solo elemento, son justo los
m ultiplos escalares de dicho elemento.
En general, cuando S es un subconjunto nito de V, tenemos el siguiente
resultado.
Teorema 2.22. Si S es nito, digamos S = x
1
, x
2
, . . . , x
n
, entonces un
vector x V es una combinacion lineal de elementos de S si y solo si existen
escalares c
1
, c
2
, . . . , c
n
F, tales que x = c
1
x
1
+c
2
x
2
+ +c
n
x
n
.
Demostracion. Supongamos que x es una combinaci on lineal de elemen-
tos de S. Entonces existen un subconjunto nito T = x
i
: i I de S y
escalares c
i
F, para cada i I, tales que x =

iI
c
i
x
i
. Notemos que
I 1, 2, . . . , n. Denamos c
i
= 0 para cada i 1, 2, . . . , n I. En-
tonces x = c
1
x
1
+ c
2
x
2
+ + c
n
x
n
. Esto prueba la primera parte del teo-
rema. Supongamos ahora que existen escalares c
1
, c
2
, . . . , c
n
F, tales que
x = c
1
x
1
+c
2
x
2
+ +c
n
x
n
. Entonces, por denicion, x es una combinaci on
lineal de elementos de S. Esto prueba la segunda parte del teorema y termina
la demostracion.
30 CAP

ITULO 2. ESPACIOS VECTORIALES


Si S es nito y no vaco, digamos S = x
1
, x
2
, . . . , x
n
, y x es una com-
binacion lineal de elementos de S, tambien solemos decir que x es una com-
binacion lineal de x
1
, x
2
, . . . , x
n
, los cuales son todos los elementos de S. En
estos terminos, si S es innito, entonces x es una combinacion lineal de S
si y solo si x es una combinaci on lineal de todos los elementos de alg un
subconjunto nito de S.
Conviene en este momento mencionar que, en vista del teorema anterior,
la nocion de combinaci on lineal se puede ver de dos formas. La primera de
ellas es la que indicamos en la Denicion 2.21. La segunda es la siguiente:
podemos primero decir lo que signica que un elemento de V sea una combi-
nacion lineal de un subconjunto nito de V y, posteriormente, lo que signica
que un elemento de V sea una combinacion lineal de un subconjunto innito
de V. A continuacion indicamos como hacer esto:
a) Si S = x
1
, x
2
, . . . , x
n
es un subconjunto nito y no vaco de V, en-
tonces un vector x V es una combinacion lineal de S si existen
escalares c
1
, c
2
, . . . , c
n
F, tales que x = c
1
x
1
+c
2
x
2
+ +c
n
x
n
.
b) Si S es un subconjunto innito de V, entonces un vector x V es
una combinaci on lineal de S, si x es una combinacion lineal de alg un
subconjunto nito y no vaco de S.
Dejaremos al lector decidir entre proceder como en la Denicion 2.21 o
siguiendo el proceso de dos pasos arriba indicado.
2.6.2. Espacio Generado
Como en cualquier espacio vectorial V sucede que 0
F
x = 0
V
, para toda
x V, el vector cero es una combinaci on lineal de cualquier subconjunto no
vaco de V. El conjunto de las combinaciones lineales de los elementos de un
subconjunto no vaco de un espacio vectorial, proporciona otro ejemplo de
subespacio, como se muestra en el siguiente resultado.
Teorema 2.23. Supogamos que S es un subconjunto no vaco de un espacio
vectorial V. Consideremos el conjunto
S) = x V : x es una combinacion lineal de elementos de S.
Entonces S tiene las siguientes propiedades:
2.6. COMBINACIONES LINEALES Y ESPACIO GENERADO 31
(a) S) es un subespacio de V.
(b) S S).
(c) S) es el subespacio de V mas peque no que contiene a S. Esto es, si W
es un subespacio de V tal que S W, entonces S) W.
(d) S) es la interseccion de todos los subespacios de V que contienen a S.
Demostracion. Tomemos un elemento x S. Entonces x es un sub-
conjunto nito de S y x = 1x, por lo que x es una combinaci on lineal de
elementos de S. Luego x S). Esto prueba (b). Como S es no vaco y (b)
es cierto, sucede que S) es no vaco. Supongamos ahora que x, y S) y
que c F. Entonces existen elementos x
1
, x
2
, . . . , x
n
, y
1
, y
2
, . . . , y
m
S y
escalares a
1
, a
2
, . . . , a
n
, b
1
, b
2
, . . . , b
m
F tales que
x = a
1
x
1
+a
2
x
2
+ +a
n
x
n
y y = b
1
y
1
+b
2
y
2
+ +b
m
y
m
.
Por consiguiente
cx +y = (ca
1
)x
1
+ (ca
2
)x
2
+ + (ca
n
)x
n
+ (b
1
)y
1
+ (b
2
)y
2
+ + (b
m
)y
m
es una combinacion lineal de elementos de S. Luego cx +y S) por lo que,
seg un el Teorema 2.13, S es un subespacio de V. Esto prueba (a).
Para mostrar (c) sea W un subespacio de V tal que S W. Tomemos un
elemento x S). Entonces existen elementos x
1
, x
2
, . . . , x
n
S y escalares
a
1
, a
2
, . . . , a
n
F tales que x = a
1
x
1
+ a
2
x
2
+ + a
n
x
n
. Notemos que
x
1
, x
2
, . . . , x
n
W pues S W. Ademas, como W es un espacio vectorial,
la combinacion lineal a
1
x
1
+ a
2
x
2
+ + a
n
x
n
es un elemento de W. Luego
x W y, de esta manera, S) W. Esto prueba (c).
Para probar (d) supongamos que S
0
es la intersecci on de todos los subes-
pacios de V que contienen a S. Como S) es un subespacio de V que contiene
a S, sucede que S
0
S). Como la intersecci on de subespacios de V es un
subespacio de V, tenemos tambien que S
0
es un subespacio de V. Ademas
S S
0
pues cada subespacio que dene a S
0
contiene a S. Entonces, por (c),
S) S
0
. Luego S
0
= S) y (d) es cierto.
Corolario 2.24. Supongamos que S es un subconjunto no vaco de un espa-
cio vectorial V. Entonces S) = S si y solo si S es un subespacio de V.
32 CAP

ITULO 2. ESPACIOS VECTORIALES


Demostracion. Supongamos primero que S) = S. Como S) es un subes-
pacio de V, de acuerdo con la propiedad (a) de teorema anterior, sucede
que S es un subespacio de V. Esto prueba la primera parte del corolario.
Supongamos ahora que S es un subespacio de V. Entonces S es el subespacio
de V mas peque no que contiene a S. Luego, por la parte (c) del teorema
anterior, S) = S. Esto prueba la segunda parte del corolario y termina su
demostracion.
Corolario 2.25. Supongamos que S es un subconjunto no vaco de un espa-
cio vectorial V. Entonces S)) = S).
Demostracion. Por la parte (a) del Teorema 2.23 sabemos que T = S) es
un subespacio de V. Luego, por el corolario anterior, T) = T. Esto equivale
a decir que S)) = S).
Denicion 2.26. Supongamos que S es un subconjunto no vaco de un es-
pacio vectorial V. Al subespacio S) descrito en el Teorema 2.23 se le llama
el subespacio generado por S.
Supongamos que S es un subconjunto no vaco de un espacio vectorial
V. Si S es un subespacio de V entonces, por el Corolario 2.24, sucede que
S = S). En otras palabras, el subespacio generado por S es igual a S.
Supongamos ahora que S no es un subespacio de V. Como S) es un su-
bespacio de V que contiene a S y S no es un subespacio de V, sucede que
S S). Esto indica que el subespacio generado por S es mas grande que S.
En otras palabras, al considerar S), generamos algo nuevo. El Corolario 2.25
dice que al considerar el subespacio generado por el subespacio generado de
S, entonces ya no generamos nada nuevo. Dicho de otra manera, tomar mas
de un corchete es redundante, pues
S) = S)) = S))) = = S)) )).
Aunque la denicion de subespacio generado se ha presentado para subcon-
juntos no vacos de V, por conveniencia supondremos que ) = 0
V
. Lo
anterior tiene sentido pues, de acuerdo con la propiedad (c) del Teorema
2.23, ) ha de ser el subespacio de V mas peque no que contiene al conjunto
vaco, el cual es 0
V
. Si S es nito, digamos S = x
1
, x
2
, . . . , x
n
, entonces
escribiremos x
1
, x
2
, . . . , x
n
) en lugar de x
1
, x
2
, . . . , x
n
). En el siguiente
resultado relacionamos la suma de espacios con la nocion anterior.
2.6. COMBINACIONES LINEALES Y ESPACIO GENERADO 33
Teorema 2.27. Si W
1
y W
2
son subespacios de un espacio vectorial V, en-
tonces W
1
+W
2
= W
1
W
2
).
Demostracion. Sabemos que W
1
+W
2
es un subespacio de V que contiene a
W
1
W
2
. Por tanto W
1
W
2
) W
1
+W
2
, de acuerdo con la propiedad (c) del
teorema anterior. Supongamos ahora que x W
1
+W
2
. Entonces x = x
1
+x
2
en donde x
1
W
1
y x
2
W
2
, por lo que x es una combinaci on lineal de
elementos de W
1
W
2
. Luego x W
1
W
2
), as que W
1
+W
2
W
1
W
2
).
Esto prueba que W
1
+W
2
= W
1
W
2
).
Combinando los teoremas anteriores, resulta que W
1
+ W
2
es la inter-
seccion de todos los subespacios de V que contienen a W
1
W
2
o, equiva-
lentemente, W
1
+ W
2
es el subespacio de V mas peque no que contiene a
W
1
W
2
.
Es posible probar la contencion W
1
W
2
) W
1
+ W
2
sin utilizar que
W
1
+W
2
es un subespacio de V. En efecto, si x W
1
W
2
) entonces existe
un subconjunto nito y no vaco T de W
1
W
2
tal que x es una combinaci on
lineal de todos los elementos de T. Supongamos que T W
1
= x
1
, x
2
, . . . , x
n

y T W
2
= y
1
, y
2
, . . . , y
m
. Notemos que T = (T W
1
)(T W
2
). Mas a un,
alguno de los conjuntos T W
1
y T W
2
podra ser vaco. Supongamos, por
el momento que ninguno de dichos conjuntos es vaco. Tomemos escalares
c
1
, c
2
, . . . , c
n
, d
1
, d
2
, . . . , d
m
F tales que
x = c
1
x
1
+c
2
x
2
+ +c
n
x
n
+d
1
y
1
+d
2
y
2
+ +d
m
y
m
.
Como x
1
, x
2
, . . . , x
n
W
1
y W
1
es un subespacio de V, la combinaci on lineal
w
1
= c
1
x
1
+ c
2
x
2
+ + c
n
x
n
se encuentra en W
1
. De manera similar, w
2
=
d
1
y
1
+d
2
y
2
+ +c
m
y
m
es un elemento de W
2
. Tenemos entonces que x = w
1
+
w
2
es la suma de un elemento en W
1
con uno en W
2
. Por tanto x W
1
+W
2
.
Esto prueba que W
1
W
2
) W
1
+ W
2
, en el caso en que tanto T W
1
como T W
2
son no vacos. Si, por ejemplo, el conjunto T W
1
es vaco,
entonces T = T W
2
por lo que x es una combinaci on lineal de todos los
elementos de T W
2
. Podemos hacer w
1
= 0
V
y denir a w
2
como antes, es
decir, hacemos w
2
= d
1
y
1
+d
2
y
2
+ +c
m
y
m
. Entonces, de cualquier manera,
x = w
1
+ w
2
es la suma de un elemento en W
1
como uno en W
2
. Si sucede
ahora que T W
2
es vaco, entonces hacemos w
2
= 0
V
y denimos a w
1
como
c
1
x
1
+ c
2
x
2
+ + c
n
x
n
. De nueva cuenta tenemos que x = w
1
+ w
2
es la
suma de un elemento en W
1
con uno en W
2
.
34 CAP

ITULO 2. ESPACIOS VECTORIALES


Una vez que probamos la contencion W
1
W
2
) W
1
+ W
2
, sin usar
que W
1
+ W
2
es un subespacio de V, podemos probar ahora la contenci on
W
1
+W
2
W
1
W
2
) como se indica en la prueba del teorema anterior. Por
consiguiente, la igualdad
W
1
+W
2
= W
1
W
2
)
se puede obtener sin necesidad de suponer que W
1
+ W
2
es un subespacio
de V. Aplicando entonces la igualdad anterior, as como el Teorema 2.23,
deducimos tambien que W
1
+ W
2
es el subespacio de V mas peque no que
contiene a W
1
W
2
.
El camino que hemos seguido ahora para probar la igualdad W
1
W
2
) =
W
1
+ W
2
, es mas largo que el que originalmente nos llevo a dicha igualdad.
Sin embargo, este nuevo camino admite una generalizacion. A saber, si S
1
y
S
2
son subconjuntos de V, entonces sucede que
S
1
S
2
) = S
1
) +S
2
).
Dejamos como ejercicio al lector probar la igualdad anterior.
En el siguiente teorema enunciamos una propiedad mas del subespacio
generado. Dicha propiedad, aunque sencilla, se utilizara con frecuencia mas
adelante.
Teorema 2.28. Sean S y T dos subconjuntos de un espacio vectorial V. Si
S T, entonces S) T).
Demostracion. Si x S), entonces x es una combinaci on lineal de elemen-
tos de S. Como S T, es decir los elementos de S son tambien elementos
de T, sucede que x es una combianci on lineal de elementos de T. Por tanto,
x T). Esto prueba que S) T).
2.6.3. Subespacios de R
2
Consideremos el espacio vectorial real R
2
. Tomemos un punto x R
2
. Si
x = (0, 0), entonces x) = (0, 0). Si x ,= (0, 0), entonces
x) = ax: a R.
2.6. COMBINACIONES LINEALES Y ESPACIO GENERADO 35
Geometricamente x) es la recta que pasa por x y el origen. Tomemos ahora
un punto y R
2
. Si y x), entonces x, y) = x). Para probar esto notemos
primero que x) x, y), pues x x, y. Supongamos ahora que z
x, y). Entonces z es una combinacion lineal de x y y, por lo que existen
a, b R tales que z = ax + by. Como y x), existe c R tal que y = cx.
Por tanto
z = ax +by = ax +b(cx) = (a +bc)x x).
Entonces x, y) x). Como la otra contencion tambien es cierta, deducimos
que x, y) = x). Supongamos ahora que y / x). Como x x, y,
tenemos que x) x, y). Notemos ahora que y x, y). Para ver esto, es
suciente con notar que y = 0x + 1y. Como y / x), tenemos que x, y)
es un subespacio de R
2
que contiene propiamente a x). Ahora bien, los
subespacios de R
2
son (0, 0), R
2
y las rectas que pasan por el origen. Como
x, y) es un subespacio de R
2
, x) es una recta que pasa por el origen y
(0, 0) x) x, y), tenemos que x, y) no es ni (0, 0) ni una recta
que pasa por el origen. Luego x, y) = R
2
. A continuacion escribimos lo que
hemos obtenido:
1) si x = (0, 0), entonces x) = (0, 0);
2) si x ,= (0, 0), entonces x) es la recta que pasa por x y el origen;
3) si y x), entonces x, y) = x);
4) si y / x), entonces x, y) = R
2
.
Para probar lo anterior hemos apelado al hecho de que los subespacios
de R
2
son (0, 0), R
2
y las rectas que pasan por el origen. Aunque esto se
probo en el curso de Geometra Analtica I, utilizando proyecciones sobre
rectas no paralelas, mas adelante daremos una demostracion alternativa y
mucho mas sencilla. Siguiendo las ideas anteriores, se puede analizar x, y, z),
en donde x, y, z R
2
.
Para un subconjunto S de un espacio vectorial V, la situacion S) = V
es especial e incluso se le da un nombre.
Denicion 2.29. Un subconjunto S de un espacio vectorial V genera a V
si S) = V.
36 CAP

ITULO 2. ESPACIOS VECTORIALES


Cuando S) = V se suele tambien decir que los elementos de S gene-
ran a V. Si, por ejemplo, V = W
1
W
2
entonces la union W
1
W
2
genera
a V. En R
2
los vectores (1, 0) y (0, 1) generan a R
2
. En R
3
los vectores
(1, 1, 0), (1, 0, 1) y (0, 1, 1) generan a R
3
, pues cualquier elemento (x, y, z) de
R
3
es una combinaci on lineal de dichos vectores. En efecto, si
r =
1
2
(x +y z), s =
1
2
(x y +z) y t =
1
2
(x +y +z),
entonces
r(1, 1, 0) +s(1, 0, 1) +t(0, 1, 1) = (r +s, r +t, s +t) =
=
1
2
(x +y z +x y +z, x +y z x +y +z, x y +z x +y +z) =
=
1
2
(2x, 2y, 2z) = (x, y, z).
Notemos que en el ejemplo anterior, para ver que cada elemento (x, y, z) R
3
es una combinaci on lineal de los vectores (1, 1, 0), (1, 0, 1) y (0, 1, 1), hemos
dado los escalares r, s, t de suerte que
(x, y, z) = r(1, 1, 0) +s(1, 0, 1) +t(0, 1, 1).
Como obtuvimos los escalares r, s y t? En general la respuesta a esto no
es sencilla, pero se reduce a resolver un sistema de ecuaciones lineales. En
efecto, si r, s y t han de ser tales que (x, y, z) = r(1, 1, 0)+s(1, 0, 1)+t(0, 1, 1),
entonces (x, y, z) = (r + s, r + t, s + t). Esto nos lleva a resolver el siguiente
sistema de ecuaciones lineales, en las variables r, s y t:
r +s = x
r +t = y
s +t = z
Si restamos las primeras dos ecuaciones anteriores, obtenemos s t = x
y. Sumando dicha ecuacion a la tercera del sistema anterior, obtenemos la
igualdad 2s = x y +z, de donde
s =
1
2
(x y +z).
Sustituyendo dicho valor de s en la primera ecuacion del sistema, sucede que
r = x s = x
1
2
(x y +z) =
1
2
(x +y z).
2.7. EJERCICIOS 37
Sustituyendo ahora el valor de s en la tercera ecuacion del sistema, obtenemos
que
t = z s = z
1
2
(x y +z) =
1
2
(x +y +z).
De esta manera es como se obtienen los valores de r, s y t.
Aunque existen muchas formas de resolver un sistema de ecuaciones linea-
les, en general, su solucion involucra conocer lo que es una matriz, as como
algunas propiedades fundamentales de las matrices. En el Captulo 3 estudia-
remos tanto las matrices como la solucion de un sistema de ecuaciones linea-
les. Luego regresaremos al problema de como determinar si un vector dado
x de un espacio vectorial V, es una combinaci on lineal de un conjunto dado
x
1
, x
2
, . . . , x
n
de vectores en V. Dicho problema equivale, como sabemos, a
encontrar los escalares a
1
, a
2
, . . . , a
n
F tales que x = a
1
x
1
+a
2
x
2
+ +a
n
x
n
,
en el caso de que dichos escalares existan. Por el momento, continuaremos
estudiando a los espacios vectoriales como entes abstractos.
2.7. Ejercicios
Supongamos que V es una espacio vectorial sobre un campo F y que
S
1
, S
2
V.
1. Demuestra que S
1
S
2
) = S
1
) +S
2
).
2. Demuestra que S
1
S
2
) S
1
) S
2
) y da un ejemplo en el que se
muestre que los conjuntos S
1
S
2
) y S
1
) S
2
) no son iguales.
2.8. Dependencia e Independencia Lineal
2.8.1. Deniciones
En el curso de Geometra Analtica I se dijo que dos vectores x, y R
2
son
paralelos si y solo si uno de ellos es un m ultiplo escalar del otro. Supongamos
que x = ay, para alg un n umero real a. Notemos que la ecuacion x = ay se
puede escribir como (1)x + (a)y = (0, 0). En el lenguaje estudiado en la
seccion anterior, tenemos que (0, 0) es una combinacion lineal de x y y, en
donde al menos uno de los dos coecientes utilizados es diferente de cero.
38 CAP

ITULO 2. ESPACIOS VECTORIALES


Supongamos ahora que x y y son dos vectores en R
2
tales que (0, 0) es una
combinacion lineal de x y y, en donde al menos uno de los dos coecientes
utilizados es diferente de cero. Entonces (0, 0) = cx + dy, en donde alguno
de c y d es diferente de cero. Supongamos, sin perder generalidad, que c ,= 0.
Entonces x =
_

d
c
_
y, por lo que x es un m ultiplo escalar de y. Lo anterior
signica que x y y son paralelos. Hemos probado que los vectores x y y
de R
2
son paralelos si y solo si el vector (0, 0) se puede escribir como una
combinacion lineal de x y y, en donde al menos uno de los dos coecientes
utilizados es diferente de cero.
Para un espacio vectorial V, la nocion de vectores paralelos en R
2
se puede
generalizar como se indica a continuacion.
Denicion 2.30. Un subconjunto S de un espacio vectorial V sobre un cam-
po F es linealmente dependiente, si existen un n umero nito de vectores
distintos x
1
, x
2
, . . . , x
n
en S y escalares a
1
, a
2
, . . . , a
n
en F, no todos iguales
a 0
F
, tales que
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
.
Si el subconjunto S de V no es linealmente dependiente, entonces decimos
que S es linealmente independiente.
De la denicion anterior se sigue que los conjuntos linealmente depen-
dientes son no vacos. Si S es un subconjunto linealmente dependiente o
independiente, tambien es com un decir que los elementos de S son lineal-
mente dependientes o independientes, seg un corresponda. En el lenguaje que
acabamos de introducir, dos vectores x y y en R
2
son paralelos si y solo si x
y y son linealmente dependientes.
Notemos que un subconjunto S de V es linealmente independiente si y
solo si, para cualquier n umero nito de vectores distintos x
1
, x
2
, . . . , x
n

S, la unica manera de escribir al vector cero como una combinaci on li-
neal de x
1
, x
2
, . . . , x
n
es asignando a cada coeciente el valor 0
F
. As pues,
para probar que S es linealmente independiente, procedemos como sigue:
tomamos primero cualquier subconjunto nito T = x
1
, x
2
, . . . , x
n
de S.
Entendemos que los elementos de T son todos distintos. Tomamos ahora
escalares a
1
, a
2
, . . . , a
n
F tales que
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
.
2.8. DEPENDENCIA E INDEPENDENCIA LINEAL 39
Debemos probar que a
1
= a
2
= = a
n
= 0
F
. Para ver esto en la practica,
consideremos el espacio vectorial P(F) de los polinomios sobre el campo F.
Sea S = 1
P
, x, x
2
, x
3
, . . ., en donde 1
P
es el polinomio constante, cuyo valor
constante es 1
F
, el neutro multiplicativo en F. Denotemos por 0
P
al polinomio
cero. Para ver que S es linealmente independiente, supongamos primero que
T es un subconjunto nito de S. Entonces T es de la forma T = x
i
: i
J N0, pensando que x
0
= 1
P
. Supongamos que T tiene m elementos
y tomemos escalares a
i
F, para cada i J, de modo que 0
P
=

iJ
a
i
x
i
.
De acuerdo con el criterio de igualdad de dos polinomios sucede que a
i
= 0
F
,
para cada i J. Por tanto S es linealmente independiente.
Notemos ahora que un subconjunto S de un espacio vectorial V es li-
nealmente dependiente si y solo si el vector cero se puede escribir como una
combinacion lineal de todos los elementos de alg un subconjunto nito de S,
en donde no todos los coecientes utilizados en dicha combinaci on lineal son
iguales a 0
F
. As pues, para probar que un subconjunto S de V es linealmente
dependiente, debemos encontrar un subconjunto nito T de S y luego dar la
combinacion lineal de todos los elementos de T que produce el vector cero,
sin que todos los coecientes utilizados sean iguales a 0
F
.
El siguiente teorema indica la manera de expresar la independencia lineal
de S, cuando dicho conjunto es nito.
Teorema 2.31. Si S es nito, digamos S = x
1
, x
2
, . . . , x
n
, entonces S
es linealmente independiente si y solo si, para cada a
1
, a
2
, . . . , a
n
F de la
igualdad
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
,
se sigue que a
1
= a
2
= = a
n
= 0
F
.
Demostracion. Supongamos primero que S es linealmente independiente.
Entonces si a
1
, a
2
, . . . , a
n
F son tales que a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
se
sigue, por la denicion de independencia lineal, que a
1
= a
2
= = a
n
= 0
F
.
Ahora supongamos que para cualesquiera n escalares a
1
, a
2
, . . . , a
n
F,
de la igualdad
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
se sigue que a
1
= a
2
= = a
n
= 0
F
. Para ver que S es linealmente inde-
pendiente debemos tomar primero un subconjunto nito T de S. Pongamos
40 CAP

ITULO 2. ESPACIOS VECTORIALES


T = x
i
: i I, en donde I es un subconjunto de 1, 2, . . . , n. Tomemos
ahora escalares b
i
F, para cada i I, de modo que 0
V
=

iI
b
i
x
i
. Haga-
mos a
i
= b
i
si i I y a
i
= 0
F
si i / I. Entonces a
1
, a
2
, . . . , a
n
son escalares
tales que a
1
x
1
+ a
2
x
2
+ + a
n
x
n
= 0
V
. Luego a
1
= a
2
= = a
n
= 0
F
.
En particular b
i
= 0
F
, para cada i I. Esto prueba que S es linealmente
independiente.
Como consecuencia del teorema anterior, la independencia lineal la pudi-
mos haber denido a traves de un proceso de dos pasos: primero denimos lo
que signica que un conjunto nito sea linealmente independiente y, poste-
riormente, denimos lo que signica la independencia lineal para un conjunto
innito. Esto es similar a lo que hicimos con la nocion de combinaci on lineal.
Siguiendo este proceso de dos pasos, tenemos lo siguiente:
a) Un subconjunto nito T = x
1
, x
2
, . . . , x
n
de V es linealmente inde-
pendiente si para cada a
1
, a
2
, . . . , a
n
F, de la igualdad
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
se sigue que a
1
= a
2
= = a
n
= 0
F
.
b) Un subconjunto innito S de V es linealmente independiente si todos
sus subconjuntos nitos son linealmente independientes.
Para denir la dependencia lineal siguiendo este camino, decimos primero
que un subconjunto nito y no vaco T de V es linealmente dependiente, si T
no es linealmente independiente. Luego decimos que un subconjunto innito
S de V es linealmente dependiente, si alg un subconjunto nito y no vaco de
S es linealmente dependiente.
A partir de este momento, tanto las nociones de combinacion lineal como
las de dependencia e independencia lineal seran importantes. El lector de-
bera decidir, seg un le convenga, si quiere utilizar las respectivas deniciones
mediante el proceso de dos pasos (considerandolas primero para el caso nito
y posteriormente para el caso innito), o bien mediante un proceso directo
(el dado en las deniciones 2.21 y 2.30). Aclarado esto, veamos ahora las
propiedades mas elementales de la dependencia e independencia lineal. Co-
mo lo hemos venido haciendo, supondremos que V es un espacio vectorial
sobre el campo F.
2.8. DEPENDENCIA E INDEPENDENCIA LINEAL 41
2.8.2. Propiedades Fundamentales
Una vez que hemos visto las nociones de dependencia e independencia
lineal, toca ahora estudiar sus propiedades fundamentales. Comenzamos con
el siguiente resultado.
Teorema 2.32. Cualquier subconjunto S de V tal que 0
V
S es linealmente
dependiente.
Demostracion. Notemos que 0
V
es un subconjunto nito de S y que
0
V
= 1 0
V
. Como F es un campo, 1 ,= 0
F
. Hemos escrito al vector cero como
una combinacion lineal de todos los elementos del subconjunto nito 0
V

de S, en donde el coeciente utilizado, 1, es diferente de 0


F
. Esto muestra
que S es linealmente dependiente.
Corolario 2.33. Para cualquier subconjunto S de V, el conjunto S) es li-
nealmente dependiente.
Demostracion. Si S es un subconjunto de V, entonces S) es un subespacio
de V. Por tanto, 0
V
S) y, por el teorema anterior, S) es linealmente
dependiente.
Como ya indicamos, de la Denicion 2.30 se sigue que todo conjunto
linealmente dependiente es no vaco. Por tanto, el conjunto vaco es lineal-
mente independiente, dado que un conjunto es linealmente dependiente o
bien linealmente independiente, pero no ambos.
A continuaci on analizaremos la dependencia o independencia lineal de un
conjunto con un solo elemento.
Teorema 2.34. Cualquier subconjunto S de V de la forma S = x, en
donde x ,= 0
V
, es linealmente independiente.
Demostracion. Para ver esto, recordemos primero que las combinaciones
lineales de un conjunto con un solo elemento, son justo sus m ultiplos es-
calares. Debemos probar, por tanto, que el unico m ultiplo escalar de x que
da 0
V
, es aquel que se obtiene multiplicando el cero del campo por x. Supon-
gamos entonces que 0
V
= ax, para un escalar a F. Si a ,= 0
F
, entonces
0
V
= a
1
0
V
= a
1
(ax) = (a
1
a)x = 1x = x,
lo cual es un absurdo, pues x ,= 0
V
. Entonces a = 0
F
.
Combinando los dos teoremas anteriores, concluimos que un subconjunto
S de V de la forma S = x es linealmente independiente si y solo si x ,= 0
V
.
42 CAP

ITULO 2. ESPACIOS VECTORIALES


2.8.3. Sistemas de Ecuaciones Lineales
En la practica, para decidir si un conjunto nito de vectores es lineal-
mente independiente o linealmente dependiente, es necesario resolver un sis-
tema de ecuaciones lineales. Naturalmente, existen situaciones en donde no
es necesario resolver dicho sistema. Supongamos que nos interesa saber si un
subconjunto T de un espacio vectorial V es linealmente independiente o no.
Si el vector cero se encuentra en T, entonces automaticamente sabemos que
T es linealmente dependiente. Pero si 0
V
/ T entonces, de buenas a primeras,
no podemos asegurar nada sobre la independencia o dependencia lineal de
T. Si, por ejemplo, T posee solamente un elemento, entonces el teorema an-
terior nos dice que T es linealmente independiente si el unico elemento de
T es diferente del vector cero. El mismo teorema anterior nos dice que T es
linealmente dependiente, si el unico elemento de T es el vector cero. Pero
que pasa si T tiene mas de un elemento y ninguno de ellos es el vector cero?
Para responder la pregunta anterior consideremos, en R
3
, los vectores
x
1
= (2, 1, 4), x
2
= (1, 1, 3), x
3
= (1, 1, 1) y x
4
= (1, 2, 1). Para
determinar si el conjunto S = x
1
, x
2
, x
3
, x
4
es linealmente dependiente,
debemos ver si existe una combinaci on lineal de todos los elementos de S,
que de el vector (0, 0, 0), y sin que todos los escalares utilizados sean iguales
a cero. Tomemos entonces escalares a
1
, a
2
, a
3
, a
4
R de modo que
(0, 0, 0) = a
1
x
1
+a
2
x
2
+a
3
x
3
+a
4
x
4
.
Al sustituir los valores de x
1
, x
2
, x
3
y x
4
en la igualdad anterior, obtenemos
que
(0, 0, 0) = a
1
x
1
+a
2
x
2
+a
3
x
3
+a
4
x
4
= a
1
(2, 1, 4) +a
2
(1, 1, 3) +a
3
(1, 1, 1) +a
4
(1, 2, 1)
= (2a
1
+a
2
+a
3
+a
4
, a
1
a
2
+a
3
2a
4
, 4a
1
+ 3a
2
a
3
a
4
).
Por tanto, los escalares a
1
, a
2
, a
3
y a
4
se pueden obtener resolviendo el
sistema de ecuaciones lineales:
2a
1
+a
2
+a
3
+a
4
= 0
a
1
a
2
+a
3
2a
4
= 0
4a
1
+ 3a
2
a
3
a
4
= 0
(2.8.1)
En el Captulo 3, veremos como resolver el sistema anterior utilizando ma-
trices. Por el momento lo resolveremos utilizando los metodos de sustitu-
cion y eliminacion. Notemos que, si al resolver el sistema (2.8.1), resulta
2.8. DEPENDENCIA E INDEPENDENCIA LINEAL 43
que a
1
= a
2
= a
3
= a
4
= 0 es su unica solucion, entonces el conjunto S
es linealmente independiente. De otra manera, S sera linealmente depen-
diente. Si multiplicamos por 2 la segunda ecuacion del sistema, obtenemos
2a
1
2a
2
+ 2a
3
4a
4
= 0. Sumando dicha ecuacion a la primera del sis-
tema, obtenemos a
2
+3a
3
3a
4
= 0. Multiplicando ahora por 4 la segunda
ecuacion del sistema, obtenemos 4a
1
4a
2
+4a
3
8a
4
= 0. Sumando dicha
ecuacion a la tercera del sistema, obtenemos a
2
+ 3a
3
9a
4
= 0, la cual
es equivalente a a
2
3a
3
+ 9a
4
= 0. Sumando esta ecuacion con la ecuacion
a
2
+3a
3
3a
4
= 0, sucede que 6a
4
= 0. Luego a
4
= 0. Esto signica que el
sistema (2.8.1) es equivalente al siguiente sistema:
2a
1
+a
2
+a
3
= 0
a
1
a
2
+a
3
= 0
4a
1
+ 3a
2
a
3
= 0
Al despejar a
1
de la segunda ecuacion, tenemos que a
1
= a
3
a
2
. Sustituyendo
dicho valor en la primera ecuacion del nuevo sistema, obtenemos que
0 = 2a
1
+a
2
+a
3
= 2(a
3
a
2
) +a
2
+a
3
= 3a
3
a
2
.
Luego a
2
= 3a
3
. Si sumamos ahora las dos primeras ecuaciones del nuevo sis-
tema, obtenemos que a
1
+2a
3
= 0. Luego a
1
= 2a
3
. Esto signica que, para
cualquier valor real que le demos a la variable a
3
, la 4-ada (2a
3
, 3a
3
, a
3
, 0)
es una solucion del sistema (2.8.1). En otras palabras, el sistema (2.8.1) tiene
una innidad de soluciones. En particular, una de ellas se obtiene dandole a
a
3
el valor de uno. Luego a
1
= 2, a
2
= 3, a
3
= 1, a
4
= 0 es una solucion.
Entonces
(0, 0, 0) = 2x
1
+ 3x
2
+x
3
+ 0x
4
(2.8.2)
y el conjunto S es linealmente dependiente.
Mas adelante veremos que, en R
3
, cualquier conjunto con mas de tres
vectores el linealmente dependiente. Incluso veremos que, en R
n
, cualquier
conjunto con mas de n elementos es linealmente dependiente. Por supuesto,
de haber sabido dicho resultado, no hubiera sido necesario resolver el sistema
(2.8.1), para determinar si el conjunto S = x
1
, x
2
, x
3
, x
4
es linealmente
dependiente o no. Como moraleja de lo anterior tenemos que teora mata
talacha, es decir, en la medida en que avancemos a nivel teorico, podremos
evitarnos talacha innecesaria.
44 CAP

ITULO 2. ESPACIOS VECTORIALES


Pero, con todo, existen situaciones en las que, para determinar si un
conjunto dado es linealmente independiente o no, tenemos que resolver un
sistema de ecuaciones lineales. Supongamos que deseamos ver si un subcon-
junto T de R
n
es linealmente independiente o no. Naturalmente, suponemos
que todos los elementos de T son diferentes de cero pues, de lo contrario, T es
linealmente dependiente. Apelando al resultado enunciado en el parrafo an-
terior, si T tiene mas de n elementos, entonces T es linealmente dependiente.
Por tanto, podemos suponer que T es nito y tiene, a lo mas, n elementos.
Si T tiene un solo elemento, entonces T es linealmente independiente, pues
ning un elemento de T es igual a cero. Su T tiene justo dos elementos, en-
tonces T sera linealmente independiente si sus elementos no son paralelos. De
otro modo, T sera linealmente dependiente. Entonces, en realidad, debemos
suponer que T tiene por lo menos tres elementos y, a lo mas, n elementos. Es
justo en dicha situacion en donde, para determinar la dependencia o inde-
pendencia lineal de T, puede ser necesario resolver un sistema de ecuaciones
lineales. Mas adelante, regresaremos al conjunto T y veremos, por ejemplo,
que si T tiene justo n elementos, saber si el determinante de n n, forma-
do con los elementos de T es igual a cero, es suciente para saber si T es
linealmente dependiente o independiente.
2.8.4. Caracterizacion de la Dependencia Lineal
La ecuacion (2.8.2) nos da una forma alternativa de ver la dependencia
lineal. En efecto, sabemos que el conjunto S = x
1
, x
2
, x
3
, x
4
que estudia-
mos, es linealmente dependiente. Una combinaci on lineal de los elementos
de S que da el vector cero y, en donde, por lo menos uno de los coecientes
utilizados es diferente de cero, es la que se muestra en la ecuacion (2.8.2). Si
despejamos x
3
obtenemos que
x
3
= 2x
1
3x
2
0x
4
.
Esto signica que uno de los elementos de S se puede escribir como com-
binacion lineal de todos los demas elementos de S. En realidad, este hecho
caracteriza la dependencia lineal, como se muestra en el siguiente resultado.
Teorema 2.35. Un subconjunto no vaco S de V, es linealmente dependiente
si y solo si alg un elemento de S es combinacion lineal de elementos de S.
Demostracion. Supongamos primero que alg un elemento x de S es com-
binacion lineal de elementos de S. Entonces existe un subconjunto nito
2.8. DEPENDENCIA E INDEPENDENCIA LINEAL 45
T = x
1
, x
2
, . . . , x
n
de S, tal que x es una combinaci on lineal de todos los
elementos de T. Tomemos escalares a
1
, a
2
, . . . , a
n
F tales que
x = a
1
x
1
+a
2
x
2
+ +a
n
x
n
.
Es claro que T x es un subconjunto nito de S. Ademas, de la ecuacion
de arriba tenemos que
(1)x + (a
1
)x
1
+ (a
2
)x
2
+ + (a
n
)x
n
= 0
V
.
Por tanto, el vector cero se puede escribir como una combinaci on lineal de
todos los elementos de T x, en donde por lo menos uno de los coecientes
utilizados (el de x) es diferente de 0
F
. Entonces S es linealmente dependiente.
Esto prueba la segunda parte del teorema.
Ahora supongamos que S es linealmente dependiente. Entonces exis-
ten un n umero nito x
1
, x
2
, . . . , x
n
de elementos de S, as como escalares
a
1
, a
2
, . . . , a
n
, no todos iguales a 0
F
, tales que
0
V
= a
1
x
1
+a
2
x
2
+ +a
n
x
n
.
Como alguno de los escalares indicados es diferente de 0
F
podemos suponer,
sin perder generalidad, que a
1
,= 0
F
. Dado que F es un campo, podemos
considerar el inverso multiplicativo a
1
1
de a
1
. Al multiplicar la ecuacion de
arriba por a
1
1
, obtenemos
0
V
= a
1
1
0
V
= (a
1
1
a
1
)x
1
+ (a
1
1
a
2
)x
2
+ + (a
1
1
a
n
)x
n
= x
1
+ (a
1
1
a
2
)x
2
+ + (a
1
1
a
n
)x
n
.
Al despejar x
1
de la ecuacion de arriba, resulta que
x
1
= (a
1
1
a
2
)x
2
+ (a
1
1
a
3
)x
3
+ + (a
1
1
a
n
)x
n
.
Por tanto x
1
, el cual es un elemento de S, es una combinacion lineal del
subconjunto nito x
2
, x
3
, . . . , x
n
de S. Esto prueba que alg un elemento de
S es combinacion lineal de elementos de S.
Corolario 2.36. Un subconjunto nito S = x
1
, x
2
, . . . , x
n
de V es lineal-
mente dependiente si y solo si alg un elemento de S se puede escribir como
una combinacion lineal de los demas elementos de S.
46 CAP

ITULO 2. ESPACIOS VECTORIALES


2.8.5. Subconjuntos y Superconjuntos
En el siguiente teorema mostramos que superconjuntos de conjuntos li-
nealmente dependientes, siguen siendo linealmente dependientes. Recordemos
que si A y B son dos conjuntos tales que A B, entonces decimos que A es
un subconjunto de B y que B es un superconjunto de A.
Teorema 2.37. Supongamos que S T V. Si S es linealmente depen-
diente, entonces tambien T lo es.
Demostracion. Si S es linealmente dependiente, entonces el vector 0
V
se
puede escribir como una combinacion lineal de todos los elementos de alg un
subconjunto nito R de S, en donde no todos los coecientes utilizados en
dicha combinaci on lineal son iguales a 0
F
. Como S T dicha propiedad se
mantiene, es decir, R es un subconjunto nito de T y el vector cero se puede
escribir como una combinacion lineal de todos los elementos de T, en donde
no todos los coecientes utilizados en dicha combinacion lineal son iguales a
0
F
. Por tanto, T es linealmente dependiente.
En general, los subconjuntos no vacos de conjuntos linealmente depen-
dientes, no tienen por que ser linealmente dependientes. Para ver esto, su-
pongamos que S es linealmente dependiente y que S tiene por lo menos dos
elementos. Entonces existe x S tal que x ,= 0
V
. Por el Teorema 2.34, T =
x es linealmente independiente. Hemos encontrado un subconjunto no vaco
de S que es linealmente independiente. Notemos que si S es linealmente de-
pendiente y tiene solo un elemento entonces, por el Teorema 2.34, S = 0
V
.
En este caso es trivialmente cierto que cualquier subconjunto no vaco de S
es linealmente dependiente.
Consideremos un elemento x V tal que x ,= 0
V
. Por el Teorema 2.34,
el conjunto x es linealmente independiente y, por el Corolario 2.33, el su-
bespacio generado por x, x), es linealmente dependiente. Naturalmente, la
armacion anterior se puede generalizar: si S es linealmente independiente
entonces, como S) es linealmente dependiente y contiene a S, sucede que
los superconjuntos de conjuntos linealmente independientes, no tienen por
que ser linealmente independientes. Ahora mostraremos que los subconjuntos
de conjuntos linealmente independientes, siguen siendo linealmente indepen-
dientes.
2.8. DEPENDENCIA E INDEPENDENCIA LINEAL 47
Teorema 2.38. Supongamos que S T V. Si T es linealmente indepen-
diente, entonces tambien S lo es.
Demostracion. Si S = , entonces S es linealmente independiente. Su-
pongamos, por tanto, que S ,= y tomemos un n umero nito de vectores
x
1
, x
2
, . . . , x
n
S. Tomemos tambien escalares a
1
, a
2
, . . . , a
n
F tales que
a
1
x
1
+ a
2
x
2
+ + a
n
x
n
= 0
V
. Si alg un coeciente a
i
es diferente de 0
F
,
entonces el vector cero se puede escribir como una combinaci on lineal de
todos los elementos del subconjunto nito x
1
, x
2
, . . . , x
n
de T, en donde
no todos los coecientes utilizados en dicha combinacion lineal son iguales a
0
F
. Luego, T es linealmente dependiente, lo cual es una contradicci on. Por
tanto, a
1
= a
2
= = a
n
= 0
F
y, con ello, probamos que S es linealmente
independiente.
Otra forma de ver que, en general, los superconjuntos de conjuntos li-
nealmente independientes no son linealmente independientes, es la siguiente:
si S es linealmente independiente entonces, por el Teorema 2.32, 0
V
/ S.
Sea T = S 0
V
. Entonces T es un superconjunto de S que es linealmente
dependiente pues tiene al vector cero. Ademas S T S) y T es el
superconjunto de S mas peque no que es linealmente dependiente. Podemos
aprovechar la contenci on S T S) para probar el siguiente resultado,
que se utilizara en el Captulo 4.
Teorema 2.39. Si S V, entonces S 0
V
) = S).
Demostracion. Sea T = S 0
V
. Como indicamos en el parrafo anterior,
S T S). Al tomar el espacio generado, sucede que
S) T) S)) = S).
Luego S) = T) = S 0
V
).
2.8.6. Preservacion de la Independencia Lineal
Como indicamos en la subseccion anterior, los superconjuntos de un con-
junto linealmente independiente, no tienen por que ser linealmente indepen-
dientes. El que la independencia lineal se preserve para ciertos superconjun-
tos, sera un hecho importante a partir de la siguiente seccion. En esta direc-
cion, en el teorema que presentamos a continuaci on mostramos una condicion,
48 CAP

ITULO 2. ESPACIOS VECTORIALES


bajo la cual, es posible agregarle un elemento a un conjunto linealmente in-
dependiente, de manera que el conjunto que resulta sigue siendo linealmente
independiente.
Teorema 2.40. Supongamos que S V es linealmente independiente y que
x V S. Entonces Sx es linealmente independiente si y solo si x / S).
Demostracion. Supongamos primero que S x es linealmente indepen-
diente. Si x S), entonces x es una combinaci on lineal de todos los elemen-
tos de alg un subconjunto nito T de S. Supongamos que T = x
1
, x
2
, . . . , x
n

y tomemos escalares a
1
, a
2
, . . . , a
n
F tales que
x = a
1
x
1
+a
2
x
2
+ +a
n
x
n
.
Notemos que T x es un subconjunto nito de S x y que
0
V
= (1
F
)x + (a
1
)x
1
+ (a
2
)x
2
+ + (a
n
)x
n
es una combinacion lineal de todos los elementos de T x, que da 0
V
, y
en donde uno de los coecientes utilizados (el de x) es diferente de 0
F
. Esto
contradice el hecho de que S x es linealmente independiente. Por tanto
x / S).
Ahora supongamos que x / S). Si S x es linealmente dependiente,
entonces existe un subconjunto nito T de S x, de manera que el vector
cero se puede escribir como una combinaci on lineal de todos los elementos de
T, en donde no todos los coecientes utilizados en dicha combinacion lineal
son iguales a 0
F
. Notemos que T S o bien x T. El primer caso no
es posible pues, de suceder, se contradice el hecho de que S es linealmente
independiente. Tenemos entonces que x T y, como T es nito, podemos
suponer que T = x, x
1
, x
2
, . . . , x
n
, en donde x
1
, x
2
, . . . , x
n
S. Ademas
existen escalares a, a
1
, a
2
, . . . , a
n
F, no todos iguales a 0
F
, de manera que
ax +a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
. (2.8.3)
Supongamos que a = 0
F
. Entonces de (2.8.3) se sigue que
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
.
Ahora bien x
1
, x
2
, . . . , x
n
es un subconjunto nito del conjunto linealmente
independiente S, por lo que a
1
= a
2
= = a
n
= 0
F
. Esto signica que todos
2.8. DEPENDENCIA E INDEPENDENCIA LINEAL 49
los coecientes utilizados en la ecuacion (2.8.3) son iguales a 0
F
, lo cual es una
contradiccion. Por tanto a ,= 0
F
. Como F es un campo, podemos entonces
considerar al neutro multiplicativo a
1
de a. Al multiplicar (2.8.3) por a
1
obtenemos que
x = (a
1
a
1
)x
1
+ (a
1
a
2
)x
2
+ + (a
1
a
n
)x
n
.
Por tanto x es una combinaci on lineal de un subconjunto nito de S. Luego,
x es una combinaci on lineal de elementos de S, as que x S). Como esto
contradice el hecho de que x / S), deducimos que el conjunto S x es
linealmente independiente.
Corolario 2.41. Supongamos que S V es linealmente independiente y que
x V S. Entonces S x es linealmente dependiente si y solo si x S).
Podemos utilizar los resultados anteriores, para determinar si un sub-
conjunto T de V, con justo dos elementos es linealmente independiente o
no. Supongamos que T = x
1
, x
2
y que x
1
,= x
2
. Como hemos indicado,
si 0
V
T, entonces T es linealmente dependiente. Supongamos, por tanto,
que x
1
y x
2
son diferentes del vector cero. Consideremos x
1
y notemos
que, por el Teorema 2.34, x
1
es linealmente independiente. Si x
2
x
1
) en-
tonces, por el corolario anterior, T es linealmente dependiente. Por otro lado,
si x
2
/ x
1
) entonces, por el Teorema 2.40, T es linealmente independiente.
En general, lo indicado en el parrafo anterior, nos sirve para determinar
si un subconjunto nito S = x
1
, x
2
, . . . , x
n
de V es linealmente indepen-
diente o no. Para esto, procedemos como sigue: si alg un elemento de S es
igual al vector cero, entonces S es linealmente dependiente. Supongamos en-
tonces que ning un elemento de S es igual al vector cero. Consideremos el
conjunto x
1
el cual, por el Teorema 2.34, es linealmente independiente. Si
x
2
x
1
) entonces, por el Corolario 2.41, el subconjunto x
1
, x
2
de S es
linealmente dependiente. Como los superconjuntos de conjuntos linealmente
dependientes, son linealmente dependientes (Teorema 2.37), el conjunto S es
linealmente dependiente. Por tanto, si x
2
x
1
), entonces S es linealmente
dependiente. Supongamos ahora que x
2
/ x
1
). Entonces, por el Teorema
2.40, el subconjunto x
1
, x
2
de S es linealmente independiente. Ahora debe-
mos tomar en cuenta a x
3
. Si x
3
x
1
, x
2
) entonces, por el Corolario 2.41,
el subconjunto x
1
, x
2
, x
3
de S es linealmente dependiente. Luego, por el
Teorema 2.37, S es linealmente dependiente. Si x
3
/ x
1
, x
2
) entonces, por
50 CAP

ITULO 2. ESPACIOS VECTORIALES


el Teorema 2.40, el subconjunto x
1
, x
2
, x
3
de S es linealmente indepen-
diente. En este momento tomamos en cuenta x
4
. Como hemos visto, para
que se mantenga la independencia lineal, el nuevo elemento debe de estar
en el complemento de lo que genera el conjunto que tenemos, en este caso
x
1
, x
2
, x
3
. De lo contrario dicho conjunto y, por tanto tambien S, seran
linealmente dependientes. Continuando el proceso anterior, luego de n pasos
sabremos si S es linealmente dependiente o no.
El proceso enunciado en el parrafo anterior, funciona bien a nivel teorico
pero, salvo algunas excepciones, no funciona bien en la practica. Para ser
un poco mas explcitos, en la practica, si el n umero n es peque no, digamos
n 3, entonces el proceso anterior s funciona para determinar si el conjunto
S = x
1
, x
2
, . . . , x
n
es linealmente dependiente o no. La razon es que, en la
practica, el calculo de un espacio generado puede resultar engorroso. Calcular
x
1
) puede no serlo tanto, pero s calcular x
1
, x
2
) y no se diga x
1
, x
2
, x
3
). Por
tanto, como hemos indicado, casi siempre es preferible recurrir a un sistema
de ecuaciones lineales, para determinar si un conjunto dado es linealmente
dependiente o no. Tambien, como ya indicamos, en el Captulo 3 veremos
como resolver un sistema de ecuaciones lineales utilizando matrices.
Terminamos la presente seccion con la siguiente generalizacion del proceso
anteriormente indicado, el cual se utilizara mas adelante. Supongamos que
S
1
es un subconjunto de V que es linealmente independiente. Si S
2
) , = V,
entonces podemos tomar un elemento x
1
V S
2
). Por el Teorema 2.40, el
conjunto S
2
= S
1
x
1
es linealmente independiente. Ahora bien, si S
2
) ,=
V, entonces podemos tomar un elemento x
2
V S
2
) y, aplicando de nuevo
el Teorema 2.40, el conjunto S
3
= S
2
x
2
= S
1
x
1
, x
2
es linealmente
independiente. De nueva cuenta si S
3
) ,= V, entonces podemos tomar un
elemento x
3
V S
3
) y el conjunto S
4
= S
3
x
3
= S
1
x
1
, x
2
, x
3

es linealmente independiente. Si el espacio generado de cada subconjunto


nuevo que vamos obteniendo es diferente de V, entonces podemos construir
una sucesion (S
n
)
n
de subconjuntos de V tales que, para cada n N,
(a) S
n
es linealmente independiente y S
n
) ,= V,
(b) S
n
S
n+1
y el conjunto S
n+1
S
n
posee solo un elemento.
Por supuesto, si en el proceso anterior, cuando vamos obteniendo los con-
juntos S
1
, S
2
, S
3
, . . . , sucede que S
n
) = V, para alguna n N, entonces el
2.9. BASE DE UN ESPACIO VECTORIAL 51
conjunto S
n
es linealmente independiente y genera a V. A partir de la siguien-
te seccion, el hecho de encontrar subconjuntos linealmente independientes de
V que generen a V, sera muy importante.
2.9. Base de un Espacio Vectorial
2.9.1. Denicion y Ejemplos
Los conceptos estudiados es las secciones 2.6 y 2.8 forman el n ucleo de
una de las nociones mas importantes del

Algebra Lineal: la de base. Antes
de denirla notemos que, en R
2
, los vectores (1, 0) y (0, 1) son linealmente
independientes y generan a R
2
. En R
3
los vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1)
son linealmente independientes y generan R
3
. Como veremos, para un espacio
vectorial V, siempre es posible encontrar un subconjunto S de V que es
linealmente independiente y genera a V.
Denicion 2.42. Una base para un espacio vectorial V es un subconjunto
de V que es linealmente independiente y genera a V.
El proceso mostrado al nal de la seccion anterior, no es suciente para
garantizar que todo espacio vectorial admite una base. Veamos por que.
Supongamos que deseamos probar que el espacio vectorial V admite una
base. Si V = 0
V
, entonces podemos tomar = . Como el conjunto vaco
es linealmente independiente y hemos convenido que ) = 0
V
, tenemos
que es una base de V.
Supongamos ahora que V ,= 0
V
. Entonces existe un elemento x
1
V
tal que x
1
,= 0
V
. Por el Teorema 2.34, el conjunto S
1
= x
1
es linealmente
independiente. Si S
1
) = V, entonces S
1
es una base para V, pues es lineal-
mente independiente y genera a V. De ser este el caso la prueba de que V
admite una base termina. Pero de no ser as, tenemos que S
1
) ,= V. Entonces
podemos tomar un elemento x
2
V S
1
) y, como hemos visto al nal de la
seccion anterior, el conjunto S
2
= S
1
x
2
= x
1
, x
2
es linealmente inde-
pendiente. Si S
2
) = V, entonces S
2
es una base para V y la prueba termina.
De no ser as tenemos que S
2
) ,= V, por lo que podemos tomar un elemento
x
3
V S
2
). Como sabemos, el conjunto S
3
= S
2
x
3
= x
1
, x
2
, x
3

es linealmente independiente. De nueva cuenta consideramos dos casos: si


S
3
) = V, entonces S
3
es una base de V y, si S
3
) ,= V, entonces tomamos un
52 CAP

ITULO 2. ESPACIOS VECTORIALES


elemento x
4
V S
3
) y formamos el conjunto S
4
= S
3
x
4
que sabemos
es linealmente independiente.
El proceso mostrado en el parrafo anterior, ese de ir a nadiendo un punto
cada vez, puede no terminar. Es decir, bien podramos seguir y seguir y,
de esta manera, construir una sucesion (S
n
)
n
de subconjuntos de V con las
propiedades (a) y (b) enunciadas al nal de la seccion anterior: todos los
conjuntos S
n
seran linealmente independientes y ninguno de ellos generara a
V. Si no establecemos un cierto control desde el principio, entonces siguiendo
las ideas que hemos indicado, bien podramos terminar en un callejon sin
salida. En la siguiente seccion mostraremos como establecer dicho control,
para as probar que todo espacio vectorial admite una base. Notemos que,
hasta donde hemos demostrado, el espacio vectorial 0
V
admite como base
al conjunto vaco.
A partir de este momento, procederemos como si ya hubiesemos probado
que todos espacio vectorial admite una base. Como indicamos, dicho resulta-
do se probara en la siguiente seccion. Ademas su prueba no entrar a en con-
icto con ninguno de los resultados indicados en esta seccion. A lo largo de
la presente seccion, daremos algunos espacios vectoriales, en donde podemos
dar directamente una base.
Si es una base de V, es com un decir que los elementos de forman
una base de V. As pues, los vectores (1, 0) y (0, 1) forman una base de R
2
,
mientras que los vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) forman una base de R
3
.
En general, si F es un campo entonces los vectores
e
1
= (1
F
, 0
F
, . . . , 0
F
) e
2
= (0
F
, 1
F
, 0
F
, . . . , 0
F
) e
n
= (0
F
, . . . , 0
F
, 1
F
)
forman una base de F
n
. Dada i 1, 2, . . . , n, el vector e
i
tiene en su
coordenada i el neutro multiplicativo 1
F
y, en sus demas coordenadas, el
neutro aditivo 0
F
. La base = e
1
, e
2
, . . . , e
n
que hemos denido se llama
la base estandar o base canonica de F
n
.
Consideremos ahora el espacio vectorial P
n
(F) de los polinomios de grado
menor o igual a n, con coecientes en el campo F. Sea 1
P
el polinomio
constante cuyo valor constante es 1
F
. Entonces = 1
P
, x, x
2
, . . . , x
n
es una
base de P
n
(F). En efecto ) = P
n
(F), pues cada elemento f(x) P
n
(F) se
2.9. BASE DE UN ESPACIO VECTORIAL 53
puede escribir en la forma
f(x) = a
0
+a
1
x+a
2
x
2
+ +a
n
x
n
= (a
0
)1
P
+(a
1
)x+(a
2
)x
2
+ +(a
n
)x
n
.
Para ver que es linealmente independiente supongamos que 0
P
es el poli-
nomio cero. Notemos que 0
P
es un polinomio constante cuyo valor constante
es 0
F
. Tomemos a
0
, a
1
, . . . , a
n
F de forma que
a
0
1
P
+a
1
x +a
2
x
2
+ +a
n
x
n
= 0
P
.
Entonces, seg un el criterio de la igualdad de dos polinomios, a
0
= a
1
= =
a
n
= 0
F
. Esto prueba que es una base de P
n
(F).
En los ejemplos anteriores, hemos mostrado algunos espacios vectoriales
que admiten una base con una cantidad nita de elementos. En general, una
base puede tener un n umero innito de elementos. Para ver esto, conside-
remos el espacio vectorial P(F) de los polinomios con coecientes en F. En
la seccion anterior mostramos que el conjunto innito = 1
P
, x, x
2
, . . . es
linealmente independiente y, como tambien es cierto que ) = P(F), sucede
que es una base de P(F).
Como hemos visto, existen espacios vectoriales que admiten una base
nita, as como espacios vectoriales que admiten una base innita. Notemos
que un espacio vectorial admite en general mas de una base. Por ejemplo,
en R
2
, los vectores a = (1, 0) y b = (1, 1) son linealmente independientes y
generan a R
2
. La independencia lineal de a y b se sigue del hecho de que, en
R
2
, dos vectores son linealmente independientes si y solo si no son paralelos.
El hecho de que a y b generan a R
2
se prueba como sigue: notemos primero
que
a) = ca: c R = (c, 0): c R,
por lo que b / a), pues la segunda coordenada de b es diferente de 0. En-
tonces, de acuerdo al analisis que efectuamos en la Seccion 2.5, el cual nos
llevo a las condiciones 1)-4) de la pagina 35, concluimos que a, b) = R
2
.
De hecho, siguiendo dicho analisis, resulta que cualesquiera dos vectores no
paralelos son linealmente independientes y generan R
2
. Por consiguiente, cua-
lesquiera dos vectores no paralelos forman una base de R
2
. Tenemos, en par-
ticular, que los conjuntos (1, 0), (1, 1) y (1, 0), (0, 1) son dos bases para
R
2
. Mas adelante probaremos que si un espacio vectorial V admite una base
54 CAP

ITULO 2. ESPACIOS VECTORIALES


nita, con digamos n elementos, entonces todas las bases de V son nitas y
tienen n elementos. Como consecuencia de esto, si un espacio vectorial ad-
mite una base con una cantidad innita de elementos, entonces todas sus
bases tienen tambien una cantidad innita de elementos.
2.9.2. Resultados para Bases Finitas
A continuacion probaremos una serie de teoremas que nos llevaran a la
demostracion de los dos resultados que hemos indicado sin demostracion:
que todo espacio vectorial admite una base, y que todas las bases nitas de
un espacio vectorial tienen la misma cantidad de elementos. Como siempre,
pensaremos que V es un espacio vectorial sobre un campo F. En el siguiente
teorema mostramos una condicion, bajo la cual, es posible obtener una base
nita del espacio vectorial V.
Teorema 2.43. Supongamos que S
0
V es nito y tal que S
0
) = V.
Entonces existe S
0
tal que es una base para V. Como consecuencia de
esto, V tiene una base nita.
Demostracion. Supongamos primero que S
0
= . Entonces V = S
0
) =
) = 0
V
. Como ya hemos indicado, = es una base de 0
V
. Suponga-
mos ahora que S
0
= 0
V
. Entonces
V = S
0
) = 0
V
) = c0
V
: c F = 0
V
.
En esta situacion tomamos, de nueva cuenta, = . Naturalmente S
0
y es una base para V = 0
V
. Supongamos, por tanto, que S
0
,= 0
V
.
Entonces S
0
tiene por lo menos dos elementos. Sea n el n umero de elementos
de S
0
. Como n 2 podemos tomar un elemento x
1
S
0
tal que x
1
, = 0
V
.
Por el Teorema 2.34, el conjunto S
1
= x
1
es linealmente independiente. A
continuacion vamos a agregarle a S
1
elementos x
2
, x
3
, . . . , x
r
de S
0
, de manera
que el conjunto = x
1
, x
2
, . . . , x
r
sea linealmente independiente, pero el
conjunto x sea linealmente dependiente, para cada x S
0
. El hecho
de que S
0
es nito hace posible realizar lo anterior. Ahora mostraremos que
es una base para V. Como es linealmente independiente, lo unico que
falta probar es que ) = V. Si probamos que S
0
), entonces tendremos
que
V = S
0
) )) = ).
2.9. BASE DE UN ESPACIO VECTORIAL 55
Y como es cierto que ) V, sucedera que ) = V. Basta, por tanto,
mostrar que S
0
). Tomemos x S
0
. Si x , entonces x ).
Supongamos ahora que x S
0
. Por la forma en que se contruy o ,
resulta que x es linealmente dependiente. Entonces, por el Corolario
2.41, x ). Esto prueba que S
0
) y termina la demostracion del
teorema.
En la prueba del teorema anterior, esencialmente lo que estamos haciendo
es encontrar el subconjunto maximo de S
0
que es linealmente independiente.
Como consecuencia de esto, tenemos el siguiente resultado.
Teorema 2.44. Supongamos que es un subconjunto nito de V con las
siguientes propiedades:
(a) genera a V ;
(b) si S V es tal que S , entonces S no genera a V.
Entonces es una base de V.
Demostracion. Como ) = V, para mostrar que es una base solo falta
hacer ver que es linealmente independiente. Supongamos que es lineal-
mente dependiente. Como es nito y genera a V, por el teorema anterior,
existe

tal que

es una base para V. Entonces

es linealmente inde-
pendiente y, como es linealmente dependiente, sucede que

. Ahora
bien, como

es una base para V, tenemos que

genera a V. Por consi-


guiente

es un subconjunto propio de que genera a V. Esto contradice la


condicion (b), por lo que es linealmente independiente.
El teorema anterior muestra dos condiciones bajo las cuales un subcon-
junto nito de V es una base para V. Dicha condicion esta dada unicamente
en terminos de la nocion de espacio generado. En la siguiente seccion vere-
mos dos condiciones, dadas en terminos de la independencia lineal, bajo la
cuales un subconjunto de V, no necesariamente nito, es una base para V.
De momento vamos a preparar el camino para probar que si un espacio vec-
torial dado admite una base nita, entonces todas las bases de dicho espacio
son nitas y tienen el mismo n umero de elementos. Primero veremos que
si el espacio vectorial V admite una base nita, con digamos n elementos,
entonces a cualquier subconjunto linealmente independiente con menos de n
elementos, le podemos agregar elementos de modo que el conjunto resultante
genere a V.
56 CAP

ITULO 2. ESPACIOS VECTORIALES


Teorema 2.45. Supongamos que V admite una base nita con exacta-
mente n elementos. Sea S un subconjunto de V, linealmente independiente y
con exactamente m elementos, en donde m n. Entonces existe un subcon-
junto S
1
de con exactamente n m elementos, de modo que S S
1
) = V.
Demostracion. Lo que queremos probar es trivialmente cierto si n = 0.
Supongamos, por tanto, que n 1. Si m = 0, entonces S = el cual es, por
supuesto, linealmente independiente. En dicha situacion hacemos S
1
= .
Entonces el conjunto S S
1
= tiene exactamente n m = n 0 = n
elementos y genera a V. Con esto, lo que queremos demostrar es cierto para
m = 0. Podemos entonces aplicar induccion nita sobre m. Supongamos,
por tanto, que lo que queremos demostrar es cierto para alguna m, en donde
0 m < n. Debemos hacer ver que lo que queremos demostrar sigue sien-
do cierto para m + 1. Supongamos entonces que S es un subconjunto de
V, linealmente independiente y con exactamente m + 1 elementos. Ponga-
mos que S = y
1
, y
2
, . . . , y
m
, y
m+1
. Como los subconjuntos de conjuntos
linealmente independientes son linealmente independientes, el subconjunto
T = y
1
, y
2
, . . . , y
m
de S, que tiene exactamente m elementos, es linealmente
independiente. Entonces, por la hipotesis de induccion, existe un suconjun-
to T
1
de con exactamente n m elementos, de modo que T T
1
) = V.
Pongamos ahora que T
1
= x
1
, x
2
, . . . , x
nm
. Como y
m+1
V = T T
1
),
resulta que y
m+1
es una combinaci on lineal de todos los elementos de T T
1
.
Por tanto, existen escalares a
1
, a
2
, . . . , a
m
, b
1
, b
2
, . . . , b
nm
F de modo que
y
m+1
= a
1
y
1
+a
2
y
2
+ +a
m
y
m
+b
1
x
1
+b
2
x
2
+ +b
nm
x
nm
. (2.9.1)
Supongamos que b
1
= b
2
= = b
nm
= 0
F
. Entonces, de la ecuacion (2.9.1)
se sigue que
y
m+1
= a
1
y
1
+a
2
y
2
+ +a
m
y
m
o, equivalentemente, que
(a
1
)y
1
+ (a
2
)y
2
+ + (a
m
)y
m
+ (1
F
)y
m+1
= 0
V
.
La ecuacion anterior es una combinacion lineal de todos los elementos de S
que da el vector cero, en donde por lo menos uno de lo coecientes utiliza-
dos (el de y
m+1
) es diferente de 0
F
. Por tanto, el conjunto S es linealmente
dependiente. Como esto contradice el hecho de que S es linealmente inde-
pendiente, alguno de los coecientes b
1
, b
2
, . . . , b
nm
es diferente de 0
F
. Sin
perder generalidad, supongamos que b
1
,= 0
F
. Como F es un campo, podemos
2.9. BASE DE UN ESPACIO VECTORIAL 57
entonces considerar el neutro multiplicativo b
1
1
de b
1
. Multipliquemos ahora
la ecuacion (2.9.1) por b
1
1
y despejemos x
1
. Entonces obtenemos que
x
1
= (b
1
1
a
1
)y
1
+ (b
1
1
a
2
)y
2
+ + (b
1
1
a
m
)y
m
+ (b
1
1
)y
m+1
+
(b
1
1
b
2
)x
2
+ (b
1
1
b
3
)x
3
+ + (b
1
1
b
nm
)x
nm
.
De la ecuacion anterior se sigue que
x
1
y
1
, y
2
, . . . , y
m
, y
m+1
, x
2
, x
3
, . . . , x
nm
).
Hagamos S
1
= x
2
, x
3
, . . . , x
nm
. Notemos que S
1
es un subconjunto de
con exactamente n (m + 1) elementos. Ademas x
1
S S
1
) y, como
T S
1
S S
1
S S
1
), tenemos que
T T
1
= (T S
1
) x
1
S S
1
).
Luego
V = T T
1
) S S
1
)) = S S
1
).
Como tambien es cierto que S S
1
) V, concluimos que S S
1
) = V.
Esto hace ver que lo que queremos demostrar es cierto para m + 1. Por
consiguiente, lo que queremos demostrar es cierto para cualquier m n.
Corolario 2.46. Supongamos que V admite una base nita con exacta-
mente n elementos. Entonces cualquier subconjunto de V, linealmente inde-
pendiente y con exactamente n elementos, es una base de V.
Demostracion. Supongamos que S es un subconjunto de V, linealmente
independiente y con exactamente n elementos. Entonces, por el teorema an-
terior, existe un subconjunto S
1
de con exactamente n n = 0 elementos
tal que S S
1
) = V. Naturalmente S
1
= , as que S) = V. Tenemos en-
tonces que S es linealmente independiente y genera a V. Por tanto, S es una
base para V.
Corolario 2.47. Supongamos que V admite una base nita con exac-
tamente n elementos. Entonces cualquier subconjunto de V con mas de n
elementos es linealmente dependiente.
Demostracion. Supongamos que T es un subconjunto de V con mas de
n elementos. Supongamos tambien que T es linealmente independiente. En-
tonces cualquier subconjunto de T es linealmente independiente. Tomemos
58 CAP

ITULO 2. ESPACIOS VECTORIALES


un subconjunto S de T con exactamente n elementos. En vista de que S es
linealmente independiente, por el corolario anterior, sucede que S es una base
para V. Ahora bien, como S tiene exactamente n elementos, T tiene mas de
n elementos y S T, podemos tomar un elemento x T S. Notemos que
x V = S) por lo que, por el Corolario 2.41, el conjunto S x es lineal-
mente dependiente. En vista de que superconjuntos de conjuntos linealmente
dependientes son linealmente dependientes y de que S x T, sucede
que T es linealmente dependiente. Esta contradicci on termina la prueba del
corolario.
Corolario 2.48. Supongamos que V admite una base nita con exacta-
mente n elementos. Entonces cualquier subconjunto de V que sea linealmente
independiente tiene, a lo mas, n elementos.
Notemos que, del Corolario 2.47, se sigue que cualquier subconjunto de R
n
con mas de n elementos es linealmente dependiente pues, como ya indicamos,
R
n
admite una base con exactamente n elementos, a saber, su base canonica.
En particular, el subconjunto S = x
1
, x
2
, x
3
, x
4
de R
3
que estudiamos en la
seccion anterior (en donde x
1
= (2, 1, 4), x
2
= (1, 1, 3), x
3
= (1, 1, 1) y
x
4
= (1, 2, 1)), es linealmente dependiente, pues tiene mas de tres elemen-
tos. Por esta razon, todo el trabajo efectuado en la seccion anterior, para ver
que S es linealmente dependiente, esta de mas, en presencia de un resultado
como el Corolario 2.47.
Estamos ahora en condiciones para probar el resultado sobre la igualdad
del n umero de elementos en las bases.
Teorema 2.49. Supongamos que V admite una base nita con exacta-
mente n elementos. Entonces toda base de V tiene exactamente n elementos.
Demostracion. Supongamos que S es una base de V. Como S es lineal-
mente independiente, por el Corolario 2.48, S tiene a lo mas n elementos.
Supongamos que S tiene exactamente m elementos. Entonces m n. Ahora
bien, como S es una base nita de V con exactamente m elementos y es
linealmente independiente, aplicando de nuevo el Corolario 2.48, deducimos
que tiene a lo mas m elementos. En vista de que tiene exactamente n ele-
mentos, resulta entonces que n m. Por tanto n = m y, como consecuencia
de esto, S tiene exactamente n elementos.
Podemos utilizar el resultado anterior para generalizar el Teorema 2.43.
2.9. BASE DE UN ESPACIO VECTORIAL 59
Teorema 2.50. Supongamos que V admite una base nita con exactamente
n elementos. Si S V es tal que S) = V, entonces existe S tal que
es una base para V.
Demostracion. Naturalmente si S es nito, entonces el resultado se sigue
del Teorema 2.43. Supongamos, por tanto, que S es innito. Entonces S
contiene un elemento v
1
,= 0
V
. Luego, v
1
es linealmente independiente.
Notemos ahora que S v
1
) o bien S v
1
) ,= . En el primer caso tenemos
que V = S) v
1
)) = v
1
). Por tanto v
1
genera a V. Entonces v
1
S
es una base de V. Esto terminara la prueba del teorema.
Si S v
1
) ,= , entonces tomamos un punto v
2
S v
1
). Luego,
por el Teorema 2.40, v
1
, v
2
es un subconjunto de S que es linealmente
independiente. Notemos ahora que S v
1
, v
2
) o bien S v
1
, v
2
) ,= .
En el primer caso tenemos que v
1
, v
2
) genera a V. Entonces v
1
, v
2
) es un
subconjunto de S que es una base para V. Esto terminara la prueba del
teorema. Si S v
1
, v
2
) ,= , entonces tomamos un punto v
3
S v
1
, v
2
),
consideramos el subconjunto linealmente independiente v
1
, v
2
, v
3
de S y
repetimos el argumento de arriba: si S v
1
, v
2
, v
3
), entonces el subconjunto
v
1
, v
2
, v
3
de S, es una base para V. Si Sv
1
, v
2
, v
3
) ,= , entonces tomamos
un cuarto punto y repetimos el argumento.
Ahora bien, notemos que cada vez que tenemos que repetir el argumento,
es decir, cada vez que tenemos que agregar un nuevo punto de S, estamos
construyendo un nuevo subconjunto nito de S que es linealmente indepen-
diente. Como estamos suponiendo que V tiene una nita con exactamente n
elementos, por el teorema anterior, todas las bases de V son nitas y tienen
exactamente n elementos. Por tanto, el proceso anterior debe terminar luego
de n pasos. En dicho momento habremos encontrado un subconjunto nito
de S, que es una base para V. Esto termina la demostracion.
En la siguiente seccion, mostraremos que el resultado anterior es tambien
cierto para espacios vectoriales que admiten bases innitas. Como veremos,
dicho resultado abarcara los teoremas 2.43 y 2.50. Esto no signica que di-
chos teoremas no debieron de haber sido probados en esta seccion. Conviene
conocer sus demostraciones pues, por lo general, trabajaremos con espacios
vectoriales que admiten una base nita. Probar el resultado anterior para
espacios que admiten bases innitas, es algo que se hace mas para completar
la teora.
60 CAP

ITULO 2. ESPACIOS VECTORIALES


2.10. Existencia de una Base
En esta seccion probaremos que todo espacio vectorial admite una base.
Como vimos en la seccion anterior, si V es un espacio vectorial que admite
una base nita , entonces todas las bases de V son nitas y tienen el mismo
n umero de elementos. Como consecuencia de esto, satisface las siguientes
dos propiedades:
a) es linealmente independiente,
b) si S V, entonces S no es una base de V.
La propiedad b) dice que si a la base nita le agregamos por lo menos un
elemento, entonces deja de ser base. Por tanto, el nuevo conjunto dejara de
ser linealmente independiente o bien dejara de generar a V. Notemos que
la segunda opcion no se cumple. En efecto, si es una base de V y
S, entonces V = ) S), de donde S) = V. En otras palabras, todo
superconjunto de un conjunto que genera a V, sigue generando a V. Por tanto,
si S satisface la condicion b), entonces S no es linealmente independiente.
Tenemos entonces, cuando V admite una base nita, que si es una base de
V entonces satisface las siguientes dos propiedades:
1) es linealmente independiente,
2) si S V, entonces S no es linealmente independiente.
En el siguiente resultado probamos que las propiedades 1) y 2) caracterizan
a las bases, ya sea nitas o innitas.
Teorema 2.51. Un subconjunto de V es una base de V si y solo si
satisface las propiedades 1) y 2).
Demostracion. Supongamos primero que V satisface 1) y 2). Como
es linealmente independiente, para ver que es una base de V, basta probar
que ) = V. Si ) ,= V, entonces podemos tomar un elemento x V ).
Hagamos S = x. Por el Teorema 2.40, S es linealmente independiente.
Esto contradice la propiedad 2), pues S. Luego ) = V y, por tanto,
es una base de V.
Ahora supongamos que es una base de V. Entonces es linealmente
independiente, por lo que satisface 1). Supongamos ahora que S V
2.10. EXISTENCIA DE UNA BASE 61
y tomemos un punto x S . Notemos que es linealmente independiente
y que x V = ). Luego, por el Corolario 2.41, el conjunto x es
linealmente dependiente. Como x S y los superconjuntos de conjun-
tos linealmente dependientes son linealmente dependientes, S es linealmente
dependiente. Esto prueba que satisface 2).
Como consecuencia del teorema anterior, podemos decir que si a una
base nita o innita de un espacio vectorial, le agregamos por lo menos un
elemento, entonces deja de ser base.
Estamos ahora interesados en probar que V admite una base. Debemos
entonces garantizar que existe un subconjunto de V con las propiedades
1) y 2). Notemos que dicho subconjunto debe ser el mas grande entre los
subconjuntos linealmente independientes de V. Para garantizar la existencia
de dicho subconjunto, necesitaremos del Principio de Maximalidad y, para
enunciar dicho principio, debemos denir un par de conceptos.
Denicion 2.52. Sea T una familia de conjuntos. Un elemento M T se
llama maximal, con respecto a la inclusion de conjuntos, si ning un elemento
de T contiene propiamente a M. Un elemento N T se llama minimal, con
respecto a la inclusion de conjuntos, si ning un elemento de T esta contenido
propiamente en N.
De acuerdo a las nociones de maximalidad y minimalidad, el Teorema
2.44 dice que todo subconjunto nito de V que genere a V, y sea minimal
con respecto a la propiedad de generar a V, es una base para V. El Teorema
2.51 dice que un subconjunto de V es una base de V, si y solo si es
linealmente independiente y maximal con respecto a la propiedad de ser
linealmente independiente.
Denicion 2.53. Sea T una familia de conjuntos. Decimos que T es una
cadena si, para cada A, B T, sucede que A B o bien B A.
Dada n N denamos A
n
= 1, 2, . . . , n y T = A
n
: n N. Entonces
T es una cadena. El Principio de Maximalidad es el que se enuncia en el
siguiente teorema.
Teorema 2.54. Sea T una familia de conjuntos. Si para toda cadena c T
existe un elemento de T que contiene a cada uno de los miembros de c,
entonces T contiene un elemento maximal.
62 CAP

ITULO 2. ESPACIOS VECTORIALES


Es conocido que el Principio de Maximalidad es equivalente al Axioma
de Eleccion, ese que dice que si tenemos una familia X
i

iI
de conjuntos
no vacos, entonces existe una familia x
i

iI
tal que x
i
X
i
, para cada
i I. El Axioma de Eleccion basicamente nos dice que podemos escoger
un punto en cada elemento de una familia de conjuntos no vacos. No es
uno de los objetivos de un curso de

Algebra Lineal I probar el Principio de
Maximalidad ni, mucho menos, probar que dicho principio es equivalente al
Axioma de Eleccion. El lector interesado puede consultar los textos [3] y [6].
En el siguiente teorema mostramos que todo subconjunto linealmente
independiente de V se puede extender a una base para V.
Teorema 2.55. Sea S un subconjunto linealmente independiente de un es-
pacio vectorial V. Entonces existe un superconjunto de T que satisface las
condiciones 1) y 2).
Demostracion. Sea T la familia de todos los subconjuntos linealmente in-
dependientes de V que contienen a S. Naturalmente S T. Supongamos que
c T es una cadena y sea U la union de todos los elementos de c. Notemos
que S C U, para cada C c. Ahora veremos que U T. Como S U
basta probar que U es linealmente independiente. Supongamos entonces que
u
1
, u
2
, . . . , u
n
U y c
1
, c
2
, . . . , c
n
F son escalares tales que:
c
1
u
1
+c
2
u
2
+ +c
n
u
n
= 0
V
. (2.10.1)
Por la denicion de U, dada i 1, 2, . . . , n, tenemos que u
i
C
i
, para
alguna C
i
c. Ahora bien, uno de los C
i
s contiene a todos los elementos
u
1
, u
2
, . . . , u
n
. Para ver esto consideremos primero a los conjuntos C
1
y C
2
.
Como c es una cadena sucede que C
1
C
2
o bien C
2
C
1
. Supongamos, sin
perder generalidad, que la primera contencion es la que se tiene. Entonces C
2
contiene tanto a u
1
como a u
2
. Ahora consideremos C
2
y C
3
. Nuevamente,
como c es una cadena, tenemos que C
2
C
3
o bien C
3
C
2
. En el primer
caso tenemos que C
3
contiene a u
1
, u
2
y u
3
y, en el segundo, C
2
es el conjunto
que contiene a u
1
, u
2
y u
3
. Continuando este proceso y, dado que tenemos
un n umero nito de elementos u
i
s, en alg un momento encontraremos un
elemento C
k
de c que contiene a todos los elementos u
1
, u
2
, . . . , u
n
. Como
dicho conjunto C
k
es linealmente independiente, de (2.10.1), se sigue que
c
1
= c
2
= = c
n
= 0
F
. Esto muestra que U es linealmente independiente.
2.10. EXISTENCIA DE UNA BASE 63
Hemos probado que para cada cadena c T, existe un elemento de T
que contiene a cada uno de los miembros de c. Entonces, por el Principio
de Maximalidad, T contiene un elemento maximal . De acuerdo con la
denicion de T, el conjunto es linealmente independiente y S . Entonces
satisface la condicion 1). Por la maximalidad de , sucede que satisface
tambien la condicion 2).
Teorema 2.56. Todo espacio vectorial tiene una base.
Demostracion. Sea V un espacio vectorial. Si V tiene un solo elemento,
entonces V = 0
V
. En este caso, como ya hicimos ver, = es una base de
V. Supongamos entonces que V tiene por lo menos dos elementos. Entonces
existe x V tal que x ,= 0
V
. Por el Teorema 2.34 el conjunto S = x
es linealmente independiente. Entonces, por el teorema anterior, existe un
superconjunto de S que satisface las condiciones 1) y 2). Por el Teorema
2.51, es una base de V.
Recordemos el proceso que comentamos en la seccion anterior, luego de
la denicion de base. En tal empezamos con un conjunto S
1
linealmente in-
dependiente y con justo un elemento, que llamamos x
1
. Luego dijimos que si
S
1
) = V, entonces S
1
es una base para V. Si S
1
) ,= V, entonces tomamos un
elemento x
2
V S
1
) y formamos el conjunto linealmente independiente
S
2
= S
1
x
2
= x
1
, x
2
. Dijimos que si S
2
) = V, entonces S
2
era una
base de V y, si S
2
) ,= V, entonces tomamos un elemento x
3
V S
2
).
Posteriormente formamos S
3
= S
2
x
3
, el cual es linealmente indepen-
diente y seguimos el razonamiento anterior, agregando un punto cada vez
de ser necesario. Como comentamos en la seccion anterior, este proceso no
garantiza que existe una base para V. Es decir, empezando con un conjunto
de un solo punto que es diferente de 0
V
y agregando un punto cada vez, no
podemos garantizar que existe una base que contiene al punto con el cual
iniciamos. Esto no contradice lo que hicimos en la prueba del teorema an-
terior pues, al haber recurrido al Teorema 2.55, utilizamos implcitamente
el Principio de Maximalidad, en el cual involucramos a todas las cadenas
de conjuntos linealmente independientes que contienen a un conjunto lineal-
mente independiente dado. En el proceso anterior, los conjuntos S
1
, S
2
, S
3
, . . .
que vamos formando constituyen una sola cadena de conjuntos linealmente
independientes que contienen al conjunto linealmente independiente S
1
.
64 CAP

ITULO 2. ESPACIOS VECTORIALES


Tambien en la seccion anterior, y luego de la denicion de base, indicamos
que para que exista una base debamos establecer un control desde el prin-
cipio. Dicho control consiste en considerar a todas las cadenas de conjuntos
linealmente independientes que contienen al conjunto linealmente indepen-
diente S
1
dado, y probar que para cada una de estas cadenas es posible
encontrar un conjunto linealmente independiente que contiene a cada uno de
los elementos de la cadena considerada. Esto es justo lo que hicimos en la
prueba del Teorema 2.55.
A continuacion probaremos los teoremas 2.43 y 2.50 en el caso general.
Teorema 2.57. Si V es tal que ) = V, entonces existe S tal que
S es una base para V.
Demostracion. Si es linealmente independiente entonces, como genera
a V, mismo es un subconjunto de que es una base para V. Supongamos,
por tanto, que es linealmente dependiente. Entonces ,= , pues el conjun-
to vaco es linealmente independiente. Notemos ahora que tiene solamente
un elemento o bien tiene mas de un elemento. Supongamos que tiene sola-
mente un elemento. Entonces = 0
V
, pues es linealmente dependiente y
cualquier conjunto de la forma x con x ,= 0
V
, es linealmente independiente.
Ademas ) = 0
V
= V. En este caso, el conjunto vaco es un subconjunto
de que es una base para V.
Supongamos ahora que tiene por lo menos dos elementos. Entonces
existe x
1
tal que x
1
,= 0
V
. Consideremos ahora la familia T de todos
los subconjuntos linealmente independientes de V que estan contenidos en .
La familia T es no vaca, pues x
1
T. Supongamos ahora que c T es
una cadena, y sea U la union de todos los elementos de c. Una demostracion
analoga a la efectuada en la prueba del Teorema 2.55, hace ver que U es
linealmente independiente. Como cada elemento de c esta contenido en
tenemos, ademas, que U . Entonces U es un elemento de T que contiene
a todos los elementos de c. Aplicando el Principio de Maximalidad, resulta
que T contiene un elemento maximal S. Notemos que S es un subconjunto
de que es linealmente independiente.
Ahora mostraremos que S genera a V. Para ver esto, notemos que S)
o bien S) , = . Supongamos que S) ,= y tomemos un punto
x S). Como S es linealmente independiente y x / S), por el Teorema
2.10. EXISTENCIA DE UNA BASE 65
2.40, el conjunto Sx es linealmente independiente. Tenemos con esto que
S x es un subconjunto de que es linealmente independiente y contiene
propiamente a S. Como esto contradice la maximalidad de S, no puede ser
cierto que S) ,= . Por tanto S). Luego V = ) S)) = S).
Esto prueba que S genera a V y, como S es linealmente independiente, S es
una base para V.
A continuacion probaremos el Teorema 2.44 para el caso general.
Teorema 2.58. Si V genera a V y es minimal con respecto a la
propiedad de generar a V, entonces es una base para V.
Demostracion. Supongamos que V genera a V y es minimal con res-
pecto a la propiedad de generar a V. Esto ultimo signica que si S ,
entonces S no genera a V. Para probar que es una base de V, basta con
hacer ver que es linealmente independiente. Supongamos que es lineal-
mente dependiente. Como genera a V, por el teorema anterior, existe un
subconjunto S de tal que S es una base para V. Entonces S es lineal-
mente independiente y, como es linealmente dependiente, S . Tenemos
entonces que S es un subconjunto propio de que genera a V. Como esto
contradice la minimalidad de , resulta que es linealmente independiente.
Luego es una base para V.
Tenemos, por tanto, caracterizadas las bases con respecto a las nociones
de maximalidad y minimalidad. Como ya indicamos, todo subconjunto de V
que genera a V y es minimal con respecto a la propiedad de generar a V,
es una base para V. Asimismo, todo subconjunto de V que sea linealmente
independiente y maximal con respecto a la propiedad de ser linealmente
independiente, tambien es una base para V.
A continuacion mencionamos sin demostracion un resultado analogo al
Teorema 2.49.
Teorema 2.59. Si un espacio vectorial V admite una base innita, entonces
todas las bases de V son innitas y tienen la misma cardinalidad.
La demostracion del resultado anterior sigue esencialmente las mismas
ideas que se mostraron en la Seccion 2.7, pero utilizando ahora la nocion de
cardinalidad as como resultados de teora de cardinales. Para un curso de

Algebra Lineal I no es importante dar una prueba de esto. Una de las razones
66 CAP

ITULO 2. ESPACIOS VECTORIALES


es que vamos a estudiar principalmente espacios vectoriales que admiten
bases nitas. Otra es el tiempo: de hacer la demostracion debemos ver una
serie de resultados de teora de cardinales, luego traducir el Teorema 2.45
y sus corolarios en el lenguaje de cardinales. Es mejor empezar a ver otros
conceptos relacionados con los espacios vectoriales. Si el lector desea ver una
prueba del teorema anteior, puede recurrir al Captulo IX del libro [5]
2.10.1. Una Base no Numerable
Existen espacios vectoriales que admiten bases innitas y no numerables.
Tomemos, por ejemplo, el espacio vectorial V = T(R, R) de las funciones
de R en R. Para cada irracional p, consideremos la funcion f
p
: R R
dada por f
p
(p) = 1 y f
n
(x) = 0, para cada x ,= p. Notemos que f
p
es
la funcion constante cero, salvo en x = p, en cuyo caso el valor de f
p
es
1. Hagamos S = f
p
: p I, en donde I representa al conjunto de los
n umeros irracionales. Entonces S es un subconjunto innito y no numerable
de V. Mostraremos ahora que S es linealmente independiente. Para ver esto
tomemos un subconjunto nito T de . Pongamos que T = f
p
: p P, en
donde P es un subconjunto nito de I. Para cada p P sea a
p
R tal que
0
f
=

pP
a
p
f
p
. El smbolo 0
f
representa a la funcion cero. Ahora bien, si
evaluamos la igualdad 0
f
=

pP
a
p
f
p
en x = p, donde p P, obtenemos
que
0 = 0
f
(p) =

pP
a
p
f
p
(p) = a
p
f
p
(p) = a
p
(1) = a
p
,
pues f
p
(p) = 1 mientras que f
q
(p) = 0, para cada q P tal que q ,= p. Con
esto mostramos que a
p
= 0, para cada p P. Por consiguiente, el conjunto
S es linealmente independiente. Aplicando ahora el Teorema 2.55 tenemos
que un superconjunto de S sera una base para V. Como S es innito y no
numerable, la base es innita y no numerable. En vista de que cualesquiera
dos bases de V tienen la misma cardinalidad, deducimos que toda base de
V = T(R, R) es innita y no numerable. Consideremos ahora los conjuntos:
W
1
= f T(R, R): f es continua
y
W
2
= f T(R, R): f es diferenciable.
Tanto W
1
como W
2
son subespacios de V = T(R, R). Entonces cada uno de
ellos admite una base. Es posible encontrar una base innita y numerable
2.11. DIMENSI

ON DE UN ESPACIO VECTORIAL 67
para W
1
? Toda base para W
2
es innita y no numerable? Preferimos que el
lector descubra por s solo las respuestas a estas preguntas.
Terminamos la presente seccion mencionando que, para cada n umero car-
dinal y cada campo F, existe un espacio vectorial V sobre el campo F que
admite una base con cardinalidad . En el Captulo IX de [5] se muestra
como hacer esto. El espacio vectorial V es de la forma T(S, F), en donde
S es un conjunto con cardinalidad . La base es una mocicacion de la
base que dimos para T(R, R). No entraremos aqu en los detalles. Preferimos
remitir al lector al texto indicado.
2.11. Dimension de un Espacio Vectorial
2.11.1. Denicion y Propiedades Fundamentales
Sea V un espacio vectorial. Como comentamos en las dos secciones an-
teriores, si y

son dos bases para V, entonces y

tienen la misma
cardinalidad. Dicho cardinal, que no depende de la base considerada es, por
tanto, un invariante. Atendiendo a dicho cardinal los espacios vectoriales
reciben un nombre especial.
Denicion 2.60. Un espacio vectorial V es de dimension nia (o di-
mensionalmente nito), si V admite una base con una cantidad nita de
elementos. En este caso, el n umero de elementos com un a toda base de V se
llama la dimension de V. Si V no es de dimension nta, diremos que V es
de dimension innita (o dimensionalmente innito).
La dimension del espacio vectorial V sobre un campo F, se denotara por
dim
F
(V ). Como (1, 0), (0, 1) es una base para R
2
, tenemos que dim
R
(R
2
) =
2. De manera similar se prueba que dim
F
(F
n
) = n y dim
F
(P
n
(F)) = n + 1,
pues las bases que consideramos en dichos espacios tienen n y n+1 elementos,
respectivamente. Si P(F) es de dimension nita, entonces todas las bases de
P(F) tienen una cantidad nita de elementos. Sin embargo, hemos dado una
base para P(F) con un n umero innito de elementos, a saber 1
P
, x, x
2
, . . ..
Por tanto, P(F) es dimensionalmente innito.
A continuacion mostraremos una serie de resultados que involucran a la
dimension de un espacio vectorial.
68 CAP

ITULO 2. ESPACIOS VECTORIALES


Teorema 2.61. La dimension de un espacio vectorial depende del campo
considerado.
Demostracion. Consideremos primero el espacio vectorial C sobre el campo
de los n umeros complejos. Entonces = 1 es una base para C. En efecto,
como 1 ,= 0, es linealmente independiente (ver Teorema 2.34). Supongamos
ahora que z C. Entonces z = (z)1, por lo que z es una combinacion lineal
de todos los elementos de . Por consiguiente ) = C. Esto prueba que es
una base para C y, como todas las bases para C tienen el mismo n umero de
elementos, dim
C
(C) = 1.
Ahora consideremos al espacio vectorial C sobre el campo de los n umeros
reales. El conjunto = 1 sigue siendo linealmente independiente pero ya
no genera a C. Esto sucede porque los escalares que podemos utilizar son
n umeros reales. El complejo i no se puede escribir, por ejemplo, en la forma
i = (c)1, en donde c es un n umero real. Hagamos

= 1, i. Entonces

es una base para C. Para ver que

es linealmente independiente tomemos


dos escalares a, b R tales que (a)1 +b(i) = 0. Entonces el n umero complejo
a+bi es, de hecho, el n umero real 0. Luego a = b = 0. Esto muestra que

es
linealmente independiente. Para ver que

genera a C tomemos un elemento


z C. Entonces z es de la forma z = a + bi = (a)1 + b(i). Por consiguiente,
z es una combinaci on lineal de todos los elementos de

. Luego

) = C.
Esto prueba que

es una base para C y, como todas las bases para C tienen


dos elementos, dim
R
(C) = 2.
El hecho de que la dimension de un espacio vectorial dependa de su campo
de escalares, no signica que la dimension no es invariante. Una vez que
jamos el campo de escalares, la dimension es invariante sobre dicho campo.
Lo que hemos probado es que si cambiamos el campo, entonces la dimension
puede tambien cambiar. Ahora bien, si en un contexto es claro cual es el
campo de escalares que estamos utilizando, entonces en la notacion para la
dimension prescindiremos del subndice. Por ejemplo, hemos estado indicando
en mas de una ocasion que la letra V denota a un espacio vectorial sobre el
campo F. Por tanto, basta con escribir dim(V ), en lugar de dim
F
(V ). Por
supuesto, si entran en juego dos campos, entonces es conveniente utilizar la
notacion con subndices.
En el siguiente resultado mostramos que, para espacios dimensionalmente
2.11. DIMENSI

ON DE UN ESPACIO VECTORIAL 69
nitos, algunos conjuntos generadores pueden resultar ser una base, si conoce-
mos que su n umero maximo de elementos no supera la dimension del espacio.
Teorema 2.62. Sea V un espacio vectorial dimensionalmente nito. Supon-
gamos que dim(V ) = n. Entonces todo subconjunto de V que genere a V y
tenga a lo mas n elementos es una base para V.
Demostracion. Sea S un subconjunto de V con a lo mas n elementos y
tal que S) = V. Por el Teorema 2.43, existe S
1
S tal que S
1
es una base
de V. Como todas las bases de V tienen el mismo n umero de elementos y
dim(V ) = n, sucede que S
1
tiene justo n elementos. Entonces S
1
= S y con
esto probamos que S es una base para V.
Combinando el teorema anterior con el Teorema 2.45 y el Corolario 2.48,
obtenemos el siguiente resultado.
Teorema 2.63. Sea V un espacio vectorial dimensionalmente nito. Supon-
gamos que dim(V ) = n y que es una base para V. Si S es un subconjunto
linealmente independiente de V y con exactamente m elementos, entonces
existe un superconjunto T de S que es una base de V.
Demostracion. Como S es linealmente independiente, por el Corolario 2.48,
m n. Por el Teorema 2.45, existe un subconjunto S
1
de con exactamente
n m elementos tal que T = S S
1
genera a V. Notemos que T tiene a lo
mas n elementos. Entonces, por el teorema anterior, T es una base de V. Es
claro que T es un superconjunto de S.
El teorema anterior dice que, en los espacios dimensionalmente nitos, a
todo subconjunto linealmente independiente le podemos agregar elementos de
manera que el que conjunto resultante sea una base de dicho espacio. Notemos
que el teorema anterior no es otra cosa que una reformulaci on del Teorema
2.55, para espacios dimensionalmente nitos. Lo escribimos como un teorema
independiente dado que su prueba es muy sencilla, no depende del Principio
de Maximalidad (como se vio en la prueba del Teorema 2.55) y porque en
general utilizaremos espacios vectoriales dimensionalmente nitos. Ademas,
el Teorema 2.63 se usara con bastante frecuencia a partir del Captulo 4.
El siguiente teorema relaciona la dimension de un subespacio con la di-
mension del espacio vectorial que lo contiene.
70 CAP

ITULO 2. ESPACIOS VECTORIALES


Teorema 2.64. Sea W un subespacio de un espacio vectorial V, dimensional-
mente nito. Entonces W es dimensionalmente nito y dim(W) dim(V ).
Ademas dim(W) = dim(V ) si y solo si W = V.
Demostracion. Supongamos que dim(V ) = n. Si W = 0
V
, entonces W
es dimensionalmente nito y 0 = dim(W) n = dim(V ). Supongamos
ahora que W ,= 0
V
. Entonces existe un elemento x W tal que x ,= 0
V
.
Por el Teorema 2.34, el conjunto W
1
= x
1
es linealmente independiente. Si
W
1
) = W, entonces W
1
es una base para W. Si W
1
) ,= W, entonces tomamos
un elemento x
2
W W
1
). Por el Teorema 2.40, el conjunto W
2
= x
1
, x
2

es linealmente independiente. Si W
2
) = W, entonces W
2
es una base para W,
de lo contrario tomamos un elemento x
3
W W
2
). Aplicando de nuevo el
Teorema 2.40 tenemos que W
3
= x
1
, x
2
, x
3
es linealmente independiente.
Como dim(V ) = n tenemos, por el Corolario 2.48, que todo subconjunto de
V que sea linealmente independiente posee a lo mas n elementos. Por tanto,
el proceso anterior de ir agregando un elemento cada vez, para obtener un
nuevo conjunto linealmente independiente, debe terminar luego de a lo mas n
pasos. Cuando esto sucede, obtenemos un subconjunto W
k
= x
1
, x
2
, . . . , x
k

de W tal que W
k
es linealmente independiente pero W
k
x es linealmente
dependiente, para cada x W W
k
. Ademas k n y, de acuerdo a la
forma en que se van construyendo los conjuntos W
1
, W
2
, . . . , W
k
, resulta que
W
k
) = W. Por tanto dim(W) = k n = dim(V ). Esto termina la prueba
de la primera parte del teorema.
Para probar la segunda parte del teorema, supongamos que dim(W) =
dim(V ) = n. Como dim(W) = n, W admite una base con exactamente n
elementos. Ahora bien, V es un espacio que admite una base con exactamente
n elementos y es un subconjunto de V linealmente independiente y con
exactamente n elementos. Entonces, por el Corolario 2.46, es una base de
V. Entonces W = ) = V. Naturalmente, si suponemos que W = V, entonces
dim(W) = dim(V ). Esto termina la prueba del teorema.
Corolario 2.65. Si W es un subespacio de un espacio V dimensionalmente
nito, entonces W tiene una base nita y cualquier base para W es un sub-
conjunto de una base para V.
Demostracion. Por el teorema anterior, W es dimensionalmente nito. Por
tanto W admite una base nita. Ahora bien, si es una base para W, entonces
W es un subconjunto de V linealmente independiente. Aplicando el Teorema
2.63, un superconjunto de es una base para V.
2.11. DIMENSI

ON DE UN ESPACIO VECTORIAL 71
Utilizando el Teorema 2.64 podemos analizar geometricamente los su-
bespacios de R
2
. Sea W un subespacio de R
2
. Entonces, por el Teorema
2.64, dim(W) dim(R
2
) = 2. Si dim(W) = 0, entonces W = (0, 0). Si
dim(W) = 2 entonces, por el mismo Teorema 2.64, W = R
2
. Supongamos,
por tanto, que dim(W) = 1. Entonces W admite una base con exactamente
un elemento. Hagamos = x. Como es linealmente independiente, x ,=
(0, 0). Luego W = x) = ax: a R es la recta que pasa por x y el origen.
Esto prueba que si W es un subespacio de R
2
, entonces W = (0, 0), W = R
2
o bien W es una recta que pasa por el origen. Como (0, 0), R
2
y las rectas
que pasan por el origen son subespacios de R
2
, concluimos que los unicos
subespacios de R
2
son (0, 0), R
2
y las rectas que pasan por el origen. Un
analisis similar muestra que los unicos subespacios de R
3
son (0, 0, 0), R
3
,
las rectas que pasan por el origen y los planos que pasan por el origen.
2.11.2. Suma y Dimension
A continuaci on presentamos dos resultados mas, en donde analizamos la
dimension de la suma de dos subespacios de V.
Teorema 2.66. Sean W
1
y W
2
dos subespacios dimensionalmente nitos
de un espacio vectorial V (no necesariamente dimensionalmente nito). En-
tonces W
1
+W
2
es dimensionalmente nito y
dim(W
1
+W
2
) = dim(W
1
) + dim(W
2
) dim(W
1
W
2
).
Demostracion. Notemos primero que W
1
W
2
es un subespacio del espacio
vectorial dimensionalmente nito W
1
. Entonces, por el Corolario 2.65, W
1

W
2
es dimensionalmente nito y toda base de W
1
W
2
se puede extender
a una base para W
1
. Como tambien W
1
W
2
W
2
, utilizando de nuevo el
Corolario 2.65, tenemos que toda base W
1
W
2
se puede extender a una base
para W
2
.
Sea
0
= x
1
, x
2
, . . . , x
k
una base para W
1
W
2
. Como ya indicamos,
la base
0
esta contenida en una base B
1
de W
1
. De manera similar, la
base
0
esta contenida en una base B
2
para W
2
. Supongamos que en
1
=
y
1
, y
2
, . . . , y
r
se encuentran los elementos de W
1
que le debemos de agregar
a
0
para obtener B
1
. Supongamos tambien que en
2
= z
1
, z
2
, . . . , z
m
se
encuentran los elementos de W
2
que le debemos agregar a
0
para obtener
B
2
. Entonces B
1
=
0

1
y B
2
=
0

2
. Ademas B
1
tiene exactamente
72 CAP

ITULO 2. ESPACIOS VECTORIALES


k + r elementos y B
2
tiene exactamente k + m elementos. Luego, como
0
tiene exactamente k elementos, tenemos que
dim(W
1
) = k +r, dim(W
2
) = k +m y dim(W
1
W
2
) = k.
Entonces
dim(W
1
) + dim(W
2
) dim(W
1
W
2
) = (k +r) + (k +m) k = k +r +m.
Sea B =
0

2
. Notemos que B tiene exactamente k +r +m elementos.
Ademas, como
0
W
1
W
2
,
1
W
1
,
2
W
2
y W
1
W
2
W
1
+ W
2
,
tenemos que B W
1
W
2
W
1
+ W
2
. Entonces B es un subconjunto de
W
1
+ W
2
con exactamente k + r + m elementos. Si demostramos que B es
una base para W
1
+W
2
, tendremos que dim(W
1
+W
2
) = k +r +m y, como
k +r +m = dim(W
1
) + dim(W
2
) dim(W
1
W
2
), sucedera que
dim(W
1
+W
2
) = dim(W
1
) + dim(W
2
) dim(W
1
W
2
),
como queremos.
Para ver que B es una base para W
1
+ W
2
, mostraremos primero que B
es linealmente independiente. Tomemos escalares a
1
, a
2
, . . . , a
k
,b
1
, b
2
, . . . , b
r
,
c
1
, c
2
, . . . , c
m
F de modo que
a
1
x
1
+a
2
x
2
+ +a
k
x
k
+b
1
y
1
+b
2
y
2
+ +b
r
y
r
+c
1
z
1
+c
2
z
2
+ +c
m
z
m
= 0
V
.
Debemos probar que todos los escalares que tomamos son iguales a 0
F
. Ha-
gamos
v
0
= a
1
x
1
+a
2
x
2
+ +a
k
x
k
, v
1
= b
1
y
1
+b
2
y
2
+ +b
r
y
r
y
v
2
= c
1
z
1
+c
2
z
2
+ +c
m
z
m
.
Entonces v
0
+v
1
+v
2
= 0
V
. Luego v
0
+v
1
= v
2
. Ahora bien, tanto v
0
como
v
1
son combinaciones lineales de elementos que se encuentran en W
1
. Luego
v
0
, v
1
W
1
, de donde v
0
+v
1
W
1
. Como v
0
+v
1
= v
2
tenemos, por tanto,
que v
2
W
1
. Por otro lado, en vista de que v
2
es una combinacion lineal de
elementos que se encuentran en W
2
, sucede que v
2
W
2
. Luego v
1
W
2
.
Esto prueba que v
2
W
1
W
2
. Ahora bien,
0
es una base para W
1
W
2
y v
2
W
1
W
2
. Entonces v
2
es una combinacion lineal de todos los
2.11. DIMENSI

ON DE UN ESPACIO VECTORIAL 73
elementos de
0
. Esto signica que existen escalares d
1
, d
2
, . . . , d
k
F tales
que
v
2
= d
1
x
1
+d
2
x
2
+ +d
k
x
k
.
Luego
0
v
= v
0
+v
1
+v
2
=
= (a
1
x
1
+a
2
x
2
+ +a
k
x
k
) + (b
1
y
1
+b
2
y
2
+ +b
r
y
r
)+
(d
1
x
1
d
2
x
2
d
k
x
k
)
= (a
1
d
1
)x
1
+ (a
2
d
2
)x
2
+ + (a
k
d
k
)x
k
+b
1
y
1
+b
2
y
2
+ +b
r
y
r
.
Tenemos entonces que 0
V
es una combinacion lineal de todos los elementos
del conjunto linealmente independiente B
1
. Por tanto
a
1
d
1
= a
2
d
2
= = a
k
d
k
= b
1
= b
2
= = b
r
= 0
F
.
Como b
1
= b
2
= = b
r
= 0
F
, sucede que
v
1
= b
1
y
1
+b
2
y
2
+ +b
r
y
r
= 0
V
.
Luego
0
V
= v
0
+v
1
+v
2
= v
0
+v
2
= a
1
x
1
+a
2
x
2
+ +a
k
x
k
+c
1
z
1
+c
2
z
2
+ +c
m
z
m
.
La ecuacion anterior indica que el vector cero es una combinacion lineal de
todos los elementos del conjunto linealmente independiente B
2
. Luego
a
1
= a
2
= = a
k
= c
1
= c
2
= = c
m
= 0
F
.
Con esto probamos que todos los escalares involucrados en la ecuacion
a
1
x
1
+a
2
x
2
+ +a
k
x
k
+b
1
y
1
+b
2
y
2
+ +b
r
y
r
+c
1
z
1
+c
2
z
2
+ +c
m
z
m
= 0
V
son iguales a 0
F
. Por consiguiente B es linealmente independiente.
Ahora debemos de probar que B genera a W
1
+W
2
. Para ver esto, notemos
primero que W
1
= B
1
) =
0

1
) y W
2
= B
2
) =
0

2
), pues B
1
y
B
2
son bases de W
1
y W
2
, respectivamente. Luego, por el Ejercicio 1 de la
Seccion 2.7,
B) =
0

1

2
) = (
0

1
) (
0

2
))
= B
1
B
2
) = B
1
) +B
2
)
= W
1
+W
2
.
74 CAP

ITULO 2. ESPACIOS VECTORIALES


Esto muestra que B genera a W
1
+ W
2
y, como tambien B es linealmente
independiente, sucede que B es una base para W
1
+ W
2
. Esto termina la
demostracion.
Corolario 2.67. Sean W
1
y W
2
dos subespacios dimensionalmente nitos
de un espacio vectorial V (no necesariamente dimensionalmente nito). En-
tonces V = W
1
W
2
si y solo si
dim(V ) = dim(W
1
) + dim(W
2
).
2.11.3. Comentarios Finales
En la practica, el problema de encontrar una base de un espacio vectorial
dado no es una tarea sencilla, incluso en el caso en que dicha base sea nita.
Supongamos que deseamos encontrar una base para un subespacio W del
espacio vectorial V. Supongamos tambien que sabemos que V tiene dimension
n. Entonces W tiene dimension a lo mas n. Como ya hemos indicado, para
encontrar una base de W, podemos empezar tomando un elemento x
1
W,
diferente de 0
V
, y determinar x
1
). Si x
1
genera a W, entonces x
1
es
la base que buscamos. De lo contrario deberemos tomar un elemento x
2

W x
1
). Sabemos que el conjunto x
1
, x
2
es linealmente independiente
y ahora debemos determinar x
1
, x
2
). De nueva cuenta, si x
1
, x
2
genera a
W, entonces x
1
, x
2
es la base buscada. De no ser as debemos tomar un
punto x
2
W x
1
, x
2
), considerar el conjunto linealmente independiente
x
1
, x
2
, x
3
y determinar x
1
, x
2
, x
3
). Sabemos que el proceso anterior debe
terminar luego de n pasos. Lo que naturalmente no sabemos es cuantos pasos
en realidad necesitamos y si las cosas se pueden simplicar desde el principio.
Existen casos en donde el trabajo requerido para la determinacion de una
base se puede simplicar. Consideremos, por ejemplo, el subespacio
W = (x, y, z) R
3
: 2x y + 3z = 0
de R
3
. Sabemos que W es en realidad un subespacio de R
3
, pues W de-
termina un plano que pasa por el origen. Para encontrar una base para W
consideramos la ecuacion que dene a W: 2x y + 3z = 0. Despejemos la
incognita y de dicha ecuacion para obtener y = 2x + 3z. Escribiendo ahora
los elementos de R
3
como vectores columna resulta que, si (x, y, z) W,
entonces:
2.12. EJERCICIOS 75
_
_
x
y
z
_
_
=
_
_
x
2x + 3z
z
_
_
=
_
_
x
2x
0
_
_
+
_
_
0
3z
z
_
_
= x
_
_
1
2
0
_
_
+z
_
_
0
3
1
_
_
.
Lo que hicimos fue suponer que (x, y, z) W y luego expresamos al vector
(x, y, z) en terminos de las variables que no despejamos, es decir, en termi-
nos de x y z. Lo que obtuvimos es que todo elemento (x, y, z) W se puede
escribir como una combinacion lineal de los vectores (1, 2, 0) y (0, 3, 1). En
smbolos esto signica que W (1, 2, 0), (0, 3, 1)). Si probamos ahora que
(1, 2, 0), (0, 3, 1) W, tenemos entonces que (1, 2, 0), (0, 3, 1)) W) =
W. Por tanto, W = (1, 2, 0), (0, 3, 1)) y, como los vectores (1, 2, 0) y (0, 3, 1)
son linealmente independientes, pues no son paralelos, resulta que el con-
junto (1, 2, 0), (0, 3, 1) es una base para W. Debemos entonces mostrar
que (1, 2, 0), (0, 3, 1) W. El hecho de que (1, 2, 0) se encuentra en W
se sigue de que 2(1) 2 + 3(0) = 0. De manera similar, (0, 3, 1) W pues
2(0) 3 + 3(1) = 0.
Para encontrar una base del subespacio W arriba descrito, en lugar de
despejar la variable y se pudo elegir despejar la variable x. En dicho caso,
siguiendo las ideas anteriores se obtiene otra base para W. Naturalmente si
la variable a despejar es la z, entonces obtendremos otra base mas para W.
En el Captulo 4 veremos otros aspectos que involucran a las bases de
un espacio vectorial. Para entenderlos, la nocion de matriz sera importante,
as que conviene terminar el presente captulo con una serie de ejercicios.
2.12. Ejercicios
1. Dar un ejemplo de tres vectores linealmente dependientes en R
2
y tales
que ninguno de los tres es m ultiplo escalar de otro.
2. Determina si el conjunto B
1
= (1, 0, 1), (2, 5, 1), (0, 4, 3) es una
base para R
3
. Justica tu respuesta. Determina ahora si el conjunto
B
2
= (1, 3, 2), (3, 1, 3), (2, 10, 2) es una base para R
3
.
3. Para que valores del n umero real a, el conjunto
(a, 1, 0), (1, 0, a), (1 +a, 1, a)
76 CAP

ITULO 2. ESPACIOS VECTORIALES


es una base para R
3
?
4. Sea V un espacio vectorial sobre un campo F. Demostrar que el sub-
conjunto u, v, w de V es linealmente independiente si y solo si el
subconjunto u +v, u +w, v +w de V es linealmente independiente.
5. Supongamos que V es un espacio vectorial sobre un campo F. Suponga-
mos tambien que x, y es una base para V. Demuestra que el conjunto
x + y, x y tambien es una base para V. Si a, b F y a, b ,= 0
F
,
muestra que ax, by tambien es una base para V.
6. Supongamos que V es un espacio vectorial sobre un campo F. Supon-
gamos tambien que v
1
, v
2
, . . . , v
n
es una base para V. Demuestra que
el conjunto
v
1
, v
1
+v
2
, v
1
+v
2
+v
3
, . . . , v
1
+v
2
+v
3
+ +v
n

es tambien una base para V.


7. Encuentra una base en R
3
para el conjunto de vectores en el plano
3x 2y + 6z = 0.
8. Encuentra una base en R
3
para el conjunto de vectores en la recta
x
2
=
y
3
=
z
4
.
9. Encuentra una base en R
5
para el subespacio
W = (x
1
, x
2
, x
3
, x
4
, x
5
): 2x
1
3x
2
+x
3
+ 4x
4
x
5
= 0.
10. Supongamos que F es un campo. Consideremos los conjuntos
W
1
= (a
1
, a
2
, a
3
, a
4
, a
5
) F
5
: a
1
a
3
a
4
= 0
F

y
W
2
= (a
1
, a
2
, a
3
, a
4
, a
5
) F
5
: a
2
= a
3
= a
4
y a
1
+a
5
= 0
F
.
Muestra que W
1
y W
2
son subespacios de F
5
. Calcula ahora las dimen-
siones de W
1
,W
2
, W
1
W
2
y W
1
+W
2
.
Captulo 3
Matrices y Sistemas de
Ecuaciones Lineales
3.1. Matrices
Supongamos que F es un campo y que m y n son n umeros naturales.
Esquematicamente, una matriz de mn en F es un arreglo rectangular de
la forma
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
,
donde cada elemento A
ij
con 1 i m y 1 j n pertenece a F. Dada
i 1, 2, . . . , m, decimos que los elementos A
i1
, A
i2
, . . . , A
in
forman el i-
esimo renglon de la matriz, el cual a menudo se considera como el vector
renglon de F
n
:
(A
i1
, A
i2
, . . . , A
in
).
Dada j 1, 2, . . . , n, los elementos A
1j
, A
2j
, . . . , A
mj
forman la j-esima
columna de la matriz y, a menudo, se consideran como el vector columna de
F
m
:
_
_
_
_
_
A
1j
A
2j
.
.
.
A
mj
_
_
_
_
_
.
77
78 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Si A es una matriz de mn en F, entonces el elemento ubicado en el renglon
i y la columna j, llamado el ij-esimo elemento de A, se denota por A
ij
.
Tambien decimos que el elemento A
ij
se encuentra en la posicion i-j de A.
Por tanto, el elemento de A que se encuentra en la posicion 1-3 es A
13
. El
elemento A
13
se lee a uno tres y no a trece.
Decimos que dos matrices A y B de m n en F son iguales, si sus
elementos correspondientes son iguales, es decir, si A
ij
= B
ij
para cada 1
i m y cada 1 j n. La igualdad de matrices solo se da entre matrices
que tienen el mismo n umero de renglones y de columnas. Por consiguiente,
una matriz de 2 3 no puede ser igual a una de 2 4, pues dichas matrices
no tienen el mismo n umero de columnas.
Denotamos por M
mn
(F) al conjunto de las matrices de m n en F.
Entonces M
mn
(F) es un espacio vectorial sobre F. La suma y el producto
por escalares quedan denidos como sigue. Si A, B M
mn
(F) y c F,
entonces A + B M
mn
(F) se dene de forma que su ij-esimo elemento es
A
ij
+ B
ij
. Por otro lado, cA M
mn
(F) se dene de forma que su ij-esimo
elemento es cA
ij
. Por tanto, A +B y cA se denen de modo que
(A +B)
ij
= A
ij
+B
ij
y (cA)
ij
= cA
ij
para cada 1 i m y cada 1 j n. Por ejemplo, en M
23
(R),
_
2 0 1
1 3 4
_
+
_
5 2 6
3 4 1
_
=
_
2 5 0 2 1 + 6
1 + 3 3 + 4 4 1
_
=
_
3 2 5
4 1 3
_
y
3
_
1 0 2
3 2 3
_
=
_
3(1) 3(0) 3(2)
3(3) 3(2) 3(3)
_
=
_
3 0 6
9 6 9
_
.
El neutro aditivo en M
mn
(F) es la matriz cero, es decir, aquella en la
que cada elemento es igual a 0
F
. No es difcil probar que las diez propiedades
de la Denicion 2.1 se cumplen. Si m = n, para simplicar, denotaremos por
M
n
(F) a M
nn
(F). A la matriz cero en M
mn
(F) la denotaremos por 0
mn
.
Notemos que 0
1n
es el vector renglon (0
F
, 0
F
, . . . , 0
F
), mientras que 0
22
y
3.2. SISTEMA DE ECUACIONES LINEALES 79
0
33
son las matrices
_
0
F
0
F
0
F
0
F
_
y
_
_
0
F
0
F
0
F
0
F
0
F
0
F
0
F
0
F
0
F
_
_
.
Para simplicar, si m = n escribiremos por 0
n
en lugar de 0
nn
.
El espacio de las matrices es un caso particular del Ejemplo 2.3 pues,
formalmente, una matriz de m n en F es una funcion del conjunto S =
1, 2, . . . m 1, 2, . . . , n en F. El objetivo de este captulo es estudiar las
matrices y el modo en como, gracias a ellas, se pueden resolver los sistemas
de ecuaciones lineales. Mas adelante mostraremos otras propiedades de las
matrices y su relacion con las funciones especiales, denidas entre espacios
vectoriales, que llamaremos transformaciones lineales.
3.2. Sistema de Ecuaciones Lineales
Supongamos que F es un campo y que deseamos encontrar n escalares
x
1
, x
2
, . . . , x
n
en F que satisfagan las condiciones:
A
11
x
1
+A
12
x
2
+ +A
1n
x
n
= y
1
A
21
x
1
+A
22
x
2
+ +A
2n
x
n
= y
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
x
1
+A
m2
x
2
+ +A
mn
x
n
= y
m
(3.2.1)
donde y
1
, y
2
, . . . , y
m
F y A
ij
F, para cada 1 i m y cada 1 j n.
A (3.2.1) se le llama un sistema de m ecuaciones lineales con n incognitas.
Entendemos que cada una de las m ecuaciones mostradas en el sistema (3.2.1)
es una ecuacion lineal y que x
1
, x
2
, . . . , x
n
son las incognitas. Todo n-tuple
(x
1
, x
2
, . . . , x
n
) en F
n
que satisface cada una de las ecuaciones de (3.2.1) se
llama una solucion del sistema. Si y
1
= y
2
= = y
m
= 0
F
, se dice que el
sistema es homogeneo, o que cada una de las ecuaciones es homogenea.
La manera usual para encontrar las soluciones de un sistema de ecua-
ciones lineales, se obtiene utilizando la tecnica de eliminacion que ya hemos
presentado. Dicha tecnica consiste en ir eliminando incognicas. Para esto, se
permite que las ecuaciones del sistema se multipliquen por escalares y luego
80 CAP

ITULO 3. SISTEMAS DE ECUACIONES


se sumen, para producir ecuaciones en las cuales algunas de las incognitas
no esten presentes. Supongamos, por ejemplo, que deseamos encontrar todas
las soluciones reales del sistema homogeneo
2x
1
x
2
+x
3
= 0
x
1
+ 3x
2
+ 4x
3
= 0.
Podemos eliminar la variable x
1
sumando 2 veces la segunda ecuacion
a la primera (es decir, multiplicando la segunda ecuacion por 2 y sumando
el resultado a la primera ecuacion). Entonces obtenemos 7x
2
7x
3
= 0
o, lo que es lo mismo, x
2
= x
3
. Ahora podemos eliminar la variable x
2
sumando tres veces la primera ecuacion a la segunda. Entonces obtenemos
7x
1
+ 7x
3
= 0, de donde x
1
= x
3
. Esto signica que si (x
1
, x
2
, x
3
) es una
solucion, entonces x
1
= x
2
= x
3
. A la inversa, si x
1
= x
2
= x
3
entonces la
terna (x
1
, x
2
, x
3
) es una solucion del sistema, cosa que se puede probar facil-
mente sustituyendo, en las ecuaciones anteriores, x
2
por x
1
y x
3
por x
1
,
respectivamente. Esto muestra que el conjunto de soluciones consta de to-
das las ternas de la forma (a, a, a), en donde a es un n umero real. Si lo
que queremos es encontrar todas las soluciones complejas del sistema ante-
rior, entonces la variable a se considera ahora en el conjunto de los n umeros
complejos.
Deseamos ahora formalizar el proceso mostrado, de modo que se pueda
entender por que opera, y para as poder llevar a cabo los calculos necesarios
para resolver un sistema de manera sistematica. Consideremos el sistema
(3.2.1) y seleccionemos m escalares c
1
, c
2
, . . . , c
m
en F. Ahora, dada j
1, 2, . . . , m, multipliquemos la j-esima ecuacion de (3.2.1) por c
j
y, por
ultimo, sumemos las ecuaciones resultantes. Entonces obtenemos la ecuacion
(c
1
A
11
+ +c
m
A
m1
)x
1
+ +(c
1
A
1n
+ +c
m
A
mn
)x
n
= c
1
y
1
+ +c
m
y
m
.
Diremos que la ecuacion anterior es una combinacion lineal de las ecua-
ciones que forman a (3.2.1). Cualquier solucion del sistema de ecuaciones
(3.2.1), es tambien solucion de cualquier combinacion lineal de las ecuaciones
que forman a dicho sistema.

Esta es la idea fundamental del proceso de eli-
minacion. Si se tiene otro sistema de ecuaciones lineales
3.2. SISTEMA DE ECUACIONES LINEALES 81
B
11
x
1
+B
12
x
2
+ +B
1n
x
n
= z
1
B
21
x
1
+B
22
x
2
+ +B
2n
x
n
= z
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
B
k1
x
1
+B
k2
x
2
+ +B
kn
x
n
= z
k
(3.2.2)
en el que cada una de las k ecuaciones es una combinacion lineal de las
ecuaciones que forman a (3.2.1), entonces toda solucion del sistema (3.2.1) es
tambien solucion del sistema (3.2.2). En general, podemos tener que algunas
soluciones de (3.2.2) no sean soluciones de (3.2.1), pero esto no sucede si cada
ecuacion en el sistema original es una combinaci on lineal de las ecuaciones
que forman el nuevo sistema. Esto nos lleva a la siguiente denicion.
Denicion 3.1. Dos sistemas de ecuaciones lineales son equivalentes si
cada ecuacion de cada sistema, es una combinacion lineal de las ecuaciones
del otro sistema.
A continuacion mostraremos con un nuevo ejemplo lo que hemos estado
discutiendo. Consideremos primero el sistema
2x
1
+x
2
+x
3
= 1
x
1
x
2
+x
3
= 2
4x
1
+ 3x
2
x
3
= 1
(3.2.3)
Notemos que todos los coecientes del sistema anterior son n umeros reales.
Para simplicar las cosas, pensemos que unicamente tenemos permitido mul-
tiplicar por n umeros reales. Lo anterior hay que decirlo pues, aunque los
coecientes del sistema anterior sean n umeros reales, bien podra pensarse
que el campo en donde se toman los escalares es el de los n umeros complejos
y entonces, tenemos tambien permitido multiplicar por n umeros complejos.
Podramos ir incluso mas lejos y pensar que los escalares, al ser enteros, se
toman en Z
5
. En tal situacion el escalar 1 coincide con 4. Si pensamos que
los escalares del sistema anterior se toman en Z
5
, entonces solo tenemos per-
mitido multiplicar las ecuaciones del sistema por elementos de Z
5
. Lo anterior
indica que, cuando consideramos un sistema de ecuaciones, debe quedar claro
cual es el campo sobre el que se estan tomando los escalares.
Si multiplicamos la segunda ecuacion de (3.2.3) por 2 y sumamos el resul-
tado a la primera ecuacion, obtenemos x
2
+ 3x
3
= 3. Ahora multiplique-
mos la segunda ecuacion por 4 y sumemos el resultado a la tercera ecuacion.
82 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Entonces obtenemos x
2
+ 3x
3
= 9. Esto nos lleva, por tanto, al nuevo
sistema
x
2
+ 3x
3
= 3
x
2
+ 3x
3
= 9
(3.2.4)
Notemos que la primera ecuacion de (3.2.4) es una combinacion lineal de
todas las ecuaciones que forman al sistema (3.2.3). Para ver esto, multipli-
quemos la primera ecuacion de (3.2.3) por 1, la segunda por 2, la tercera por
0 y sumemos las ecuaciones resultantes. Entonces obtenemos la ecuacion
1(2x
1
+x
2
+x
3
)+2(x
1
x
2
+x
3
)+0(4x
1
+3x
2
x
3
) = 1(1)+2(2)+0(1),
que es equivalente a x
2
+3x
3
= 3. La segunda ecuacion del sistema (3.2.4)
tambien es una combinacion lineal de todas las ecuaciones que forman al
sistema (3.2.3). Para ver esto, multipliquemos la primera ecuacion de (3.2.3)
por 0, la segunda por 4, la tercera por 1 y sumemos las ecuaciones resultantes.
Entonces obtenemos la ecuacion
0(2x
1
+x
2
+x
3
)+4(x
1
x
2
+x
3
)+1(4x
1
+3x
2
x
3
) = 0(1)+4(2)+1(1),
que es equivalente a x
2
+ 3x
3
= 9. Esto muestra que, cada ecuacion del
sistema (3.2.4), es una combinaci on lineal de todas las ecuaciones que forman
al sistema (3.2.3). De esto se sigue, por lo que hemos comentado, que
a) cualquier solucion del sistema (3.2.3) es tambien una solucion del sis-
tema (3.2.4).
Para que toda solucion del sistema (3.2.4) sea tambien una solucion del
sistema (3.2.3), debemos ahora mostrar que cada ecuacion del sistema (3.2.3)
es una combinaci on lineal de todas las ecuaciones que forman al sistema
(3.2.4). Consideremos la primera ecuacion del sistema (3.2.3), que es 2x
1
+
x
2
+ x
3
= 1. Una combinaci on lineal de todas las ecuaciones del sistema
(3.2.4) tiene la forma
c
1
(x
2
+ 3x
3
) +c
2
(x
2
+ 3x
3
) = c
1
(3) +c
2
(9),
en donde c
1
y c
2
son n umeros reales. Debido a esto, no es posible elegir c
1
y c
2
de modo que en la ecuacion anterior aparezca el termino 2x
1
de la ecuacion
2x
1
+x
2
+x
3
= 1. Esto signica que la primera ecuacion de (3.2.3) no se puede
escribir como una combinaci on lineal de todas las ecuaciones que forman al
sistema (3.2.4). Luego
3.3. MATRICES Y OPERACIONES ELEMENTALES 83
b) no es cierto que toda solucion del sistema (3.2.4) es una solucion del
sistema (3.2.3).
Por tanto, los sistemas (3.2.3) y (3.2.4) no son equivalentes. Notemos
ahora que el sistema (3.2.4) no tiene solucion, pues no existen n umeros reales
x
2
y x
3
de modo que x
2
+x
3
tome tanto el valor de 3 como el de 9. De
esto se sigue que tampoco el sistema (3.2.3) tiene solucion pues, de tenerla,
dicha solucion sera tambien una solucion de (3.2.4) y acabamos de hacer ver
que el sistema (3.2.4) no tiene solucion.
Mas adelante mostraremos una manera de obtener sistemas equivalentes.
Por el momento, lo que nos interesa en esta seccion es el hecho de que, de
acuerdo a lo que hemos discutido, tenemos el siguente resultado.
Teorema 3.2. Sistemas equivalentes de ecuaciones lineales tienen exacta-
mente las mismas soluciones.
Dado un sistema de ecuaciones lineales como el (3.2.1), es importante
determinar un metodo para encontrar las soluciones de dicho sistema. Es
natural pensar que dicho metodo consiste en ir formando combinaciones li-
neales de las ecuaciones dadas, hasta obtener un sistema equivalente que sea
mas facil de resolver. Sobre como realizar esto empezaremos a hablar a partir
de la siguiente seccion.
3.3. Matrices y Operaciones Elementales por
Renglon
3.3.1. Operaciones Elementales por Renglon
Si tenemos un sistema de ecuaciones lineales como en (3.2.1) y vamos a
formar combinaciones lineales con las ecuaciones involucradas, entonces no
hay necesidad de ir escribiendo todo el tiempo las incognitas x
1
, x
2
, . . . , x
n
pues, en realidad, solo tenemos que ir efectuando operaciones con los coe-
cientes A
ij
y los escalares y
j
. De esta manera, el sistema (3.2.1) se puede
84 CAP

ITULO 3. SISTEMAS DE ECUACIONES


abreviar como AX = Y, en donde:
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
, X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
y Y =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
.
A la matriz A se le llama la matriz de los coecientes del sistema o, simple-
mente, la matriz del sistema. A X se le suele llamar el vector de las incognitas
del sistema y a Y el vector lado derecho del sistema. Recordemos que los ele-
mentos de la matriz A se encuentran en el campo F. A los vectores columna
X y Y denidos anteriormente, los podemos pensar como matrices de n 1
y m 1, respectivamente. En este momento, AX = Y es solo una notacion
abreviada del sistema de ecaciones lineales (3.2.1). Mas adelante deniremos
una multiplicaci on de matrices y veremos que AX representa el producto de
las matrices A y X. En ocasiones el sistema AX = Y sera tambien represen-
tado como AX = Y
m1
, para indicar que Y es una matriz de m1.
Volvamos al problema de encontrar las soluciones al sistema (3.2.1), el
cual se abrevia como AX = Y. Concentremonos en la matriz A de los coe-
cientes de dicho sistema. Deseamos considerar operaciones sobre los renglones
de A, las cuales corresponden a la formacion de combinaciones lineales de las
ecuaciones del sistema AX = Y. Limitaremos nuestra atencion a las tres
operaciones que enunciamos en la siguiente denicion.
Denicion 3.3. Una operacion elemental por rengl on en una matriz
A de mn sobre el cuerpo F, es alguna de las siguientes tres:
1. Multiplicacion de un renglon de A por un escalar c F, diferente de
0
F
.
2. Reemplazo del r-esimo renglon de A por el renglon r mas c veces el
renglon s, donde c es cualquier escalar y r ,= s.
3. Intercambio de dos renglones de A.
Notemos que una operacion elemental por renglon, es una funcion especial
e: M
mn
(F) M
mn
(F) que satisface justo una de las tres condiciones
anteriormente enunciadas, las cuales, traducidas en terminos de la funcion e,
se expresan como sigue:
3.3. MATRICES Y OPERACIONES ELEMENTALES 85
1) e(A)
ij
= A
ij
si i ,= r y e(A)
rj
= cA
rj
.
2) e(A)
ij
= A
ij
si i ,= r y e(A)
rj
= A
rj
+cA
sj
.
3) e(A)
ij
= A
ij
si i ,= r e i ,= s, e(A)
rj
= A
sj
y e(A)
sj
= A
rj
.
Podemos extender el contradominio de e como sigue. Si m, n y k son
n umeros naturales, podemos pensar que e: M
mn
(F) M
mk
(F). Lo ante-
rior indica que, la denicion de e, depende unicamente de que tanto la matriz
que se aplica en el dominio de e, como la matriz e(A) que se encuentra en el
contradominio de e, tengan el mismo n umero de renglones. En la practica,
sin embargo, es bastante mas com un denir a e como lo hicimos al principio.
Si e es una operacion elemental por renglon y e satisface la condicion 1)
de arriba, diremos que e es del tipo 1. De manera similar, si e satisface la
condicion 2) diremos que e es del tipo 2 y si satisface la condicion 3) diremos
que es del tipo 3. En el siguiente teorema mostramos que toda operacion
elemental por renglon es una funcion invertible, y que tanto la operacion
elemental como su inversa son del mismo tipo.
Teorema 3.4. A cada operacion elemental por renglon e: M
mn
(F)
M
mn
(F) corresponde una operacion elemental por renglon e
1
: M
mn
(F)
M
mn
(F), del mismo tipo de e, tal que e
1
(e(A)) = e(e
1
(A)) = A, para cada
A M
mn
(F). En otras palabras, existe la funcion inversa de una operacion
elemental por renglon, y es una operacion elemental por renglon del mismo
tipo.
Demostracion. Supongamos primero que e: M
mn
(F) M
mn
(F) es del
tipo 1. Por tanto e es la operacion que multiplica el r-esimo renglon de
cualquier matriz de mn por un escalar no nulo c. Sea e
1
la operacion que
multiplica el r-esimo renglon de cualquier matriz de m n por c
1
. Tiene
sentido considerar a c
1
, pues c es un elemento del campo F, distinto de
0
F
. Notemos que e
1
: M
mn
(F) M
mn
(F) es una operacion elemental por
renglon del tipo 1 tal que e
1
(e(A)) = e(e
1
(A)) = A, para cada matriz A de
mn.
Supongamos ahora que e es del tipo 2. Entonces e es, digamos, la opera-
cion que reemplaza el renglon r de cualquier matriz de mn, por el mismo
renglon r mas el renglon s multiplicado por un escalar c. Suponemos en lo
86 CAP

ITULO 3. SISTEMAS DE ECUACIONES


anterior que r ,= s. Entonces e(A)
ij
= A
ij
si i ,= r y e(A)
rj
= A
rj
+ cA
sj
,
para cada matriz A de m n. Sea e
1
la operacion que remplaza el renglon
r de cualquier matriz de m n, por el mismo renglon r mas el renglon s
multiplicado por c. Entonces e
1
(A)
ij
= A
ij
si i ,= r mientras que e
1
(A)
rj
=
A
rj
cA
sj
. Por tanto, e
1
es una operacion elemental por renglon del tipo 2.
Ademas
e
1
(e(A))
rj
= e(A)
rj
ce(A)
sj
= (A
rj
+cA
sj
) cA
sj
= A
rj
y
e(e
1
(A))
rj
= e
1
(A)
rj
+ce
1
(A)
sj
= (A
rj
cA
sj
) +cA
sj
= A
rj
.
Como tambien e(e
1
(A))
ij
= e
1
(e(A))
ij
= A
ij
si i ,= r, sucede que e
1
es la
inversa de e.
Supongamos, por ultimo, que e es del tipo 3. Entonces e, digamos, inter-
cambia los renglones r y s de cualquier matriz de m n. Hagamos e
1
= e.
Entonces e(A)
ij
= A
ij
si i es diferente de r y de s, mientras que e(A)
rj
= A
sj
y e(A)
sj
= A
rj
. Luego e
1
(e(A))
rj
= e(A)
sj
= A
rj
, e
1
(e(A))
sj
= e(A)
rj
= A
sj
,
e(e
1
(A))
rj
= e
1
(A)
sj
= A
rj
y e(e
1
(A))
sj
= e
1
(A)
rj
= A
sj
. Esto muestra que
e
1
es la inversa de e. Naturalmente, al haber denido e
1
como e, sucede que
e
1
es una operacion elemental del tipo 3.
3.3.2. Matrices Equivalentes por Renglones
A continuacion estableceremos una terminologa que utilizaremos con bas-
tante frecuencia al hablar de la solucion de un sistema de ecuaciones lineales.
Denicion 3.5. Si A, B M
mn
(F), entonces B es equivalente por ren-
glones a A, si B se obtiene de A por medio de una sucesion nita de opera-
ciones elementales por renglon.
Supongamos que A, B M
mn
(F). Si A = B, entonces B es equivalente
por renglones a A. Para ver esto, supongamos que e es una operacion elemen-
tal por renglon del tipo 3. Entonces e(e(A)) = B. Lo anterior indica que B se
obtiene de A por medio de la aplicacion de dos operaciones elementales por
renglon (en este caso, aplicando dos veces la misma operacion elemental por
renglon). Por otra parte, si A y B son equivalentes por renglones, entonces
no necesariamente A y B son iguales. Esto es una consecuencia del siguiente
resultado.
3.3. MATRICES Y OPERACIONES ELEMENTALES 87
Teorema 3.6. Supongamos que A M
mn
(F). Entonces las siguientes ar-
maciones son ciertas:
1) si A = 0
mn
y B es equivalente por renglones a A, entonces A = B;
2) si A ,= 0
mn
y F tiene por lo menos tres elementos, entonces existe
B M
mn
(F) tal que B es equivalente por renglones a A y A ,= B;
3) si A ,= 0
mn
, F = 0
F
, 1
F
y m 2, entonces existe B M
mn
(F) tal
que B es equivalente por renglones a A y A ,= B;
4) si A ,= 0
mn
, F = 0
F
, 1
F
y m = 1, entones A = B, para cualquier
matriz B M
mn
(F) equivalente por renglones a A.
Demostracion. La prueba de 1) es obvia. Para ver 2) supongamos que A
y F son como se indica. Como A ,= 0
mn
, existe 1 r m tal que el
renglon r de A posee un elemento A
rj
diferente de 0
F
. Si A
rj
,= 1
F
, entonces
hacemos B = e
1
(A) en donde e
1
es la operacion elemental, del tipo 1, que
multiplica el renglon r de A por A
1
rj
. Entonces A ,= B, pues el elemento
que se encuentra en la posicion r-j de A es A
rj
,= 1
F
mientras que, en B,
el elemento que se encuentra en dicha posicion es B
rj
= 1
F
. Supongamos
ahora que A
rj
= 1
F
. Como F posee por lo menos tres elementos, podemos
considerar la matriz B = e
2
(A), donde e
2
es la operacion elemental, del tipo
1, que multiplica el renglon r de A por un escalar c F tal que c ,= 0
F
y
c ,= 1
F
. Entonces A ,= B, pues el elemento que se encuentra en la posicion
r-j de A es A
rj
= 1
F
mientras que, en B, el elemento que se encuentra en
dicha posicion es B
rj
= c ,= 1
F
. Esto prueba 2) pues, en ambos casos, la
matriz B que se construye es equivalente por renglones a A y B ,= A.
Para ver 3) supongamos que A ,= 0
mn
, F = 0
F
, 1
F
y m 2. Entonces
A tiene por lo menos dos renglones. Supongamos que existen 1 r, s m
tales que los renglones r y s de A son distintos. Hagamos B = e
3
(A), donde
e
3
es la operacion elemental, del tipo 3, que intercambia los renglones r y s
de A. Entonces B es equivalente por renglones a A y B ,= A, justo porque
los renglones r y s de A son distintos. Supongamos ahora que todos los
renglones de A son iguales. Entonces A
ij
= A
lj
para cada 1 i, l m y
cada 1 j n. Como A ,= 0
mn
, existe 1 r m tal que el renglon r A
posee un elemento A
rj
diferente de 0
F
. Como F solamente posee los elementos
0
F
y 1
F
, necesariamente A
rj
= 1
F
. Consideremos ahora 1 s m tal que
88 CAP

ITULO 3. SISTEMAS DE ECUACIONES


r ,= s. Entonces A
sj
= 1
F
, pues los renglones r y s de A son los mismos.
Hagamos B = e
4
(A) donde e
4
es la operacion elemental, del tipo 2, que suma
los renglones r y s de A (es decir, multiplica por 1
F
el renglon r de A y suma
el resultado al renglon s de A). Entonces B es equivalente por renglones a A.
Ademas B ,= A pues el elemento que se encuentra en la posicion r-j de A es
A
rj
= 1
F
mientras que, en B, el elemento que se encuentra en dicha posicion
es B
rj
= 1
F
+ 1
F
= 0
F
.
En el parrafo anterior hemos utilizado el siguiente hecho: si F = 0
F
, 1
F
,
entonces 1
F
+ 1
F
= 0
F
. En efecto, si 1
F
+ 1
F
= 1
F
, entonces
1
F
= 0
F
+ 1
F
= (1
F
+ 1
F
) + 1
F
= 1
F
+ (1
F
+ 1
F
) = 1
F
+ 1
F
= 0
F
.
Luego 1
F
= 0
F
, lo cual es una contradicci on. Esto completa la prueba de 3).
Para probar 4) supongamos que la matriz A ,= 0
mn
posee solamente un
renglon y que F = 0
F
, 1
F
. Supongamos tambien que e es una operacion
elemental por renglon. Si e es del tipo 1, entonces e es la operacion que
multiplica el unico renglon de A por 1
F
. Luego e(A) = A. Si e es del tipo 3,
entonces e(A) = A pues A solamente tiene un renglon. Notemos ahora que
e no puede ser del tipo 2 pues, para aplicarle a una matriz una operacion
elemental del tipo 2, necesitamos que esta tenga por lo menos dos renglones
y A posee solo un renglon. Con esto probamos que si E es una matriz equi-
valente por renglones a A y E se obtiene de A, aplicando solo una operacion
elemental por renglon, entonces E = A. De aqu se sigue que B = A si B es
equivalente por renglones a A. Esto prueba 4).
A continuacion mostramos que la relacion de equivalencia por renglones
es una relacion de equivalencia.
Teorema 3.7. La equivalencia por renglones es una relacion de equivalencia.
Demostracion. Como ya indicamos, cada matriz es equivalente por ren-
glones a ella misma. Supongamos ahora que B es equivalente por renglones a
A. Entonces existen un n umero nito e
1
, e
2
, . . . , e
n
de operaciones elementales
por renglon tales que
B = (e
n
e
n1
e
1
)(A).
Por el teorema anterior, la inversa de cada una de estas n operaciones elemen-
tales por renglon es, de nueva cuenta, una operacion elemental por renglon.
3.3. MATRICES Y OPERACIONES ELEMENTALES 89
Ademas A = (e
1
1
e
1
2
e
1
n
)(B). Por tanto A es equivalente por ren-
glones a B. Supongamos, por ultimo, que B es equivalente por renglones a
A y que C es equivalente por renglones a B. Entonces existen operaciones
elementales por renglon e
1
, e
2
, . . . , e
n
y d
1
, d
2
, . . . , d
m
tales que
B = (e
n
e
n1
e
1
)(A) y C = (d
m
d
m1
d
1
)(B).
Luego
C = (d
m
d
m1
d
1
e
n
e
n1
e
1
)(A),
por lo que C es equivalente por renglones a A.
El siguiente teorema es la clave para la solucion de un sistema de ecua-
ciones lineales homogeneo. Notemos que, de acuerdo con el teorema anterior,
si B es equivalente por renglones a A, entonces A es equivalente por ren-
glones a B. Por tanto, podemos simplemente decir que las matrices A y B
son equivalentes por renglones.
Teorema 3.8. Si A, B M
mn
(F) son matrices equivalentes por renglones,
entonces los sistemas de ecuaciones lineales AX = 0
m1
y BX = 0
m1
tienen
exactamente las mismas soluciones.
Demostracion. Como B es equivalente por renglones a A, existen opera-
ciones elementales por renglon e
1
, e
2
, . . . , e
n
tales que
B = (e
n
e
n1
e
1
)(A).
Hagamos A
0
= A y, para i 1, 2, . . . , n, hagamos A
i
= e
i
(A
i1
). Notemos
que A
n
= B. Lo que tenemos que demostrar es que una operacion elemental
por renglon no altera el conjunto de soluciones de las ecuaciones lineales
correspondientes. Una vez que probemos esto, tendremos que los sistemas
A
0
X = 0
m1
y A
1
X = 0
m1
tienen las mismas soluciones. Luego, los sistemas
A
1
X = 0
m1
y A
2
X = 0
m1
tambien tendran el mismo conjunto de soluciones
(pues, para pasar de A
1
a A
2
, se efect ua solo una operacion elemental por
renglon). Tendremos, por la misma razon, que los sistemas A
3
X = 0
m1
y
A
4
X = 0
m1
tienen las mismas soluciones y as sucesivamente. Por tanto
A
0
X = 0
m1
y A
n
X = 0
m1
tienen las mismas soluciones, que es lo que
queremos.
Para probar lo que deseamos supongamos, sin perder generalidad, que B
se obtiene de A utilizando solo una operacion elemental por renglon. Entonces
90 CAP

ITULO 3. SISTEMAS DE ECUACIONES


B = e(A) para alguna operacion elemental por renglon e. Sin importar el tipo
de e, cada ecuacion del sistema BX = 0
m1
es una combinaci on lineal de las
ecuaciones del sistema AX = 0
m1
. Dado que la inversa de una operacion
elemental por renglon es una operacion elemental por renglon, sucede tambien
que cada ecuacion del sistema AX = 0
m1
es una combinaci on lineal de las
ecuaciones del sistema BX = 0
m1
. En otras palabras, los sistemas AX =
0
m1
y BX = 0
m1
son equivalentes. Luego, por el Teorema 3.2, dichos
sistemas tienen las mismas soluciones.
Mas adelante, en el Teorema 3.15, mostraremos que el inverso del teorema
anterior tambien es cierto.
3.3.3. Resolviendo un Sistema Homogeneo
Por el Teorema 3.8, para resolver el sistema AX = 0
m1
, debemos encon-
trar una matriz B que sea equivalente por renglones a A y, ademas, sea tal
que las soluciones del sistema BX = 0
m1
salten a la vista o, por lo menos,
sean sencillas de obtener. La prueba del Teorema 3.8 tambien nos dice como
obtener sistemas de ecuaciones equivalentes. Basta con aplicar un n umero
nito operaciones elementales por renglon a la matriz del primer sistema.
Ejemplo 3.9. A continuacion resolveremos un sistema homogeneo, llevando
la matriz asociada del sistema a una matriz equivalente por renglones mas
sencilla. Posteriormente, veremos como lo que hicimos se puede matematizar
para resolver, en general, cualquier sistema homogeneo.
Procedimiento. Para simplicar, supongamos que F es el campo de los
n umeros reales y que
A =
_
_
2 1 3 2
1 4 0 1
2 6 1 5
_
_
.
Vamos a efectuar un n umero nito de operaciones elementales por renglon,
hasta obtener una matriz B que sea equivalente por renglones a A y, ademas,
sea tal que el sistema BX = 0
31
se resuelva facilmente. Cada dos matri-
ces equivalentes por renglones que se vayan obteniendo en el proceso, se
separaran por una echa. Tambien se indicara con un smbolo la operacion
elemental por renglon que se efectuo. Convenimos que, el smbolo
3.3. MATRICES Y OPERACIONES ELEMENTALES 91
1. R
i
cR
i
+ R
j
, indica que unicamente se reemplaza el renglon i de
la matriz inmediata anterior y que el renglon i, el unico renglon reem-
plazado en la nueva matriz, es la multiplicaci on por c del viejo renglon
i mas el viejo renglon j. Entenderemos que c ,= 0.
2. R
i
cR
i
, indica que unicamente se reemplaza el rengon i de la matriz
inmediata anterior, y que el renglon i de la nueva matriz, es la multi-
plicacion por c del viejo renglon i. Tambien entendemos que c ,= 0.
3. R
i
R
j
, indica que solo intercambiamos los renglones i y j de la
matriz inmediata anterior.
Por ejemplo, el smbolo R
2
2R
1
+R
2
, indica que se va a cambiar unica-
mente el segundo rengon, y que este se obtiene multiplicando por 2 el primer
renglon de la matriz que esta inmediatamente a la izquierda y, posterior-
mente, sumamos el resultado al segundo renglon de dicha matriz. Tenemos
entonces que:
A =
_
_
2 1 3 2
1 4 0 1
2 6 1 5
_
_
R
1
R
2

_
_
1 4 0 1
2 1 3 2
2 6 1 5
_
_
R
2
2R
1
+R
2

R
3
2R
1
+R
3
_
_
1 4 0 1
0 9 3 4
0 2 1 7
_
_
R
2
R
3

_
_
1 4 0 1
0 2 1 7
0 9 3 4
_
_
R
1
2R
2
+R
1

R
3

9
2
R
2
+R
3
_
_
1 0 2 13
0 2 1 7
0 0
15
2

55
2
_
_
R
2

1
2
R
2

R
3

2
15
R
3
_
_
1 0 2 13
0 1
1
2

7
2
0 0 1
11
3
_
_
R
2

1
2
R
3
+R
2

R
1
2R
3
+R
1
_
_
1 0 0
17
3
0 1 0
5
3
0 0 1
11
3
_
_
= B
Notemos que las matrices A y B son equivalentes por renglones pues, para
pasar de A a B, utilizamos diez operaciones elementales por renglon (dos del
tipo 1, seis del tipo 2 y dos del tipo 3). De acuerdo con el teorema anterior, el
sistema AX = 0
31
tiene exactamente las mismas soluciones que el sistema
BX = 0
31
el cual, en terminos de las cuatro variables involucradas x
1
, x
2
, x
3
y x
4
, se escribe como:
x
1
+
17
3
x
4
= 0
x
2

5
3
x
4
= 0
x
3

11
3
x
4
= 0
(3.3.1)
92 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Escribiendo las variables x
1
, x
2
y x
3
en terminos de x
4
, obtenemos que si
(x
1
, x
2
, x
3
, x
4
) es una solucion del sistema (3.3.1), entonces
(x
1
, x
2
, x
3
, x
4
) =
_

17
3
,
5
3
,
11
3
, 1
_
x
4
.
Tambien sucede que, para cualquier valor real que le demos a la variable
x
4
, el 4-tuple
_

17
3
,
5
3
,
11
3
, 1
_
x
4
es una solucion del sistema (3.3.1). Por tanto,
toda solucion del sistema (3.3.1) tiene la forma
_

17
3
,
5
3
,
11
3
, 1
_
c, en donde c
es un n umero real cualquiera. Como los sistemas AX = 0
31
y BX = 0
31
tienen exactamente el mismo n umero de soluciones, concluimos que todas las
soluciones del sistema AX = 0
31
, el cual es el que queremos resolver, son
de la forma
_

17
3
,
5
3
,
11
3
, 1
_
c, en donde c es un n umero real cualquiera.
Para no trabajar al nal con fracciones, podemos multiplicar por 3 cada
elemento que aparece en el 4-tuple
_

17
3
,
5
3
,
11
3
, 1
_
c. Como c es un n umero
real arbitrario, podemos decir que las soluciones del sistema original son de
la forma (17, 5, 11, 3)a, en donde a es un n umero real cualquiera.
Los pasos que realizamos para obtener la matriz B, a partir de A, no
determinan a una unica matriz equivalente a A, cuyo sistema homogeneo de
ecuaciones lineales es facil de resolver. La razon radica en el hecho de que
pudimos haber empezado por un camino distinto. Partiendo de A, la primera
operacion elemental por renglon a realizar, pudo haber sido R
3
R
1
+R
3
,
obteniendo una matriz equivalente por renglones a A cuyo tercer renglon es
distinto a los obtenidos en el proceso de arriba. Ahora bien, la manera de
llegar a B no fue arbitraria. Como el lector puede observar, lo que hicimos
fue conseguir un uno en la posicion que esta mas a la izquierda, y luego ceros
abajo de dicho uno. Dicha posicion fue la 1-1, es decir, la que se encuentra
en el primer renglon y la primera columna. Posteriormente nos movimos a la
posicion 2-2, es decir, la que se encuentra en el segundo renglon y la segunda
columna. En dicha posicion el objetivo fue formar un uno y luego hacer ceros
los elementos que se encuentran en la segunda columna, salvo el de la posicion
2-2. Luego nos movimos a la posicion 3-3, en donde debemos de conseguir
un uno y luego ceros en los demas elementos de la tercera columna. Una vez
cumplido este objetivo, el proceso termina, pues ya no tenemos disponible
la posicion 4-4. La matriz obtenida, que llamamos B, nos lleva entonces a
un sistema que es facil de resolver, debido a la cantidad de ceros y unos que
fuimos haciendo.
3.3. MATRICES Y OPERACIONES ELEMENTALES 93
El proceso ilustrado en el parrafo anterior, se conoce en algunos textos
como el metodo de eliminacion Gauss-Jordan para resolver un sistema de
ecuaciones lineales. Dicho metodo tiene tambien algunas variantes. El lector
puede consultar, por ejemplo, el Captulo 1 y el Apendice 4 del libro [2].
3.3.4. Matriz Escalonada Reducida por Renglones
Las matrices que tienen las caractersticas de la matriz B del Ejemplo
3.9, tienen un nombre especial. Se llaman escalonadas reducidas por ren-
glones. Para denirlas, primero consideraremos una clase de matrices que
estan cercanas a las escalonadas reducidas. Si A es una matriz, decimos
que un renglon de A es nulo, si todos sus elementos son iguales al cero del
campo. Por un elemento no nulo de una matriz, nos referimos a un elemento
de la matriz que es diferente del cero del campo.
Denicion 3.10. Una matriz R M
mn
(F) se llama reducida por ren-
glones si R satisface las siguientes dos condiciones:
1) el primer elemento no nulo de cada renglon no nulo de R es igual a 1
F
;
2) cada columna de R que tiene el primer elemento no nulo de alg un
renglon, tiene todos sus otros elementos iguales a 0
F
.
Dada n N, el ejemplo ideal de una matriz reducida por renglones es la
matriz identidad de orden n, la cual denotaremos por I
n
. Dicha matriz tiene
al elemento 1
F
en las posiciones 1-1, 2-2, . . . , n-n y, al cero del campo, en las
demas posiciones. Formalmente (I
n
)
ij
= 0
F
si i ,= j, mientras que (I
n
)
ij
= 1
F
cuando i = j. Las siguientes dos matrices no estan reducidas por renglones:
_
_
1 0 0 0
0 1 1 0
0 0 1 0
_
_
_
_
0 2 1
1 0 3
0 0 0
_
_
.
En la primera de ellas resulta que el primer elemento no nulo del tercer
renglon es 1, pero no todos los demas elementos que se encuentran en la
tercera columna, el lugar en donde aparece el primer uno del tercer renglon,
son iguales a cero (el que ocupa la posicion 2-3 es 1). La segunda matriz no
esta reducida por renglones, pues el primer elemento no nulo que aparece en
el primer renglon no es un uno, sino un dos. De estos ejemplos debe quedar
claro que cuando decimos el primer elemento no nulo del renglon r de A es
94 CAP

ITULO 3. SISTEMAS DE ECUACIONES


c queremos decir que, moviendonos de izquierda a derecha sobre el renglon
r de A, el primer elemento diferente del cero del campo que nos encontramos
es c. Formalmente, si c se encuentra en la columna j de A, entonces A
ri
= 0
F
,
para cada 1 i < j y A
rj
= c.
En una matriz reducida por renglones, es posible considerar renglones
nulos. La siguiente matriz, por ejemplo, esta reducida por renglones:
_
_
_
_
0 1 0 0
1 0 0 2
0 0 0 0
0 0 1 4
_
_
_
_
. (3.3.2)
La diferencia entre las matrices reducidas y las que en realidad queremos cons-
truir, las que dijimos que se llamaran escalonadas reducidas por renglones,
radica en el orden en que se colocan los primeros elementos no nulos de cada
renglon no nulo, as como el lugar en donde se colocan los renglones nulos.
Denicion 3.11. Una matriz R M
mn
(F) se llama escalonada reduci-
da por renglones si R satisface las siguientes tres condiciones:
1) R esta reducida por renglones;
2) todo renglon nulo de R esta debajo de todos los renglones no nulos de
R;
3) si los renglones 1, 2, . . . , r son los renglones no nulos de R, y si el
primer elemento no nulo del renglon i esta en la columna k
i
, para i =
1, 2, . . . , r, entonces k
1
< k
2
< < k
r
.
La propiedad 3) dice que los primeros elementos no nulos se distribuyen
de izquierda a derecha como en escalon: el primer elemento no nulo del
segundo renglon no nulo, se encuentra mas a la derecha del primer elemento
no nulo del primer renglon no nulo. Similarmente, el primer elemento no nulo
del tercer renglon no nulo, se coloca mas a la derecha del primer elemento
no nulo del segundo renglon no nulo y as sucesivamente. La matriz reducida
por renglones que dimos en (3.3.2) no esta escalonada reducida por renglones.
Para esto, necesitamos intercambiar varios renglones para producir la siguien-
te matriz:
3.3. MATRICES Y OPERACIONES ELEMENTALES 95
_
_
_
_
1 0 0 2
0 1 0 0
0 0 1 4
0 0 0 0
_
_
_
_
.
Como indicamos anteriormente, para resolver el sistema de ecuaciones
AX = 0
m1
la idea es que, utilizando operaciones elementales por renglon,
llevemos la matriz A a una matriz B que sea equivalente por renglones a
A, y de modo que el sistema BX = 0
m1
sea sencillo de resolver. Lo que
requerimos es que B este escalonada reducida por renglones. Para probar
que esto es posible, primero mostraremos que se puede llevar A a una matriz
reducida por renglones C y que, posteriormente, C se puede llevar a una
matriz escalonada reducida por renglones B.
Teorema 3.12. Toda matriz A M
mn
(F) es equivalente por renglones a
una matriz reducida por renglones.
Demostracion. Hagamos A
0
= A. Primero vamos a construir una matriz
A
1
que sea equivalente por renglones a A
0
. Consideremos el primer renglon
de A. Si todos sus elementos son iguales a 0
F
, hacemos A
1
= A
0
. Por otra
parte, si el primer renglon es no nulo entonces, moviendonos de izquierda a
derecha, consideramos el primer elemento no nulo. Llamemosle A
1k
. Tenemos
entonces que A
1j
= 0
F
, para cada 1 j < k. Multipliquemos ahora el primer
renglon por A
1
1k
. Entonces el primer elemento no nulo del primer renglon de la
matriz obtenida, que llamaremos B
0
, es igual a 1
F
. Notemos que, a partir del
segundo renglon, todos los renglones de A
0
son iguales a los de B
0
. En otras
palabras, la unica diferencia entre A
0
y B
0
radica en el primer renglon. Ahora
debemos hacer cero a todos los elementos que se encuentran en la columna
k, a partir del segundo renglon. Esto se puede realizar utilizando operaciones
elementales del tipo 2, sobre la matriz B
0
. En efecto, dada 2 i m, para
hacer cero al elemento A
ik
, multiplicamos por A
ik
el primer renglon de B
0
y
sumamos el resultado al renglon i. Sea A
1
la matriz obtenida, luego de hacer
cero a todos los elementos de la columna k, a partir del segundo renglon.
Notemos que (A
1
)
1j
= 0
F
, para cada 1 j < k, (A
1
)
1k
= 1
F
y (A
1
)
ik
= 0
F
,
para cada 2 i m.
Ahora consideremos el segundo renglon de A
1
. Sin alterar tanto la colum-
na k como los elementos del primer renglon de A
1
que se encuentran en las
96 CAP

ITULO 3. SISTEMAS DE ECUACIONES


posiciones 1-1, 1-2, . . . , 1-k, vamos a construir una matriz A
2
que sea equi-
valente por renglones a A
1
. Si el segundo renglon de A
1
es nulo, hacemos
A
2
= A
1
, de lo contrario localizamos al primer elemento no nulo del segundo
renglon. Efectuando una operacion elemental del tipo 1, podemos convertir
dicho elemento en el uno del campo, para construir as una matriz B
1
que
es como la matriz B
0
que consideramos en el parrafo anterior. Notemos que
el primer renglon de B
1
coincide con el primer renglon de B
0
, el cual tam-
bien coincide con el primer renglon de A
1
. De hecho, todos los renglones de
A
1
son iguales a los respectivos de B
1
, salvo el segundo renglon. Utilizando
ahora B
1
, efectuamos operaciones elementales del tipo 2 para hacer cero a
todos los elementos que se encuentren en la columna donde aparece el primer
elemento no nulo del segundo renglon de B
1
, dejando intacto dicho renglon,
por supuesto. Una cosa que hay que notar es que la columna en donde se
encuentra el primer elemento no nulo del segundo renglon de B
1
, no es igual
a la columna en donde se encuentra el primer elemento no nulo del primer
renglon de B
1
pues, cuando construimos A
1
, hicimos cero a todos los demas
elementos que se encuentran en la columna en donde aparece el primer ele-
mento no nulo del primer renglon de B
0
. Sea A
2
la matriz obtenida, a partir
de B
1
, luego de hacer cero a todos los elementos que se encuentran en la
columna del primer elemento no nulo del segundo renglon de A
1
, dejando
intacto al segundo renglon de A
1
.
Para los renglones que siguen se realiza un razonamiento similar. Se cons-
truye primero la matriz B
i
de forma que el primer elemento no nulo que
aparece en el renglon i sea igual a 1
F
. Luego, utilizando operaciones elemen-
tales del tipo 2, hacemos cero a todos los demas elementos que se encuentran
en la columna donde aparece el primer elemento no nulo del renglon i de B
i
,
dejando intacto al renglon i de B
i
. Cuando vamos realizando dichas opera-
ciones, no afectamos lo que tenamos construido en el paso anterior, pues la
columna en donde aparece el nuevo primer elemento no nulo, es diferente a
las columnas en donde aparecen los primeros elementos no nulos de los pasos
anteriores. Esto nos permite ir reduciendo cada vez mas la matriz hasta que,
al nal, es decir luego de m pasos, obtenemos una matriz A
m
reducida por
renglones que es equivalente a A.
Antes de probar que toda matriz es equivalente por renglones a una sola
matriz escalonada reducida por renglones, conviene presentar el siguiente
teorema.
3.3. MATRICES Y OPERACIONES ELEMENTALES 97
Teorema 3.13. Supongamos que R
1
, R
2
M
mn
(F) son dos matrices es-
calonadas reducidas por renglones. Supongamos tambien que los sistemas
homogeneos R
1
X = 0
m1
y R
2
X = 0
m1
tienen exactamente las mismas
soluciones. Entonces R
1
= R
2
.
La demostracion del teorema anterior se puede realizar por induccion
sobre el n umero de renglones de R
1
. Naturalmente, el n umero de renglones
de R
1
es el mismo que el de R
2
. Para matrices de orden peque no se puede dar
una demostracion directa del teorema anterior. Por ejemplo, mas adelante,
en el Ejercicio 5 de la Seccion 3.5, se pide probar el teorema anterior en el
caso en que las matrices R
1
y R
2
son de orden 23. Dejamos al lector probar
tanto el teorema anterior por induccion, como el Ejercicio 5 de la Seccion 3.5
en forma directa.
Teorema 3.14. Toda matriz A M
mn
(F) es equivalente por renglones a
una unica matriz escalonada reducida por renglones.
Demostracion. A continuaci on presentamos lo que parecera una demos-
tracion del teorema. Sabemos, siguiendo las indicaciones que se establecieron
en la prueba del Teorema 3.12, que A es equivalente por renglones a la matriz
reducida por renglones A
m
M
mn
(F). Notemos que el proceso establecido
en el Teorema 3.12, hace que la matriz A
m
sea unica. Realizando intercam-
bios de renglon, es posible obtener varias matrices reducidas por renglones
que sean equivalentes por renglones a A
m
. Pero solo sera posible obtener una
matriz escalonada reducida por renglones que sea equivalente por renglones
a A
m
, en vista de las condiciones impuestas en una matriz escalonada reduci-
da por renglones. En efecto, utilizando una cantidad nita de intercambios
de renglon, en la matriz A
m
, es posible obtener una matriz reducida por
renglones B que sea equivalente por renglones a A
m
y, ademas, sea tal que
todos los renglones nulos esten debajo de todos los renglones no nulos de
A
m
. Luego, realizando de nueva cuenta una cantidad nita de intercambio
de renglones (entre los renglones no nulos de B), es posible llevar B a una
matriz R que satisfaga la condicion 3) de la denicion de matriz escalona-
da reducida por renglones. Como la matriz B satisface la condicion 2) de
dicha denicion y, para llegar de la matriz B a la matriz R no movimos los
renglones nulos de B, resulta que R es una matriz escalonada reducida por
renglones, equivalente por renglones a B. Ahora bien, como A es equivalente
por renglones a A
m
la cual, a su vez, es equivalente por renglones a B y B
es equivalente por renglones a R, resulta que A es equivalente por renglones
a R.
98 CAP

ITULO 3. SISTEMAS DE ECUACIONES


El problema con el argumento mostrado en el parrafo anterior, es que
construimos la matriz R y mostramos que es unica, partiendo de la ma-
triz A
m
. Al hacer esto estamos presuponiendo que toda matriz reducida por
renglones y equivalente por renglones a A es igual a A
m
, salvo intercam-
bios de renglon.

Esto ultimo deberamos de probarlo. De ser cierto, entonces
el argumento del parrafo anterior se puede aplicar. Notemos, ademas, que
s podemos aplicar el argumento del parrafo anterior para mostrar que A es
equivalente por renglones a alguna matriz escalonada reducida por renglones.
Para probar que A es equivalente por renglones a una unica matriz
escalonada reducida por renglones, debemos utilizar el Teorema 3.13. Su-
pongamos, por reduccion al absurdo, que A es equivalente por renglones a
dos matrices escalonadas reducidas por renglones R
1
y R
2
. Entendemos que
R
1
,= R
2
. Por el Teorema 3.8, como A y R
1
son equivalentes por renglones,
los sistemas homogeneos AX = 0
m1
y R
1
X = 0
m1
tienen exactamente las
mismas soluciones. Como tambien A y R
2
son equivalentes por renglones,
usando de nuevo el Teorema 3.8, los sistemas homogeneos AX = 0
m1
y
R
2
X = 0
m1
tienen exactamente las mismas soluciones. Entonces R
1
y R
2
son dos matrices escalonadas reducidas por renglones, tales que los sistemas
homogeneos R
1
X = 0
m1
y R
2
X = 0
m1
tienen exactamente las mismas
soluciones. Luego, por el Teorema 3.13, R
1
= R
2
. Como esto es una contradic-
cion, A es equivalente por renglones a solo una matriz escalonada reducida
por renglones.
Podemos utilizar tambien el Teorema 3.13, para probar que el recproco
del Teorema 3.8 es cierto. Tenemos, por tanto, el siguiente resultado.
Teorema 3.15. Supongamos que A, B M
mn
(F). Entonces A y B son
equivalentes por renglones si y solo si los sistemas de ecuaciones lineales
AX = 0
m1
y BX = 0
m1
tienen exactamente las mismas soluciones.
Demostracion. Si A y B son equivalentes por renglones entonces, por el
Teorema 3.8, lo sistemas homogeneos AX = 0
m1
y BX = 0
m1
tienen exac-
tamente las mismas soluciones. Supongamos ahora que A y B son tales que
los sistemas homogeneos AX = 0
m1
y BX = 0
m1
tienen exactamente las
mismas soluciones. Sea R
1
la matriz escalonada reducida por renglones, que
es equivalente por renglones a A. Supongamos que R
2
es la matriz escalonada
reducida por renglones, que es equivalente por renglones a B. Por el Teorema
3.8, los sistemas homogeneos AX = 0
m1
y R
1
X = 0
m1
tienen exactamente
3.4. SOLUCI

ON DE UN SISTEMA DE ECUACIONES 99
las mismas soluciones. Tambien, por el Teorema 3.8, los sistemas homogeneos
BX = 0
m1
y R
2
X = 0
m1
tienen exactamente las mismas soluciones. En-
tonces, como los sistemas homogeneos AX = 0
m1
y BX = 0
m1
tienen
exactamente las mismas soluciones, deducimos que los sistemas homogeneos
R
1
X = 0
m1
y R
2
X = 0
m1
tienen exactamente las mismas soluciones.
Luego, por el Teorema 3.13, R
1
= R
2
. Esto implica que A es equivalente
por renglones a R
1
y que R
1
es equivalente por renglones a B. Luego A es
equivalente por renglones a B.
Combinando lo que hicimos en el Ejemplo 3.9 y lo enunciado en el Teo-
rema 3.14, para resolver un sistema de ecuaciones lineales homogeneo de la
forma AX = 0
m1
, debemos primero llevar A a una matriz R que sea equiva-
lente por renglones a A y escalonada reducida por renglones. La manera de
obtener a R se sigue como se indico en el Ejemplo 3.9. Una vez que obtene-
mos la matriz R, debemos ahora resolver el sistema homogeneo RX = 0
m1
,
el cual tiene exactamente el mismo n umero de soluciones que el sistema
AX = 0
m1
, pues A y R son equivalentes por renglones. En la siguiente
seccion veremos como resolver, en general, un sistema RX = 0
m1
en donde
la matriz R esta escalonada reducida por renglones. Posteriormente haremos
ver que, el conocimiento de las soluciones de un sistema homogeneo, nos
ayuda para conocer las soluciones de un sistema que no es homogeneo.
3.4. Solucion de un Sistema de Ecuaciones
3.4.1. Sistema Homogeneo
En esta seccion veremos como resolver un sistema de ecuaciones lineales
de la forma RX = 0
m1
, en donde R M
mn
(F) esta escalonada reducida
por renglones y R ,= 0
mn
. Entendemos que X es la matriz de n1 en donde
se encuentran las incongitas x
1
, x
2
, . . . , x
n
del sistema.
Supongamos que los renglones 1, 2, . . . , r son los no nulos de R. Natu-
ralmente 1 r m, pues R no es la matriz cero. Supongamos tambien
que, para cada i = 1, 2, . . . , r, el primer elemento no nulo del renglon i se
encuentra en la columna k
i
. Como R esta reducida por renglones, en la posi-
cion i-k
i
aparece entonces el elemento 1
F
, y todos los demas elementos que
se encuentran en la columna k
i
son iguales a 0
F
. Tambien es cierto que
k
1
< k
2
< < k
r
. Notemos que en el renglon i, los elementos que estan en
100 CAP

ITULO 3. SISTEMAS DE ECUACIONES


las posiciones i-1, i-2, . . . , i-(k
i
1) son iguales a 0
F
, el elemento que esta en
la posicion i-k
i
es 1
F
y los demas elementos pueden ser diferentes de 0
F
. Con
toda seguridad, sabemos que los elementos que estan en la posicion i-k
j
con
j > i son iguales a 0
F
, pues dichos elementos se encuentran en la columna
en donde aparece el primer elemento no nulo de los otros renglones no nulos
de R. Pero, con todo, a un podran quedar algunos elementos en el rengon i,
a la derecha de la columna k
i
, que son diferentes de 0
F
.
Para ilustrar lo comentado al nal del parrafo anterior, consideremos la
siguiente matriz escalonada reducida por renglones:
R
0
=
_
_
_
_
_
_
_
_
0 1 5 0 0 2 8 0 0
0 0 0 1 0 7 3 0 0
0 0 0 0 1 5 5 0 0
0 0 0 0 0 0 0 1 0
0 0 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
. (3.4.1)
Notemos que m = 6, n = 9, r = 5, k
1
= 2, k
2
= 4, k
3
= 5, k
4
= 8 y k
5
= 9.
A las columnas k
1
, k
2
, k
3
, k
4
y k
5
de R
0
las llamaremos columnas etiquetadas.
Entre las columnas etiquetadas k
1
y k
2
se encuentra la columna 3, que no
esta etiquetada. Por las condiciones impuestas a una matriz escalonada re-
ducida por renglones, a partir del segundo renglon, todos los elementos de la
segunda columna de R
0
deben ser iguales a 0. Pero el elemento que esta en
la posicion 1-3 es libre de tomar cualquier valor. En el ejemplo escogimos el
valor de 5.
Ahora bien, los elementos que estan en las posiciones 1-4, 1-5, 1-8 y 1-9
deben valer cero, pues debajo de ellos aparece el primer elemento diferente
de cero de los renglones 2, 3, 4 y 5, respectivamente (los que corresponden a
las columnas etiquetadas k
2
, k
3
, k
4
y k
5
). Sin embargo, los elementos 1-6 y 1-7
pueden tomar cualquier valor, pues tanto la columna 6 como la 7 no estan
etiquetadas. En el ejemplo hemos escogido los valores 2 y 8, respectivamente.
As pues, tomando en cuenta las columnas etiquetadas, los unicos elementos
distintos de cero del primer renglon, y que estan a la derecha de la columna
k
1
, se deben encontrar en las columnas no etiquetadas.
Para el segundo renglon el razonamiento es similar. Como k
2
= 4, los
elementos que estan en las posiciones 2-1, 2-2 y 2-3 deben ser cero. Luego el
3.4. SOLUCI

ON DE UN SISTEMA DE ECUACIONES 101


elemento 2-4 debe valer 1. Tomando en cuenta los valores de k
3
, k
4
y k
5
, los
elementos que estan en las posiciones 2-5 y 2-8 y 2-9 deben valer cero. Esto
deja libres a los elementos que estan en las posiciones 2-6 y 2-7, los cuales
corresponden a columnas no etiquetadas. Dichos elementos pueden tomar
valores diferentes de cero si as lo deseamos. Para el ejemplo a ambos le dimos
el valor de 5. Razonando de manera similar, vemos que en el tercer renglon,
los unicos elementos que podran tomar valores diferentes de cero si as lo
deseamos y que se encuentran a la derecha del primer elemento no nulo del
tercer renglon, son los que ocupan las posiciones 3-6 y 3-7, correspondientes
a columnas no etiquetadas.
Lo anterior nos dice la forma que posee el sistema de ecuaciones lineales,
correspondiente a una matriz escalonada reducida por renglones R. Notemos
primero que cada columna de R tiene asociada una variable. La primera
columna contiene todos los coecientes de la variable x
1
, la segunda columna
a todos los de la variable x
2
y as sucesivamente. Para i = 1, 2, . . . , r en el
rengon i de R, la columna k
i
corresponde a la variable x
k
i
. Cuando traducimos
la matriz R a un sistema de ecuaciones lineales, aparecera la variable x
k
i
con
coeciente 1
F
. A la derecha de la columna k
i
, sobre el renglon i, bien podemos
ver otros elementos diferentes de 0
F
, y estos se encuentran en las columnas
de R que no estan etiquetadas. Cada columna no etiquetada corresponde
tambien a una variable del sistema de ecuaciones lineales.
Vamos a denotar con un smbolo a las variables que corresponden a colum-
nas etiquetadas y, con otro, a las que corresponden a columnas no etique-
tadas. Las variables etiquetadas son x
k
1
, x
k
2
, . . . , x
k
r
, y las variables no eti-
quetadas son las que nos faltan para completar las n variables del sistema
de ecuaciones. Entonces tenemos n r variables no etiquetadas y estas las
denotaremos como u
1
, u
2
, . . . , u
nr
. Para el renglon i de R, el elemento que
se encuentra en la columna no etiquetada j se denotara por C
ij
. Tenemos
entonces que RX = 0
m1
corresponde al siguiente sistema de ecuaciones
lineales:
x
k
1
+

nr
j=1
C
1j
u
j
= 0
F
x
k
2
+

nr
j=1
C
2j
u
j
= 0
F
.
.
.
.
.
.
.
.
.
.
.
.
x
k
r
+

nr
j=1
C
rj
u
j
= 0
F
(3.4.2)
102 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Todas las soluciones del sistema (3.4.2) se obtienen dando valores arbitra-
rios, del campo F, a las variables no etiquetadas u
1
, u
2
, . . . , u
nr
y calculan-
do los correspondientes valores de las variables etiquetadas x
k
1
, x
k
2
, . . . , x
k
r
.
Ahora bien, notemos que tenemos tantas variables etiquetadas como ren-
glones no nulos de R. Dicho n umero es el que denotamos por r. Ademas n
representa al n umero de variables que tenemos. Por consiguiente, si r < n en-
tonces el sistema RX = 0
m1
tiene por lo menos una variable no etiquetada.
Como todas las soluciones del sistema (3.4.2) se obtienen asignando cualquier
valor del campo a las variables no etiquetadas, deducimos que, cuando r < n,
el sistema RX = 0
m1
tiene una solucion no trivial, es decir, una solucion
(x
1
, x
2
, . . . , x
n
) en la que no todas las variables toman el valor 0
F
. Tenemos
incluso un resultado mas fuerte.
Teorema 3.16. Si A M
mn
(F) y m < n, entonces el sistema homogeneo
AX = 0
m1
tiene una solucion no trivial.
Demostracion. Sea R una matriz escalonada reducida por renglones y
equivalente por renglones a A. Entonces los sistemas AX = 0
m1
y RX =
0
m1
tienen exactamente las mismas soluciones. Sea r el n umero de renglones
no nulos de R. Notemos que r m < n, as que r < n. Entonces, por lo que
comentamos en el parrafo anterior, el sistema RX = 0
m1
tiene una solucion
no trivial. Dicha solucion es tambien una solucion del sistema AX = 0
m1
.
Por tanto, el sistema AX = 0
m1
tiene una solucion no trivial.
As pues, en todo sistema homogeneo AX = 0
m1
, si tenemos mas incogni-
tas que ecuaciones, entonces el sistema tiene una solucion no trivial. Incluso
en dicha situacion, el sistema AX = 0
m1
tiene una innidad de soluciones, a
menos que el campo considerado sea nito. En efecto, como ya indicamos, la
desigualdad r < n implica que tenemos por lo menos una variable no etique-
tada y, como sabemos, cualquier valor del campo que le demos a las variables
no etiquetadas, produce una solucion del sistema. Si el campo considerado
es innito, entonces tenemos una innidad de valores a elegir para las varia-
bles no etiquetadas. Entonces el sistema AX = 0
m1
tendra una innidad de
soluciones.
En la pagina 42 consideramos, en R
3
, los vectores
x
1
= (2, 1, 4) x
2
= (1, 1, 3) x
3
= (1, 1, 1) y x
4
= (1, 2, 1).
3.4. SOLUCI

ON DE UN SISTEMA DE ECUACIONES 103


Como hicimos ver, el conjunto S = x
1
, x
2
, x
3
, x
4
es linealmente dependien-
te. Para esto resolvimos el sistema (2.8.1) y vimos que posee una solucion no
trivial. Ahora bien, como consecuencia del Teorema 3.16, el sistema (2.8.1)
tiene una innidad de soluciones, pues tenemos mas incognitas que ecua-
ciones. Por tanto, de haber conocido el Teorema 3.16, hubiesemos deducido,
sin necesidad de resolver el sistema (2.8.1), que S es linealmente dependiente.
Por supuesto, como ya indicamos, no haba siquiera necesidad de considerar
el sistema (2.8.1), si en su lugar apelamos al Corolario 2.47.
De lo comentado en el parrafo anterior, el lector debe deducir que existen
muchas maneras de simplicar un trabajo. En la medida en que avanzamos
en los conocimientos teoricos, ciertos problemas practicos se pueden resolver
facilmente. Para el caso del conjunto S, la manera mas rapida de ver que es
linealmente dependiente, se obtiene utilizando el Corolario 2.47. Pero, si uno
quiere probar la dependencia lineal de S utilizando un sistema de ecuaciones
lineales, entonces el camino mas rapido se obtiene utilizando el Teorema
3.16. Por supuesto, uno bien puede decidir no aplicar ni el Corolario 2.47 ni
el Teorema 3.16 pero, como ya indicamos, el trabajo que se requiere es largo,
engorroso e innecesario.
Volviendo a la solucion de un sistema de ecuaciones lineales homogeneo,
el siguiente resultado indica una condicion necesaria y suciente para que el
sistema homogeneo AX = 0
m1
posea unicamente una solucion, la solucion
trivial, en el caso en que A M
nn
(F).
Teorema 3.17. Sea A M
nn
(F). Entonces A es equivalente por renglones
a la matriz identidad I
n
si y solo si, el sistema homogeneo AX = 0
n1
tiene
solamente la solucion trivial.
Demostracion. Supongamos primero que A es equivalente por renglones
a la matriz identidad I
n
. Entonces los sistemas homogeneos AX = 0
n1
e
I
n
X = 0
n1
tienen exactamente el mismo n umero de soluciones. Notemos
ahora que en la matriz I
n
no hay variables no etiquetadas y, ademas, todas
las variables x
1
, x
2
, . . . , x
n
aparecen con coeciente igual a 1
F
. Por tanto
x
1
= x
2
= = x
n
= 0
F
. Esto signica que el sistema I
n
X = 0
n1
solamente
posee la solucion trivial. Lo mismo aplica entonces al sistema AX = 0
n1
.
Ahora supongamos que el sistema AX = 0
n1
tiene solamante la solucion
trivial X = 0
n1
. Sea R una matriz escalonada reducida por renglones y
104 CAP

ITULO 3. SISTEMAS DE ECUACIONES


equivalente por renglones a la matriz A. Sea r el n umero de renglones no
nulos de R. Notemos que r n. Como los sistemas AX = 0
n1
y RX = 0
n1
tienen exactamente las mismas soluciones y el sistema AX = 0
n1
solamente
posee la solucion trivial, lo mismo aplica al sistema RX = 0
n1
, es decir, este
posee solamente la solucion trivial. Entonces r n pues, como ya hemos
indicado, cuando r < n el sistema RX = 0
n1
tiene una solucion no trivial.
Tenemos entonces que r n y r n, as que r = n. Esto implica, en vista de
que R esta escalonada reducida por renglones, que R posee al elemento 1
F
en las posiciones 1-1, 2-2, . . . , n-n y al elemento 0
F
en las demas posiciones.
Luego R = I
n
, probando con esto que A es equivalente por renglones a la
matriz identidad I
n
.
Tenemos entonces resuelto el problema de las soluciones de un sistema
homogeneo AX = 0
n1
en el caso en que A es una matriz cuadrada, es decir,
una matriz en M
nn
(F). A saber, si A es equivalente por renglones a la matriz
identidad I
n
, entonces el sistema AX = 0
n1
posee solamente la solucion
trivial X = 0
n1
y, si A no es equivalente por renglones a la matriz identidad
I
n
, entonces el sistema AX = 0
n1
tiene por lo menos dos soluciones: la
solucion trivial y una solucion no trivial. El n umero de soluciones del sistema
lo determinara la cardinalidad del campo F. Si, por ejemplo, F es innito
entonces habra una cantidad innita de soluciones.
Consideremos ahora el sistema AX = 0
m1
para una matriz no cuadrada
A. Entonces A M
mn
(F) y m ,= n. Hasta el momento lo unico que sabemos
es que si m < n, entonces el sistema tiene por lo menos dos soluciones: la
solucion trivial y una solucion no trivial. Que sucede si m > n? Para resolver
este caso consideremos que R M
mn
(F) es una matriz escalonada reducida
por renglones y equivalente por renglones a la matriz A. Sea r el n umero
de renglones no nulos de R y, como antes, supongamos que para 1 i r,
el primer elemento no nulo del renglon i de R se encuentra en la columna
k
i
. Entonces el sistema RX = 0
m1
se puede escribir en la forma (3.4.2), en
donde x
k
1
, x
k
2
, . . . , x
k
r
son las variables etiquetadas y u
1
, u
2
, . . . , u
nr
son las
variables no etiquetadas. Es claro que el n umero de variables etiquetadas, es
menor o igual al n umero de variables disponibles, que es n. Como tenemos
r variables etiquetadas, sucede entonces que r n (tambien sucede que
r m, pues r es menor o igual que la cantidad de renglones disponibles,
que es m). Como r n < m y R es una matriz escalonada reducida por
renglones, para n + 1 i m, el renglon i de R es nulo. Mas a un, si r = n,
3.4. SOLUCI

ON DE UN SISTEMA DE ECUACIONES 105


entonces no aparecen variables no etiquetadas y, por consiguiente, el sistema
RX = 0
m1
posee solamente la solucion trivial. Si r < n, entonces dicho
sistema tendra ademas una solucion no trivial.
De lo enunciado en los parrafos anteriores deducimos el siguiente teorema.
Teorema 3.18. Supongamos que A M
mn
(F) y que r es el n umero de
renglones no nulos de la matriz escalonada reducida por renglones que es
equivalente por renglones a A. Entonces
1) el sistema homogeneo AX = 0
m1
tiene una solucion no trivial si y
solo si r < n;
2) el sistema homogeneo AX = 0
m1
tiene solamente la solucion trivial si
y solo si r = n.
Recordemos que A puede ser equivalente por renglones a muchas matrices
reducidas por renglones, pero A es equivalente por renglones a solo una matriz
escalonada reducida por renglones.
Dada una matriz A M
mn
(F), el n umero r de renglones no nulos de la
matriz escalonada reducida por renglones que es equivalente por renglones a
A, sera importante. Dicho n umero recibe incluso un nombre. Como veremos
en la Seccion 3.10, se llama el rango de la matriz A. Tambien veremos que el
rango de una matriz nos ayuda para determinar tanto el n umero maximo de
renglones linealmente independientes que tiene A, como el n umero maximo
de columnas linealmente independientes que tiene A.
3.4.2. Sistema no Homogeneo
Ahora deseamos resolver un sistema de ecuaciones lineales AX = Y
m1
,
que no sea homogeneo. En contraste con los sistemas homogeneos, que siem-
pre tienen por lo menos una solucion (la solucion trivial), un sistema no
homogeneo podra no tener solucion, como sucede con el sistema (3.2.4).
Para resolver el sistema AX = Y
m1
, lo primero que construimos es la
matriz aumentada de dicho sistema, la cual denotaremos por (A[Y ). Por
denicion (A[Y ) M
m(n+1)
(F), las primeras n columnas de (A[Y ) son las
columnas de A (respetando el orden), y la ultima columna de (A[Y ) es Y.
106 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Por costumbre, es com un escribir una barra vertical entre las dos ultimas
columnas de (A[Y ). Formalmente (A[Y )
ij
= A
ij
si j n y (A[Y )
i(n+1)
= y
i
,
pensando que
Y =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
.
Supongamos que R M
mn
es la matriz escalonada reducida por renglones
y equivalente por renglones a A. Entonces R se obtiene, a partir de A, efec-
tuando un n umero nito e
1
, e
2
, . . . , e
s
de operaciones elementales por renglon.
Efectuemos las mismas operaciones elementales e
1
, e
2
, . . . , e
s
en la matriz au-
mentada (A[Y ) tomando en cuenta, por supuesto, a la ultima columna de
(A[Y ). Una vez efectuadas las s operaciones elementales por renglon, ob-
tendremos una matriz (R[Z) M
m(n+1)
(F) cuyas primeras n columnas
son exactamente las mismas que las de R. Entonces (R[Z)
ij
= R
ij
para
cada j n. En la ultima columna de (R[Z), apareceran ciertos escalares
z
1
, z
2
, . . . , z
m
F, los cuales forman al vector columna
Z =
_
_
_
_
_
z
1
z
2
.
.
.
z
m
_
_
_
_
_
.
Como Z es lo que se obtiene luego de efectuar las s operaciones elementa-
les e
1
, e
2
, . . . , e
s
a partir de Y, los sistemas AX = Y
m1
y RX = Z
m1
son
equivalentes por renglones y, por consiguiente, tienen exactamente el mismo
n umero de soluciones. En vista de que R es una matriz escalonada reducida
por renglones, es sencillo determinar si el sistema RX = Z
m1
posee o no una
solucion. Podemos escribir dicho sistema en la forma (3.4.2), considerando las
variables etiquetadas y las variables no etiquetadas. Ahora los lados derechos
de (3.4.2) toman los valores de Z que corresponden. Formalmente, el sistema
RX = Z
m1
equivale a escribir
3.4. SOLUCI

ON DE UN SISTEMA DE ECUACIONES 107


x
k
1
+

nr
j=1
C
1j
u
j
= z
1
x
k
2
+

nr
j=1
C
2j
u
j
= z
2
.
.
.
.
.
.
.
.
.
.
.
.
x
k
r
+

nr
j=1
C
rj
u
j
= z
r
0
F
= z
r+1
0
F
= z
r+2
.
.
.
.
.
.
.
.
.
0
F
= z
m
.
(3.4.3)
Como lo hemos estado haciendo, entendemos que r es el n umero de ren-
glones no nulos de R y que, para 1 i r, el primer elemento no nulo
del renglon i de R, se encuentra en la columna k
i
. Ademas x
k
1
, x
k
2
, . . . , x
k
r
son las variables etiquetadas, mientras que u
1
, u
2
, . . . , u
nr
son las variables
no etiquetadas. Notemos que en el sistema anterior aparecen las ecuaciones
0
F
= z
r+1
, 0
F
= z
r+2
, . . . , 0
F
= z
m
. Esto signica que, para que el sistema
AX = Y
m1
, que es equivalente al sistema RX = Z
m1
, tenga solucion, los
valores de z
r+1
, z
r+2
, . . . , z
m
deben ser iguales a 0
F
. Si se cumple esta condi-
cion, entonces todas las soluciones del sistema no homogeneo se encuentran
del mismo modo que en el caso homogeneo: le damos valores arbitrarios a las
variables no etiquetadas u
1
, u
2
, . . . , u
nr
y calculamos luego el valor de las
variables etiquetadas x
k
1
, x
k
2
, . . . , x
k
r
.
Seg un lo comentado en el parrafo anterior, el sistema AX = Y
m1
no
tiene solucion si para alguna i > r, el valor de z
i
no es 0
F
. Si z
r+1
= z
r+2
=
= z
m
= 0
F
, entonces el sistema AX = Y
m1
tiene solucion. El n umero
de soluciones depende de si existen variables no etiquetadas y de que tan
grande es el campo. Si no tenemos variables etiquetadas es porque r = n. En
dicha situacion tambien debemos tener que n m, pues r siempre es menor
o igual al n umero de renglones de R. Entonces el sistema posee solamente la
solucion (z
1
, z
2
, . . . , z
n
). Si tenemos por lo menos una variable no etiquetada,
es porque r < n. En dicha situacion tenemos por lo menos dos soluciones.
De lo anterior, tenemos el siguiente resultado.
Teorema 3.19. Supongamos que A M
mn
(F) y Y
m1
M
m1
(F). Supon-
gamos tambien que la matriz aumentada (A[Y ) es equivalente por renglones
a la matriz (R[Z), donde R es la matriz escalonada reducida por renglones
108 CAP

ITULO 3. SISTEMAS DE ECUACIONES


que es equivalente por renglones a A, y
Z =
_
_
_
_
_
z
1
z
2
.
.
.
z
m
_
_
_
_
_
M
m1
(F).
Sea r el n umero de renglones no nulos de R. Entonces
1) si para alguna i > r sucede que z
i
,= 0
F
, entonces el sistema AX = Y
m1
no tiene solucion;
2) si z
r+1
= z
r+2
= = z
m
= 0
F
, entonces
2.1) el sistema AX = Y
m1
tiene solamente la solucion (z
1
, z
2
, . . . , z
n
)
si y solo si r = n;
2.2) el sistema AX = Y
m1
tiene mas de una solucion si y solo si
r < n.
Ademas, como hemos comentado, si el campo F es innito entonces el
sistema AX = Y
m1
tiene una cantidad innita de soluciones. Pero si el
campo es nito, habra un n umero nito de soluciones.
Terminamos la seccion, presentando un ejemplo en el que se muestre como
resolver un sistema de ecuaciones lineales no homogeneo.
Ejemplo 3.20. Consideremos el campo F de los n umero racionales. Encon-
trar condiciones sobre los valores y
1
, y
2
, y
3
de modo que el sistema AX = Y
31
tenga solucion, en donde Y es el vector columna cuyos elementos son y
1
, y
2
, y
3
y
A =
_
_
1 2 1
2 1 1
0 5 1
_
_
.
Solucion. La matriz aumentada (A[Y ) del sistema es
(A[Y ) =
_
_
1 2 1
2 1 1
0 5 1

y
1
y
2
y
3
_
_
3.5. EJERCICIOS 109
Efectuando operaciones elementales por renglon, debemos llevar la ma-
triz (A[Y ) a una, de modo que la matriz formada con sus primeras tres
columnas este escalonada reducida por renglones. Utilizaremos la notacion
que establecimos en el Ejemplo 3.9:
_
_
1 2 1
2 1 1
0 5 1

y
1
y
2
y
3
_
_
R
2
2R
1
+R
2

_
_
1 2 1
0 5 1
0 5 1

y
1
2y
1
+y
2
y
3
_
_
R
3
R
2
+R
3

_
_
1 2 1
0 5 1
0 0 0

y
1
2y
1
+y
2
2y
1
y
2
+y
3
_
_
R
2

1
5
R
2

_
_
1 2 1
0 1
1
5
0 0 0

y
1
1
5
(2y
1
+y
2
)
2y
1
y
2
+y
3
_
_
R
1
2R
2
+R
1

_
_
1 0
3
5
0 1
1
5
0 0 0

1
5
(y
1
+ 2y
2
)
1
5
(2y
1
+y
2
)
2y
1
y
2
+y
3
_
_
= (R[Z).
Considerando la matriz (R[Z) resulta que, para que el sistema AX = Y
31
tenga una solucion, se requiere que
2y
1
y
2
+y
3
= 0. (3.4.4)
Tambien, considerando la matriz (R[Z), tenemos que x
1
y x
2
son variables
etiquetadas, mientras que x
3
es una variable no etiquetada. Entonces el sis-
tema tendra por lo menos dos soluciones y, como el campo de los racionales es
innito tendra, de hecho, un n umero innito de soluciones. Todo esto siem-
pre y cuando y
1
, y
2
y y
3
satisfagan la ecuacion (3.4.4). De ser este el caso, le
damos a la variable x
3
el valor racional c y calculamos las variables x
1
y x
2
en terminos de c. Tenemos entonces que
x
1
=
3
5
c +
1
5
(y
1
+ 2y
2
) y x
2
=
1
5
c +
1
5
(2y
1
+y
2
)
3.5. Ejercicios
1. Encuentra una matriz escalonada reducida por renglones que sea equi-
valente por renglones a la matriz
A =
_
_
1 i
2 2
i i + 1
_
_
.
110 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Ahora determina las soluciones del sistema AX = 0
31
en el campo de
los n umeros complejos.
2. Determina si el siguiente sistema de ecuaciones tiene solucion en el
campo de los n umeros racionales y, de tener, encuentra todas las solu-
ciones:
x
1
x
2
+ 2x
3
= 1
2x
1
+ 2x
3
= 1
x
1
3x
2
+ 4x
3
= 2
3. Muestra que el siguiente sistema no tiene solucion
x
1
2x
2
+x
3
+ 2x
4
= 1
x
1
+x
2
x
3
+x
4
= 2
x
1
+ 7x
2
5x
3
x
4
= 3
4. Consideremos la matriz
A =
_
_
_
_
3 6 2 1
2 4 1 3
0 0 1 1
1 2 1 0
_
_
_
_
.
Para que 4-adas (y
1
, y
2
, y
3
, y
4
) R
4
tiene solucion el sistema de ecua-
ciones AX = Y
41
?
5. El presente ejercicio, es justo la demostracion del Teorema 3.13 para
matrices de orden 23. Supongamos que R
1
, R
2
M
23
(F) son dos ma-
trices escalonadas reducidas por renglones. Supongamos tambien que
los sistemas homogeneos R
1
X = 0
21
y R
2
X = 0
21
tienen exacta-
mente las mismas soluciones. Demuestra que R
1
= R
2
(Nota: para
resolver este ejercicio, no se puede utilizar el Teorema 3.15, para con-
cluir que R
1
y R
2
son equivalentes por renglones, pues el Teorema 3.15,
se prueba utilizando el Teorema 3.13 y, como ya mencionamos, este
ejercicio es la demostracion del Teorema 3.13 para matrices de orden
2 3).
3.6. MULTIPLICACI

ON DE MATRICES 111
3.6. Multiplicacion de Matrices
3.6.1. Denicion y Propiedades Fundamentales
Cuando vamos efectuando operaciones elementales del tipo 1 y del tipo 2
sobre los renglones de una matriz, lo que vamos formando son combinaciones
lineales de los renglones de dicha matriz. Combinando esto con el hecho de
que, mediante una cantidad nita de operaciones elementales por renglon,
podemos llevar una matriz a una escalonada reducida por renglones, resulta
que, mediante una cantidad nita de combinaciones lineales de los renglones
de la matriz original, obtenemos la matriz escalonada reducida por renglones.
Por tanto, el proceso de formar combinaciones lineales con los renglones de
una matriz es fundamental. No esta de mas decir que, en los espacios vecto-
riales, la nocion de combinaci on lineal tambien es importante pues, gracias
a ella, obtenemos por ejemplo la nocion de base. Para el caso de matrices,
lo que deseamos ahora es una operacion que sistematice el proceso de tomar
combinaciones lineales. Dicha operacion es la multiplicaci on de matrices.
Para denir la multiplicacion de matrices, consideremos primero una ma-
triz A M
mn
(F). Podemos escribir a A en la forma
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
,
y tambien la podemos escribir considerando los renglones de A o bien las
columnas de A. Si r
1
, r
2
, . . . , r
m
son los renglones de A, entonces la notacion
A =
_
_
_
_
_
_
_
r
1
r
2
.
.
.
r
m1
r
m
_
_
_
_
_
_
_
(3.6.1)
representa la matriz Aen terminos de sus renglones, mientras que si c
1
, c
2
, . . . , c
n
son las columnas de A, entonces la notacion
A = (c
1
[c
2
[ [c
n
) (3.6.2)
112 CAP

ITULO 3. SISTEMAS DE ECUACIONES


representa la matriz A en terminos de sus columnas. Si escribimos directa-
mente a A en la forma (3.6.1), entendemos que estamos deniendo a A en
terminos de sus renglones. De manera similar, si escribimos directamente a
A en la forma (3.10.1), entendemos que estamos deniendo a A en terminos
de sus columnas.
Ahora consideremos las matrices A M
mn
(F) y B M
np
(F). Supon-
gamos que
B =
_
_
_
_
_

1
.
.
.

n1

n
_
_
_
_
_
.
A partir de B construiremos una matriz C M
mp
(F) en donde los renglones
de C, que denotaremos por
1
,
2
, . . . ,
m
, seran combinaciones lineales de los
renglones de B. A saber, para 1 i m, denimos

i
= A
i1

1
+A
i2

2
+ +A
in

n
. (3.6.3)
Como
1
,
2
, . . . ,
n
F
p
y A
i1
, A
i2
, . . . , A
in
F, sucede que
i
F
p
, para
cada 1 i m. Por esta razon es que la matriz C es de orden m p.
Notemos que los elementos A
i1
, A
i2
, . . . , A
in
forman el renglon i de r, que
denotamos por r
i
. Entonces, en cierta forma, (3.6.3) representa un producto
punto entre r
i
y B, como ese producto punto que aprendimos en los cursos
de Geometra Analtica. Estrictamente hablando no tenemos un producto
punto, pero hagamonos de la vista gorda y consideremoslo como tal. Entonces

i
= r
i
B, para cada 1 i m.
Desarrollando ahora la ecuacion (3.6.3) obtenemos
A
i1

1
+A
i2

2
+ +A
in

n
= A
i1
_
_
_
_
_
_
_
_
_
B
11
B
12
.
.
.
B
1j
.
.
.
B
1p
_
_
_
_
_
_
_
_
_
+A
i2
_
_
_
_
_
_
_
_
_
B
21
B
22
.
.
.
B
2j
.
.
.
B
2p
_
_
_
_
_
_
_
_
_
+ +A
in
_
_
_
_
_
_
_
_
_
B
n1
B
n2
.
.
.
B
nj
.
.
.
B
np
_
_
_
_
_
_
_
_
_
=
3.6. MULTIPLICACI

ON DE MATRICES 113
=
_
_
_
_
_
_
_
_
_
A
i1
B
11
+A
i2
B
21
+ +A
in
B
n1
A
i1
B
12
+A
i2
B
22
+ +A
in
B
n2
.
.
.
.
.
.
.
.
.
A
i1
B
1j
+A
i2
B
2j
+ +A
in
B
nj
.
.
.
.
.
.
.
.
.
A
i1
B
1p
+A
i2
B
2p
+ +A
in
B
np
_
_
_
_
_
_
_
_
_
=
i
=
_
_
_
_
_
_
_
_
_
C
i1
C
i2
.
.
.
C
ij
.
.
.
C
ip
_
_
_
_
_
_
_
_
_
.
Por tanto, tenemos la siguiente igualdad:
C
ij
= A
i1
B
1j
+A
i2
B
2j
+ +A
in
B
nj
=
n

r=1
A
ir
B
rj
. (3.6.4)
Lo anterior indica que el elemento que ocupa la posicion i-j de C, esta da-
do por la formula (3.6.4). Esto nos permite denir al producto de A y B.
Denicion 3.21. Si A M
mn
(F) y B M
np
(F), entonces el producto
de A con B es la matriz C M
mp
(F) tal que
C
ij
=
n

r=1
A
ir
B
rj
,
para cada 1 i m y cada 1 j p.
Denotaremos por AB al producto de A con B. Uno de los objetivos prin-
cipales del Captulo 4, sera el de denir ciertas funciones entre espacios vec-
toriales, que llamaremos transformaciones lineales, y probar que cada trans-
formacion lineal puede ser vista como una matriz. En el proceso veremos que
sera posible considerar la composicion de transformaciones lineales como un
producto de matrices, siempre y cuando el producto de matrices se dena
como en la formula (3.6.4). Tenemos entonces dos razones para denir el
producto matricial como se indica en la denicion anterior. La primera es
por la razon ya indicada: estamos considerando combinaciones lineales de
los renglones de una matriz. La segunda es que, gracias a la forma en co-
mo lo estamos deniendo, el producto matricial quedara identicado con la
composicion de transformaciones lineales. Por tanto, propiedades que sean
validas para la composicion de transformaciones lineales, seran tambien vali-
das para el producto matricial. Todo esto quedara mas claro y formalizado,
luego de que probemos el Teorema 4.51.
114 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Notemos ahora que los productos AB y BAno necesariamente son iguales.
Podemos apelar a lo comentado en el parrafo anterior. Como el producto de
matrices estara en correspondencia con la composicion de transformaciones
lineales, las cuales son funciones, y la composicion de funciones no es con-
mutativa, el producto de matrices tampoco debera ser conmutativo. Para
proceder sin utilizar la composicion de transformaciones lineales, debemos
mencionar primero que alguno de los productos AB y BA podra no estar
denido. Para empezar, existe una condicion que debe cumplirse antes de
efectuar el producto de A con B: el n umero de columnas de A debe ser
igual al n umero de renglones de B. Para que los productos AB y BA se
puedan realizar debemos tener, ademas de la condicion ya indicada, que el
n umero de columnas de B debe ser igual al n umero de renglones de A. Por
tanto, si A se encuentra en M
mn
(F) y queremos que los productos AB y
BA se puedan realizar, entonces B debe considerarse en M
nm
(F). Entonces
AB M
mm
(F) y BA M
nn
(F). Si n ,= m entonces las matrices AB
y BA no pueden ser iguales. As pues, si queremos tener la esperanza de
que AB y BA sean la misma matriz, debemos suponer que n = m. En-
tonces A, B M
nn
(F). Sin embargo, a pesar de todas las consideraciones
que hemos realizado, difcilmente obtendremos que AB y BA son la misma
matriz. Supongamos, por ejemplo, que n = 2 y consideremos
A =
_
1 0
0 0
_
y B =
_
0 1
0 0
_
.
Entonces
AB =
_
0 1
0 0
_
y BA =
_
0 0
0 0
_
.
De la segunda igualdad obtenemos, incluso, que el producto de matrices
diferentes de la matriz cero puede ser igual a la matriz cero. En otras palabras,
el hecho de que el producto de dos matrices sea la matriz cero, no implica
que alguna de las matrices consideradas es la matriz cero.
De la discusion anterior deducimos que el producto de matrices no es
conmutativo. A continuacion mostraremos que el producto de matrices es
asociativo. Si nos creemos el hecho de que el producto de matrices esta en
correspondencia con la composicion de transformaciones lineales, entonces
no hay nada que probar, pues en

Algebra Superior I se probo que la com-
posicion de funciones es asociativa. De cualquier manera, presentaremos una
demostracion dada en terminos elementales.
3.6. MULTIPLICACI

ON DE MATRICES 115
Teorema 3.22. Si A, B y C son matrices sobre el campo F, tales que los
productos BC y A(BC) estan denidos, entonces tambien los productos AB
y (AB)C estan denidos. Ademas
A(BC) = (AB)C.
Demostracion. Supongamos que B M
np
(F). Como el producto BC
esta denido, C es una matriz con p renglones. Ademas, la matriz BC tiene
n renglones. Ahora bien, como la matriz A(BC) tambien esta denida y BC
tiene n renglones, necesariamente A tiene n columnas. Podemos suponer, por
tanto, que A M
mn
(F), para alg un n umero natural m. Entonces el pro-
ducto AB existe y, ademas, AB M
mp
(F). Como el n umero de columnas
de AB, el cual es p, coincide con el n umero de renglones de C, el producto
(AB)C tambien existe. Si suponemos que C M
pq
(F), para alg un n umero
natural q, entonces BC M
nq
(F) y (AB)C, A(BC) M
mq
(F).
Para mostrar que los productos A(BC) y (AB)C son iguales, debemos
hacer ver que
[A(BC)]
ij
= [(AB)C]
ij
para cada 1 i m y cada 1 j q. Dadas i y j como se indica
obtenemos, utilizando las respectivas deniciones del producto de matrices
as como propiedades de la sumatoria, la siguiente cadena de igualdades:
[A(BC)]
ij
=
n

r=1
A
ir
(BC)
rj
=
n

r=1
A
ir
_
p

s=1
B
rs
C
sj
_
=
=
n

r=1
p

s=1
A
ir
B
rs
C
sj
=
p

s=1
n

r=1
A
ir
B
rs
C
sj
=
=
p

s=1
_
n

r=1
A
ir
B
rs
_
C
sj
=
p

s=1
(AB)
is
C
sj
= [(AB)C]
ij
.
Esto termina la demostracion.
Notemos que el hecho de que el producto de matrices sea asociativo im-
plica, entre otras cosas, que combinaciones lineales de combinaciones lineales
son, de nueva cuenta, combinaciones lineales.
Si A M
nn
(F), entonces el producto AA esta denido. Esta matriz
se representa por A
2
. Como el producto de matrices es asociativo, tenemos
116 CAP

ITULO 3. SISTEMAS DE ECUACIONES


que (AA)A = A(AA). En otras palabras, A
2
A = AA
2
. Esto signica que el
producto AAA esta denido sin ambig uedad. Dicho producto se representa
por A
3
. En general, el producto AA A (en donde intervienen k factores)
esta denido sin ambig uedad y se representa por A
k
.
Ahora mostraremos que el producto de matrices es distributivo. Otra vez
podemos apelar al hecho de que el producto de matrices esta en correspon-
dencia con la composicion de transformaciones lineales, la cual es distributiva.
Pero, como en el caso de la asociatividad, presentaremos una demostracion
elemental del hecho de que el producto de matrices es distributivo.
Teorema 3.23. Supongamos que A M
mn
(F) y B, C M
np
(F). En-
tonces los productos AB y AC estan denidos y
A(B +C) = AB +AC.
Mas a un, si d, e F, entonces
A(dB +eC) = d(AB) + e(AC).
Demostracion. Es claro que los productos AB y AC estan denidos. To-
memos dos elementos d, e F. Entonces, si 1 i m y 1 j p, sucede
que
[A(dB +eC)]
ij
=
n

k=1
A
ik
(dB +eC)
kj
=
n

k=1
A
ik
(dB
kj
+eC
kj
) =
=
n

k=1
[A
ik
(dB
kj
) +A
ik
(eC
kj
)] =
n

k=1
[d(A
ik
B
kj
) +e(A
ik
C
kj
)] =
= d
_
n

k=1
A
ik
B
kj
_
+e
_
n

k=1
A
ik
C
kj
_
= d(AB)
ij
+e(AC)
ij
= [d(AB)+e(AC)]
ij
.
Esto muestra que A(dB +eC) = d(AB) +e(AC).
De la igualdad A(dB+eC) = d(AB)+e(AC) podemos decir, en terminos
un tanto libres, que el producto de matrices abre sumas y saca escalares. Co-
mo veremos en el Captulo 4, estas dos propiedades con las que caracterizaran
a las funciones que llamaremos transformaciones lineales.
3.6. MULTIPLICACI

ON DE MATRICES 117
Hemos demostrado que el producto de matrices es asociativo, distributivo
con respecto a la suma y no conmutativo. Terminamos la presente subseccion,
mostrando otras propiedades de la multiplicaci on de matrices. Supongamos
que A M
mn
(F). Notemos que si I
m
M
mm
(F) es la matriz identidad
de orden m, entonces I
m
A = A. Ademas, si I
n
M
nn
(F) es la matriz
identidad de orden n, entonces AI
n
= A. Por otro lado, 0
km
A = 0
kn
. De
manera similar A0
nr
= 0
mr
.
3.6.2. Producto en Terminos de Columnas
Consideremos dos matrices A M
mn
(F) y B M
np
(F). Supongamos
que B
1
, B
2
, . . . , B
p
son las columnas de B. Entonces
B = (B
1
[B
2
[ [B
p
).
Ademas, para cada 1 j p, tenemos que B
i
M
n1
(F). Por tanto,
podemos realizar el producto AB
i
y, ademas, AB
i
M
m1
(F). Mas a un,
sucede que
AB = (AB
1
[AB
2
[ [AB
p
). (3.6.5)
Para probar esto, supongamos que
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
y hagamos C = (AB
1
[AB
2
[ [AB
p
). Entonces, para 1 j p, la j-esima
columna de C es la matriz
AB
j
=
_
_
_
_
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
i1
A
i2
A
in
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
B
1j
B
2j
.
.
.
B
ij
.
.
.
B
nj
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
A
11
B
1j
+A
12
B
2j
+ +A
1n
B
nj
A
21
B
1j
+A
22
B
2j
+ +A
2n
B
nj
.
.
.
A
i1
B
1j
+A
i2
B
2j
+ +A
in
B
nj
.
.
.
A
m1
B
1j
+A
m2
B
2j
+ +A
mn
B
nj
_
_
_
_
_
_
_
_
_
.
Notemos que, para 1 i m, el i-esimo renglon de la matriz AB
j
(el cual
corresponde con el ij-esimo elemento de C) es la expresion:
A
i1
B
1j
+A
i2
B
2j
+ +A
in
B
nj
=
n

r=1
A
ir
B
rj
,
118 CAP

ITULO 3. SISTEMAS DE ECUACIONES


la cual corresponde al ij-esimo elemento AB. Esto muestra la igualdad
(3.6.5).
3.6.3. Producto y Sistemas de Ecuaciones Lineales
Consideremos el siguiente sistema de ecuaciones lineales:
A
11
x
1
+A
12
x
2
+ +A
1n
x
n
= y
1
A
21
x
1
+A
22
x
2
+ +A
2n
x
n
= y
2
.
.
.
.
.
.
.
.
.
A
m1
x
1
+A
m2
x
2
+ +A
mn
x
n
= y
m
(3.6.6)
donde y
1
, y
2
, . . . , y
m
F y A
ij
F, para cada 1 i m y cada 1 j n.
En la Seccion 3.3 dijimos que el sistema anterior se puede abreviar como
AX = Y, en donde
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
y Y =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
.
A continuaci on mostraremos que la notacion abreviada AX, en realidad co-
rresponde al producto de las matrices A y X y que, cuando las multiplicamos,
obtenemos Y. En efecto, como A M
mn
(F) y X M
n1
(F), es posible
realizar el producto AX y, ademas, AX M
m1
(F). Hagamos C = AX.
Entonces, dada 1 i m tenemos, por denicion que:
C
i1
= A
i1
X
11
+A
i2
X
21
+ +A
in
X
n1
= A
i1
x
1
+A
i2
x
2
+ +A
in
x
n
= y
i
.
(3.6.7)
Por tanto, C = Y. Esto prueba lo que anteriormente indicamos. Ahora
mostraremos el siguiente resultado.
Teorema 3.24. Supongamos que
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
y Y =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
son tales que AX = Y. Entonces Y es una combinacion lineal de las columnas
de A.
3.6. MULTIPLICACI

ON DE MATRICES 119
Demostracion. Dada 1 j n, tenemos que
c
j
=
_
_
_
_
_
A
1j
A
2j
.
.
.
A
mj
_
_
_
_
_
es la j-esima columna de A. Ademas, utilizando la ecuacion (3.6.7), tenemos
que:
x
1
c
1
+x
2
c
2
+ +x
n
c
n
= x
1
_
_
_
_
_
A
11
A
21
.
.
.
A
m1
_
_
_
_
_
+x
2
_
_
_
_
_
A
12
A
22
.
.
.
A
m2
_
_
_
_
_
+ +x
n
_
_
_
_
_
A
1n
A
2n
.
.
.
A
mn
_
_
_
_
_
_
_
_
_
_
A
11
x
1
+A
12
x
2
+ +A
1n
x
n
A
21
x
1
+A
22
x
2
+ +A
2n
x
n
.
.
.
.
.
.
A
m1
x
1
+A
m2
x
2
+ +A
mn
x
n
_
_
_
_
_
=
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
= Y.
Esto muestra que Y es una combinaci on lineal de las columnas de A.
En el siguiente teorema, mostramos que un sistema de ecuaciones lineales
puede utilizarse para determinar si las columnas de una matriz dada son
linealmente dependientes.
Teorema 3.25. Consideremos la matriz A M
mn
(F) dada por
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
.
Entonces las columnas de A, consideradas como elementos de F
m
, son lineal-
mente dependientes si y solo si el sistema homogeneo AX = 0
m1
tiene una
solucion no trivial.
120 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Demostracion. Dada 1 j n hagamos
v
j
=
_
_
_
_
_
A
1j
A
2j
.
.
.
A
mj
_
_
_
_
_
.
Entonces v
j
es la j-esima columna de A. Ademas como sabemos, el sistema
homogeneo AX = 0
m1
equivale a escribir
A
11
x
1
+A
12
x
2
+ +A
1n
x
n
= 0
F
A
21
x
1
+A
22
x
2
+ +A
2n
x
n
= 0
F
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
x
1
+A
m2
x
2
+ +A
mn
x
n
= 0
F
(3.6.8)
Tambien dicho sistema es equivalente a escribir
x
1
v
1
+x
2
v
2
+ +x
n
v
n
= 0
m
. (3.6.9)
Ahora bien, el conjunto v
1
, v
2
, . . . , v
n
es linealmente dependiente si y solo
si existen escalares a
1
, a
2
, . . . , a
n
F, no todos iguales a 0
F
y tales que
a
1
v
1
+a
2
v
2
+ +a
n
v
n
= 0
m
. (3.6.10)
Si la ecuacion (3.6.10) se satisface, entonces el vector (a
1
, a
2
, . . . , a
n
) es una
solucion no trivial de la ecuacion (3.6.9). Por otra parte, cualquier solucion
no trivial de la ecuacion (3.6.9) hace que se satisfaga la ecuacion (3.6.10).
Esto muestra que el conjunto v
1
, v
2
, . . . , v
n
es linealmente dependiente si y
solo si el sistema AX = 0
m
tiene una solucion no trivial.
Corolario 3.26. Consideremos la matriz A M
mn
(F) dada por
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
.
Entonces las columnas de A, consideradas como elementos de F
m
, son lineal-
mente independientes si y solo si el sistema homogeneo AX = 0
m1
tiene solo
la solucion trivial.
3.7. MATRICES ELEMENTALES 121
Combinando el Teorema 3.17 con el Corolario 3.26, tenemos el siguiente
resultado
Teorema 3.27. Consideremos la matriz A M
nn
(F) dada por
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
n1
A
n2
A
nn
_
_
_
_
_
.
Entonces las siguientes armaciones son equivalentes:
1) A es equivalente por renglones a la matriz identidad I
n
;
2) el sistema homogeneo AX = 0
n1
tiene solamente la solucion trivial;
3) las columnas de A, consideradas como elementos de F
n
, son linealmen-
te independientes.
Mas adelante agregaremos mas condiciones a la lista de equivalencias
presentada en el teorema anterior.
3.7. Matrices Elementales
Las operaciones elementales por renglones se pueden expresar en terminos
de matrices, que se llamaran elementales.
Denicion 3.28. Un matriz E M
nn
(F) se llama matriz elemental
si se puede obtener de la matriz identidad I
n
M
nn
(F) por medio de una
operacion elemental por renglon.
Por ejemplo, considerando la identidad I
2
M
22
(F) :
_
1
F
0
F
0
F
1
F
_
,
resulta que una matriz elemental de 22 sobre el campo F, es necesariamente
una de las siguientes:
_
0
F
1
F
1
F
0
F
_ _
1
F
c
0
F
1
F
_ _
1
F
0
F
c 1
F
_ _
c 0
F
0
F
1
F
_ _
1
F
0
F
0
F
c
_
.
122 CAP

ITULO 3. SISTEMAS DE ECUACIONES


En cada caso, cuando interviene el elemento c F, pensamos que c ,= 0
F
.
En el siguiente teorema mostramos que, el hecho de aplicar una operacion
elemental por renglon a una matriz A, es equivalente a la multiplicacion por
A de la matriz elemental correspondiente a dicha operacion elemental por
renglon.
Teorema 3.29. Supongamos que e: M
mn
(F) M
mn
(F) es una operacion
elemental por renglon. Sea E = e(I
m
) la matriz elemental que se obtiene
aplicandole e a la identidad I
m
M
mm
(F). Entonces, para toda matriz
A M
mn
(F), sucede que
e(A) = EA.
Demostracion. Consideremos A M
mn
(F). En la demostracion utilizare-
mos la delta de Kronecker. Si i y j son enteros positivos, entonces
ij
= 1
F
si i = j, mientras que
ij
= 0
F
si i ,= j.
Supongamos que e es del tipo 1. Digamos que e reemplaza el renglon r
por c veces el renglon r. Entonces, para cada matriz B M
mn
(F), tenemos
que e(B)
ij
= B
ij
si i ,= r, mientras que e(B)
rj
= cB
rj
. Si B = I
m
entonces,
como E = e(I
m
), tenemos que E
ik
=
ik
si i ,= r, mientras que E
rk
= c
rk
.
Luego, si i ,= r, tenemos que
(EA)
ij
=
m

k=1
E
ik
A
kj
=
m

k=1

ik
A
kj
= A
ij
= e(A)
ij
. (3.7.1)
Por otro lado
(EA)
rj
=
m

k=1
E
rk
A
kj
=
m

k=1
c
rk
A
kj
= cA
rj
= e(A)
rj
.
Entonces EA = e(A). Supongamos ahora que e es del tipo 2, digamos que
e reemplaza el renglon r por el renglon r mas c veces el renglon s, donde
r ,= s. Entonces, para cada matriz B M
mn
(F), tenemos que e(B)
ij
= B
ij
si i ,= r, mientras que e(B)
rj
= B
rj
+ cB
sj
. Si B = I
m
entonces, como
E = e(I
m
), tenemos que E
ik
=
ik
si i ,= r, mientras que E
rk
=
rk
+ c
sk
.
Luego, si i ,= r, siguiendo las igualdades presentadas en (3.7.1), sucede que
(EA)
ij
= e(A)
ij
. Por otro lado
(EA)
rj
=
m

k=1
E
rk
A
kj
=
m

k=1
(
rk
+c
sk
)A
kj
= A
rj
+cA
sj
= e(A)
rj
.
3.7. MATRICES ELEMENTALES 123
Esto muestra que EA = e(A). Supongamos, por ultimo, que e es del tipo
3. Digamos que e intercambia los renglones r y s, donde r ,= s. Entonces,
para cada matriz B M
mn
(F), tenemos que e(B)
ij
= B
ij
si i ,= r e i ,= s,
mientras que e(B)
rj
= B
sj
y e(B)
sj
= B
rj
. Si B = I
m
entonces, como
E = e(I
m
), tenemos que E
ik
=
ik
si i ,= r e i ,= s, mientras que E
rk
=
sk
y
E
sk
=
rk
. Notemos que si i ,= r e i ,= s, siguiendo las igualdades presentadas
en (3.7.1), sucede que (EA)
ij
= e(A)
ij
. Por otro lado
(EA)
rj
=
m

k=1
E
rk
A
kj
=
m

k=1

sk
A
kj
= A
sj
= e(A)
rj
y
(EA)
sj
=
m

k=1
E
sk
A
kj
=
m

k=1

rk
A
kj
= A
rj
= e(A)
sj
.
Esto muestra que EA = e(A) y termina la demostracion del teorema.
Corolario 3.30. Supongamos que A, B M
mn
(F). Entonces B es equiva-
lente por renglones a A si y solo si, B = PA, donde P M
mm
(F) es un
producto de matrices elementales.
Demostracion. Supongamos primero que B = PA, donde
P = E
s
E
s1
E
2
E
1
es el producto de las matrices elementales E
1
, E
2
, . . . , E
s
M
mm
(F). En-
tonces, por el teorema anterior, E
1
A es equivalente por renglones a A, pues
E
1
A es justo lo que se obtiene cuando a A le aplicamos una operacion ele-
mental por renglon. De modo similar tenemos que E
2
(E
1
A) es equivalente
por renglones a E
1
A. Como la equivalencia por renglones dene una relacion
de equivalencia, sucede que E
2
E
1
A es equivalente por renglones a A. Conti-
nuando de este modo, concluimos que (E
s
E
s1
E
2
E
1
)A es equivalente por
renglones a A. Esto muestra que B es equivalente por renglones a A.
Supongamos ahora que B es equivalente por renglones a A. Entonces B se
obtiene de A, luego de aplicar un n umero nito e
1
, e
2
, . . . , e
s
de operaciones
elementales por renglon. Entonces B = (e
s
e
s1
e
2
e
1
)(A). Dada
i 1, 2, . . . , s, supongamos que E
i
es la matriz elemental correspondiente
124 CAP

ITULO 3. SISTEMAS DE ECUACIONES


a la operacion elemental e
i
. Esto es, E
i
= e
i
(I
m
). Entonces, por el teorema
anterior,
B = (e
s
e
s1
e
2
e
1
)(A) = (E
s
E
s1
E
2
E
1
)A.
Haciendo P = E
s
E
s1
E
2
E
1
, tenemos que P M
mm
(F) es un producto
de matrices elementales y B = PA. Esto termina la demostracion.
Tanto el Teorema 3.29 como el Corolario 3.30 seran importantes en la
siguiente seccion, cuando hablaremos de la inversa de una matriz.
3.8. La Inversa de una Matriz
3.8.1. Denicion y Propiedades Fundamentales
As como para funciones, existen algunas matrices que admiten una in-
versa, en el sentido de la siguiente denicion. Recordemos que I
n
representa
la matriz identidad de orden n.
Denicion 3.31. Sea A M
nn
(F). Una matriz B M
nn
(F) tal que
BA = I
n
se llama una inversa izquierda de A. Si sucede que AB = I
n
,
entonces B es una inversa derecha de A. Si AB = AB = I
n
, entonces
decimos que B es una inversa de A o que A es invertible.
El siguiente teorema relaciona las inversas izquierdas con las inversas
derechas.
Teorema 3.32. Supongamos que la matriz A M
nn
(F) tiene una inversa
izquierda B, as como una inversa derecha C. Entonces B = C.
Demostracion. Si BA = I
n
= AC, entonces B = BI
n
= B(AC) =
(BA)C = I
n
C = C.
Del teorema anterior se sigue que A es invertible si y solo si A tiene una
sola inversa izquierda, as como una sola inversa derecha. Tambien del teore-
ma anterior se desprende que si A es invertible, entonces A tiene solamente
una inversa. En efecto, supongamos que A posee dos inversas B y C. En-
tonces B puede pensarse como una inversa izquierda de A y C como una
inversa derecha de A. Luego, por el teorema anterior, B = C.
3.8. LA INVERSA DE UNA MATRIZ 125
Si A es una matriz invertible, denotaremos por A
1
a la inversa de A.
Entonces AA
1
= A
1
A = I
n
. En el siguiente teorema, mostraremos las
propiedades mas elementales de las inversas de una matriz.
Teorema 3.33. Supongamos que A, B M
nn
(F). Entonces
(a) si A es invertible, entonces A
1
tambien es invertible y (A
1
)
1
= A;
(b) si A y B son invertibles, entonces AB tambien es invertible y (AB)
1
=
B
1
A
1
.
Demostracion. Notemos que A
1
es invertible y que (A
1
)
1
= A pues, de
las igualdades AA
1
= A
1
A = I
n
, se sigue que A es la inversa de A
1
. Esto
prueba (a). Para probar (b) notemos que
(AB)(B
1
A
1
) = A(BB
1
)A
1
= (AI
n
)A
1
= AA
1
= I
n
y
(B
1
A
1
)(AB) = B
1
(A
1
A)B = (B
1
I
n
)B = B
1
B = I
n
.
Entonces AB es invertible y su inversa es igual a B
1
A
1
, el producto de las
inversas de A y B, pero escritas en el orden inverso.
Corolario 3.34. El producto de matrices invertibles es invertible.
El siguiente teorema, aunque podra parecer muy bobo, tiene consecuen-
cias importantes.
Teorema 3.35. Una matriz elemental es invertible, y su inversa es una
matriz elemental.
Demostracion. Supongamos que E M
nn
(F) es una matriz elemental,
correspondiente a la operacion elemental por renglon e. De acuerdo con el
Teorema 3.4, existe la funcion inversa e
1
de e, y e
1
es una operacion elemen-
tal del mismo tipo de e. Consideremos ahora E
1
= e
1
(I
n
). Entonces E
1

M
nn
(F) es la matriz elemental correspondiente a la operacion elemental por
renglon e
1
. De acuerdo con el Teorema 3.29 tenemos que:
EE
1
= e(E
1
) = e(e
1
(I
n
)) = (e e
1
)(I
n
) = I
n
y
E
1
E = e
1
(E) = e
1
(e(I
n
)) = (e
1
e)(I
n
) = I
n
.
Esto prueba que E es invertible y que su inversa es E
1
, una matriz elemental.
126 CAP

ITULO 3. SISTEMAS DE ECUACIONES


En el siguiente teorema mostramos que las matrices invertibles son justo
aquellas que, cuando se llevan a su forma escalonada reducida por renglones,
nos dan la identidad.
Teorema 3.36. Si A M
nn
(F), entonces las siguientes armaciones son
equivalente:
1) A es invertible;
2) A es equivalente por renglones a la matriz identidad I
n
;
3) A es un producto de matrices elementales.
Demostracion. Supongamos que A M
nn
(F) y que R M
nn
(F) es la
matriz escalonada reducida por renglones que es equivalente por renglones a
A. Entonces, por el Corolario 3.30, tenemos que R = PA, donde
P = E
k
E
k1
E
2
E
1
es el producto de las matrices elementales E
1
, E
2
, . . . , E
k
M
nn
(F). Por el
Teorema 3.35, para cada i = 1, 2, . . . , k, la matriz E
i
es invertible. Entonces,
por el Corolario 3.34, el producto de dichas matrices elementales es invertible.
Entonces P es invertible. Por tanto
a) A es invertible si y solo si R es invertible.
En efecto, si A es invertible entonces, como P es invertible, R = PA y el
producto de matrices invertibles es invertible, R resulta ser invertible. Esto
prueba la primera parte de a). Para ver la otra parte, supongamos que R es
invertible. Como P es invertible, podemos multiplicar la ecuacion R = PA
por P
1
para obtener que
P
1
R = P
1
(PA) = (P
1
P)(A) = I
n
A = A.
Entonces A es igual al producto de las matrices invertibles P
1
y R por lo
que, A es invertible. Esto termina la prueba de a). Armamos ahora que
b) R es invertible si y solo si todo renglon de R es no nulo.
3.8. LA INVERSA DE UNA MATRIZ 127
Para probar b) supongamos primero que R es invertible y denotemos por S a
su inversa. Entonces RS = I
n
. Supongamos, ademas, que el i-esimo renglon
de r es nulo. Entonces, para cada 1 j n, tenemos que
(RS)
ij
=
n

k=1
R
ik
S
kj
=
n

k=1
0
F
S
kj
= 0
F
.
En particular (RS)
ii
= 0
F
. Sin embargo, como RS = I
n
, tenemos que
(RS)
ii
= (I
n
)
ii
= 1
F
. Entonces 0
F
= 1
F
, lo cual es una contradiccion.
Entonces todos los renglones de R son no nulos. Esto muestra la primera
parte de b). Supongamos ahora que todos los renglones de R son no nulos.
Entonces R = I
n
pues R es una matriz escalonada reducida por renglones y
ning un renglon de R es nulo. Como la matriz I
n
es invertible, sucede que R
es invertible. Esto prueba b). Naturalmente, tambien es cierto que
c) todo renglon de R es no nulo si y solo si R = I
n
.
Combinando a), b) y c) tenemos que A es invertible si y solo si R = I
n
.
Esto prueba la equivalencia entre las armaciones 1) y 2) del teorema.
Para terminar la demostracion basta, por tanto, probar la equivalencia
entre las armaciones 1) y 3). Supongamos primero que A es un producto de
matrices elementales. Entonces, como las matrices elementales son inverti-
bles, A es un producto de matrices invertibles. Entonces A es invertible. Esto
prueba que 3) implica a 1). Supongamos ahora que A es invertible. Entonces,
por lo comentado en el parrafo anterior, R = I
n
. Luego, de R = PA se sigue
que PA = I
n
. Multiplicando la igualdad PA = I
n
por P
1
tenemos que
P
1
(PA) = P
1
I
n
= P
1
= (E
k
E
k1
E
2
E
1
)
1
= E
1
1
E
1
2
E
1
k
.
Como tambien P
1
(PA) = (P
1
P)A = I
n
A = A, tenemos que
A = E
1
1
E
1
2
E
1
k
.
Entonces A es un producto de matrices elementales. Esto prueba que 1)
implica a 3).
Combinando el Corolario 3.30 y el Teorema 3.36, tenemos el siguiente
resultado.
128 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Teorema 3.37. Supongamos que A, B M
mn
(F). Entonces B es equiva-
lente por renglones a A si y solo si B = PA, para alguna matriz invertible
P M
mm
(F).
Demostracion. Supongamos primero que B es equivalente por renglones
a A. Entonces, por el Corolario 3.30, sabemos que B = PA, donde P
M
mm
(F) es un producto de matrices elementales. Entonces, de acuerdo a
la equivalencia entre las condiciones 1) y 3) del Teorema 3.36, tenemos que
P es invertible. Esto prueba la primera parte del teorema.
Supongamos ahora que B = PA, donde P es una matriz invertible. En-
tonces, de acuerdo a la equivalencia de las condiciones 1) y 3) del Teorema
3.36, tenemos que P es un producto de matrices elementales. Escribamos
P = E
k
E
k1
E
2
E
1
, donde cada matriz E
1
, E
2
, . . . , E
k
es elemental. Dada
i 1, 2, . . . , k supongamos que E
i
= e
i
(I
n
), donde e
i
es una operacion
elemental por renglon. Entonces, por el Teorema 3.29,
B = (e
k
e
k1
e
2
e
1
)(A).
Por tanto A es equivalente por renglones a B. Como la equivalencia por
renglones dene una relacion de equivalencia, tenemos que B tambien es
equivalente por renglones a A.
3.8.2. Calculo de la Inversa de una Matriz
El siguiente teorema muestra como podemos calcular la inversa de una
matriz dada.
Teorema 3.38. Supongamos que A M
nn
(F) es invertible. Si una sucesion
de operaciones elementales por renglon reduce A a la identidad I
n
, entonces
la misma sucesion de operaciones elementales por renglon, cuando se aplican
a I
n
, dan A
1
.
Demostracion. Supongamos que A es invertible y que e
1
, e
2
, . . . , e
k
es una
sucesion de operaciones elementales por renglon tal que
I
n
= (e
k
e
k1
e
2
e
1
)(A).
Entonces Ase lleva a la identidad luego de aplicar las operaciones e
1
, e
2
, . . . , e
k
.
Dada i 1, 2, . . . , k hagamos E
i
= e
i
(I
n
). Entonces, por denicion, E
i
es
3.8. LA INVERSA DE UNA MATRIZ 129
una matriz elemental y, por el Teorema 3.29, tenemos que
I
n
= (E
k
E
k1
E
2
E
1
)(A).
Como sabemos, de la igualdad de arriba se sigue que A = E
1
1
E
1
2
E
1
k
.
Luego
A
1
= (E
1
1
E
1
2
E
1
k
)
1
= (E
1
k
)
1
(E
1
2
)
1
(E
1
1
)
1
= E
k
E
2
E
1
.
Ahora bien, aplicando nuevamente el Teorema 3.29, de la igualdad
A
1
= (E
k
E
k1
E
2
E
1
)(I
n
)
se sigue que
A
1
= (e
k
e
k1
e
2
e
1
)(I
n
).
Entonces, cuando le aplicamos a I
n
las operaciones elementales e
1
, e
2
, . . . , e
k
obtenemos A
1
.
Como comentamos, el teorema anterior nos da un metodo para calcular la
inversa de una matriz A M
nn
(F). Para esto, podemos considerar la ma-
triz aumentada (A[I
n
). Entendemos que las primeras n columnas de (A[I
n
)
son justo las de A, en el orden en que aparecen. Tambien entendemos que
las demas columnas de (A[I
n
) corresponden a la de la matriz identidad I
n
,
tambien en el orden en que aparecen. Una vez que consideramos la matriz
aumentada (A[I
n
), el siguiente paso es ir efectuando operaciones elementales
para llevar A a la matriz identidad. Naturalmente dichas operaciones ele-
mentales tambien se van aplicando en la matriz I
n
. Entonces, por el teorema
anterior, una vez que hayamos terminado, la matriz aumentada (A[I
n
) se
llevara a la matriz aumentada (I
n
[A
1
).
El proceso indicado en el parrafo anterior, tambien se puede aplicar para
determinar si A es invertible o no. Si al considerar la matriz aumentada (A[I
n
)
e ir efectuando operaciones elementales por renglon, resulta que A es equiva-
lente por renglones a una matriz escalonada reducida por renglones R que no
es la identidad entonces, de acuerdo con la equivalencia entre las condiciones
1) y 2) del Teorema 3.36, la matriz A no es invertible. A continuacion veremos
lo anterior con un ejemplo.
130 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Ejemplo 3.39. Determinar si la matriz
A =
_
_
2 4 6
4 5 6
3 1 2
_
_
es invertible. Calcular A
1
en caso de que exista.
Solucion. Primero consideramos la matriz aumentada (A[I
3
), que en este
caso es igual a
_
_
2 4 6
4 5 6
3 1 2

1 0 0
0 1 0
0 0 1
_
_
A continuaci on debemos reducir por renglones matriz anterior. Utilizaremos
la notacion acostumbrada para reducir una matriz por renglones.
_
_
2 4 6
4 5 6
3 1 2

1 0 0
0 1 0
0 0 1
_
_
R
1

1
2
R
1

_
_
1 2 3
4 5 6
3 1 2

1
2
0 0
0 1 0
0 0 1
_
_
R
2
4R
1
+R2

R
3
3R
1
+R
3
_
_
1 2 3
0 3 6
0 5 11

1
2
0 0
2 1 0

3
2
0 1
_
_
R
2

1
3
R
2

_
_
1 2 3
0 1 2
0 5 11

1
2
0 0
2
3

1
3
0

3
2
0 1
_
_
R
1
2R
2
+R
1

R
3
5R
2
+R
3
_
_
1 0 1
0 1 2
0 0 1

5
6
2
3
0
2
3

1
3
0
11
6

5
3
1
_
_
R
3
R
3

_
_
1 0 1
0 1 2
0 0 1

5
6
2
3
0
2
3

1
3
0

11
6
5
3
1
_
_
R
1
R
3
+R
1

R
2
2R
3
+R
2
_
_
1 0 0
0 1 0
0 0 1

8
3
7
3
1
13
3

11
3
2

11
6
5
3
1
_
_
.
Como A se redujo a la identidad I
3
, tenemos que A es invertible y, ademas,
A
1
=
_
_

8
3
7
3
1
13
3

11
3
2

11
6
5
3
1
_
_
=
1
6
_
_
16 14 6
26 22 12
11 10 6
_
_
.
Una vez calculada la inversa, podemos vericar que, efectivamente, A
1
A =
I
3
= AA
1
. Mas adelante, en el Teorema 3.43, vamos a demostrar que si
3.8. LA INVERSA DE UNA MATRIZ 131
una matriz cuadrada tiene una inversa izquierda o bien una inversa derecha,
entonces dicha matriz es invertible. En vista de este resultado, es suciente
con vericar alguna de las igualdades A
1
A = I
3
y AA
1
= I
3
. Esto ultimo
es recomendable hacerlo pues, al calcular la inversa por el metodo que hemos
discutido, es muy facil cometer errores. Por tanto, la vericacion se hace mas
para estar seguros de que no cometimos errores al ir reduciendo la matriz
aumentada (A[I
3
). En efecto
A
1
A =
1
6
_
_
16 14 6
26 22 12
11 10 6
_
_
_
_
2 4 6
4 5 6
3 1 2
_
_
=
1
6
_
_
6 0 0
0 6 0
0 0 6
_
_
= I
3
.
Ejemplo 3.40. Determinar si la matriz
A =
_
1 2
2 4
_
tiene inversa. Calcular A
1
en caso de que exista.
Solucion. En este caso tenemos que
_
1 2
2 4

1 0
0 1
_
R
2
2R
1
+R
2

_
1 2
0 0

1 0
2 1
_
.
Como la matriz
R =
_
1 2
0 0
_
no es equivalente por renglones a la matriz identidad I
2
, pues R tiene un
renglon nulo, sucede que A no es invertible.
Notemos que si A es equivalente por renglones a B y la matriz B posee
un renglon nulo, entonces B no puede ser equivalente por renglones a la iden-
tidad y, por tanto, tampoco A. En el fondo, lo unico que necesitamos saber
para probar lo anterior, es que esencialmente las operaciones elementales por
renglon transforman renglones nulos en renglones nulos. Utilizando una o-
peracion elemental del tipo 2, podemos transformar un renglon nulo en un
renglon no nulo, pero este resultara ser un m ultiplo escalar de un renglon
no nulo que, para efectos de la transformacion de una matriz a su matriz
escalonada reducida por renglones, terminara en un renglon nulo. A su vez,
si aplicamos una operacion elemental del tipo 1 o 3 a una matriz que posee un
renglon nulo, entonces obtendremos otra matriz que posee un renglon nulo.
132 CAP

ITULO 3. SISTEMAS DE ECUACIONES


3.8.3. Otras Propiedades
A continuacion veremos que el hecho de que una matriz A sea invertible,
implica que un sistema de ecuaciones, cuya matriz del sistema es A, tiene
solo una solucion.
Teorema 3.41. Para una matriz A M
nn
(F) las siguientes armaciones
son equivalentes:
1) A es invertible;
2) el sistema homogeneo AX = 0
n1
tiene solo la solucion trivial X =
0
n1
;
3) el sistema de ecuaciones AX = Y tiene exactamente una solucion, para
cada matriz Y M
n1
(F).
Demostracion. Por el Teorema 3.17 sabemos que A es equivalente por ren-
glones a la matriz identidad I
n
si y solo si, el sistema homogeneo AX = 0
n1
tiene solamente la solucion trivial. Ademas, de acuerdo a la equivalencia en-
tre las condiciones 1) y 2) del Teorema 3.36, tenemos que A es invertible si y
solo si A es equivalente por renglones a la matriz identidad I
n
. Por tanto A
es invertible si y solo si, el sistema homogeneo AX = 0
n1
tiene solamente la
solucion trivial. Esto prueba que las condiciones 1) y 2) del presente teorema
son equivalentes.
Ahora mostraremos que las condiciones 1) y 3) del presente teorema, tam-
bien son equivalente. Supongamos primero que A es invertible. Consideremos
una matriz Y M
n1
(F) as como el sistema de ecuaciones AX = Y. Debe-
mos probar que dicho sistema tiene exactamente una solucion. Recordemos
que AX = Y no es solamente una notacion abreviada para representar un
sistema de ecuaciones, sino que AX representa el producto de las matrices
A y X. Entonces, en la igualdad AX = Y podemos multiplicar por A
1
para
obtener que A
1
(AX) = A
1
Y. Como A
1
(AX) = (A
1
A)X = I
n
X = X,
tenemos que X = A
1
Y. Ahora bien, como la matriz A
1
es unica, el produc-
to A
1
Y tambien es unico. Esto prueba que el sistema de ecuaciones AX = Y
tiene exactamente una solucion, a saber, X = A
1
Y.
Para terminar la demostracion, supongamos ahora que, para cada matriz
Y M
n1
(F) el sistema de ecuaciones AX = Y tiene exactamente una
3.8. LA INVERSA DE UNA MATRIZ 133
solucion. En particular, para Y = 0
n1
, el sistema de ecuaciones AX = 0
n1
tiene exactamente una solucion. Como dicho sistema tiene siempre la solucion
trivial, tenemos que el sistema AX = 0
n1
tiene solo la solucion trivial.
Luego, A es invertible.
El teorema anterior nos ayuda a resolver un sistema de ecuaciones AX =
Y, en donde la matriz A es invertible. Para tal efecto, calculamos primero la
matriz inversa A
1
siguiendo el metodo que ya indicamos en el Ejemplo 3.39.
Posteriormente efectuamos el producto A
1
Y, el cual determinara la solucion
unica del sistema AX = Y. Si la matriz A no es invertible o no es cuadrada,
entonces para resolver el sistema AX = Y, habra que llevar A a una matriz
escalonada reducida por renglones que sea equivalente a ella.
Combinando los teoremas 3.27, 3.36 y 3.41, obtenemos el siguiente teore-
ma.
Teorema 3.42. Para una matriz A M
nn
(F) las siguientes armaciones
son equivalentes:
1) A es invertible;
2) A es un producto de matrices elementales;
3) A es equivalente por renglones a la matriz identidad I
n
;
4) el sistema homogeneo AX = 0
n1
tiene solamente la solucion trivial
X = 0
n1
;
5) el sistema de ecuaciones AX = Y tiene exactamente una solucion, para
cada matriz Y M
n1
(F) :
6) las columnas de A, consideradas como elementos de F
n
, son linealmente
independientes.
En la Seccion 3.10 veremos otras condiciones que se podran a nadir a la
lista anterior.
En el Ejemplo 3.39 indicamos que, luego de calcular la inversa A
1
de
una matriz A, conviene vericar que efectivamente dicha matriz encontrada
es la inversa. Para esto escribimos que basta con probar que alguna de las
ecuaciones AA
1
= I
n
y A
1
A = I
n
se satisface. El siguiente teorema justica
esto.
134 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Teorema 3.43. Supongamos que A M
nn
(F) tiene una inversa izquierda
o bien una inversa derecha. Entonces A es invertible.
Demostracion. Supongamos primero que A tiene una inversa izquierda B.
Entonces BA = I
n
. Mostraremos ahora que el sistema homogeneo AX =
0
n1
posee solo la solucion trivial. En efecto, de la ecuacion AX = 0
n1
se sigue, multiplicando por B, que B(AX) = B0
n1
= 0
n1
. Ahora bien,
B(AX) = (BA)X = I
n
X = X. Entonces B(AX) = 0
n1
es equivalente a
escribir X = 0
n1
. Esto prueba que el sistema homogeneo AX = 0
n1
posee
solo la solucion trivial. Entonces, por el teorema anterior, A es invertible.
Ahora supongamos que A tiene una inversa derecha C. Entonces AC = I
n
.
Notemos que C tiene una inversa izquierda, a saber A. As que, por lo que
demostramos en el parrafo anterior, C es invertible. Por tanto, A = C
1
.
Esto implica que A es invertible, pues la matriz C
1
es invertible.
Como hemos demostrado en el Corolario 3.34, el producto de matrices
invertibles es invertible. A continuaci on mostraremos que si un producto de
matrices cuadradas es invertible, entonces cada factor es una matriz inverti-
ble.
Teorema 3.44. Supongamos que A = A
1
A
2
A
k
es el producto de las
matrices A
1
, A
2
, . . . , A
k
M
nn
(F). Entonces A es invertible si y solo si
cada factor A
j
es invertible.
Demostracion. Supongamos que A es invertible. Mostraremos primero que
A
k
es invertible. Para esto veremos que el sistema homogeneo A
k
X = 0
n1
posee solo la solucion trivial. En efecto, como A
k
X = 0
n1
, tenemos que
AX = (A
1
A
2
A
k
)X = (A
1
A
2
A
k1
)(A
k
X) = (A
1
A
2
A
k1
)0
n1
= 0
n1
.
Ahora bien, como A es invertible, el sistema homogeneo AX = 0
n1
posee
solo la solucion trivial X = 0
n1
. Esto implica que el sistema homogeneo
A
k
X = 0
n1
posee solo la solucion trivial. Por tanto, A
k
es invertible. Mul-
tiplicando, por la derecha, la igualdad A = A
1
A
2
A
k
por A
1
k
obtenemos
que
AA
1
k
= A
1
A
2
A
k1
.
Como la matriz AA
1
k
es invertible, por lo que hemos demostrado, la matriz
A
k1
es invertible. Continuando este razonamiento, mostramos que cada fac-
tor A
j
es invertible. Esto prueba la primera parte del teorema. La segunda
parte se sigue del Corolario 3.34.
3.9. EJERCICIOS 135
Terminamos la presente seccion indicando que, as como hemos hablado
de operaciones elementales por renglones, es posible hablar de operaciones
elementales por columnas. Tambien es posible hablar de matrices equivalentes
por columnas y de matrices escalonadas reducidas por columnas. El lector
puede consultar el Captulo 3 del libro [1] para un estudio sobre columnas.
3.9. Ejercicios
1. Consideremos la matriz
A =
_
_
1 2 1 0
1 0 3 5
1 2 1 1
_
_
.
Encuentra una matriz escalonada reducida por renglones R que sea
equivalente por renglones a A. Encuentra tambien una matriz invertible
P M
33
(R) tal que R = PA.
2. Determina si las siguientes matrices son invertibles:
_
_
2 5 1
4 1 2
6 4 1
_
_
_
_
1 1 2
3 2 4
0 1 2
_
_
.
En caso de existir, calcula tambien la inversa.
3. Supongamos que A M
21
(F) y que B M
12
(F). Demuestra que la
matriz C = AB no es invertible.
4. Supongamos que A, B M
nn
(F). Prueba que si A es invertible y
AB = 0
nn
, entonces B = 0
nn
. Prueba ahora que si A no es invertible,
entonces existe una matriz C M
nn
(F) tal que AC = 0
nn
(F).
5. Consideremos la matriz A M
22
(F) dada por
A =
_
a b
c d
_
.
Demuestra, utilizando operaciones elementales por renglon, que A es
invertible si y solo si adbc ,= 0
F
. Mas adelante estudiaremos la nocion
136 CAP

ITULO 3. SISTEMAS DE ECUACIONES


de determinante de una matriz. Para una matriz de 2 2 como la que
indicamos arriba, el elemento ad bc de F se llama el determinante de
A. En estos terminos, el ejercicio pide probar que una matriz de 2 2
es invertible si y solo si su determinante es diferente del cero del campo
F.
3.10. Rango y Nulidad de una Matriz
3.10.1. Introduccion
En la presente seccion, estudiaremos cuatro espacios vectoriales asociados
a toda matriz. Nos referimos al espacio nulo, la imagen, el espacio de los ren-
glones y el espacio de las columnas. Asimismo mostraremos las propiedades
mas importantes de dichos espacios vectoriales. Mas adelante, en el Captulo
4, veremos que dichos espacios estan asociados, de manera natural, con las
transformaciones lineales.
Como hemos visto en el Teorema 3.42, una matriz cuadrada Aes invertible
si y solo si las columnas de A, consideradas como elementos de F
n
, son
linealmente independientes. Por tanto, si A es invertible entonces todas su
columnas son linealmente independientes. Si A no es invertible o si A no
es cuadrada, entonces el resultado anterior no dice nada sobre el n umero
de renglones o de columnas de A que son linealmente independientes. En la
presente seccion veremos como resolver esto.
Durante toda esta seccion estaremos utilizando sistemas de ecuaciones
lineales de la forma AX = Y, en donde A M
mn
(F). Aunque sabemos que
X M
n1
(F) y Y M
m1
(F), convendra pensar que X F
n
y Y F
m
.
Esto es algo que ya hemos hecho en mas de una ocasion: ver a los elementos
de M
m1
(F), que son vectores columna, como vectores renglon.
3.10.2. N ucleo, Imagen, Nulidad y Rango
En la presente subseccion nos centraremos en el n ucleo, la imagen, el rango
y la nulidad de una matriz. Mostraremos sus propiedades mas importantes.
Posteriormente deniremos dos conjuntos mas asociados a toda matriz.
3.10. RANGO Y NULIDAD DE UNA MATRIZ 137
Denicion 3.45. Si A M
mn
(F), entonces al conjunto
Nuc(A) = X F
n
: AX = 0
m1

se le llama el n ucleo de A. Al conjunto


Im(A) = Y F
m
: AX = Y, para alguna X F
n

se le llama la imagen de A.
En el siguiente teorema mostraremos que, en efecto, el n ucleo y la imagen
de A son subespacios de F
n
y de F
m
, respectivamente.
Teorema 3.46. Si A M
mn
(F), entonces Nuc(A) e Im(A) son subespa-
cios de F
n
y de F
m
, respectivamente.
Demostracion. Para ver que Nuc(A) es un subespacio de F
n
, notemos
primero que 0
n1
Nuc(A), pues A0
n1
= 0
m1
. Supongamos ahora que
X
1
, X
2
Nuc(A) y que c F. Entonces AX
1
= 0
m1
y AX
2
= 0
m1
.
Ademas, como el producto de matrices es distributivo con respecto a la suma:
A(cX
1
+X
2
) = A(cX
1
) +AX
2
= c(AX
1
) + AX
2
= c0
m1
+ 0
m1
= 0
m1
.
Esto muestra que cX
1
+X
2
Nuc(A) y, por el Teorema 2.13, Nuc(A) es un
subespacio de F
n
.
Para ver ahora que Im(A) es un subespacio de F
m
, notemos primero
que 0
m1
Im(A) pues el elemento 0
n1
de F
n
es tal que A0
n1
= 0
m1
.
Ahora tomemos dos elementos Y
1
, Y
2
Im(A) y d F. Entonces existen
X
1
, X
2
F
n
tales que AX
1
= Y
1
y AX
2
= Y
2
. Como dX
1
+ X
2
es un
elemento de F
n
tal que
A(dX
1
+X
2
) = d(AX
1
) +AX
2
= dY
1
+Y
2
,
tenemos que dY
1
+ Y
2
Im(A). Esto muestra, por el Teorema 2.13, que
Im(A) es un subespacio de F
m
.
Como Im(A) y Nuc(A) son espacios vectoriales, podemos calcular su
dimension. Ademas, en vista de que Im(A) y Nuc(A) son subespacios de
espacios vectoriales dimensionalmente nitos, Im(A) y Nuc(A) tambien son
dimensionalmente nitos, seg un el Teorema 2.64. Las dimensiones de Im(A)
y de Nuc(A) reciben nombres especiales.
138 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Denicion 3.47. Si A M
mn
(F), entonces los n umeros naturales
n(A) = dim(Nuc(A)) y r(A) = dim(Im(A))
se llaman la nulidad y el rango de A, respectivamente.
Por lo que hemos visto, es claro que n(A) n y r(A) m. Como
indicamos despues de la prueba del Teorema 3.42, durante la presente seccion
encontraremos condiciones que podremos agregar a la lista presentada en
dicho teorema. La siguiente es una de ellas.
Teorema 3.48. Supongamos que A M
nn
(F). Entonces A es invertible si
y solo si n(A) = 0.
Demostracion. Como vimos en el Teorema 3.42, A es invertible si y solo
si el sistema homogeneo AX = 0
n1
tiene solamente la solucion trivial X =
0
n1
. En terminos de la denicion de Nuc(A), lo anterior signica que A
es invertible si y solo si Nuc(A) = 0
n1
. Como dim0
n1
= 0, tenemos
entonces que A es invertible si y solo si n(A) = 0.
Notemos que calcular el n ucleo de una matriz A M
mn
(F), signica
encontrar todas las soluciones del sistema de ecuaciones homogeneo AX =
0
m1
. Ya hemos visto como hacer esto. Notemos ahora que calcular la imagen
de A, signica encontrar todos los vectores Y F
m
, para los cuales el sistema
de ecuaciones lineales AX = Y se puede resolver. En el Ejemplo 3.20 vimos
como hacer esto.
3.10.3. Espacio de los Renglones y de las Columnas
Recordemos que si A M
mn
(F), entonces A la podemos representar
en terminos de sus renglones, o bien en terminos de sus columnas. Para
expresarla en terminos de sus renglones r
1
, r
2
, . . . , r
m
, escribimos
A =
_
_
_
_
_
_
_
r
1
r
2
.
.
.
r
m1
r
m
_
_
_
_
_
_
_
,
3.10. RANGO Y NULIDAD DE UNA MATRIZ 139
mientras que para representarla en terminos de sus columnas c
1
, c
2
, . . . , c
n
,
escribimos
A = (c
1
[c
2
[ [c
n
). (3.10.1)
Ahora bien, como indicamos al principio de la presente seccion, estamos
interesados en determinar cuantas columnas de A y cuantos renglones de A
son linealmente independientes. Por tanto, es natural que debemos considerar
los espacios generados por los renglones y por las columnas de A. Dichos
espacios reciben un nombre especial.
Denicion 3.49. Si A M
mn
(F), entonces los espacios
R
A
= r
1
, r
2
, . . . , r
m
) y C
A
= c
1
, c
2
, . . . , c
n
)
se llaman el espacio de los renglones y el espacio de las columnas
de A, respectivamente.
En algunos textos, es com un llamarle a R
A
el espacio la de A. Tambien
a C
A
se le suele llamar el espacio columna de A y a Nuc(A) el kernel o
espacio nulo de A. Incluso a Nuc(A) se le suele llamar el espacio solucion
de un sistema homogeneo de ecuaciones lineales. A las dimensiones de los
espacios R
A
y C
A
, se les suele llamar el rango la y el rango columna de A,
respectivamente.
Como los renglones r
1
, r
2
, . . . , r
m
de A son elementos de F
n
tenemos que
R
A
, el espacio generado por los renglones de A, es un subespacio de F
n
. De
manera similar, como las columnas c
1
, c
2
, . . . , c
n
de A son elementos de F
m
,
tenemos que C
A
, el espacio generado por las columnas de A, es un subespacio
de F
m
. Por tanto
(a) Nuc(A) y R
A
son subespacios de F
n
;
(b) Im(A) y C
A
son subespacios de F
m
.
En el siguiente teorema mostraremos que Im(A) = C
A
, es decir, la imagen
de A es igual al espacio de las columnas de A.
Teorema 3.50. Si A M
mn
(F), entonces Im(A) = C
A
.
140 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Demostracion. Tomemos un elemento Y Im(A). Entonces existe X
F
n
tal que AX = Y. Ahora bien, si c
1
, c
2
, . . . , c
n
son las columnas de A y
X =
_
_
_
_
_
x
1
x
1
.
.
.
x
n
_
_
_
_
_
,
entonces, de acuerdo con la demostracion del Teorema 3.24, tenemos que:
Y = AX = x
1
c
1
+x
2
c
2
+ +x
n
c
n
.
Entonces Y c
1
, c
2
, . . . , c
n
) = C
A
. Esto prueba que Im(A) C
A
.
Supongamos ahora que Y C
A
. Entonces existen escalares y
1
, y
2
, . . . , y
n
tales que
Y = y
1
c
1
+y
2
c
2
+ +y
n
c
n
.
Hagamos
B =
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
.
Entonces, aplicando de nuevo lo que hicimos en la prueba del Teorema 3.24,
B es un elemento de F
n
tal que AB = Y. Por tanto, Y Im(A). Esto
prueba que C
A
Im(A) y, como la otra contenci on tambien es cierta, C
A
=
Im(A).
En el siguiente teorema damos una condicion, bajo la cual, las columnas
de una matriz forman una base de su espacio de las columnas.
Teorema 3.51. Supongamos que A M
nn
(F) es invertible. Entonces las
columnas de A forman una base de C
A
.
Demostracion. Supongamos que c
1
, c
2
, . . . , c
n
son las columnas de A. Por
denicion, c
1
, c
2
, . . . , c
n
) = C
A
. Ademas, como A es invertible, por la equiva-
lencia de las condiciones 1) y 6) del Teorema 3.42, el conjunto c
1
, c
2
, . . . , c
n

es linealmente independiente. Por tanto, las columnas de A forman una base


de N
A
.
3.10. RANGO Y NULIDAD DE UNA MATRIZ 141
De acuerdo con el Teorema 3.50, tenemos principalmente denidos tres
espacios vectoriales: Nuc(A), Im(A) y R
A
. En el siguiente ejemplo veremos
que Nuc(A) y R
A
pueden ser subespacios distintos de F
n
.
Ejemplo 3.52. Calcular el Nuc(A), Im(A), R
A
, n(A) y r(A) para la matriz
A =
_
1 2 1
2 1 3
_
M
23
(R).
Solucion. Para calcular Nuc(A) debemos resolver el sistema homogeneo
AX = 0
21
. Efectuando operaciones elementales por renglon tenemos que:
_
1 2 1
2 1 3

0
0
_
R
2
2R
1
+R
2

_
1 2 1
0 5 5

0
0
_
R
2

1
5
R
2

_
1 2 1
0 1 1

0
0
_
R
1
2R
1
+R
1

_
1 0 1
0 1 1

0
0
_
.
Considerando ahora que
X =
_
_
x
1
x
2
x
3
_
_
tenemos, de acuerdo a la ultima matriz que aparece en el proceso de arriba,
que x
1
+ x
3
= 0 y x
2
x
3
= 0. Entonces x
1
= x
3
y x
2
= x
3
. Esto muestra
que si X Nuc(A), entonces X tiene la forma
X =
_
_
x
3
x
3
x
3
_
_
=
_
_
1
1
1
_
_
x
3
. (3.10.2)
Por tanto, si X Nuc(A) entonces X es un m ultiplo escalar del vector
(1, 1, 1). Luego Nuc(A) (1, 1, 1)).
Si probamos ahora que el vector (1, 1, 1) se encuentra en Nuc(A) en-
tonces, como Nuc(A) es un espacio vectorial, cualquier m ultiplo del vector
(1, 1, 1) tambien se encontrara en Nuc(A). Luego (1, 1, 1)) Nuc(A) y,
como tambien es cierto que Nuc(A) (1, 1, 1)), tendremos que Nuc(A) =
(1, 1, 1)).
142 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Para mostrar que (1, 1, 1) Nuc(A), basta con notar que
A
_
_
1
1
1
_
_
=
_
1 2 1
2 1 3
_
_
_
1
1
1
_
_
=
_
1 + 2 1
2 1 + 3
_
=
_
0
0
_
.
De esta manera, seg un lo que ya comentamos, Nuc(A) = (1, 1, 1)). Luego
n(A) = dim(Nuc(A)) = 1. Notemos que Nuc(A) es una recta en R
3
que pasa
por el origen.
Ahora determinaremos Im(A). Como Im(A) = C
A
, calcularemos C
A
.
Notemos que las columnas de A son tres vectores en R
2
. Como la dimension
de R
2
es dos, las columnas de A son linealmente dependientes. Ahora bien,
las primeras dos columnas de A son los vectores no paralelos
_
1
2
_
y
_
2
1
_
.
Entonces, las primeras dos columnas de A forman una base de R
2
y, como
superconjuntos que generan a R
2
siguen generando a R
2
, sucede que las tres
columnas de A generan a R
2
. Luego Im(A) = C
A
= R
2
. Por tanto r(A) = 2.
Ahora calcularemos R
A
. Por denicion
R
A
= (1, 2, 1), (2, 1, 3)).
Notemos primero que los vectores (1, 2, 1) y (2, 1, 3) no son paralelos. Por
tanto son linealmente independientes. Esto signica que R
A
es un subespacio
de R
3
que tiene dimension dos. Luego, R
A
es un plano en R
3
que pasa por el
origen. Como Nuc(A) es una recta en R
3
que pasa por el origen, los espacios
Nuc(A) y R
A
no son iguales.
Es posible calcular la ecuacion del plano en R
3
que determina a R
A
.
En efecto, notemos que el vector (x, y, z) R
A
si y solo si (x, y, z) es una
combinacion lineal de los vectores (1, 2, 1) y (2, 1, 3), es decir, si y solo si
existen escalares a y b tales que
(x, y, z) = a(1, 2, 1) +b(2, 1, 3).
3.10. RANGO Y NULIDAD DE UNA MATRIZ 143
De la ecuacion de arriba tenemos entonces el sistema de ecuaciones lineales
a + 2b = x
2a b = y
a + 3b = z
(3.10.3)
Podemos resolverlo utilizando operaciones elementales por renglon.
_
_
1 2
2 1
1 3

x
y
z
_
_
R
2
2R
1
+R
2

R
3
R
1
+R
3
_
_
1 2
0 5
0 5

x
2x +y
x +z
_
_
R
2

1
5
R
2

R
3

1
5
R
3
_
_
1 2
0 1
0 1

x
2
5
x
1
5
y
1
5
x +
1
5
z
_
_
R
1
2R
2
+R
1

R
3
R
2
+R
3
_
_
1 0
0 1
0 0

1
5
x +
2
5
y
2
5
x
1
5
y

1
5
x +
1
5
y +
1
5
z
_
_
.
De la ultima matriz tenemos que el sistema (3.10.3) tiene solucion si y solo
si

1
5
x +
1
5
y +
1
5
z = 0.
Es claro que la ecuacion de arriba se puede escribir como x + y + z = 0.
Esto signica que
R
A
= (x, y, z) R
3
: x +y +z = 0.
Naturalmente R
A
es un plano en R
3
que pasa por el origen. Por tanto,
dim(R
A
) = 2.
3.10.4. Nuc(A) y R
A
son Perpendiculares
Como hemos visto en el Ejemplo 3.52, los subespacios Nuc(A) y R
A
de F
n
, pueden ser distintos. En el siguiente teorema mostramos que di-
chos espacios siempre son distintos. Incluso vemos que son perpendiculares.
Antes de enunciar el teorema, recordemos que si u = (x
1
, x
2
, . . . , x
n
) y
v = (y
1
, y
2
, . . . , y
n
) se encuentran en F
n
, entonces su producto punto se puede
pensar como el elemento de F dado por
u v = x
1
y
1
+x
2
y
2
+ +x
n
y
n
.
El producto punto que hemos denido, se comporta como el producto punto
de R
n
. Por ejemplo, dicho producto punto es conmutativo, abre sumas y saca
escalares. Por tanto
u (a
1
v
1
+a
2
v
2
+ +a
m
v
m
) = a
1
(u v
1
) + a
2
(u v
2
) + +a
m
(u v
m
),
144 CAP

ITULO 3. SISTEMAS DE ECUACIONES


para cada v
1
, v
2
, . . . v
m
F
n
y cada a
1
, a
2
, . . . , a
n
F.
Si F = R entonces, como se ve en los cursos de Geometra Analtica,
uv = 0 si y solo si u y v son perpendiculares. Vamos a pensar que lo anterior
se mantiene para el campo F, es decir, vamos a pensar que los elementos u
y v de F
n
son perpendiculares si y solo si u v = 0. Entonces tenemos el
siguiente resultado.
Teorema 3.53. Sea A M
mn
(F). Si u Nuc(A) y v R
A
, entonces
u v = 0
F
.
Demostracion. Supongamos que u Nuc(A) y v R
A
. Como u Nuc(A),
tenemos que Au = 0
mn
. Supongamos ahora que r
1
, r
2
, . . . , r
m
son los ren-
glones de A. Entonces, de acuerdo al modo en que se multiplican las matrices
A y u, tenemos que r
i
u = 0
F
, para cada i = 1, 2, . . . , m. Ahora bien, como
v R
A
= r
1
, r
2
, . . . , r
m
), existen escalares a
1
, a
2
, . . . , a
m
F tales que
v = a
1
r
1
+a
2
r
2
+ +a
m
r
m
.
Entonces
v u = (a
1
r
1
+a
2
r
2
+ +a
m
r
m
) u
= a
1
(r
1
u) +a
2
(r
2
u) + +a
m
(r
m
u)
= a
1
0
F
+a
2
0
F
+ +a
m
0
F
= 0
F
.
Por tanto, cada vector de Nuc(A) es perpendicular a cada vector de
R
A
. Entonces, desde cierto punto de vista, podemos pensar que los espa-
cios Nuc(A) y R
A
son perpendiculares. Lo anterior lo podemos simbolizar
escribiendo que Nuc(A) R
A
.
Notemos que las nociones de producto punto y perpendicularidad entre
subespacios de F
n
que hemos denido, no hacen mas que emular a sus res-
pectivas nociones para R
n
. Como F es un campo arbitrario, es claro que no
tenemos una nocion geometrica de perpendicularidad, as como la tenemos
en R
n
. Mucho mas adelante, vamos a considerar espacios vectoriales que
admiten un producto punto, como el que hemos denido para F
n
. En ese
momento veremos lo que signica, formalmente, que dos subespacios de un
espacio vectorial que admite un producto punto, sean perpendiculares.
3.10. RANGO Y NULIDAD DE UNA MATRIZ 145
Por otra parte, como en los ejemplos supondremos por lo general que
el campo utilizado es el de los reales, entonces la notacion Nuc(A) R
A
s adquiere un signicado geometrico. Si, por ejemplo, sabemos que Nuc(A) y
R
A
son dos rectas en R
2
, que pasan por el origen, entonces de Nuc(A) R
A
se sigue que dichas rectas deben ser perpendiculares. En el Ejemplo 3.52,
vimos que Nuc(A) es una recta en R
3
que pasa por el origen, mientras que
R
A
es un plano en R
3
que pasa por el origen. Por tanto, la recta que describe
a Nuc(A), debe ser perpendicular al plano que describe a R
A
. En general,
de acuerdo al siguiente teorema, podremos decir mas.
Teorema 3.54. Si F = R o bien si F es un subcampo de R, entonces la
condicion Nuc(A) R
A
implica que Nuc(A) R
A
= 0
n1
.
Demostracion. Como Nuc(A) y R
A
son subespacios de R
n
, ambos con-
tienen al vector cero. Luego 0
n1
Nuc(A) R
A
. Supongamos ahora
que u Nuc(A) R
A
. Entonces, por el teorema anterior, u u = 0. Co-
mo el vector u se encuentra en R
n
, sabemos que u u =
_
|u|, donde
|u| representa la norma de u. Entonces u u = 0 implica que
_
|u| = 0.
Luego |u|
2
= 0, de donde |u| = 0. Por tanto u = 0
n1
. Esto muestra que
Nuc(A) R
A
= 0
n1
.
El teorema anterior tambien es valido si suponemos que F es un subcam-
po de C. Ahora bien, si F es un campo arbitrario entonces, de la condicion
Nuc(A) R
A
se sigue que Nuc(A) R
A
= 0
n1
, siempre que de la condi-
cion u u = 0
F
se siga que u = 0
n1
. Notemos que, de acuerdo a la forma
en que hemos denido el producto punto en F
n
, si u = (x
1
, x
2
, . . . , x
n
) F
n
entonces
u u = x
2
1
+x
2
2
+ +x
2
n
.
Por tanto u u = 0
F
si y solo si
x
2
1
+x
2
2
+ +x
2
n
= 0
F
.
Si F tiene caracterstica n y v = (1
F
, 1
F
, . . . , 1
F
), entonces
v v = (1
F
)
2
+ (1
F
)
2
+ + (1
F
)
2
= 1
F
+ 1
F
+ + 1
F
= 0
F
.
Entonces la condicion v v = 0
F
se cumple y v ,= 0
n1
. De todo esto con-
cluimos que, en un campo arbitrario F, de la condicion u u = 0
F
no nece-
sariamente se sigue que u = 0
n1
.
146 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Terminamos la presente subseccion indicando que, el Teorema 3.54, es
util para simplicar los calculos de Nuc(A) y R
A
. Supongamos, por ejemplo,
que sabemos que Nuc(A) es un plano en R
3
que pasa por el origen. Entonces
necesariamente R
A
es una recta. Para ver esto, recordemos primero que R
A
es un subespacio de R
3
. Si dim(R
A
) = 3, entonces R
A
= R
3
. En este caso ten-
emos que Nuc(A)R
A
= Nuc(A) ,= 0
31
, contradiciendo el Teorema 3.54.
Si dim(R
A
) = 2, entonces R
A
es un plano en R
3
. Entonces, como Nuc(A)
tambien es un plano, la intersecci on Nuc(A) R
A
es una recta, contradi-
ciendo de nuevo el Teorema 3.54. Si dim(R
A
) = 0, entonces R
A
= 0
31
.
Esto signica que la matriz A es nula, pues R
A
es el espacio generado por
los renglones de A. Ahora bien, como estamos suponiendo que Nuc(A) es
un subespacio de R
3
, del hecho de que A sea la matriz nula se sigue que
Nuc(A) = R
3
. Como esto contradice el hecho de que Nuc(A) es un plano,
necesariamente dim(R
A
) = 1. Entonces R
A
es una recta en R
3
que pasa por
el origen y, como los espacios R
A
y Nuc(A) son perpendiculares, R
A
es la
recta en R
3
perpendicular a Nuc(A) por el origen. De manera similar, si
suponemos ahora que R
A
es un plano en R
3
que pasa por el origen, entonces
Nuc(A) es la recta perpendicular a R
A
por el origen.
3.10.5. Las Dimensiones de R
A
y C
A
son Iguales
En el Ejemplo 3.52 tambien vimos que
dim(C
A
) = dim(Im
A
) = r(A) = 2 = dim(R
A
).
Entonces dim(C
A
) = dim(R
A
). En el siguiente teorema mostraremos que esto
no es una coincidencia. En su demostracion, utilizaremos la nocion de matriz
transpuesta. A continuaci on damos su denicion.
Denicion 3.55. Si A M
mn
(F), entonces la matriz A
t
M
nm
(F)
denida como
(A
t
)
ij
= A
ji
,
para cada 1 i n y cada 1 j m, se llama la matriz transpuesta de
A.
Notemos que la matriz transpuesta A
t
de A, es la que se obtiene al inter-
cambiar los renglones por las columnas de A. Si, por ejemplo,
A =
_
1 2
3 4
_
entonces A
t
=
_
1 3
2 4
_
.
3.10. RANGO Y NULIDAD DE UNA MATRIZ 147
Notemos tambien que
C
A
= R
A
t y R
A
= C
A
t . (3.10.4)
Estamos ahora en condiciones de probar que las dimensiones de los espa-
cios R
A
y C
A
son iguales.
Teorema 3.56. Si A M
mn
(F), entonces
dim(R
A
) = dim(C
A
) = dim(Im(A)) = r(A).
Demostracion. Como C
A
= Im(A) y r(A) = dim(Im(A)), es claro que
dim(C
A
) = dim(Im(A)) = r(A). Basta, por tanto, con probar que dim(R
A
) =
dim(C
A
). Si probamos que la desigualdad dim(C
A
) dim(R
A
), es cierta
para cualquier matriz A entonces, en particular, dicha desigualdad tambien
sera cierta para la matriz transpuesta de A. Luego, aplicando las ecuaciones
dadas en (3.10.4), obtendremos que
dim(R
A
) = dim(C
A
t ) dim(R
A
t ) = dim(C
A
).
Es decir dim(R
A
) dim(C
A
). Esto probara que dim(R
A
) = dim(C
A
). Debe-
mos, por tanto, probar que dim(C
A
) dim(R
A
). Para ver esto, supongamos
que k = dim(R
A
) y que r
1
, r
2
, . . . , r
m
son los renglones de A. Como R
A
es un
espacio vectorial dimensionalmente nito, podemos considerar una base
S = s
1
, s
2
, . . . , s
k

de R
A
. Notemos que S F
n
. Ademas, cada renglon de A se puede expresar
como una combinaci on lineal de todos los elementos de S. Por tanto, para
cada 1 i m y cada 1 l k, existe un escalar B
il
F tal que
B
11
s
1
+B
12
s
2
+ +B
1k
s
k
= r
1
B
21
s
1
+B
22
s
2
+ +B
2k
s
k
= r
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
B
m1
s
1
+B
m2
s
2
+ +B
mk
s
k
= r
m
(3.10.5)
Ahora bien, dados 1 i m y 1 l k, pongamos que
r
i
= (A
i1
, A
i2
, . . . , A
in
) y s
l
= (s
l1
, s
l2
, . . . , s
ln
).
148 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Notemos que, dada 1 j n, la j-esima componente de r
i
es A
ij
, mientras
que la j-esima componente de s
l
es s
lj
. Igualando las j-esimas componentes
de ambos lados que aparecen en el sistema (3.10.6), tenemos que
B
11
s
1j
+B
12
s
2j
+ +B
1k
s
kj
= A
1j
B
21
s
1j
+B
22
s
2j
+ +B
2k
s
kj
= A
2j
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
B
m1
s
1j
+B
m2
s
2j
+ +B
mk
s
kj
= A
mj
(3.10.6)
Es decir
c
j
=
_
_
_
_
_
A
1j
A
2j
.
.
.
A
mj
_
_
_
_
_
= s
1j
_
_
_
_
_
B
11
B
21
.
.
.
B
m1
_
_
_
_
_
+s
2j
_
_
_
_
_
B
12
B
22
.
.
.
B
m2
_
_
_
_
_
+ +s
kj
_
_
_
_
_
B
1k
B
2k
.
.
.
B
mk
_
_
_
_
_
, (3.10.7)
donde c
j
representa la j-esima columna de A. Ahora bien, dada 1 l k,
escribamos
b
l
=
_
_
_
_
_
B
1l
B
2l
.
.
.
B
ml
_
_
_
_
_
.
Notemos que b
l
F
m
, para cada 1 l k. Ademas, la ecuacion (3.10.7)
equivale a escribir que
c
j
= s
ij
b
1
+s
2j
b
2
+ +s
kj
b
k
. (3.10.8)
Como la ecuacion (3.10.8) es valida para cada 1 j n, tenemos que cada
columna de A es una combinaci on lineal de los k vectores b
1
, b
2
, . . . , b
k
de
F
m
. Por consiguiente
c
1
, c
2
, . . . , c
n
b
1
, b
2
, . . . , b
k
).
Como el espacio generado preserva contenciones y es idempotente, de la con-
tencion de arriba se sigue que
C
A
= c
1
, c
2
, . . . , c
n
) b
1
, b
2
, . . . , b
k
).
Notemos ahora que el espacio vectorial b
1
, b
2
, . . . , b
k
) tiene dimension menor
o igual a k. En efecto, es claro que el conjunto b
1
, b
2
, . . . , b
k
genera el
3.10. RANGO Y NULIDAD DE UNA MATRIZ 149
espacio b
1
, b
2
, . . . , b
k
). Si dicho conjunto es linealmente independiente, en-
tonces dim(b
1
, b
2
, . . . , b
k
)) = k. De lo contrario necesitamos menos de k vec-
tores para generar a b
1
, b
2
, . . . , b
k
). Ademas, el subconjunto mas grande de
b
1
, b
2
, . . . , b
n
que es linealmente independiente, debe tener menos de k vec-
tores. Luego dim(b
1
, b
2
, . . . , b
k
)) < k. Esto prueba que dim(b
1
, b
2
, . . . , b
k
))
k. Aplicando este hecho y la contencion de arriba, tenemos que
dim(C
A
) dim(b
1
, b
2
, . . . , b
k
)) k = dim(R
A
).
Esto muestra que dim(C
A
) dim(R
A
) y, como ya hicimos ver, termina la
demostracion.
Dada una matriz A M
mn
(F), como R
A
es el espacio generado por los
renglones de A, C
A
es el espacio generado por las columnas de A y dim(R
A
) =
dim(C
A
), tenemos que
(*) el n umero maximo de renglones de A que son linealmente independien-
tes, es igual al n umero maximo de columnas de A que son linealmente
independientes.
En efecto, como para espacios vectoriales dimensionalmente nitos, de-
cir base es lo mismo que decir conjunto linealmente independiente mas
grande, una base para R
A
es aquella que tiene el n umero mas grande de
renglones de A que son linealmente independientes. De manera similar, una
base para C
A
, es aquella que tiene el n umero mas grande de columnas de
A que son linealmente independientes. Como dim(R
A
) = dim(C
A
), dichos
maximos coinciden.
Para ejemplicar lo anterior, supongamos que sabemos que A es una
matriz tal que, el n umero mas grande de renglones linealmente independientes
de A es tres. Entonces tres tambien es el n umero mas grande de columnas
de A que son linealmente independientes.
3.10.6. Simplicacion de los Calculos
La armacion dada en (*) indica que, para calcular el n umero maximo de
columnas o de renglones de A que son linealmente independiente, podemos
restringirnos a los renglones de A. Lo anterior suena bien pero, como calcular
la cantidad maxima de renglones de A que son linealmente independientes?
150 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Como nos hemos restringido a los renglones de A, podemos intentar realizar
operaciones elementales por renglon en A. A continuacion mostraremos que,
las operaciones elementales por renglon, no alteran los espacios generados
por los respectivos renglones.
Teorema 3.57. Sean A, B M
mn
(F). Si A es equivalente por renglones a
B, entonces R
A
= R
B
, Nuc(A) = Nuc(B), r(A) = r(B) y n(A) = n(B).
Demostracion. Supongamos que A es equivalente por renglones a B. En-
tonces, por el Teorema 3.8, los sistemas homogeneos AX = 0
m1
y BX =
0
m1
tienen exactamente las mismas soluciones. Esto signica que Nuc(A) =
Nuc(B). Por tanto, n(A) = dim(Nuc(A)) = dim(Nuc(B)) = n(B).
Notemos que si R
A
= R
B
entonces, aplicando dos veces el Teorema 3.56,
tenemos que
r(A) = dim(R
A
) = dim(R
B
) = r(B).
Entonces, para terminar la demostracion, tenemos que mostrar que R
A
= R
B
.
Ahora bien, supongamos que C es equivalente por renglones a A y que,
para pasar de A a C, se utiliza solo una operacion elemental por renglon.
Si probamos que R
A
= R
C
, entonces tendremos que R
A
= R
B
. En efecto,
para pasar de A a B, necesitamos efectuar un n umero nito e
1
, e
2
, . . . , e
s
de
operaciones elementales por renglon. Entonces
B = (e
s
e
s1
e
2
e
1
)(A).
Hagamos C
1
= e
1
(A) y, para cada 2 i s, sea C
i
= e
i
(C
i1
). Entonces
C
s
= B. Ahora bien, como estamos suponiendo que al efectuar una sola
operacion elemental por renglon, no alteramos los respectivos espacios de los
renglones, tenemos que
R
A
= R
C
1
= R
C
2
= = R
C
s1
= R
C
s
= R
B
.
Debemos, por tanto, probar que al efectuar una sola operacion elemental por
renglon, no alteramos los respectivos espacios de renglones. Esto lo haremos
haciendo ver que R
A
= R
C
, donde C es como dijimos anteriormente. Entonces
existe una operacion elemental por renglon e tal que C = e(A). Consideremos
las tres situaciones para e.
Supongamos primero que e es del tipo 3. Entonces R
A
= R
C
, pues los
renglones de A son los mismos que los renglones de C, aunque estos ulti-
mos estan escritos en otro orden. Supongamos ahora que e es del tipo 1.
3.10. RANGO Y NULIDAD DE UNA MATRIZ 151
Supongamos tambien que e multiplica por c ,= 0
F
el i-esimo renglon de A.
Entonces, si los renglones de A son r
1
, r
2
, . . . , r
i
, . . . , r
m
, los renglones de C
son r
1
, r
2
, . . . , cr
i
, . . . , r
m
. Debemos mostrar que
R
A
= r
1
, r
2
, . . . , r
i
, . . . , r
m
) = r
1
, r
2
, . . . , cr
i
, . . . , r
m
) = R
C
.
Tomemos un elemento x r
1
, r
2
, . . . , r
i
, . . . , r
m
). Entonces existen escalares
a
1
, a
2
, . . . , a
m
F tales que
x = a
1
r
1
+a
2
r
2
+ +a
i
r
i
+ +a
m
r
m
.
Como
x = a
1
r
1
+a
2
r
2
+ +a
i
r
i
+ +a
m
r
m
= a
1
r
1
+a
2
r
2
+ + (a
i
c
1
)(cr
i
) + +a
m
r
m
,
tenemos que x r
1
, r
2
, . . . , cr
i
, . . . , r
m
). Esto muestra que
r
1
, r
2
, . . . , r
i
, . . . , r
m
) r
1
, r
2
, . . . , cr
i
, . . . , r
m
).
Supongamos ahora que y r
1
, r
2
, . . . , cr
i
, . . . , r
m
). Entonces existen es-
calares b
1
, b
2
, . . . , b
m
F tales que
y = b
1
r
1
+b
2
r
2
+ +b
i
(cr
i
) + +b
m
r
m
.
Como
y = b
1
r
1
+b
2
r
2
+ +b
i
(cr
i
) + +b
m
r
m
= b
1
r
1
+b
2
r
2
+ + (b
i
c)(r
i
) + +b
m
r
m
,
tenemos que y r
1
, r
2
, . . . , r
i
, . . . , r
m
). Esto muestra que
r
1
, r
2
, . . . , cr
i
, . . . , r
m
) r
1
, r
2
, . . . , r
i
, . . . , r
m
).
Por tanto, R
A
= R
C
. Para terminar la prueba, supongamos ahora que e es
del tipo 2. Supongamos tambien que e cambia el renglon j, multiplicando el
i-esimo renglon de A por c ,= 0
F
, y sumando el resultado obtenido al j-esimo
renglon de A, donde i ,= j. Sin perder generalidad, podemos suponer que
i < j. Entonces r
1
, r
2
, . . . , r
i
, . . . , r
j
, . . . , r
m
son los renglones de A, mientras
que
r
1
, r
2
, . . . , r
i
, . . . , cr
i
+r
j
, . . . , r
m
son los renglones de C. Debemos ahora probar que
r
1
, r
2
, . . . , r
i
, . . . , r
j
, . . . , r
m
) = r
1
, r
2
, . . . , r
i
, . . . , cr
i
+r
j
, . . . , r
m
).
152 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Tomemos un elemento x r
1
, r
2
, . . . , r
i
, . . . , r
j
, . . . , r
m
). Entonces existen
escalares a
1
, a
2
, . . . , a
m
F tales que
x = a
1
r
1
+a
2
r
2
+ +a
i
r
i
+ +a
j
r
j
+ +a
m
r
m
.
Como
x = a
1
r
1
+a
2
r
2
+ +a
i
r
i
+ +a
j
r
j
+ +a
m
r
m
= a
1
r
1
+a
2
r
2
+ +a
i
r
i
+ +a
j
[(cr
i
+r
j
) cr
i
] + +a
m
r
m
= a
1
r
1
+a
2
r
2
+ + (a
i
a
j
c)r
i
+ +a
j
(cr
i
+r
j
) + +a
m
r
m
,
tenemos que x r
1
, r
2
, . . . , r
i
, . . . , cr
i
+r
j
, . . . , r
m
). Esto muestra que
r
1
, r
2
, . . . , r
i
, . . . , r
j
, . . . , r
m
) r
1
, r
2
, . . . , r
i
, . . . , cr
i
+r
j
, . . . , r
m
).
Supongamos ahora que y r
1
, r
2
, . . . , r
i
, . . . , cr
i
+ r
j
, . . . , r
m
). Entonces e-
xisten escalares b
1
, b
2
, . . . , b
m
F tales que
y = b
1
r
1
+b
2
r
2
+ +b
i
r
i
+ +b
j
(cr
i
+r
j
) + +b
m
r
m
.
Como
x = b
1
r
1
+b
2
r
2
+ +b
i
r
i
+ +b
j
(cr
i
+r
j
) + +b
m
r
m
= b
1
r
1
+b
2
r
2
+ + (b
i
+b
j
c)r
i
+ +b
j
r
j
+ +b
m
r
m
tenemos que y r
1
, r
2
, . . . , r
i
, . . . , r
j
, . . . , r
m
). Esto muestra que
r
1
, r
2
, . . . , r
i
, . . . , cr
i
+r
j
, . . . , r
m
) r
1
, r
2
, . . . , r
i
, . . . , r
j
, . . . , r
m
).
Por tanto, R
A
= R
C
y la prueba termina.
Ahora bien, como por el teorema anterior, el espacio de los renglones de
una matriz, es igual al espacio de los renglones de cualquier matriz equiva-
lente a ella, el espacio de los renglones de una matriz A es igual, en particular,
al espacio de los renglones de cualquier matriz escalonada reducida por ren-
glones B, que sea equivalente por renglones a A. Tambien, por el teorema
anterior, el rango y la nulidad de A son iguales al rango y la nulidad de
B, respectivamente. Esto signica que nos podemos concentrar ahora en el
calculo de R
B
, r(B) y n(B), en donde B es una matriz escalonada reducida
por renglones.
3.10. RANGO Y NULIDAD DE UNA MATRIZ 153
Teorema 3.58. Supongamos que B M
mn
(F) es una matriz no nula y
escalonada reducida por renglones. Sean r el n umero de renglones no nulos
de B. Supongamos tambien que
i) b
1
, b
2
, . . . , b
r
son los renglones no nulos de B;
ii) para cada 1 i r, el primer elemento no nulo del renglon b
i
de B,
se encuentra en la columna k
i
;
iii) 1 k
1
< k
2
< < k
r
n.
Entonces las siguientes condiciones se cumplen:
1) Si a = (a
1
, a
2
, . . . , a
n
) R
B
y x
1
, x
2
, . . . , x
r
F son escalares tales que
a = x
1
b
1
+x
2
b
2
+ +x
r
b
r
,
entonces x
1
= a
k
1
, x
2
= a
k
2
, . . . , x
r
= a
k
r
.
2) Los renglones no nulos de B forman una base de R
B
.
Demostracion. En la demostracion utilizaremos la delta de Kronecker
ij
.
Recordemos que
ij
= 0
F
si i ,= j, mientras que
ij
= 1
F
, si i = j. Sean
r, b
1
, b
2
, . . . , b
r
y k
1
, k
2
, . . . , k
r
como se indican en las hipotesis del teorema.
Dada 1 i r tenemos que
b
i
= (B
i1
, B
i2
, . . . , B
in
).
Es claro que b
1
, b
2
, . . . , b
r
) = R
B
. Por tanto, para ver 2), tenemos que probar
que el conjunto S = b
1
, b
2
. . . , b
r
es linealmente independiente. Con esto
tendremos que dicho conjunto es una base de R
B
. Ahora bien, antes de pro-
bar 2) debemos vericar 1). Para esto notemos que, como B es una matriz
escalonada reducida por renglones, si 1 i r entonces
(a) B
ij
= 0
F
, si 1 j < k
i
;
(b) B
ik
j
=
ij
, para cada 1 j r.
Tomemos ahora a = (a
1
, a
2
, . . . , a
n
) R
B
y escalares x
1
, x
2
, . . . , x
r
F tales
que
a = x
1
b
1
+x
2
b
2
+ +x
r
b
r
.
154 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Utilizando vectores columna, la ecuacion de arriba se expresa como sigue:
_
_
_
_
_
_
_
_
_
a
1
a
2
.
.
.
a
k
j
.
.
.
a
n
_
_
_
_
_
_
_
_
_
= x
1
_
_
_
_
_
_
_
_
_
B
11
B
12
.
.
.
B
1k
j
.
.
.
B
1n
_
_
_
_
_
_
_
_
_
+x
2
_
_
_
_
_
_
_
_
_
B
21
B
22
.
.
.
B
2k
j
.
.
.
B
2n
_
_
_
_
_
_
_
_
_
+ +x
r
_
_
_
_
_
_
_
_
_
B
r1
B
r2
.
.
.
B
rk
j
.
.
.
B
rn
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
x
1
B
11
+x
2
B
21
+ +x
r
B
r1
x
1
B
12
+x
2
B
22
+ +x
r
B
r2
.
.
.
.
.
.
x
1
B
1k
j
+x
2
B
2k
j
+ +x
r
B
rk
j
.
.
.
.
.
.
x
1
B
1n
+x
2
B
2n
+ +x
r
B
rn
_
_
_
_
_
_
_
_
_
.
Entonces, para 1 j r, tenemos que
a
k
j
= x
1
B
1k
j
+x
2
B
2k
j
+ +x
r
B
rk
j
=
r

i=1
x
i
B
ik
j
=
r

i=1
x
i

ij
= x
j
.
Por tanto x
1
= a
k
1
, x
2
= a
k
2
, . . . , x
r
= a
k
r
. Esto prueba 1). Por tanto, la
ecuacion
a = x
1
b
1
+x
2
b
2
+ +x
r
b
r
se escribe como
a = a
k
1
b
1
+a
k
2
b
2
+ +a
k
r
b
r
.
Como caso particular, si a = 0
F
n
, entonces de a = x
1
b
1
+ x
2
b
2
+ + x
r
b
r
,
se sigue que x
1
= x
2
= = x
r
= 0
F
, pues los valores de cada variable x
j
corresponden a coordenadas del vector cero a de F
n
. Esto muestra que el
conjunto S es linealmente independiente. Por tanto 2) se cumple.
Supongamos que B M
mn
(F) es una matriz no nula y escalonada
reducida por renglones. Del teorema anterior, tenemos que los renglones no
nulos de B forman una base de R
B
, el espacio de los renglones de B. Si r es
el n umero de renglones no nulos de B entonces
r(B) = dim(R
B
) = r.
Por tanto,
3.10. RANGO Y NULIDAD DE UNA MATRIZ 155
(*) el rango de una matriz no nula y escalonada reducida por renglones
B M
mn
(F), es igual al n umero de renglones no nulos de B.
Como toda matriz es equivalente por renglones a una sola matriz escalo-
nada reducida por renglones, y el rango no cambia entre matrices equivalentes
por renglones, tenemos entonces el siguiente resultado.
Teorema 3.59. Supongamos que A M
mn
(F). Sea B la matriz escalonada
reducida por renglones que es equivalente por renglones a A. Si B ,= 0
mn
,
entonces el rango de A es igual al n umero de renglones no nulos de B.
Tomemos una matriz A M
mn
(F), y supongamos que B es la matriz
escalonada reducida por renglones que es equivalente por renglones a A. Si
B = 0
mn
, entonces R
B
= 0
n1
. Como R
A
= R
B
, tenemos que R
A
=
0
n1
. Luego el rango de A es igual a cero. Como B tiene cero renglones no
nulos, el teorema anterior es valido en general: el rango de una matriz A es
igual al n umero de renglones no nulos de la matriz escalonada reducida por
renglones, que es equivalente por renglones a A.
A continuacion presentamos un resultado que relaciona el rango y la nu-
lidad de una matriz. Aunque podemos presentar su demostracion en este
momento, preferimos presentarla en el siguiente captulo (ver Teorema 4.22).
La razon radica en que la prueba que daremos sera mas simple que la que
daramos en este momento, de querer presentarla.
Teorema 3.60. Si A M
mn
(F), entonces
r(A) +n(A) = n.
Es decir, el rango de A mas la nulidad de A es igual al n umero de columnas
de A.
Como consecuencia de la formula r(A) + n(A) = n tenemos que, entre
mas grande sea el rango de una matriz, mas peque na sera su nulidad. De
la misma manera, entre mas grande sea la nulidad, mas peque no sera el
rango. Por consiguiente, existe un cierto balance entre las nociones de rango
y nulidad de una matriz.
Podemos ahora presentar el Teorema 3.42, en donde hemos agregando
tres equivalencias.
156 CAP

ITULO 3. SISTEMAS DE ECUACIONES


Teorema 3.61. Para una matriz A M
nn
(F) las siguientes armaciones
son equivalentes:
1) A es invertible;
2) A es un producto de matrices elementales;
3) A es equivalente por renglones a la matriz identidad I
n
;
4) el sistema homogeneo AX = 0
n1
tiene solamente la solucion trivial
X = 0
n1
;
5) el sistema de ecuaciones AX = Y tiene exactamente una solucion, para
cada matriz Y M
n1
(F);
6) las columnas de A, consideradas como elementos de F
n
, son linealmente
independientes;
7) los renglones de A, considerados como elementos de F
n
, son linealmente
independientes;
8) n(A) = 0;
9) r(A) = n.
Demostracion. Por el Teorema 3.61, las condiciones 1)-6) son equivalentes.
Ademas, por el Teorema 3.48, las condiciones 1) y 8) tambien son equiva-
lentes. Ahora mostraremos que las condiciones 4) y 9) son equivalentes. Para
esto, sea B la matriz escalonada reducida por renglones que es equivalente
por renglones a A. Sea r el n umero de renglones no nulos de B. Por el Teo-
rema 3.57, sabemos que r(A) = r(B) = r. Ademas, por el Teorema 3.18, el
sistema homogeneo AX = 0
n1
tiene solamente la solucion trivial X = 0
n1
si y solo si r = n, es decir, si y solo si r(A) = n.
Para terminar la prueba, mostraremos ahora que las condiciones 5) y 6)
son equivalentes. Por el Teorema 3.56, tenemos que dim(R
A
) = dim(C
A
).
Esto signica que la cantidad maxima de renglones de A que son linealmente
independientes, es igual a la cantidad maxima de columnas de A que son
linealmente independientes. Por tanto, todas las columnas de A son lineal-
mente independientes si y solo si, todos los renglones de A son linealmente
independientes. Esto muestra que 5) y 6) son equivalentes.
3.10. RANGO Y NULIDAD DE UNA MATRIZ 157
Antes de presentar una serie de ejemplos, mostramos un resultado mas,
el cual se sigue del Teorema 3.19, as como de los resultados que hemos
presentado.
Teorema 3.62. Sea A M
mn
(F). Entonces el sistema AX = Y
m1
tiene
una solucion si y solo si Y C
A
. Esto ocurrira si y solo si A y la matriz
aumentada (A[Y ) tienen el mismo rango.
3.10.7. Ejemplos
Supongamos que tenemos una matriz A M
mn
(F) y que queremos cal-
cular Im(A), Nuc(A), R
A
, r(A) y n(A). Entonces podemos proceder como
sigue. Primero debemos encontrar la matriz escalonada reducida por ren-
glones B, que es equivalente por renglones a A. Si B = 0
mn
entonces, como
R
A
= R
B
seg un el Teorema 3.57, deducimos que R
A
= 0
n1
y r(A) = 0. Si
B ,= 0
mn
, entonces r(B) es igual al n umero r de renglones no nulos de B.
Entonces r(A) = r. Por el Teorema 3.58, los renglones no nulos de B forman
una base de R
B
. Como R
A
= R
B
, dichos renglones no nulos tambien forman
una base de R
A
. De esta manera tenemos ya calculados R
A
y r(A).
Para calcular n(A), podemos utilizar la formula r(A) +n(A) = n, presen-
tada en el Teorema 3.60. Como Nuc(A) = Nuc(B), para calcular Nuc(A),
basta con calcular Nuc(B). Si B = 0
mn
, entonces Nuc(B) = F
n
. Si B ,=
0
mn
, entonces Nuc(B) se calcula resolviendo el sistema homogeneo BX =
0
m1
. De esta manera calculamos Nuc(A) y n(A).
Para calcular Im(A) procedemos como sigue. Como ya calculamos r(A)
y dim(Im(A)) = r(A), sabemos que Im(A) es un subespacio de F
m
de di-
mension r = r(A). Para determinar con precision dicho subespacio, podemos
proceder como en la pagina 142, correspondiente al Ejemplo 3.52. Tambien
podemos utilizar los teoremas 3.50 y 3.56, en donde vimos que Im(A) = C
A
y dim(C
A
) = dim(R
A
) = r(A) = r. En efecto, como r(A) = r, sabemos
que la cantidad maxima de renglones linealmente independientes de A es
r. Entonces la cantidad maxima de columnas linealmente independientes de
A, tambien es r. Luego, cualquier subconjunto linealmente independiente,
del conjunto de las columnas de A, con justo r elementos, sera una base de
Im(A). Por supuesto, esto ultimo funciona bien a nivel teorico pero, a nivel
practico, no siempre es facil encontrar tal subconjunto . Por dicha razon
158 CAP

ITULO 3. SISTEMAS DE ECUACIONES


conviene, por lo general, proceder como en el Ejemplo 3.52.
Ejemplo 3.63. Calcular Nuc(A), Im(A), R
A
, r(A) y n(A), para la matriz
A =
_
_
_
_
1 2 4 3
2 5 6 8
0 1 14 14
3 6 12 9
_
_
_
_
.
Determina tambien si A es invertible.
Solucion. Como ya indicamos, el primer paso es encontrar la matriz B
escalonada reducida por renglones, que es equivalente por renglones a A.
Veamos
A =
_
_
_
_
1 2 4 3
2 5 6 8
0 1 14 14
3 6 12 9
_
_
_
_
R
2
2R
1
+R
2

R
4
3R
1
+R
4
_
_
_
_
1 2 4 3
0 1 14 14
0 1 14 14
0 0 0 0
_
_
_
_
R
3
R
2
+R
3

_
_
_
_
1 2 4 3
0 1 14 14
0 0 0 0
0 0 0 0
_
_
_
_
R
1
2R
2
+R
1

_
_
_
_
1 0 32 31
0 1 14 14
0 0 0 0
0 0 0 0
_
_
_
_
= B.
Como B no es la matriz identidad I
4
tenemos, por la equivalencia entre
las condiciones 1) y 3) del Teorema 3.61, que A no es invertible. Notemos
ahora que r, el n umero de renglones no nulos de B, es igual a dos. Luego
r(A) = r(B) = 2. Ademas, por el Teorema 3.58,
= (1, 0, 32, 31), (0, 1, 14, 14)
es una base para R
B
. Como R
A
= R
B
, tambien es una base para R
A
. Por
tanto
R
A
= (1, 0, 32, 31), (0, 1, 14, 14)).
Esto signica que R
A
es un plano en R
4
que pasa por el origen. Notemos
ahora que
n(A) = n r(A) = 4 2 = 2.
Como n(A) = dim(Nuc(A)), de la igualdad n(A) = 2, deducimos que
Nuc(A) es un subespacio de R
4
con dimension dos. Por tanto, Nuc(A) es un
plano en R
4
que pasa por el origen.
3.10. RANGO Y NULIDAD DE UNA MATRIZ 159
Notemos que Nuc(A) y R
A
son dos planos en R
4
que pasan por el ori-
gen. Como Nuc(A) R
A
, dichos planos son perpendiculares. Notemos que
esto no contradice el Teorema 3.54 pues, en R
4
, es posible tener dos planos
perpendiculares cuya intersecci on es solamente el origen (cosa que no sucede
en R
3
). Entonces Nuc(A) y R
A
son dos planos perpendiculares que se inter-
sectan solamente en el origen.
Para determinar con mas precision a Nuc(A), debemos utilizar la igualdad
Nuc(A) = Nuc(B), as como el hecho de que Nuc(B) se calcula resolviendo
el sistema homogeneo BX = 0
41
. Hagamos
X =
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
.
Entonces la ecuacion BX = 0
41
el equivalente al sistema de ecuaciones
lineales:
x
1
32x
3
+ 31x
4
= 0
x
2
+ 14x
3
14x
4
= 0
Entonces las coordenadas x
1
y x
2
se pueden expresar en terminos de x
3
y x
4
por lo que, utilizando vectores columna:
X =
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
32x
3
31x
4
14x
3
+ 14x
4
x
3
x
4
_
_
_
_
= x
3
_
_
_
_
32
14
1
0
_
_
_
_
+x
4
_
_
_
_
31
14
0
1
_
_
_
_
.
Hagamos
u = (32, 14, 1, 0) y v = (31, 14, 0, 1).
Entonces
X = x
3
u +x
4
v.
Por tanto, si X Nuc(B) entonces X es una combinaci on lineal de u y v.
Luego Nuc(B) u, v). Como ya hemos indicado, para probar que u, v)
Nuc(B), basta con vericar que u y v se encuentran en Nuc(B). Veamos:
Bu =
_
_
_
_
1 0 32 31
0 1 14 14
0 0 0 0
0 0 0 0
_
_
_
_
_
_
_
_
32
14
1
0
_
_
_
_
=
_
_
_
_
32 32
14 + 14
0
0
_
_
_
_
=
_
_
_
_
0
0
0
0
_
_
_
_
= 0
41
160 CAP

ITULO 3. SISTEMAS DE ECUACIONES


y
Bv =
_
_
_
_
1 0 32 31
0 1 14 14
0 0 0 0
0 0 0 0
_
_
_
_
_
_
_
_
31
14
0
1
_
_
_
_
=
_
_
_
_
31 + 31
14 14
0
0
_
_
_
_
=
_
_
_
_
0
0
0
0
_
_
_
_
= 0
41
.
Tenemos, por tanto, que
Nuc(A) = Nuc(B) = (32, 14, 1, 0), (31, 14, 0, 1))
Como los vectores u y v no son paralelos, resulta incluso que el conjunto
= u, v es una base para Nuc(A).
Para completar el ejercicio, necesitamos ahora calcular Im(A). Por los
teoremas 3.50 y 3.56, sabemos que Im(A) = C
A
y dim(C
A
) = r(A) = 2. Esto
signica que la cantidad maxima de columnas linealmente independientes de
A, es igual a dos. Por consiguiente, cualesquiera dos columnas de A que no
sean paralelas, forman una base para C
A
y, por tanto, tambien para Im(A).
Tomemos, por ejemplo, las primeras dos columnas (1, 2, 0, 3) y (2, 5, 1, 6)
de A. Como dichas columnas no son paralelas, tenemos que
Im(A) = (1, 2, 0, 3), (2, 5, 1, 6)).
En el siguiente ejemplo vemos como las nociones que hemos estudiado
en esta seccion, permiten calcular una base para el espacio generado de un
conjunto nito de vectores dados.
Ejemplo 3.64. Encontrar una base para el espacio generado por los vectores:
v
1
= (1, 2, 3) v
2
= (2, 0, 4) v
3
= (0, 4, 2) v
4
= (2, 4, 6).
Solucion. Hagamos S = v
1
, v
2
, v
3
, v
4
. Consideremos la matriz C que tiene
por renglones a v
1
, v
2
, v
3
y v
4
. Entonces
C =
_
_
_
_
1 2 3
2 0 4
0 4 2
2 4 6
_
_
_
_
.
3.11. EJERCICIOS 161
Notemos que
S) = v
1
, v
2
, v
3
, v
4
) = R
C
.
Esto signica que el espacio generado por S, es justo el espacio de los ren-
glones de C. Si llevamos la matriz C a su forma escalonada reducida por
renglones B entonces, de los teoremas 3.57 y 3.58, se sigue que los renglones
no nulos de B, forman una base de R
C
y, por tanto, tambien una base de
S). Debemos, por tanto, llevar la matriz C a su forma escalonada reducida
por renglones. Veamos:
C =
_
_
_
_
1 2 3
2 0 4
0 4 2
2 4 6
_
_
_
_
R
2
2R
1
+R
2

R
4
2R
1
+R
4
_
_
_
_
1 2 3
0 4 2
0 4 2
0 0 0
_
_
_
_
R
3
R
2
+R
3

_
_
_
_
1 2 3
0 4 2
0 0 0
0 0 0
_
_
_
_
R
2

1
2
R
2

_
_
_
_
1 2 3
0 1
1
2
0 0 0
0 0 0
_
_
_
_
R
1
2R
2
+R
1

_
_
_
_
1 0 2
0 1
1
2
0 0 0
0 0 0
_
_
_
_
= B.
Luego, una base para S) es la formada por los vectores (1, 0, 2) y (0, 1,
1
2
).
3.11. Ejercicios
1. Calcula el n ucleo, imagen, rango, nulidad y espacio de los renglones de
las siguientes matrices:
_
_
1 1 2
3 1 4
5 1 8
_
_
_
_
1 1 2 3
0 1 4 3
1 0 6 6
_
_
_
_
_
_
1 1 2 3
2 2 4 6
2 2 4 6
3 3 6 9
_
_
_
_
.
2. Encuentra una base para el espacio generado por los vectores
(1, 4, 2) (2, 1, 2) (1, 3, 4).
3. Encuentra una base para el espacio generado por los vectores
(1, 1, 1, 1) (2, 0, 0, 1) (4, 2, 2, 1) (7, 3, 3, 1).
162 CAP

ITULO 3. SISTEMAS DE ECUACIONES


4. Demuestra que, para cualquier matriz A M
mn
(F), sucede que r(A) =
r(A
t
).
5. Consideremos las matrices A M
mn
(F), B M
mm
(F) y C
M
nn
(F). Muestra que si B y C son invertibles, entonces r(A) =
r(BA) = r(AC). Es decir, si se multiplica una matriz por una ma-
triz invertible, ya sea por la izquierda o por la derecha, entonces el
rango no cambia.
6. Muestra que si A M
mn
(F) y B M
np
(F), entonces r(AB)
mnr(A), r(B).
7. Supongamos que A, B M
mn
(F). Muestra que r(A) = r(B) si y solo
si, existen matrices invertibles C M
mm
(F) y D M
nn
(F) tales
que B = CAD.
Captulo 4
Transformaciones Lineales
4.1. Introduccion
En el Captulo 2 estudiamos a los espacios vectoriales. Toca ahora com-
pararlos. Para hacer esto notemos primero que los espacios vectoriales son
conjuntos, as que una manera natural de compararlos es estableciendo fun-
ciones entre ellos. Ahora bien, como los espacios vectoriales son conjuntos
con una estructura adicional, a saber, sus elementos se pueden sumar y mul-
tiplicar por escalares del campo dado, conviene utilizar funciones que preser-
ven dicha estructura. Estas funciones se llamaran transformaciones lineales
y en el presente captulo las estudiaremos. Mas adelante mostraremos que
las transformaciones lineales se pueden representar en terminos de matrices,
y viceversa.
Durante todo el presente captulo supondremos que las letras V y W
representan espacios vectoriales sobre el campo F. A partir de este momen-
to, a los elementos de un espacio vectorial los representaremos por letras
min usculas, como v y w, mientras que a los escalares los denotaremos con
letras griegas, por lo general por y . Las letras griegas y se reservar an
para referirse a bases en V y/o W.
Recordemos que si V es un espacio vectorial de dimension nita y =
v
1
, v
2
, . . . , v
n
es una base para V, entonces cada elemento de V se puede es-
cribir como una combinacion lineal de todos los elementos de . Un resultado
que bien pudimos haber probado en el Captulo 2, pero lo hemos reservado
163
164 CAP

ITULO 4. TRANSFORMACIONES LINEALES


para el presente captulo, dice que la forma de escribir a cada elemento de V
como combinacion lineal de los elementos de es unica. Esto es precisamente
lo que probamos en el siguiente teorema.
Teorema 4.1. Supongamos que = v
1
, v
2
, . . . , v
n
es un subconjunto no
vaco de un espacio vectorial V sobre el campo F. Entonces es una base de
V si y solo si cada vector v V se puede expresar de manera unica como
una combinacion lineal de todos los elementos de . Esto es, para cada v V
existen escalares unicos
1
,
2
, . . . ,
n
F tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Demostracion. Supongamos primero que es una base de V. Entonces
) = V, por lo que cada elemento de V se puede escribir como una com-
binacion lineal de todos los elementos de . Supongamos que un elemento
v V se puede escribir de dos formas como combinaci on lineal de todos los
elementos de . Entonces
v =
1
v
1
+
2
v
2
+ +
n
v
n
y v =
1
v
1
+
2
v
2
+ +
n
v
n
,
por lo que

1
v
1
+
2
v
2
+ +
n
v
n
=
1
v
1
+
2
v
2
+ +
n
v
n
.
Lo anterior implica que
(
1

1
)v
1
+ (
2

2
)v
2
+ + (
n

n
)v
n
= 0
V
y, como el conjunto es linealmente independiente, sucede que
1

1
=

2
= =
n

n
= 0
F
. Por tanto
1
=
1
,
2
=
2
, . . . ,
n
=
n
. Esto
prueba que cada elementos de V se puede escribir de una sola manera como
una combinaci on lineal de todos los elementos de .
Ahora supongamos que cada elemento de V se puede escribir de una sola
manera como una combinaci on lineal de todos los elementos de . Entonces,
en particular, ) = V. Para ver que es linealmente independiente, tomemos
escalares
1
,
2
, . . . ,
n
F tales que

1
v
1
+
2
v
2
+ +
n
v
n
= 0
V
. (4.1.1)
4.2. DEFINICI

ON Y EJEMPLOS 165
Notemos que 0
V
es un elemento de V y que
0
F
v
1
+ 0
F
v
2
+ + 0
F
v
n
= 0
V
. (4.1.2)
Como el elemento 0
V
se escribe de una sola manera como una combinaci on
lineal de todos los elementos de , las expresiones (4.1.1) y (4.1.2) son las
mismas. Luego
1
=
2
= =
n
= 0
F
. Esto prueba que es linealmente
independiente y, como ) = V, tenemos que es una base para V.
4.2. Denicion y Ejemplos
Denicion 4.2. Una transformacion lineal de V en W es una funcion
T : V W que respeta la estructura de los espacios vectoriales V y W, es
decir, tal que:
1) T(u +v) = T(u) +T(v), para cada u, v V ;
2) T(u) = T(u), para cada F y cada u V.
Notemos que si u, v V, entonces u + v denota la suma de u y v en V,
mientras que T(u)+T(v) representa la suma de T(u) y T(v) en W. El hecho de
utilizar el mismo signo para la suma en V y en W no debera de confundirnos.
No debemos de pensar que la suma que se dene en V, es siempre la misma que
la que se dene en W. La notacion que hemos establecido se realiza mas por
simplicidad que por otra cosa. Las mismas consideraciones se establecen con
las operaciones u y T(u), el primero representa la multiplicaci on escalar
de y u en V, mientras que el segundo representa la multiplicacion escalar
de y T(u) en W.
Si T : V W es una transformacion lineal, en ocasiones es com un decir
que T es F-lineal, para enfatizar el papel del campo F en la denicion anteri-
or. Tambien es com un decir que T es una aplicacion lineal, una funcion lineal
o simplemente que T es lineal. Cuando V = W, la transformacion lineal T
recibe un nombre en particular.
Denicion 4.3. Un operador lineal sobre un espacio vectorial V es una
transformacion lineal de V en V.
Los ejemplos mas sencillos de funciones lineales son la funcion identidad,
la funcion cero y las homotecias. Dichas funciones se denen como sigue: la
166 CAP

ITULO 4. TRANSFORMACIONES LINEALES


identidad en V es el operador lineal I
V
: V V dado por I
V
(v) = v, para
cada v V. La funcion cero de V en W es la que a cada elemento de V le
asigna el vector 0
W
. Finalmente, si F, entonces la homotecia H

: V V
esta dada por H

(v) = v, para cada v V. Notemos que una homotecia es


un operador lineal sobre V. A la constante se le llama el parametro de la
homotecia.
Las funciones proyecci on tambien son transformaciones lineales. Para ver
esto notemos primero que el producto cartesiano V W es un espacio vec-
torial sobre F. La suma y el producto por escalares se denen de manera
natural, a saber:
(v
1
, w
1
) + (v
2
, w
2
) = (v
1
+v
2
, w
1
+w
2
) y (v
1
, w
1
) = (v
1
, w
1
),
para cada (v
1
, w
1
), (v
2
, w
2
) V W y cada F. Ahora bien, supongamos
que
V
: V W V esta dada por
V
(v, w) = v, para cada (v, w) V W.
Entonces
V
es una transformacion lineal. En efecto

V
((v
1
, w
1
)+(v
2
, w
2
)) =
V
(v
1
+v
2
, w
1
+w
2
) = v
1
+v
2
=
V
(v
1
, w
1
)+
V
(w
2
, w
2
)
y

V
((v
1
, w
1
)) =
V
(v
1
, w
1
) = v
1
=
V
(v
1
, w
1
),
para cada (v
1
, w
1
), (v
2
, w
2
) V W y cada F. De manera similar se
muestra que la funcion proyeccion
W
: V W W, dada por
W
(v, w) = w
para cada (v, w) V W, es lineal.
Otros ejemplos de transformaciones lineales son la funcion derivada y
la funcion integral. Para denirlas consideremos el conjunto C
0
(R) de las
funciones f : R R que son continuas. Consideremos tambien el conjunto
C
1
(R) de las funciones f : R R que son diferenciables y cuya derivada es
continua. Entonces las funciones D: C
1
(R) C
0
(R) e I : C
0
(R) C
1
(R)
dadas por
(D(f))(x) = f

(x) e (I(g))(x) =
_
x
0
g(t)dt
son transformaciones lineales, pues tanto la derivada como la integral de una
suma es la suma de las derivadas o de las integrales, seg un corresponda.
Ademas tanto la derivada como la integral sacan escalares.
4.3. TRANSFORMACI

ON LINEAL ASOCIADA A UNA MATRIZ 167


De la Geometra de R
2
es posible obtener otros ejemplos de transforma-
ciones lineales, como lo son las rotaciones, las reexiones y las proyecciones.
Con respecto a las proyecciones, ya hemos hecho ver que algunas de ellas son
lineales, incluso cuando se consideran en espacios vectoriales abstractos.
4.3. Transformaci on Lineal Asociada a una
Matriz
Podemos utilizar matrices para denir transformaciones lineales. Por ejem-
plo, si A M
mn
(F) entonces podemos considerar la funcion T
A
: F
n
F
m
dada por
T
A
(v) = Av, (4.3.1)
para cada v F
n
. Notemos que
T
A
(u +v) = A(u +v) = Au +Av = T
A
(u) +T
A
(v)
y
T
A
(u) = A(u) = (Au) = T
A
(u),
para cada u, v F
n
y cada F. Entonces T
A
es una transformacion
lineal. A T
A
se le conoce como la transformacion lineal asociada a la matriz
A. Mas adelante retomaremos esta transformacion lineal y estudiaremos la
funcion que a cada matriz A le asigna su transformacion lineal asociada T
A
.
Mostraremos, por ejemplo, que dicha funcion es una transformacion lineal.
Tambien, mas adelante, mostraremos que toda transformacion lineal tiene
asociada una matriz.
En terminos matriciales, en el captulo anterior denotamos un sistema
de m ecuaciones lineales con n incognitas como AX = Y, donde A es una
matriz de mn, X un elemento de F
n
y Y un elemento de F
m
. Como hemos
indicado en la formula (4.3.1), aunque de manera un tanto implcita, ahora
los sistemas de ecuaciones lineales los denotaremos en la forma utilizada en
(4.3.1).
168 CAP

ITULO 4. TRANSFORMACIONES LINEALES


4.4. Propiedades Fundamentales
En la presente seccion enunciaremos una serie de propiedades que poseen
todas las transformaciones lineales. Empezamos con el siguiente resultado.
Teorema 4.4. La composicion de transformaciones lineales es una transfor-
macion lineal.
Demostracion. Supongamos que L: U V y T : V W son transforma-
ciones lineales. Entonces T L: U W es una funcion. Ademas, si u, v U
y F, entonces
(T L)(u +v) = T(L(u +v)) = T(L(u) + L(v)) = T(L(u)) +T(L(v))
= (T L)(u) + (T L)(v)
y
(T L)(u) = T(L(u)) = T(L(u)) = T(L(u)) = (T L)(u).
Por tanto T L es una transformacion lineal.
Ahora mostraremos que las transformaciones lineales mandan el neutro
del dominio en el neutro de la imagen, respetan los inversos y mandan com-
binaciones lineales en combinaciones lineales.
Teorema 4.5. Si T : V W es una transformacion lineal, entonces:
1) T(0
V
) = 0
W
;
2) T(v) = T(v), para cada v V ;
3) T(u +v) = T(u) +T(v), para cada u, v V y cada , F.
Demostracion. Para probar 1) notemos que
T(0
V
) = T(0
F
0
V
) = 0
F
T(0
V
) = 0
W
.
Para ver 2) basta con notar que
T(v) = T((1)v) = (1)T(v) = T(v).
Finalmente, para ver 3) realizamos las siguientes operaciones:
T(u +v) = T(u) +T(v) = T(u) + T(v).
4.4. PROPIEDADES FUNDAMENTALES 169
Conviene hacer notar dos cosas. Para empezar, estamos acostumbrados
a decir que las funciones lineales de R en R son aquellas cuya graca es una
recta, as dicha recta pase o no por el origen. En vista de la propiedad 1) del
teorema anterior, desde el punto de vista del

Algebra Lineal, la graca de
cualquier transformacion lineal de R en R debe de pasar por el origen. Por
tanto, una funcion lineal no es necesariamente una transformacion lineal. Sin
embargo, si f : R R es una funcion lineal cuya graca es una recta que no
pasa por el origen entonces, efectuando una traslacion adecuada g : R R,
la composicion g f : R R sera una transformacion lineal en el sentido que
estamos considerando aqu, es decir, la graca de g f pasara por el origen.
Estudiar la funcion f se traduce en estudiar la composicion g f.
Ahora bien, la propiedad 3) del teorema anterior se puede generalizar.
A saber si T : V W es una transformacion lineal,
1
,
2
, . . . ,
n
F y
v
1
, v
2
, . . . , v
n
V, entonces
T(
1
v
1
+
2
v
2
+ +
n
v
n
) =
1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
).
En otras palabras, la imagen bajo una transformacion lineal T de una com-
binacion lineal de los vectores v
1
, v
2
, . . . , v
n
, es la combinacion lineal de los
vectores T(v
1
), T(v
2
), . . . , T(v
n
) que tiene por coecientes los utilizados en la
combinacion lineal de v
1
, v
2
, . . . , v
n
, en ese orden.
Si las transformaciones lineales mandan combinaciones lineales en com-
binaciones lineales, es natural preguntarse si respetan la dependendia e in-
dependencia lineal. En otras palabras, si la imagen bajo una transformacion
lineal de un conjunto linealmente independiente es un conjunto linealmente
independiente, y lo mismo para conjuntos linealmente dependientes.

Esto
ultimo se resuelve en el siguiente teorema.
Teorema 4.6. La imagen, bajo una transformacion lineal, de un conjunto
linealmente dependiente es linealmente dependiente.
Demostracion. Supongamos que T : V W es una transformacio lineal y
que S es un subconjunto de V linealmente dependiente. Entonces existe un
subconjunto nito S
0
= v
1
, v
2
, . . . , v
n
de S que es linealmente dependiente.
Por tanto, existen escalares
1
,
2
, . . . ,
n
no todos iguales a 0
F
y tales que

1
v
1
+
2
v
2
+ +
n
v
n
= 0
V
.
170 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Luego
0
W
= T(0
V
) = T(
1
v
1
+
2
v
2
+ +
n
v
n
) =
1
T(v
1
)+
2
T(v
2
)+ +
n
T(v
n
).
En vista de que no todos los escalares
1
,
2
, . . . ,
n
son iguales a 0
F
, re-
sulta que T(v
1
), T(v
2
), . . . , T(v
n
) es un subconjunto nito de T(S) que es
linealmente dependiente. Luego T(S) es linealmente dependiente.
4.4.1. Un Teorema de Extension
En el Teorema 4.6, mostramos que las transformaciones lineales preservan
la dependencia lineal. Con respecto a la independencia lineal, dichas trans-
formaciones no siempre la preservan, en vista de que elementos diferentes de
cero pueden ir al cero (recordemos que todo conjunto que contenga al vec-
tor cero es linealmente dependiente). Consideremos, por ejemplo, el operador
lineal cero sobre R
2
. Entonces la imagen de la base canonica es (0, 0), el
cual es un conjunto linealmente dependiente. En general, dados dos espacios
vectoriales V y W sobre el campo F y una base para V, podemos siempre
encontrar una transformacion lineal de V en W que mande los elementos de
la base que deseemos al cero de W. Esto es una consecuencia del siguiente
resultado.
Teorema 4.7. Sean V y W dos espacios vectoriales sobre el campo F.
Supongamos que V es de dimension nita y que = v
1
, v
2
, . . . , v
n
es una
base para V. Supongamos, ademas, que w
1
, w
2
, . . . , w
n
son elementos de W,
no necesariamente distintos. Entonces existe una unica transformacion lineal
T : V W tal que
T(v
i
) = w
i
, para cada i = 1, 2, . . . , n.
Demostracion. Dada v V, por el Teorema 4.1, existen escalares unicos

1
,
2
, . . . ,
n
F tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
. (4.4.1)
Hagamos
T(v) =
1
w
1
+
2
w
2
+ +
n
w
n
. (4.4.2)
Notemos que T(v) se obtiene de la ecuacion (4.4.1) cambiando v
i
por w
i
, para
cada i = 1, 2, . . . , n. Ademas dada i = 1, 2, . . . , n tenemos que T(v
i
) = w
i
,
pues
v
i
= 0
F
v
1
+ 0
F
v
2
+ + 0
F
v
i1
+ 1
F
v
i
+ 0
F
v
i+1
+ + 0
F
v
n
,
4.4. PROPIEDADES FUNDAMENTALES 171
as que al cambiar cada v
j
por w
j
tendremos que T(v
i
) = w
i
. Para ver que
T es lineal, tomemos
u =
n

i=1

i
v
i
y v =
n

i=1

i
v
i
en V y F. Entonces
T(u +v) = T
_
n

i=1
(
i
+
i
)v
i
_
=
n

i=1
(
i
+
i
)T(v
i
) =
=
n

i=1

i
T(v
i
) +
n

i=1

i
T(v
i
) = T(u) +T(v)
y
T(u) = T
_
n

i=1
(
i
)v
i
_
=
n

i=1
(
i
)T(v
i
) =
n

i=1

i
T(v
i
) = T(u).
Ahora probaremos que T es unica. Para ver esto, supongamos que existe
otra transformacion lineal L: V W tal que L(v
i
) = w
i
, para cada i =
1, 2, . . . , n. Dada v V, sabemos que existen escalares unicos
1
,
2
, . . . ,
n

F tales que v =

n
i=1

i
v
i
. Luego
L(v) = L
_
n

i=1

i
v
i
_
=
n

i=1

i
L(v
i
) =
n

i=1

i
w
i
= T(v).
Por tanto, L = V.
Del teorema anterior se desprenden varios comentarios. Por ejemplo, cono-
cer el comportamiento de una transformacion lineal en los elementos de una
base de su dominio, automaticamente implica conocer toda la transforma-
cion lineal. Ademas, si dos transformaciones lineales de V en W coinciden en
los elementos de una base de V, entonces coinciden en todo V, es decir, son
iguales.
Para ilustrar lo comentado en el parrafo anterior, consideremos la base
canonica = (1, 0), (0, 1) de R
2
y los vectores w
1
= (2, 1, 0) y w
2
=
(3, 5, 2) de R
3
. De acuerdo al Teorema 4.7, existe una unica transformacion
172 CAP

ITULO 4. TRANSFORMACIONES LINEALES


lineal T : R
2
R
3
tal que T(1, 0) = w
1
y T(0, 1) = w
2
. Para denirla, lo
primero que tenemos que hacer es tomar cualquier elemento de R
2
y escribirlo
como combinacion lineal de los elementos de la base . Si v = (x, y) R
2
,
entonces v = x(1, 0) + y(0, 1). Luego, de acuerdo a lo demostrado en el
teorema anterior, T(v) es la combinacion lineal de w
1
y w
2
que respeta los
coecientes de (1, 0) y (0, 1). Es decir
T(v) = xw
1
+yw
2
.
Sustituyendo los valores de w
1
y w
2
obtenemos que
T(x, y) = (2x + 3y, x + 5y, 2y).
Supongamos ahora que tenemos una transformacion lineal L: R
2
R
3
tal
que L(1, 0) = w
1
y L(0, 1) = w
2
, donde w
1
y w
2
se denen como antes.
Entonces L es justo la transformacion T que acabamos de denir. En efecto,
al ser L una tranformacion lineal, lo que L le hace a la combinacion lineal
x(1, 0) + y(0, 1) de la base es cambiar (1, 0) por w
1
y (0, 1) por w
2
. En
efecto,
L(x, y) = L(x(1, 0) +y(0, 1)) = xL(1, 0) +yL(0, 1) = xw
1
+yw
2
= T(x, y).
Por tanto, L = T. Por esta razon hemos indicado que el comportamiento
de una transformacion lineal en los elementos de una base de su dominio, la
determina completamente.
Terminamos la presente seccion, indicando que el Teorema 4.7 se uti-
lizara con bastante frecuencia en el presente captulo. Hay quienes consideran
que el Teorema 4.7 es uno de extension y unicidad, pues se puede enunciar
como sigue:
(*) toda funcion f : W denida en los elementos de una base del
espacio vectorial V, dimensionalmente nito, se puede extender de ma-
nera unica a una transformacion lineal T : V W.
El que, en el enunciado anterior, T sea una extension de f, signica que
la funcion T restringida a es igual a la funcion f. En smbolos, T
|
= f.
Notemos que, tanto en la formulacion de (*) como en la enunciada en el
Teorema 4.7, no estamos suponiendo nada sobre la dimension de W. Tampoco
estamos suponiendo que los elementos w
1
, w
2
, . . . , w
n
constituyen una base
4.5. N

UCLEO E IMAGEN DE UNA TRANSFORMACI

ON LINEAL 173
para W, ni que sean distintos. Simplemente tomamos una base nita de V,
un conjunto en W con a lo mas la cantidad de elementos de dicha base, y
luego construimos la transformacion lineal. En su defecto, empezamos con
una base nita de V y una funcion f de en W, y luego la extendemos a
una transformacion lineal de V en W.
Regresando al tema de la preservaci on de la independencia lineal bajo
transformaciones lineales, mas adelante veremos una situacion especial en
donde s se preserva la independencia lineal. De momento recordemos que,
en general, las transformaciones lineales no preservan la independencia lineal,
pues elementos diferentes de cero pueden ir a dar al cero.
4.5. N ucleo e Imagen de una Transformacion
Lineal
4.5.1. Propiedades Fundamentales
En la Seccion 3.10, estudiamos el n ucleo y la imagen de una matriz. Aho-
ra estudiaremos dichos conceptos, desde el punto de vista de las transforma-
ciones lineales. Como veremos, estos seran utiles para obtener propiedades
de las transformaciones lineales.
Denicion 4.8. Sea T : V W una transformacion lineal. Los conjuntos
Nuc(T) = v V : T(v) = 0
W
e Im(T) = T(v) W : v V
se llaman el n ucleo y la imagen de T, respectivamente.
Si T : V W es una transformacion lineal, entonces Nuc(T) = T
1
(0
W
).
Ademas
Im(T) = T(V ) = w W : existe v V tal que T(v) = w.
Algunos autores preeren llamarle espacio nulo o kernel a lo que denimos
como n ucleo de una transformacion lineal. Notemos que, de acuerdo con la
Denicion 4.8, el n ucleo de T es un subconjunto de V, mientras que la ima-
gen de T es un subconjunto de W. Mas a un, dichos conjuntos son en realidad
subespacios de los espacios correspondientes, como muestra el siguiente re-
sultado.
174 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Teorema 4.9. Si T : V W es una transformacion lineal, entonces el
n ucleo de T es un subespacio de V y la imagen de T es un subespacio de W.
Demostracion. Para ver que Nuc(T) es un subespacio de V, notemos pri-
mero que dicho conjunto es no vaco. En efecto, por la propiedad 1) del
Teorema 4.5, T(0
V
) = 0
W
, as que 0
V
Nuc(T). Ahora supongamos que
u, v Nuc(T) y que F. Entonces, por la propiedad 3) del Teorema 4.5,
T(u +v) = T(u) +T(v) = 0
W
+ 0
W
= 0
W
.
Luego u +v Nuc(T) y, por el Teorema 2.13, Nuc(T) es un subespacio de
V.
Ahora probaremos que Im(T) es un subespacio de W. Notemos que
Im(T) ,= , pues 0
W
= T(0
V
) Im(T). Sean T(u), T(v) Im(T) y F.
Entonces u, v V, por lo que u +v V. Luego
T(u) + T(v) = T(u +v) Im(T)
y, aplicando de nuevo el Teorema 2.13, Im(T) es un subespacio de W.
Como el n ucleo y la imagen de una transformacion lineal son subespacios,
podemos considerar sus dimensiones. Dichos cardinales son importantes y
reciben incluso nombres especiales.
Denicion 4.10. Sea T : V W una transformacion lineal. Entonces
n(T) = dim(Nuc(T)) y r(T) = dim(Im(T))
se llaman la nulidad y el rango de T, respectivamente.
Como es de esperar, las nociones de n ucleo, nulidad, imagen y rango
coinciden, entre una matriz y su transformacion lineal asociada.
Teorema 4.11. Supongamos que A M
mn
(F). Si T
A
: F
n
F
m
es la
transformacion lineal asociada de la matriz A, entonces
Nuc(T
A
) = Nuc(A) Im(T
A
) = Im(A) n(T
A
) = n(A) y r(T
A
) = r(A).
4.5. N

UCLEO E IMAGEN DE UNA TRANSFORMACI

ON LINEAL 175
Demostracion. Notemos que
Nuc(T
A
) = v F
n
: T
A
(v) = 0
m1
= v F
n
: Av = 0
m1
= Nuc(A).
Ademas
Im(T
A
) = w F
m
: existe v F
n
tal que T
A
(v) = w
= w F
m
: existe v F
n
tal que Av = w = Im(A).
Luego
n(T
A
) = dim(Nuc(T
A
)) = dim(Nuc(A)) = n(A)
y
r(T
A
) = dim(Im(T
A
)) = dim(Im(A)) = r(A).
Ahora bien, como por lo general trabajaremos con espacios vectoriales di-
mensionalmente nitos, la nulidad y el rango seran n umeros naturales. Para
espacios vectoriales dimensionalmente innitos, aunque esto sea matematica-
mente incorrecto, diremos simplemente que la nulidad y el rango toman el
valor innito.
Antes de presentar otras propiedades del n ucleo, la imagen, el rango y
la nulidad de una transformacion lineal, conviene calcularlos para algunos
casos en particular. Por ejemplo, consideremos la transformacion derivada
D: C
1
(R) C
0
(R). El n ucleo de D es el de las funciones que tienen derivada
igual a cero, es decir el de las funciones constantes. Dicho espacio esta gene-
rado por la funcion constante uno, por lo que n(D) = 1.
Consideremos ahora la transformacion lineal T : R
3
R
3
dada por
T(x, y, z) = (0, x, y).
Entonces
Nuc(T) = (x, y, z) R
2
: T(x, y, z) = (0, 0, 0)
= (x, y, z) R
2
: (0, x, y) = (0, 0, 0)
= (x, y, z) R
3
: x = y = 0 = 0 0 R.
La condicion Nuc(T) = 0 0 R, indica que los elementos del n ucleo
de T son ternas ordenadas en las que sus primeras dos coordenadas toman
176 CAP

ITULO 4. TRANSFORMACIONES LINEALES


el valor cero y, la tercera, toma cualquier valor real. Por tanto Nuc(T) =
(0, 0, 1)). Ademas el conjunto (0, 0, 1) es linealmente independiente, por
lo que es una base para Nuc(T). Luego n(T) = 1. Notemos ahora que
Im(T) = T(x, y, z): (x, y, z) R
3
= (0, x, y): x, y R = 0 R R.
La condicion Im(T) = 0 R R, indica que los elementos de la ima-
gen de T son ternas ordenadas en las que su primera coordenada toma el
valor cero y las otras dos toman cualquier valor real. Por tanto Im(T) =
(0, 1, 0), (0, 0, 1)). Ademas el conjunto (0, 1, 0), (0, 0, 1) es linealmente in-
dependiente, por lo que es una base para Im(T). Luego r(T) = 2. Notemos
que r(T) + n(T) = 2 + 1 = 3 = dim(R
3
). Mas adelante, en el Teorema 4.21,
veremos que la igualdad anterior es cierta siempre que tengamos una trans-
formacion lineal denida entre dos espacios vectoriales cuyo dominio es de
dimension nita.
4.5.2. Transformaciones Lineales Inyectivas
En la presente subseccion mostraremos algunas propiedades que poseen
las transformaciones lineales inyectivas. Para ilustrar la primera de ellas,
consideremos la transformacion lineal T : R
2
R
2
dada por
T(x, y) = (3x +y, x 2y).
Entonces el n ucleo de T es el espacio de las soluciones del sistema homogeneo:
3x +y = 0
x 2y = 0
Multiplicando la primera ecuacion de dicho sistema por 2, obtenemos 6x +
2y = 0. Sumando dicha ecuacion con la segunda del sistema, resulta 7x = 0.
Luego x = 0. En consecuencia y = 3x = 3(0) = 0. Esto signica que
Nuc(T) = (0, 0), de donde n(T) = 0. Notemos que si (x
1
, y
1
), (x
2
, y
2
) R
2
son tales que T(x
1
, y
1
) = T(x
2
, y
2
), entonces
(3x
1
+y
1
, x
1
2y
1
) = (3x
2
+y
2
, x
2
2y
2
).
Luego 3x
1
+ y
1
= 3x
2
+ y
2
y x
1
2y
1
= x
2
2y
2
. Multiplicando la segunda
ecuacion por 3 obtenemos que 3x
1
+ 6y
1
= 3x
2
+ 6y
2
. Sumando esto a
la primera ecuacion, resulta que 7y
1
= 7y
2
. Luego y
1
= y
2
. De aqu se sigue
4.5. N

UCLEO E IMAGEN DE UNA TRANSFORMACI

ON LINEAL 177
que x
1
= x
2
. Luego (x
1
, y
1
) = (x
2
, y
2
) y, como consecuencia de esto, T es
inyectiva.
La transformacion lineal T que acabamos de denir es inyectiva y su
n ucleo es igual al vector cero. Por sorprendente que parezca, esto es un hecho
que satisfacen todas las transformaciones lineales inyectivas. Mas a un, es un
hecho que caracteriza a las transformaciones lineales inyectivas, como vemos
en el siguiente teorema.
Teorema 4.12. Una transformacion lineal T : V W es inyectiva si y solo
si Nuc(T) = 0
V
.
Demostracion. Supongamos primero que T es inyectiva y tomemos u
Nuc(T). Como u y 0
V
son dos elementos de V tales que T(u) = T(0
V
) = 0
W
y T es inyectiva, tenemos que u = 0
V
. Esto muestra que Nuc(T) = 0
V
.
Supongamos ahora que Nuc(T) = 0
V
. Tomemos dos elementos v, w V
tales que T(v) = T(w). Entonces T(v w) = T(v) T(w) = 0
W
, Por lo que
v w Nuc(T). Luego v w = 0
V
y, de esta manera, v = w. Esto prueba
que T es inyectiva.
Consideremos ahora una matriz A M
nn
(F). Sea T
A
: F
n
F
n
la
transformacion lineal asociada de A. Por el Teorema 3.48, sabemos que
A es invertible si y solo si n(A) = 0. Ahora bien, por el Teorema 4.11,
n(A) = n(T
A
) por lo que n(A) = 0 si y solo si n(T
A
) = 0. Como n(T
A
) =
dim(Nuc(T
A
)), tenemos que n(T
A
) = 0 si y solo si Nuc(T
A
) = 0
n1
. Apli-
cando ahora el Teorema 4.12, tenemos que Nuc(T
A
) = 0
n1
si y solo si T
A
es inyectiva. Tenemos, por tanto, el siguiente resultado.
Teorema 4.13. Sean A M
nn
(F) y T
A
: F
n
F
n
la transformacion lineal
asociada de A. Entonces A es invertible si y solo si la funcion T
A
es inyectiva.
Mas adelante, en el Teorema 4.58, daremos una generalizacion del teore-
ma anterior. Regresemos ahora al problema de la preservaci on de la indepen-
dencia lineal bajo transformaciones lineales. En el siguiente teorema vemos
que las transformaciones lineales inyectivas son las unicas que preservan la
independencia lineal.
Teorema 4.14. Las transformaciones lineales inyectivas son las unicas que
preservan la independencia lineal.
178 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Demostracion. Supongamos primero que T : V W es una transforma-
cion lineal inyectiva y que S V es linealmente independiente. Para probar
que T(S) W es linealmente independiente, consideremos un subconjun-
to nito R de T(S). Entonces existen vectores v
1
, v
2
, . . . , v
n
S tales que
R = T(v
1
), T(v
2
), . . . , T(v
n
). Debemos probar que R es linealmente inde-
pendiente, as que tomemos escalares
1
,
2
, . . . ,
n
F tales que

1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
) = 0
W
.
Como T es lineal tenemos que T(
1
v
1
+
2
v
2
+ +
n
v
n
) = 0
W
. Entonces,
por la parte 1) del Teorema 4.5, 0
V
y
1
v
1
+
2
v
2
+ +
n
v
n
son dos
elementos de V cuya imagen bajo T es 0
W
. En vista de que T es inyectiva,
sucede entonces que

1
v
1
+
2
v
2
+ +
n
v
n
= 0
V
.
Luego
1
=
2
= =
n
= 0
F
, pues el conjunto v
1
, v
2
, . . . , v
n
es lineal-
mente independiente, al ser un subconjunto nito del conjunto linealmente
independiente S. Esto muestra que R es linealmente independiente y, como
consecuencia de esto, T(S) tambien es linealmente independiente.
Ahora supongamos que T : V W es una transformacion lineal que
preserva la independencia lineal, es decir, supongamos que si tenemos un
subconjunto S de V que es linealmente independiente, sucede que T(S) es
linealmente independiente. Para ver que T es inyectiva basta con hacer ver,
de acuerdo con el Teorema 4.12, que Nuc(T) = 0
V
. Sean v Nuc(T) y
una base de Nuc(T). Entonces v ), por lo que v es una combinacion
lineal de un subconjunto nito S = v
1
, v
2
, . . . , v
n
de . Entonces existen
escalares
1
,
2
, . . . ,
n
F tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
. (4.5.1)
Luego, aplicando T a ambos miembros de la ecuacion anterior, resulta que
0
W
= T(v) =
1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
). (4.5.2)
Ahora bien, como es linealmente independiente y S es un subconjunto
de , tenemos que S es linealmente independiente. Entonces, por hipotesis,
T(S) = T(v
1
), T(v
2
), . . . , T(v
n
) es linealmente independiente. Luego, de
la ecuacion (4.5.2), se sigue que
1
=
2
= =
n
= 0
F
. Sustituyendo
dichos valores en la ecuacion (4.5.1), tenemos que v = 0
V
. Esto prueba que
Nuc(T) = 0
V
.
4.5. N

UCLEO E IMAGEN DE UNA TRANSFORMACI

ON LINEAL 179
Supongamos que la transformacion lineal T : V W es inyectiva. En-
tonces, como vimos en el teorema anterior, T preserva la independencia lineal.
Por tanto, si consideramos un subconjunto nito S = v
1
, v
2
, . . . , v
n
de V
que sea linealmente independiente, resulta que el conjunto nito
T(S) = T(v
1
), T(v
2
), . . . , T(v
n
)
tambien es linealmente independiente. Ahora bien, como los elementos de
un conjunto linealmente independiente son diferentes entre s, dos a dos,
los elementos de T(S) son diferentes. Por tanto S y T(S) tienen la misma
cantidad de elementos. Lo anterior es importante pues, en general, si f : A
B es una funcion y C es un subconjunto de A con m elementos entonces f(A),
la imagen de A bajo f, tiene a lo mas m elementos. Como consecuencia del
teorema anterior, la imagen, bajo una transformacion lineal inyectiva, de
un subconjunto nito S y linealmente independiente de su dominio, es un
subconjunto nito, linealmente independiente de su contradominio y con la
misma cantidad de elementos de S.
En el siguiente resultado, mostramos que las transformaciones lineales
mandan subespacios del dominio en subespacios del contradominio.
Teorema 4.15. Supongamos que T : V W es una transformacion lineal.
Si S V es un subespacio de V, entonces T(S) es un subespacio de W.
Demostracion. Supongamos primero que S es un subespacio de V. En-
tonces S ,= , por lo que T(S) ,= . Tomemos w
1
, w
2
T(S) y F.
Entonces existen v
1
, v
2
S tales que T(v
1
) = w
1
y T(v
2
) = w
2
. Como S
es un subespacio de V, por el Teorema 2.13, v
1
+ v
2
es un elemento de S.
Ademas
T(v
1
+v
2
) = T(v
1
) +T(v
2
) = w
1
+w
2
.
Esto muestra que w
1
+w
2
T(S). Luego, por el Teorema 2.13, T(S) es un
subespacio de W.
Supongamos ahora que T : V W es lineal y que S V es tal que
T(S) es un subespacio de W. Si T es inyectiva, entonces S es un subespacio
de V. En efecto, como T(S) es un subespacio de W, tenemos que T(S) ,= ,
por lo que S ,= . Tomemos v
1
, v
2
S y F. Entonces T(v
1
), T(v
2
)
T(S) y, como T(S) es un subespacio de W, por el Teorema 2.13 resulta que
180 CAP

ITULO 4. TRANSFORMACIONES LINEALES


T(v
1
)+T(v
2
) T(S). Entonces existe v S tal que T(v
1
)+T(v
2
) = T(v).
Como
T(v) = T(v
1
) +T(v
2
) = T(v
1
) + T(v
2
) = T(v
1
+v
2
)
y T es inyectiva, sucede que v = v
1
+ v
2
. Entonces v
1
+ v
2
S. Luego,
por el Teorema 2.13, S es un subespacio de V. Hemos probado el siguiente
resultado.
Teorema 4.16. Supongamos que T : V W es una transformacion lineal
inyectiva. Si S V es tal que T(S) es un subespacio de W, entonces S es
un subespacio de V.
4.5.3. Transformaciones Lineales Suprayectivas
Ahora mostraremos una serie de propiedades sobre la imagen de una
transformacion lineal. Eventualmente, dichos resultados involucraran a trans-
formaciones lineales suprayectivas. Empezamos con el siguiente.
Teorema 4.17. Supongamos que T : V W es una transformacion lineal.
Si S V genera a V, entonces la imagen de T esta generada por T(S), es
decir, Im(T) = T(S)).
Demostracion. Supongamos que w Im(T). Entonces existe v V tal
que w = T(v). Como S) = V, tenemos que v es una combinaci on lineal
de un subconjunto nito v
1
, v
2
, . . . , v
n
de S. Entonces existen escalares

1
,
2
, . . . ,
n
tales que v =
1
v
1
+
2
v
2
+ +
n
v
n
. Luego
w = T(v) =
1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
).
Lo anterior muestra que w es una combinacion lineal del subconjunto ni-
to T(v
1
), T(v
2
), . . . , T(v
n
) de T(S). Luego w T(S)). Esto prueba que
Im(T) T(S)).
Para probar la otra contencion, tomemos ahora un elemento z T(S)).
Entonces z es una combinaci on lineal de alg un subconjunto nito R de
T(S). Supongamos que u
1
, u
2
, . . . , u
m
son elementos de V tales que R =
T(u
1
), T(u
2
), . . . , T(u
m
). Tomemos escalares
1
,
2
, . . . ,
m
tales que
z =
1
T(u
1
) +
2
T(u
2
) + +
m
T(u
m
).
Para ver que z Im(T), basta con denir v =
1
u
1
+
2
u
2
+ +
m
u
m
, y
hacer notar que v es un elemento de V tal que T(v) = z.
4.5. N

UCLEO E IMAGEN DE UNA TRANSFORMACI

ON LINEAL 181
Corolario 4.18. Supongamos que T : V W es una transformacion lineal
y que V es dimensionalmente nito. Si = v
1
, v
2
, . . . , v
n
es una base para
V, entonces
Im(T) = T(v
1
), T(v
2
), . . . , T(v
n
)).
Demostracion. Si es una base para V, entonces en particular genera a V.
Luego, por el teorema anterior Im(T) = T()) = T(v
1
), T(v
2
), . . . , T(v
n
)).
Esto termina la prueba.
El corolario anterior nos dice que si conocemos una base para el dominio
de una transformacion lineal T, el cual suponemos dimensionalmente nito,
entonces al tomar las imagenes de los elementos de dicha base, obtenemos
un conjunto que genera a la imagen de T. De acuerdo con el Teorema 2.43, a
partir de este nuevo conjunto, es posible obtener una base para la imagen de
T, pensando que el contradominio de T tambien es dimensionalmente nito.
Si en el Teorema 4.17 suponemos que T es suprayectiva, entonces Im(T) =
W. Por tanto, la imagen bajo T de cualquier conjunto que genere a V, es
un conjunto que genera a W. En otras palabras, las transformaciones linea-
les suprayectivas preservan la propiedad de generar al total. En el siguien-
te teorema probamos que solo estas transformaciones lineales poseen dicha
propiedad.
Teorema 4.19. Supongamos que T : V W es una transformacion lineal.
Entonces T es suprayectiva si y solo si la imagen bajo T de cualquier conjunto
que genere a V, es un conjunto que genera a W.
Demostracion. Supongamos que la imagen bajo T de cualquier conjunto
que genere a V, es un conjunto que genera a W. Como V genera a V mismo,
sucede entonces que T(V ) genera a W. Por tanto, si tomamos un elemento
w W, resulta que w T(V )). Luego w es una combinacion lineal de
alg un subconjunto nito R de T(V ). Supongamos que u
1
, u
2
, . . . , u
m
son ele-
mentos de V tales que R = T(u
1
), T(u
2
), . . . , T(u
m
). Tomemos escalares

1
,
2
, . . . ,
m
tales que
w =
1
T(u
1
) +
2
T(u
2
) + +
m
T(u
m
)
y denamos v =
1
u
1
+
2
u
2
+ +
m
u
m
. Entonces v es un elemento de V
tal que T(v) = w. Luego T es suprayectiva. Esto prueba la primera parte del
teorema. La segunda parte se mostro en el parrafo anterior.
182 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Conviene enunciar los teoremas 4.14 y 4.19 en la forma que a continuaci on
indicamos. Notemos que, como consecuencia de dichos resultados, las trans-
formaciones lineales mandan bases en bases, es decir, preservan la propiedad
de ser base.
Teorema 4.20. Supongamos que T : V W es una transformacion lineal.
Entonces:
1) T es inyectiva si y solo si, para cada subconjunto S de V que sea lineal-
mente independiente, resulta que T(S) es linealmente independiente en
W;
2) T es suprayectiva si y solo si, para cada subconjunto S de V que genera
a V, resulta que T(S) genera a W;
3) T es biyectiva si y solo si, para cada base de V, resulta que T() es
una base de W.
Demostracion. La parte 1) es el Teorema 4.14, solo que escrito de otra
forma. La parte 2) es justo el Teorema 4.17. Falta, por tanto, probar 3).
Notemos que si es una base de V, entonces es un subconjunto de V
linealmente independiente que genera a V. Luego, por 1) y 2), T() es un
subconjunto de W que es linealmente independiente y lo genera. Luego, T()
es una base de W. Esto prueba la primera parte de 3).
Para mostrar la segunda parte de 3), supongamos que T respeta la pro-
piedad de ser una base del total. Para ver que T es inyectiva, supongamos
que S es un subconjunto de V que es linealmente independiente. Entonces,
por los teoremas 2.51 y 2.55, podemos extender S a una base de V. Luego,
por hipotesis, T() es una base de W. En particular T() es linealmente
independiente. Ahora bien T(S) T() y los subconjuntos de conjuntos
linealmente independientes son linealmente independientes. Luego T(S) es
linealmente independiente. Entonces, por 1), T es inyectiva.
Ahora mostraremos que T es suprayectiva. Para esto supongamos ahora
que S es un subconjunto de V que lo genera. Entonces, por el Teorema
2.57, existe un subconjunto S
0
de S que es una base para V. Luego, por
hipotesis, T(S
0
) es una base de W. En particular, T(S
0
) genera a W. Ahora
bien, T(S
0
) T(S), por lo que W = T(S
0
)) T(S)). Esto signica que
T(S) genera a W. Luego, por 2), T es suprayectiva.
4.5. N

UCLEO E IMAGEN DE UNA TRANSFORMACI

ON LINEAL 183
Supongamos que T : V W es una transformacion lineal que preserva
bases. Esto es, supongamos que si es una base de V, entonces T() es una
base de W. Como hemos visto en la prueba del teorema anterior, la funcion T
es suprayectiva. Notemos que para probar esto, utilizamos los teoremas 2.55
y 2.57, que involucran el Principio de Maximalidad. Ahora bien, debemos
utilizar estos teoremas, pues estamos trabajando con espacios vectoriales V
y W, que podran ser dimensionalmente innitos. Si suponemos que V y
W son dimensionalmente nitos y que T preserva bases, entonces podemos
demostrar que T es suprayectiva sin utilizar el Principio de Maximalidad.
Para esto debemos utilizar, en su lugar, los teoremas 2.50 y 2.63.
4.5.4. Balance Entre el Rango y la Nulidad
El siguiente resultado relaciona el rango y la nulidad de una transforma-
cion lineal, con la dimension de su dominio, cuando este es nito. Como el
teorema lo indica, mientras mas grande es la nulidad, menor es el rango. En
otras palabras, mientras mas vectores van a dar al cero, menor es el rango.
Visto de otra manera, el mismo teorema dice que, mientras mas grande sea
el rango, menor es la nulidad. Por tanto, existe un balance entre el rango y
la nulidad de una transformacion lineal.
Teorema 4.21. Si T : V W es una transformacion lineal y V es dimen-
sionalmente nito, entonces
dim(V ) = r(T) +n(T).
Demostracion. Supongamos que n = dim(V ). Como V es dimensional-
mente nito y Nuc(T) es un subespacio de V, resulta que Nuc(T) tambien
es dimensionalmente nito. Entonces podemos considerar una base nita
R = v
1
, v
2
, . . . , v
k
de Nuc(T). Como el conjunto R es linealmente indepen-
diente y k n, por el Teorema 2.63, podemos extender R a una base de
V. Entonces existe un subconjunto S = v
k+1
, v
k+2
, . . . , v
n
de V Nuc(T)
tal que = R S.
Antes de seguir con la demostracion, notemos que no estamos suponiendo
que W es dimensionalmente nito. Por tanto, en un principio podra suceder
que el subespacio Im(T) de W es dimensionalmente innito. Sin embargo, co-
mo vamos a demostrarlo, Im(T) es dimensionalmente nito y su dimension es
184 CAP

ITULO 4. TRANSFORMACIONES LINEALES


nk. Para ver esto, notemos que, como el conjunto S = v
k+1
, v
k+2
, . . . , v
n

tiene justo n k elementos y T es una funcion, sucede que


T(S) = T(v
k+1
), T(v
k+2
), . . . , T(v
n
)
es un subconjunto de Im(T) con a lo mas n k elementos. Mostraremos
ahora que T(S) es, de hecho, una base de Im(T). Entonces T(S) sera lineal-
mente independiente y, por consiguiente, T(S) tendra la misma cantidad de
elementos que S, es decir, T(S) tendra justo n k elementos.
Para ver que T(S) genera a Im(T) notemos que, como genera a V, por
el Teorema 4.17, Im(T) = T()). Ahora bien, como R Nuc(T), tenemos
que
T() = T(R S) = T(R) T(S) = 0
V
T(S).
Luego, de acuerdo al Teorema 2.39,
Im(T) = T()) = 0
V
T(S)) = T(S)).
Esto prueba que T(S) genera a V. Para ver que dicho conjunto es linealmente
independiente, tomemos escalares
k+1

k+2
, . . . ,
n
tales que

k+1
T(v
k+1
) +
k+1
T(v
k+2
) + +
n
T(v
n
) = 0
W
.
Como T es una transformacion lineal, tenemos que
T(
k+1
v
k+1
+
k+2
v
k+2
+ +
n
v
n
) = 0
W
.
Luego
k+1
v
k+1
+
k+2
v
k+2
+ +
n
v
n
Nuc(T) y, como R es una base de
Nuc(T), existen escalares
1
,
2
, . . . ,
k
tales que

k+1
v
k+1
+
k+2
v
k+2
+ +
n
v
n
=
1
v
1
+
2
v
2
+ +
k
v
k
.
Por tanto

1
v
1
+
2
v
2
+ +
k
v
k
+(
k+1
)v
k+1
+(
k+2
)v
k+2
+ +(
n
)v
n
= 0
V
.
Ahora bien, como es linealmente independiente, de la ecuacion de arriba
se sigue que
1
=
2
= =
k
=
k+1
=
k+2
= =
n
= 0
F
. Esto
prueba que T(S) es linealmente independiente. Por tanto, T(S) es una base
para Im(T). Luego
r(T) = dim(Im(T)) = n k = dim(V ) dim(Nuc(T)) = dim(V ) n(T).
Esto termina la prueba del teorema.
4.6. EJERCICIOS 185
Como una consecuencia del resultado anterior, tenemos el Teorema 3.60,
que enunciamos y probamos a continuaci on.
Teorema 4.22. Si A M
mn
(F), entonces r(A) +n(A) = n.
Demostracion. Consideremos la transformacion lineal T
A
: F
n
F
m
aso-
ciada de A. Aplicando los teoremas 4.11 y 4.21, resulta que
n = dim(F
n
) = r(T
A
) +n(T
A
) = r(A) +n(A).
4.6. Ejercicios
1. Supongamos que T : V W es una funcion entre los espacios vec-
toriales V y W, ambos sobre el campo F. Demuestra que T es una
transformacion lineal si y solo si T(u +v) = T(u) +T(v), para cada
u, v V y cada F.
2. Demuestra que los operadores lineales sobre V que son homotecias, con
parametro no nulo, son transformaciones lineales biyectivas.
3. Muestra que la funcion T : R
3
R
3
denida para (x, y, z) R
3
como
T(x, y, z) = (2x y +z, x +y, 3x +y +z)
es una transformacion lineal biyectiva.
4. Supongamos que V y W son espacios vectoriales dimensionalmente
nitos y sobre el campo F. Consideremos una transformacion lineal
T : V W. Muestra que
a) si dim(V ) > dim(W), entonces T no es inyectiva;
b) si dim(V ) < dim(W), entonces T no es suprayectiva.
5. Dar un ejemplo de una transformacion lineal T : R
2
R
2
tal que
Nuc(T) = Im(T).
6. Consideremos la funcion T : M
nn
(F) M
nn
(F) denida para A
M
nn
(F) como T(A) = AA
t
. Muestra que T es una transformacion
lineal y calcula el n ucleo, la nulidad y el rango de T.
186 CAP

ITULO 4. TRANSFORMACIONES LINEALES


7. Existe una transformacion lineal T : R
3
R
2
tal que T(1, 1, 1) =
(1, 0) y T(1, 1, 1) = (0, 1)? Justica tu respuesta.
8. Sea F un subcampo de los n umeros complejos y sea T : F
3
F
3
la
funcion denida en (x
1
, x
2
, x
3
) F
3
como
T(x
1
, x
2
, x
3
) = (x
1
x
2
+ 2x
3
, 2x
1
+x
2
, x
1
2x
2
+ 2x
3
).
Prueba que T es un operador lineal. Si (a, b, c) F
3
a) Cuales son las condiciones para a, b y c de modo que (a, b, c)
Im(T)? Cual es el rango de T?
b) Cuales son las condiciones para a, b y c de modo que (a, b, c)
Nuc(T)? Cual es la nulidad de T?
4.7. Isomorsmos
4.7.1. Denicion y Ejemplos
En la presente seccion estudiaremos las transformaciones lineales mas
ideales que se pueden denir entre dos espacios vectoriales V y W, ambos
considerados sobre el mismo campo de escalares F.
Denicion 4.23. Si T : V W es una transformacion lineal biyectiva,
entonces diremos que T es un isomorsmo entre los espacios vectoriales V
y W. Diremos, ademas, que V y W son isomorfos si existe un isomorsmo
de V a W.
Recordemos que, en la denicion anterior, tanto V como W son espacios
vectoriales sobre el mismo campo F. Esto signica que dos espacios vecto-
riales denidos sobre campos distintos no pueden ser isomorfos, as y uno de
los campos sea un subcampo del otro, o bien si como conjuntos los espacios
vectoriales considerados son los mismos. Por ejemplo C, como espacio vecto-
rial real, no es isomorfo a C como espacio vectorial complejo. Por otra parte,
el hecho de tener dos espacios vectoriales V y W denidos sobre el mismo
campo F, no signica que V y W son isomorfos. Un problema importante del

Algebra Lineal es determinar precisamente si dos espacios vectoriales dados


son isomorfos.
4.7. ISOMORFISMOS 187
Ahora bien, por que es importante saber si dos espacios vectoriales dados
son isomorfos? Para responder a esta pregunta quiza convenga recorder que
la palabra isomorsmo viene de las races griegas iso, que signica igual
y morfe, que signica forma. Dicha palabra captura la propiedad de que
una transformacion lineal biyectiva entre dos espacios vectoriales identica
a estos espacios, tanto como conjuntos (en vista de que la transformacion
es biyectiva), como con respecto a sus estructuras de espacios vectoriales,
pues identica la forma de sumar en un espacio con la forma de sumar en
el otro, as como la forma de multiplicar por escalares. En cierto sentido, lo
anterior nos dice que dos espacios isomorfos son los mismos, solo que estan
presentados de diferente manera o con un nombre distinto.
Podemos formalizar lo anterior como sigue: utilizaremos la notacion

=
para indicar que los espacios que aparezcan separados por dicho smbolo son
isomorfos. As V

= W signica que V y W son isomorfos. Es natural que

=
es una relacion en el conjunto de los espacios vectoriales denidos sobre el
mismo campo F. Mas a un,

= es una relacion de equivalencia. Para ver que

=
es reexiva, basta con observar que la identidad es una transformacion lineal
biyectiva. Por tanto V

= V, para cada espacio vectorial V sobre el campo F.
Si suponemos ahora que U

= V y V

= W entonces, por el Teorema 4.4 y
el hecho de que la composicion de funciones biyectivas es biyectiva, resulta
que U

= W. Entonces la relacion

= es transitiva. Falta mostrar que

= es
simetrica. Esto es una consecuencia inmediata del siguiente teorema.
Teorema 4.24. Si T : V W es un isomorsmo, entonces la funcion in-
versa T
1
: W V tambien es un isomorsmo.
Demostracion. Sabemos que la funcion inversa T
1
de una funcion biyec-
tiva T, es una funcion biyectiva. Para ver que T
1
es lineal, tomemos dos
elementos w
1
, w
2
W y un escalar F. Entonces existen dos vectores
v
1
, v
2
V, unicos, tales que T(v
1
) = w
1
y T(v
2
) = w
2
. Notemos que
v
1
= T
1
(w
1
) y v
2
= T
1
(w
2
). Ademas
w
1
+w
2
= T(v
1
) +T(v
2
) = T(v
1
+v
2
) y w
1
= T(v
1
) = T(v
1
).
Por tanto
T
1
(w
1
+w
2
) = T
1
(T(v
1
+v
2
)) = (T
1
T)(v
1
+v
2
)
= v
1
+v
2
= T
1
(w
1
) +T
1
(w
2
)
188 CAP

ITULO 4. TRANSFORMACIONES LINEALES


y
T
1
(w
1
) = T
1
(T(v
1
)) = (T
1
T)(v
1
) = v
1
= T
1
(w
1
).
Por tanto, T
1
es una transformacion lineal. Esto prueba que T
1
es un
isomorsmo.
Una vez que sabemos que

= es una relacion de equivalencia, podemos
considerar las clases de equivalencia. Como sabemos, la clase de equivalencia
de un espacio dado V, denido sobre el campo F, es la de todos los espacios
vectoriales denidos sobre el campo F que son isomorfos a V. Ahora bien,
estudiar un espacio vectorial dado V, puede resultar complicado. En muchos
casos la complejidad se debe a la forma en como estan denidas las opera-
ciones de suma y multiplicaci on por escalares. Sin embargo, si en la clase de
V podemos encontrar un espacio vectorial W, en donde las operaciones de
suma y multiplicaci on por escalares sean mas sencillas, entonces estudiar el
espacio V se traduce en estudiar el espacio W. Incluso los elementos de V se
podran cambiar por los de W y viceversa. Conviene ilustrar esto ultimo con
un ejemplo. Consideremos la funcion T : M
23
(R) R
6
denida como sigue:
T
_
a b c
d e f
_
= (a, b, c, d, e, f).
Es facil ver que T es un isomorsmo. En vista de lo anterior, cualquier matriz
real de 2 3 se puede pensar como una 6-ada o 6-tuple y viceversa. Notemos
que el ejemplo anterior se puede generalizar para tener as que
M
mn
(F)

= F
mn
. (4.7.1)
Por tanto, cualquier matriz de orden mn con elementos en el campo F, se
puede pensar como una mn-ada y viceversa. Si la situacion lo amerita, en un
contexto podemos cambiar la matriz de mn por la mn-ada y/o viceversa.
Si tenemos una matriz
B =
_
_
_
_
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.

m1

m2

mn
_
_
_
_
_
, (4.7.2)
entonces la mn-ada que corresponde a B es
(
11
,
12
, . . . ,
1n
,
21
,
22
, . . . ,
2n
, . . . ,
m1
,
m2
, . . . ,
mn
). (4.7.3)
4.7. ISOMORFISMOS 189
Notemos que dicha mn-ada se construye a partir de B por bloques de n
elementos. El primer bloque de la mn-ada coresponde al primer renglon de
B, el segundo bloque al segundo renglon y as sucesivamente. Si comenzamos
con una mn-ada de la forma (4.7.3) entonces, siguiendo el proceso inverso,
podemos construir la matriz de mn correspondiente a la mn-ada dada.
Ahora bien, como caso particular de (4.7.1), tenemos que
M
1n
(F)

= F
n

= M
n1
(F). (4.7.4)
Por tanto, cualquier n-ada con coecientes en el campo F, se puede pensar
como un vector columna, el cual es formalmente un elemento de M
n1
(F), o
bien como un vector renglon, el cual es un elemento de M
1n
(F). Dependien-
do de lo que estemos interesados en hacer, podemos realizar dicho cambio.
En el Captulo 3 hicimos esto varias veces, escribiendo los vectores como
vectores columna, o bien como vectores renglon, seg un nos convino. La idea
formal detras de todo esto es la de que los espacios vectoriales M
1n
(F) y
M
n1
(F) son isomorfos.
Consideremos ahora el espacio vectorial P
n
(F) de los polinomios de grado
menor o igual a n, con coecientes en el campo F. Si L: P
n
(F) F
n+1
es
la funcion denida como
L(a
0
+a
1
x +a
2
x
2
+ +a
k
x
k
) = (a
0
, a
1
, . . . , a
k
, 0
F
, 0
F
, . . . , 0
F
),
entonces L es un isomorsmo. Entendemos que, para formar a
L(a
0
+a
1
x +a
2
x
2
+ +a
k
x
k
),
escribimos los coecientes del polinomio, con respecto a su orden y, posterior-
mente, escribimos ceros de ser necesario.

Esto ultimo se hace, por supuesto, si
el grado del polinomio considerado es menor de n. Para ver que L es suprayec-
tiva, consideremos un elemento y = (a
0
, a
1
, . . . , a
n
) F
n+1
y denamos
f(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
.
Entonces L(f(x)) = y. Para ver que L es inyectiva supongamos que
L(a
0
+a
1
x +a
2
x
2
+ +a
k
x
k
) = L(b
0
+b
1
x +b
2
x
2
+ +b
l
x
l
).
190 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Notemos que k y l son menores o iguales a n. Podemos suponer, sin perder
generalidad, que k l. Entonces, como
(a
0
, a
1
, . . . , a
k
, 0
F
, 0
F
, . . . , 0
F
) = (b
0
, b
1
, . . . , b
k
, b
k+1
, . . . , b
l
, 0
F
, 0
F
, . . . , 0
F
),
sucede que a
0
= b
0
, a
1
= b
1
, . . . , a
k
= b
k
y b
k+1
= b
k+2
= = b
l
= 0
F
. Luego
a
0
+a
1
x +a
2
x
2
+ +a
k
x
k
= b
0
+b
1
x +b
2
x
2
+ +b
l
x
l
.
Tenemos entonces que L es biyectiva. Falta probar que L es lineal. Dejamos
esto como ejercicio al lector. Como consecuencia de todo esto tenemos que
P
n
(F)

= F
n+1
. (4.7.5)
Por tanto, podemos pensar que todo polinomio con coecientes en F es una
sucesion nta de elementos de F y viceversa. En realidad lo que acabamos
de hacer nos lleva a la forma real de denir a los polinomios: como sucesiones
innitas de elementos de F, en donde todos los elementos son iguales a 0
F
,
salvo un n umero nito de ellos. La formula (4.7.5) nos esta indicando que
podemos pasar de la manera informal de considerar los polinomios a la ma-
nera formal, sin perder la estructura que deseamos, en este caso la estructura
de espacio vectorial.
4.7.2. V

= F
n
si V Tiene Dimension n
Podemos utilizar el Teorema 4.1 para denir transformaciones lineales
biyectivas. Supongamos que V es un espacio vectorial sobre el campo F que
admite una base nita = v
1
, v
2
, . . . , v
n
. Entonces dim(V ) = n. Ahora
bien, dada v V, por el Teorema 4.1, existen escalares unicos
1
,
2
, . . . ,
n
(los cuales dependen de v, por supuesto) tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Entonces podemos denir una funcion T : V F
n
como
T(v) = (
1
,
2
, . . . ,
n
). (4.7.6)
Notemos que los escalares
1
,
2
, . . . ,
n
se estan colocando siguiendo el or-
den en que enlistamos a los elementos de la base . Esto es importante pues,
si no indicamos que dichos escalares se acomodan siguiendo un determinado
4.7. ISOMORFISMOS 191
orden, entonces tendramos muchas maneras de obtener una n-ada asocia-
da a v y, por tanto, T resultara ser una relacion y no una funcion como
queremos que sea. El hecho de considerar un orden en los elementos de una
base resultara importante para muchos de los resultados que obtendremos
en el presente captulo. La denicion de T es una de las muchas situaciones
que nos encontraremos, en donde se ver a que es necesario considerar bases
ordenadas.
Antes de probar que T es lineal, notemos que T es inyectiva. Para ver
esto supongamos que v y w son elementos de V tales que T(v) = T(w). Sean

1
,
2
, . . . ,
n
F y
1
,
2
, . . . ,
n
F los unicos escalares tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
y w =
1
v
1
+
2
v
2
+ +
n
v
n
.
Entonces T(v) = (
1
,
2
, . . . ,
n
) y T(w) = (
1
,
2
, . . . ,
n
). Como T(v) =
T(w) tenemos que (
1
,
2
, . . . ,
n
) = (
1
,
2
, . . . ,
n
). Luego
1
=
1
,
2
=

2
, . . . ,
n
=
n
, de donde
v =
1
v
1
+
2
v
2
+ +
n
v
n
=
1
v
1
+
2
v
2
+ +
n
v
n
= w.
Esto prueba que T es inyectiva. Notemos tambien que T es suprayectiva. Para
ver esto tomemos (
1
,
2
, . . . ,
n
) F
n
. Entonces, por el hecho de que cada
elemento de V se puede escribir de una sola manera como una combinacion
lineal de todos los elementos de , se sigue que v =
1
v
1
+
2
v
2
+ +
n
v
n
es un elemento de V tal que T(v) = (
1
,
2
, . . . ,
n
). Esto prueba que T es
suprayectiva. Tenemos entonces que T es una funcion biyectiva.
Ahora mostraremos que T es una transformacion lineal. Para esto tome-
mos v, w V y, como antes, los unicos escalares
1
,
2
, . . . ,
n
y
1
,
2
, . . . ,
n
tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
y w =
1
v
1
+
2
v
2
+ +
n
v
n
.
Entonces
1
+
1
,
2
+
2
, . . . ,
n
+
n
son los unicos escalares tales que
v +w = (
1
+
1
)v
1
+ (
2
+
2
)v
2
+ + (
n
+
n
)v
n
.
Por tanto T(v +w) = (
1
+
1
,
2
+
2
, . . . ,
n
+
n
). Ahora bien
T(v +w) = (
1
+
1
,
2
+
2
, . . . ,
n
+
n
)
= (
1
,
2
, . . . ,
n
) + (
1
,
2
, . . . ,
n
)
= T(v) +T(w).
192 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Si ademas tomamos F, entonces
1
,
2
, . . . ,
n
son los unicos escalares
tales que
v = (
1
)v
1
+ (
2
)v
2
+ + (
n
)v
n
.
Luego, T(v) = (
1
,
2
, . . . ,
n
). Notemos que
T(v) = (
1
,
2
, . . . ,
n
) = (
1
,
2
, . . . ,
n
) = T(v).
Con esto probamos que T es una transformacion lineal biyectiva. Es decir, T
es un isomorsmo. A continuaci on escribiremos lo que hemos probado como
un teorema.
Teorema 4.25. Supongamos que V es un espacio vectorial, sobre el campo F,
que admite una base nita = v
1
, v
2
, . . . , v
n
. Entonces la funcion T : V
F
n
denida en (4.7.6) es un isomorsmo.
En otras palabras, si dim(V ) = n entonces V

= F
n
. Por tanto, los elemen-
tos de v se pueden pensar como n-adas. Recordemos que la prueba del teore-
ma anterior, nos dice como pasar de un elemento de V a su n-ada correspon-
diente. Lo que tenemos que hacer es considerar una base = v
1
, v
2
, . . . , v
n

en V. Luego, para determinar la n-ada que corresponde al vector v, debe-


mos primero escribir a v como una combinaci on lineal de los elementos de .
Como sabemos, existen escalares unicos
1
,
2
, . . . ,
n
tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
Entonces, la n-ada correspondiente a v es (
1
,
2
, . . . ,
n
), en donde sus com-
ponentes se escriben siguiendo el orden en que escribimos a los elementos de
la base . As pues, por mas abstracto que parezca el espacio vectorial V,
sus elementos se pueden pensar como n-adas, e incluso manipularlos como
tales. Y como las n-adas se pueden tambien pensar como vectores columna,
los elementos de V tambien se podran pensar como vectores columnas, es
decir, como matrices de n 1. Mas adelante regresaremos a esta situacion.
4.7.3. Propiedades Fundamentales
Si observamos las formulas (4.7.1), (4.7.4) y (4.7.5), resulta que las di-
mensiones de los espacios que se encuentran separados por el smbolo

= son
las mismas. Por ejemplo
dim(M
mn
(F)) = mn = dim(F
mn
)
4.7. ISOMORFISMOS 193
y
dim(P
n
(F)) = n + 1 = dim(F
n+1
).
Tambien, para un espacio vectorial V sobre el campo F y de dimension n,
tenemos que V

= F
n
. Luego dim(V ) = n = dim(F
n
). Conjeturamos entonces
que los isomorsmos preservan la dimension. Esto es cierto y una prueba se
presenta en el siguiente resultado.
Teorema 4.26. Los isomorsmos entre espacios vectoriales dimensional-
mente nitos preservan la dimension.
Demostracion. Supongamos que T : V W es un isomorsmo entre los
espacios vectoriales V y W de dimension nita. Si = v
1
, v
2
, . . . , v
n
es
una base de V, entonces es un conjunto linealmente independiente. Como
T es inyectiva, por el Teorema 4.14, T() = T(v
1
), T(v
2
), . . . , T(v
n
) es un
conjunto linealmente independiente en W. Luego dim(W) n = dim(V ).
Con esto probamos que si T : V W es una transformacion lineal inyectiva
entre los espacios vectoriales V y W, dimensionalmente nitos, entonces la
dimension del contradominio es mayor o igual que la dimension del dominio,
es decir, dim(W) dim(V ). Como la funcion inversa T
1
: W V tam-
bien es una transformacion lineal inyectiva (Teorema 4.24), usando lo que
acabamos de probar, dim(V ) dim(W). Por tanto dim(V ) = dim(W).
El teorema anterior es valido para isomorsmos denidos entre espacios
vectoriales de dimension innita. Incluso su demostracion es muy similar, una
vez que se establece un orden entre los n umeros cardinales. Como consecuen-
cia del teorema anterior, resulta que un espacio vectorial de dimension nita
no es isomorfo a uno de dimension innita. Tambien se sigue que un espacio
vectorial de dimension nita n, no puede ser isomorfo a uno de dimension
nita m si n ,= m.
Supongamos ahora que V y W son espacios vectoriales, denidos sobre
el mismo campo F y de dimension nita. Si dim(V ) = dim(W) sera cierto
que V y W son isomorfos? La respuesta a esta pregunta es armativa y, para
probarlo, necesitamos primero demostrar el siguiente resultado.
Teorema 4.27. Supongamos que V y W son espacios vectoriales sobre el
campo F y de dimension nita. Supongamos ademas que dim(V ) = dim(W).
Entonces las siguientes armaciones son equivalentes, para una transforma-
cion lineal T : V W:
194 CAP

ITULO 4. TRANSFORMACIONES LINEALES


1) T es biyectiva;
2) T es inyectiva;
3) T es suprayectiva;
4) la imagen bajo T de cualquier base en V es una base en W;
5) la imagen bajo T de alguna base en V es una base en W.
Demostracion. Es claro que 1) implica 2). Para ver que 2) implica 3),
supongamos que T es inyectiva y sea = v
1
, v
2
, . . . , v
n
una base para V.
Como es linealmente independiente y T es inyectiva, por el Teorema 4.14,
T() es un subconjunto de W, linealmente independiente y con n elementos.
Como n = dim(V ) = dim(W) sucede, por el Corolario 2.46, que T() es
una base de W. Con esto probamos que T preserva la propiedad de ser base.
Luego, por la propiedad 3) del Teorema 4.20, T es biyectiva. En particular,
T es suprayectiva. Esto prueba que 2) implica 3).
Ahora mostraremos que 3) implica 4). Para esto supongamos que T es
suprayectiva y que = v
1
, v
2
, . . . , v
n
es cualquier base de V. Como
genera a V y T es suprayectiva, por el Teorema 4.19, T() es un subconjunto
de W que genera a W y tiene a lo mas n elementos. Ahora bien, por el
Teorema 2.43, existe un subconjunto S de T() que es una base para W.
Como n = dim(V ) = dim(W) y S es una base para W, resulta que S posee
n elementos. Entonces T() posee al menos n elementos y, como vimos que
posee a lo mas n elementos, sucede que T() tiene exactamente n elementos.
Luego S = T(). Esto prueba que T() es una base de W.
Es obvio que 4) implica 5) es inmediata. Ahora mostraremos que 5) im-
plica 1). Supongamos, por tanto, que existe una base = v
1
, v
2
, . . . , v
n
de
V tal que T() es una base de W. De acuerdo con el Corolario 4.18 y el hecho
de que el conjunto T() genera a W, tenemos que
Im(T) = T(v
1
), T(v
2
), . . . , T(v
n
)) = T()) = W.
Por tanto, T es suprayectiva. Para ver que T es inyectiva, supongamos que
v Nuc(T). Como es una base de V, existen escalares
1
,
2
, . . . ,
n
F
tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
.
4.7. ISOMORFISMOS 195
Luego
0
W
= T(v) =
1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
).
Ahora bien, en vista de que el conjunto T() es linealmente independiente,
de la ecuacion de arriba se sigue que
1
=
2
= =
n
= 0
F
. Por tanto,
v = 0
V
y de aqu, Nuc(T) = 0
V
. Esto implica, por el Teorema 4.12, que T
es inyectiva. Por tanto T es biyectiva.
En general, si T : V W es una transformacion lineal, del hecho de que
la imagen bajo T de alguna base de V sea una base de W, no se sigue que
la imagen bajo T de cualquier base de V es una base de W, incluso si tanto
V como W son de dimension nita. Para ver esto, consideremos la unica
transformacion lineal T : R
3
R
2
tal que T(1, 0, 0) = (1, 0), T(0, 1, 0) =
(0, 1) y T(0, 0, 1) = (0, 1). Entonces T manda la base canonica de R
3
en la
base canonica de R
2
. Consideremos ahora el conjunto = v
1
, v
2
, v
3
, en
donde v
1
= (1, 1, 1), v
2
= (1, 0, 0) y v
3
= (0, 1, 0). Es facil ver que es
linealmente independiente y, como tiene tres elementos, es entonces una base
de R
3
. Para (x, y, z) R
3
tenemos que
T(x, y, z) = T(x(1, 0, 0) +y(0, 1, 0) +z(0, 0, 1))
= xT(1, 0, 0) +yT(0, 1, 0) +zT(0, 0, 1)
= x(1, 0) +y(0, 1) +z(0, 1) = (x, y +z).
Por tanto T(1, 1, 1) = (1, 1 + 1) = (1, 2), T(1, 0, 0) = (1, 0 + 0) = (1, 0) y
T(0, 1, 0) = (0, 1 + 0) = (0, 1). Luego
T() = T(1, 1, 1), T(1, 0, 0), T(0, 1, 0) = (1, 2), (1, 0), (0, 1)
no es una base de R
2
. Por consiguiente, no es cierto que la imagen bajo T de
cualquier base de R
3
es una base de R
2
.
El ejemplo anterior hace ver que la condicion impuesta en el Teorema 4.27,
sobre las dimensiones de los espacios V y W, es esencial. Esto es, mientras
tengamos dos espacios vectoriales dimensionalmente nitos y de la misma
dimension, del hecho de que una transformacion lineal mande alguna base
del dominio en una base del contradominio, se sigue que la transformacion
lineal manda cualquier base del dominio en una base del contradominio.
Consideremos la transformacion lineal T : R
2
R
2
tal que T(1, 0) = (1, 4)
y T(1, 1) = (2, 5). Dicha transformacion lineal existe, pues el conjunto =
(1, 0), (1, 4) es una base de R
2
. Ahora bien, el conjunto = (1, 4), (2, 5)
196 CAP

ITULO 4. TRANSFORMACIONES LINEALES


tambien es una base de R
2
. Por tanto T manda la base en la base y,
como el dominio y el contradominio de T tienen la misma dimension, por el
Teorema 4.27, T es biyectiva y, ademas, la imagen bajo T de cualquier otra
base de su dominio, sera una base de su contradominio.
Como comentamos anteriormente, el Teorema 4.27 es importante para
demostrar el recproco del Teorema 4.26.
Teorema 4.28. Sean V y W dos espacios vectoriales sobre el campo F y
dimensionalmente nitos. Entonces V

= W si y solo si dim(V ) = dim(W).
Demostracion. Supongamos que dim(V ) = dim(W) y consideremos las
bases
= v
1
, v
2
, . . . , v
n
y = w
1
, w
2
, . . . , w
n

de V y W, respectivamente. Por el Teorema 4.7, existe una unica transforma-


cion lineal T : V W tal que T(v
i
) = w
i
, para cada i = 1, 2, . . . , n. Entonces
T() = , por lo que T manda alguna base de V (la base ), en una base
de W (la base ). Luego, por la por la equivalencia entre las armaciones
1) y 5) del Teorema 4.27, T es biyectiva. Entonces T es un isomorsmo. Es-
to muestra la primera parte del teorema. La segunda parte se probo en el
Teorema 4.26.
La demostracion del teorema anterior no solo nos dice que, a partir de
la condicion dim(V ) = dim(W), obtenemos la condicion V

= W. Tambien
nos dice como construir isomorsmos entre V y W. Para construir uno de
ellos, lo que debemos hacer es jar una base en V, una base en W y
luego considerar la unica transformacion lineal que manda la base en la
base . Por la equivalencia de las armaciones 1) y 5) del Teorema 4.27, dicha
transformacion lineal resulta ser un isomorsmo. Ademas, por la equivalencia
entre las armaciones 4 y 5) del mismo Teorema 4.27, la imagen bajo dicha
transformacion lineal de cualquier otra base de V, sera una base de W.
A partir de la siguiente seccion, la forma comentada en el parrafo anterior,
para construir un isomorsmo entre espacios vectoriales, dimensionalmente
nitos y de la misma dimension, sera esencial para demostrar lo que hemos
venido anunciando: que toda transformacion lineal tiene asociada una matriz,
as como ya vimos que toda matriz tiene asociada una transformacion lineal.
4.8. BASES ORDENADAS Y COORDENADAS 197
4.8. Bases Ordenadas y Coordenadas
4.8.1. Deniciones
En la presente seccion, a menos que explcitamente digamos lo contrario,
supondremos que V es un espacio vectorial sobre el campo F, dimensional-
mente nito, y que la dimension de V es n. Recordemos que, por el Teorema
4.25, existe un isomorsmo T entre V y F
n
. Conviene recordar que, para
denir a T, primero jamos una base = v
1
, v
2
, . . . , v
n
en V. Dada v V,
sabemos que existen escalares unicos
1
,
2
, . . . ,
n
tales que
v =
1
v
2
+
2
v
2
+ +
n
v
n
. (4.8.1)
Entonces, ordenando los elementos de de acuerdo a como fueron escritos,
el isomorsmo T se dene de modo que
T(v) = (
1
,
2
, . . . ,
n
). (4.8.2)
En vista de que la denicion de T depende de la base , una mejor notacion
puede ser

. Mas adelante la utilizaremos. De momento vamos a utilizar la


notacion que ya establecimos.
Supongamos que = e
1
, e
2
, . . . , e
n
es la base canonica de F
n
. Recordemos
que, para i 1, 2, . . . , n, el vector e
i
tiene todos sus elementos iguales a
0
F
, salvo el que ocupa la posicion i, en donde su valor es 1
F
. Notemos que T
es la unica transformacion lineal de V en F
n
tal que T(v
i
) = e
i
, para cada
i = 1, 2, . . . , n. En efecto, como
v
1
= 1
F
v
1
+ 0
F
v
2
+ + 0
F
v
n
,
sucede que T(v
1
) = (1
F
, 0
F
, . . . , 0
F
) = e
1
. Ademas
v
2
= 0
F
v
1
+ 1
F
v
2
+ 0
F
v
3
+ + 0
F
v
n
,
as que T(v
2
) = (0
F
, 1
F
, 0
F
, . . . , 0
F
) = e
2
. Procediendo de esta manera vemos
que T(v
i
) = e
i
, para cada i = 1, 2, . . . , n. Entonces T es una transformacion
lineal denida como hicimos en la demostracion del Teorema 4.28.
Como los elementos de estan ordenados, escribir el vector v como en
(4.8.1), es lo mismo que escribirlo como en la forma (4.8.2). Esto nos permite
198 CAP

ITULO 4. TRANSFORMACIONES LINEALES


pensar a cualquier vector en V como un elemento de F
n
, es decir, como una
n-ada. Para darle formalidad a la nocion de base en donde sus elementos
estan ordenados, introducimos la siguiente denicion.
Denicion 4.29. Si W es un espacio vectorial de dimension nita, entonces
una base ordenada de W es una sucesion nita de vectores linealmente
independientes que generan a W.
Recordemos que cuando estamos considerando una sucesion, automatica-
mente estamos estableciendo un orden en sus elementos. En efecto si (a
n
)
n
es una sucesion, entonces a
1
es su primer elemento, a
2
es el segundo, etc. En
una sucesion los elementos se pueden repetir, as que a
1
bien puede coincidir
con a
3
, por ejemplo. Los elementos de una base ordenada no se repiten, en
vista de que la base, como conjunto, es linealmente independiente. Ademas,
por la misma independencia lineal, ning un elemento de una base ordenada
puede ser igual a 0
V
.
La base = v
1
, v
2
, . . . , v
n
de V, que consideramos anteriormente, la
podemos ordenar diciendo que su primer elemento es v
1
, su segundo elemento
es v
2
y as sucesivamente. En general, para espacios dimensionalmente nitos,
podemos decir que la forma en como escribimos los elementos de una base,
determina su orden. De acuerdo con esto, es natural considerar la siguiente
denicion.
Denicion 4.30. Supongamos que = v
1
, v
2
, . . . , v
n
es una base ordenada
del espacio vectorial V. Si v V y
1
,
2
, . . . ,
n
F son los unicos escalares
tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
,
entonces a la n-ada
[v]

= (
1
,
2
, . . . ,
n
)
se le conoce como las coordenadas de v con respecto a la base orde-
nada .
Es costumbre escribir las coordenadas de un vector como vectores colum-
na. Mas adelante resultara claro por que procedemos de esta manera. Por
tanto, las coordenadas de v en la base ordenada (o, lo que es lo mismo, la
4.8. BASES ORDENADAS Y COORDENADAS 199
matriz de coordenadas de v con respecto a ) seran:
[v]

=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
.
Dada i 1, 2, . . . , n, el elemento
i
de [v]

se llama la i-esima coordena-


da de v con respecto a la base ordenada . Notemos que, independientemente
de la forma en que se escriban los elementos de V, las coordenadas de dichos
elementos con respecto a una base de V, son vectores de n 1, en donde
n es el n umero de elementos que tiene la base .
En terminos de las coordenadas de los elementos de V en la base , el
isomorsmo T : V F
n
dado en (4.8.2) queda denido, para v V, como
T(v) = [v]

(utilizando la notacion

, en lugar de T, dicho isomorsmo


queda denido como

(v) = [v]

). Como T es una transformacion lineal si


v, w V y F, entonces
[v +w]

= T(v +w) = T(v) +T(w) = [v]

+ [w]

y
[v]

= T(v) = T(v) = [v]

.
Por tanto, las coordenadas de la suma de v y w en la base ordenada , se
obtienen sumando las coordenadas de v y w en dicha base. A su vez, las
coordenadas de v en la base ordenada , se obtienen multiplicando por
las coordenadas de v en .
Ejemplo 4.31. La Base Canonica de F
n
, Ordenada en Forma Na-
tural. En mas de una ocasion consideraremos, en F
n
, la base canonica =
e
1
, e
2
, . . . , e
n
ordenada en forma natural. Con esto queremos decir que el
primer elemento de la base es e
1
= (1
F
, 0
F
, . . . , 0
F
), su segundo elemento es
e
2
= (0
F
, 1
F
, 0
F
, . . . , 0
F
) y as sucesivamente. Recordemos que, en general, el
vector e
i
posee todos sus elementos iguales a 0
F
, salvo el que ocupa la posicion
i, cuyo valor es 1
F
.
Terminamos la presente subseccion con el siguiente teorema el cual sera util
mas adelante.
200 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Teorema 4.32. Sea una base ordenada de F
n
. Entonces [v]

= v, para
cada v F
n
si y solo si es la base canonica de F
n
, ordenada en forma
natural.
Demostracion. Supongamos primero que = e
1
, e
2
, . . . , e
n
es la base
ordenada de F
n
ordenada en forma natural. Si v = (
1
,
2
, . . . ,
n
) F
n
,
entonces
v =
1
e
1
+
2
e
2
+ +
n
e
n
,
por lo que
[v]

=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
= v.
Esto prueba la primera parte del teorema. Para probar la segunda parte,
supongamos ahora que = v
1
, v
2
, . . . , v
n
es una base ordenada de F
n
tal
que [v]

= v, para cada v F
n
. En particular [v
1
]

= v
1
. Notemos ahora que
v
1
= 1
F
v
1
+ 0
F
v
2
+ + 0
F
v
n
por lo que
v
1
= [v
1
]

=
_
_
_
_
_
1
F
0
F
.
.
.
0
F
_
_
_
_
_
= e
1
.
De manera similar se prueba que v
j
= e
j
, para cada 1 j n. Por tanto
es la base canonica de F
n
, ordenada en forma natural.
4.8.2. Ejemplos
Veamos ahora unos ejemplos. En R
3
los vectores v
1
= (1, 1, 1), v
2
=
(1, 2, 2) y v
3
= (1, 2, 3) son una base de R
3
. La podemos considerar ordenada
si decimos que su primer elemento es v
1
, su segundo es v
2
y el tercero es v
3
.
Pongamos entonces = v
1
, v
2
, v
3
y consideremos al vector v = (1, 1, 0).
Supongamos que = e
1
, e
2
, e
3
es la base canonica de R
3
, ordenada en forma
natural. Entonces, por el Teorema 4.32, [v]

= v. Si consideremos la misma
4.8. BASES ORDENADAS Y COORDENADAS 201
base canonica de R
3
, pero ordenada de otra manera, digamos = e
1
, e
3
, e
2
,
entonces
[v]

=
_
_
1
0
1
_
_
,= v
pues v = 1e
1
+ 0e
3
+ 1e
2
. Como v = 1v
1
+ 1v
2
1v
3
, tenemos que
[v]

=
_
_
1
1
1
_
_
,= v.
De lo anterior debemos notar dos cosas. La primera es que las coordenadas
de un vector en una base, dependen del orden que se establece en dicha base.
Como conjuntos = e
1
, e
2
, e
3
y = e
1
, e
3
, e
2
son los mismos pero,
como estan ordenados de forma distinta, como bases ordenadas no son las
mismas. Entonces [v]

y [v]

no tienen por que ser iguales. La segunda cosa


es que, en general, las coordenadas de un vector en una base ordenada, no
son precisamente las mismas que las de dicho vector, si este se considera en
un campo de la forma F
n
. Vimos, por ejemplo, que [v]

= v, as que las
coordenadas de v en la base ordenada canonica , son las mismas que las
coordenadas de v. Pero [v]

,= v y [v]

,= v, por lo que las coordenadas de v


en las bases ordenadas y no son las mismas que las coordenadas de v,
como elemento de R
3
.
Lo comentado al nal del parrafo anterior, quedara mas claro con el si-
guiente ejemplo, que utilizaremos mas adelante.
Ejemplo 4.33. Consideremos en C
3
los vectores
v
1
= (1, 1, 0), v
2
= (1, i, 1 +i), v

1
= (1, 0, i) y v

2
= (1 + i, 1, 1).
Sea W el subespacio de C
3
generado por v

1
y v

2
. Hagamos = v
1
, v
2
y

= v

1
, v

2
.
1) Muestra que

es una base de W.
2) Muestra que W y que tambien es una base de W.
3) Calcula [v
1
]

, [v
2
]

, [v

1
]

y [v

2
]

.
202 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Solucion. Como los vectores v

1
y v

2
no son paralelos, son entonces lineal-
mente independientes. Por tanto,

= v

1
, v

2
es una base de W y la
podemos considerar ordenada: su orden es el determinado por la forma en que
la escribimos. Para probar que v
1
W, debemos mostrar que v
1
es una com-
binacion lineal de los vectores v

1
y v

2
. Esto es, debemos encontrar escalares

1
,
2
C tales que
v
1
=
1
v

1
+
2
v

2
.
Una manera de encontrarlos es considerando la matriz aumentada, cuya
primera columna es v

1
, su segunda es v

2
y su tercera es v
1
. Luego debemos
llevar dicha matriz a su forma escalonada reducida. Veamos:
_
_
1 1 +i
0 1
i 1

1
1
0
_
_
(a)

_
_
1 1 + i
0 1
0 i

1
1
i
_
_
(b)

(c)
_
_
1 0
0 1
0 0

i
1
0
_
_
en donde (a) es la operacion elemental R
3
iR
1
+R
3
, (b) es la operacion
R
1
(1+i)R
2
+R
1
y (c) es la operacion R
3
iR
2
+R
3
. Por tanto
1
= i
y
2
= 1. Entonces
v
1
= iv

1
+v

2
.
Lo anterior signica que
[v
1
]

=
_
i
1
_
. (4.8.3)
El que las coordenadas de v
1
en la base

se representen como un vector


columna de 2 1, no debera sorprendernos. Debemos recordar que una cosa
es la manera de escribir a v
1
como elemento de W, y otra es la manera de
representar sus coordenadas en la base

de W. Como W es un subconjunto
de C
3
, sus elementos son ternas ordenadas y, como W tiene dimension dos,
con respecto a la base

de W, las coordenadas de cualquier elemento de W


son matrices de 2 1.
Para expresar al vector v
2
como una combinaci on lineal de los elementos
de

, no tenemos que utilizar una nueva matriz aumentada y llevarla a


su forma escalonada reducida. Basta con tomar el vector v
2
y aplicar las
operaciones elementales (a), (b) y (c), en el orden en que fueron utilizadas.
Veamos:
_
_
1
i
i + 1
_
_
(a)

_
_
1
i
1
_
_
(b)

(c)
_
_
2 i
i
0
_
_
.
4.8. BASES ORDENADAS Y COORDENADAS 203
Por tanto
v
2
= (2 i)v

1
+iv

2
.
Luego
[v
2
]

=
_
2 i
i
_
. (4.8.4)
De lo anterior deducimos que W. Como los elementos de no son parale-
los, son por tanto linealmente independientes. Como ademas la dimension de
W es dos, = v
1
, v
2
tambien es una base de W, que podemos considerar
ordenada. De nueva cuenta, el orden de la base es el determinado al es-
cribir sus elementos. Para terminar el ejemplo falta encontrar [v

1
]

y [v

2
]

.
Procediendo como antes tenemos que:
_
_
1 1
1 i
0 1 + i

1
0
i
_
_
(a

_
_
1 1
0 i 1
0 i + 1

1
1
i
_
_
(b

_
_
1 1
0 i 1
0 0

1
1
0
_
_
(c

(c

_
_
1 1
0 1
0 0

1
1
2
(i + 1)
0
_
_
(d

_
_
1 0
0 1
0 0

1
2
(i 1)
1
2
(i + 1)
0
_
_
donde (a

) es la operacion R
2
R
1
+ R
2
, (b

) es R
3
iR
2
+ R
3
, (c

) es
R
2

1
2
(i + 1)R
2
y (d

) es la operacion R
1
R
2
+R
1
. Esto muestra que
v

1
=
1
2
(i 1)v
1
+
1
2
(i + 1)v
2
,
por lo que
[v

1
]

=
1
2
_
1 i
1 +i
_
. (4.8.5)
Para calcular [v

2
]

, le aplicamos ahora las operaciones elementales ante-


riores a v

2
.
_
_
1 + i
1
1
_
_
(a

_
_
1 +i
i
1
_
_
(b

_
_
1 +i
i
0
_
_
(c

_
_
1 +i
1
2
(i 1)
0
_
_
(d

_
_
1
2
(i + 3)
1
2
(i 1)
0
_
_
.
Luego
v

2
=
1
2
(i + 3)v
1
+
1
2
(i 1)v
2
,
204 CAP

ITULO 4. TRANSFORMACIONES LINEALES


por lo que
[v

2
]

=
1
2
_
i + 3
i 1
_
. (4.8.6)
4.9. Matriz de Cambio de Coordenadas
La representacion de un vector por medio de sus coordenadas en una
base ordenada, es util cuando queremos expresar un vector en terminos de
dos bases del espacio vectorial en cuestion. Supongamos que V es un espacio
vectorial, dimensionalmente nito y de dimension n. Consideremos dos bases
ordenadas
= v
1
, v
2
, . . . , v
n
y

= v

1
, v

2
, . . . , v

de V. Dada j 1, 2, . . . , n existen escalares unicos


1j
,
2j
, . . . ,
nj
tales
que
v

j
=
n

i=1

ij
v
i
. (4.9.1)
Entonces
[v

j
]

=
_
_
_
_
_

1j

2j
.
.
.

nj
_
_
_
_
_
.
Ahora bien, dada v V, podemos considerar las coordenadas de v en las
bases y

. Supongamos que
[v]

=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
y [v]

=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
.
Utilizando (4.9.1) as como propiedades de la doble sumatoria, obtenemos
v =
n

j=1

j
v

j
=
n

j=1

j
_
n

i=1

ij
v
i
_
=
n

j=1
n

i=1
(

ij
)v
i
=
n

i=1
_
n

j=1

ij

j
_
v
i
.
4.9. MATRIZ DE CAMBIO DE COORDENADAS 205
Tenemos entonces que
v =
n

i=1
_
n

j=1

ij

j
_
v
i
.
Ahora bien, como tambien
v =
n

i=1

i
v
i
y las coordenadas de un vector en una base ordenada dada son unicas, de las
dos igualdades anteriores obtenemos que

i
=
n

j=1

ij

j
, (4.9.2)
para cada i 1, 2, . . . , n. Con los escalares
ij
podemos formar la matriz
A de n n dada por
A =
_
_
_
_
_

11

12

1j

1n

21

22

2j

2n
.
.
.
.
.
.
.
.
.
.
.
.

n1

n2

nj

nn
_
_
_
_
_
. (4.9.3)
Notemos que, escrita por columnas,
A = ([v

1
]

[ [v

2
]

[ [ [v

n
]

).
Esto es, la primera columna de A es [v

1
]

, la segunda es [v

2
]

y la ultima
es [v

n
]

. Como los escalares que denen a la matriz A son unicos, la base

esta ordenada y estamos acomodando los elementos de A de acuerdo al


orden elegido en

, resulta que la matriz A es unica.


Utilizando las deniciones de A, [v]

, [v]

y la ecuacion (4.9.2), tenemos


que
A[v]

=
_
_
_
_
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.

n1

n2

nn
_
_
_
_
_
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
=
_
_
_
_
_

n
j=1

1j

n
j=1

2j

j
.
.
.

n
j=1

nj

j
_
_
_
_
_
=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
= [v]

.
206 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Es decir
[v]

= A[v]

. (4.9.4)
La ecuacion anterior dice que si conocemos la forma de escribir al vector
v como combinaci on lineal de los elementos de la base

entonces, multipli-
cando por A como se indica en (4.9.4), es posible conocer la forma de escribir
al mismo vector v como combinaci on lineal de los elementos de la base . La
matriz A resulta ser entonces la que nos permite pasar de la base

a la base
. Por esta razon decimos que A es la matriz de cambio de base, de la base
ordenada

a la base ordenada .
Notemos que para calcular la matriz A, debemos saber como se escriben
los vectores de la base

en la base . Por tanto, si sabemos como se escriben


algunos elementos de V con respecto a la base (los de la base

) y, ademas,
como se escribe cualquier elemento de V en la base

, entonces es posible
saber como se escriben todos los demas elementos de V en la base , siguiendo
la formula (4.9.4).
Antes de enunciar lo que hemos obtenido como un teorema, mostraremos
que la matriz de cambio de base A, que hemos denido en (4.9.3), es inver-
tible. Para probar esto supongamos que A[v]

= 0
n1
. Como A[v]

= [v]

,
tenemos que [v]

= 0
n1
. Entonces
v = 0
F
v
1
+ 0
F
v
2
+ + 0
F
v
n
= 0
V
.
Como
0
V
= 0
F
v

1
+ 0
F
v

2
+ + 0
F
v

n
es la unica manera de expresar a v = 0
V
como una combinacion lineal de
los elementos de la base

, sucede que [v]

= [0
V
]

= 0
n1
. Lo que hemos
probado es que el sistema homogeneo A[v]

= 0
n1
posee unicamente la solu-
cion trivial [v]

= 0
n1
. Entonces, por la equivalencia entre las condiciones
1) y 2) del Teorema 3.41, A es invertible. Multiplicando la ecuacion (4.9.4)
por A
1
obtenemos
[v]

= A
1
[v]

. (4.9.5)
La ecuacion de arriba nos dice que, para pasar de la base a la base

,
debemos multiplicar de manera conveniente por A
1
. Tambien nos dice que
si A es la matriz de cambio de base de

a , entonces A
1
es la matriz de
cambio de base de a

.
4.9. MATRIZ DE CAMBIO DE COORDENADAS 207
A continuacion resumimos lo que hemos realizado hasta el momento, como
el cuerpo de un teorema.
Teorema 4.34. Sea V un espacio vectorial sobre el campo F, dimension-
almente nito, y de dimension n. Supongamos que y

son dos bases


ordenadas de V. Entonces existe una unica matriz invertible A M
nn
(F)
tal que
[v]

= A[v]

y [v]

= A
1
[v]

,
para todo vector v V. Ademas, escrita por columnas,
A = ([v

1
]

[ [v

2
]

[ [ [v

n
]

).
Denicion 4.35. Bajo las hipotesis del teorema, anterior, la matriz A que
se indica, se llama matriz de cambio de base, de la base ordenada

a
la base ordenada .
El siguiente resultado es una especie de inverso del teorema anterior y se
deja como ejercicio al lector.
Teorema 4.36. Supongamos que B M
nn
(F) es una matriz invertible y
que V es un espacio vectorial dimensionalmente nito y de dimension n. Si
es una base ordenada de V, entonces existe una unica base ordenada

de
V tal que
[v]

= B[v]

y [v]

= B
1
[v]

,
para todo vector v V.
A continuacion presentamos el siguiente ejemplo, en el cual utilizamos
una buena parte de lo que hicimos en el Ejemplo 4.33.
Ejemplo 4.37. Tomando en cuenta la notacion establecida en el Ejemplo
4.33, encuentra la matriz de cambio de base de

a . Calcula, ademas, [v]

para cada v = (x, y, z) W.


Solucion. De acuerdo con las igualdades (4.8.5) y (4.8.6)
[v

1
]

=
1
2
_
1 i
1 +i
_
y [v

2
]

=
1
2
_
i + 3
i 1
_
.
Luego
A = ([v

1
]

[ [v

2
]

) =
1
2
_
1 i i + 3
1 +i i 1
_
.
208 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Por tanto, para v W,
[v]

= A[v]

=
1
2
_
1 i i + 3
1 +i i 1
_
[v]

. (4.9.6)
Vamos ahora a calcular las coordenadas del vector v = (x, y, z) W en la
base

. Como ya indicamos, calcular dichas coordenadas signica encontrar


escalares
1
,
2
C, tales que
v =
1
v

1
+
2
v

2
.
Tambien indicamos que, para encontrar
1
y
2
, debemos aplicarle a v las
operaciones elementales (a), (b) y (c) que son R
3
iR
1
+R
3
, R
1
(1 +
i)R
2
+R
1
y R
3
iR
2
+R
3
, respectivamente. Luego
_
_
x
y
z
_
_
(a)

_
_
x
y
ix +z
_
_
(b)

(c)
_
_
(1 +i)y +x
y
iy ix +z
_
_
.
Ahora bien, debemos de recordar que el proceso anterior es la manera sim-
plicada de llevar una matriz aumentada a su forma escalonada reducida.
Cuando terminamos de efectuar la operacion (c), la forma escalonada de la
matriz aumentada (cuyas columnas son v

1
, v

2
y v) es en realidad
_
_
1 0
0 1
0 0

(1 +i)y +x
y
iy ix +z
_
_
.
Esto signica que
1
= (1 + i)y + x,
2
= y y, ademas, iy ix + z = 0.
Haciendo la comprobacion vemos que
[(1+i)y+x]
_
_
1
0
i
_
_
+y
_
_
i + 1
1
1
_
_
=
_
_
(1 +i)y +x +y(i + 1)
y
iy +y +ix y
_
_
=
_
_
x
y
ix iy
_
_
.
Y como z = ix iy, tenemos que

1
v

1
+
2
v

2
=
_
_
x
y
ix iy
_
_
=
_
_
x
y
z
_
_
= v.
4.9. MATRIZ DE CAMBIO DE COORDENADAS 209
Entonces, para v = (x, y, z) W, las coordenadas de v en la base

se
calculan como sigue:
[v]

=
_
(1 +i)y +x
y
_
. (4.9.7)
Combinando las ecuaciones (4.9.6) y (4.9.7), las coordenadas de v en la base
se calculan como sigue:
[v]

=
_
_
_
_
x
y
z
_
_
_
_

=
1
2
_
1 i i + 3
1 + i i 1
__
(1 +i)y +x
y
_
. (4.9.8)
De acuerdo con lo que hicimos en el Ejemplo 4.33, las coordenadas del vector
v en la base se calculan siguiendo las operaciones elementales (a

), (b

), (c

)
y (d

). Por supuesto, tuvimos que seguir dichas operaciones para determinar


las columnas de la matriz de cambio de base, es decir, para determinar [v

1
]

y [v

2
]

. Lo que acabamos de mostrar, es que solo para los vectores v

1
y v

2
es
necesario seguir dichas operaciones elementales pues, para los demas, basta
con aplicar la ecuacion (4.9.8). Por ejemplo, el vector
w = (1 + 4i, 2 +i, 3 +i)
se encuentra en W. Luego, por la ecuacion (4.9.8)
[w]

=
1
2
_
1 i i + 3
1 +i i 1
__
(1 +i)(2 +i) + (1 + 4i)
2 +i
_
=
=
1
2
_
1 i i + 3
1 +i i 1
__
i
2 +i
_
=
1
2
_
(1 i)i + (i + 3)(i + 2)
(1 +i)i + (i 1)(i + 2)
_
=
_
3 + 3i
2 +i
_
.
Notemos tambien que
[w]

=
_
i
2 +i
_
.
Terminamos la presente seccion indicando que, en el fondo, las ideas que
estamos utilizando para encontrar la matriz de cambio de base entre dos bases
ordenadas de un mismo espacio vectorial, son las mismas que se utilizaran
para encontrar la matriz asociada a una transformacion lineal.
210 CAP

ITULO 4. TRANSFORMACIONES LINEALES


4.10. Ejercicios
1. Muestra que los vectores
v
1
= (2i, 1, 0), v
2
= (2, 1, 1) y v
3
= (0, 1 +i, 1 i)
forman una base de C
3
. Encuentra ahora las coordenadas del vector
(1, 0, 1) en la base ordenada v
1
, v
2
, v
3
.
2. Muestra que los vectores
v
1
= (1, 0, 1), v
2
= (1, 1, 1) y v
3
= (1, 0, 0)
forman una base de R
3
. Encuentra ahora las coordenadas del vector
(a, b, c) R
3
en la base ordenada v
1
, v
2
, v
3
.
3. Considera las bases ordenadas = (3, 1), (2, 1) y = (2, 4), (5, 3)
de R
2
. Encuentra la matriz de cambio de base de la base a la base
. Dada v = (x, y) R
2
, determina [v]

y [v]

.
4. Considera los vectores
v
1
= (1, 1, 1), v
2
= (2, 3, 3) y v
3
= (3, 2, 3).
Muestra que el conjunto = v
1
, v
2
, v
3
es una base de R
3
. Ahora
considera los vectores
w
1
= (1, 2, 1), w
2
= (1, 1, 0) y w
3
= (2, 9, 8).
Muestra que el conjunto = w
1
, w
2
, w
3
tambien es una base de R
3
.
Considerando que las bases y estan ordenadas por la forma en que
las escribimos, encuentra la matriz A de cambio de base de la base
a la base , as como la matriz B de cambio de base de la base a la
base . Dada v = (x, y, z) R
3
, calcula ahora [v]

y [v]

. Determina
por ultimo [(3, 4, 1)]

, utilizando la formula [v]

= A[v]

.
4.11. El Espacio de las Transformaciones Li-
neales /(V, W)
4.11.1. Denicion y Propiedades Fundamentales
Para saber como determinar la matriz asociada a una transformacion li-
neal dada, debemos primero estudiar al espacio de las transformaciones linea-
4.11. ESPACIO DE TRANSFORMACIONES 211
les denidas entre dos espacios vectoriales dados. Supongamos, por tanto, que
V y W son dos espacios vectoriales denidos sobre el campo F. Consideremos
los conjuntos
T(V, W) = f : V W[ f es una funcion
y
/(V, W) = T : V W[ T es una transformacion lineal.
Como hicimos ver en el Ejemplo 2.4, T(V, W) es un espacio vectorial sobre el
campo F. Es claro que /(V, W) T(V, W). En esta seccion presentaremos
una serie de propiedades del conjunto /(V, W). Mostraremos, por ejemplo,
que es un espacio vectorial sobre el campo F y que, si tanto V como W son
espacios vectoriales de dimension nita, entonces /(V, W) es de dimension
nita y su dimension es el producto de las dimensiones de V y W. Por tanto, si
dim(V ) = n y dim(W) = m, entonces tendremos que dim(/(V, W)) = mn.
Como el espacio vectorial M
mn
(F) de las matrices de orden m n tiene
dimension mn, por el Teorema 4.28, sucedera que
/(V, W)

= M
mn
(F). (4.11.1)
Como consecuencia de lo anterior, toda transformacion lineal de V en W se
podra pensar como una matriz de mn y viceversa. Saber como realizar el
cambio de una transformacion lineal a una matriz y viceversa, sera un asunto
importante.
Antes de probar que /(V, W) es un espacio vectorial, recordemos que la
suma de los elementos f, g T(V, W) es la funcion f + g : V W denida
como (f + g)(v) = f(v) + g(v), para cada v V. Ademas si es un escalar,
entonces el producto escalar de f y es la funcion f : V W denida como
(f)(v) = f(v), para cada v V. Como vimos en el Ejemplo 2.4, el que
T(V, W) sea un espacio vectorial sobre el campo F, solo depende de que W
es un espacio vectorial sobre el campo F, pues tanto cada suma de la forma
f(v) +g(v), como cada producto escalar de la forma f(v), se consideran en
W. Si en /(V, W) la suma y el producto por escalares se dene igual que en
T(V, W), sucede que /(V, W) es un subespacio de T(V, W), como mostramos
en el siguiente teorema.
Teorema 4.38. Supongamos que V y W son espacios vectoriales sobre el
campo F. Entonces /(V, W) es un subespacio vectorial de T(V, W). Por tan-
to, /(V, W) es un espacio vectorial sobre el campo F.
212 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Demostracion. Notemos primero que /(V, W) ,= pues, por ejemplo, en
/(V, W) se encuentra la transformacion lineal cero. Tomemos ahora L, T
/(V, W) y F. Entonces, para cada v V, el valor L(v) +T(v) esta de-
terminado de manera unica y se encuentra en W. Esto nos permite considerar
la funcion L +T : V W denida, para v V, como
(L +T)(v) = L(v) +T(v).
Mostraremos que dicha funcion es en realidad una transformacion lineal. Para
esto, tomemos u, v V y notemos que
(L +T)(u +v) = (L)(u +v) +T(u +v)
= (L)(u) + (L)(v) +T(u) +T(v)
= [(L)(u) +T(u)] + [(L)(v) + T(v)]
= (L +T)(u) + (L +T)(v).
Ademas, si F, entonces
(L +T)(v) = (L)(v) +T(v) = L(v) +T(v)
= L(v) + T(v) = (L(v)) +T(v)
= (L)(v) +T(v) = [(L)(v) +T(v)]
= [(L +T)(v)].
Por tanto L+T /(V, W). Esto muestra, por el Teorema 2.13, que /(V, W)
es un subespacio de T(V, W). Por tanto, /(V, W) es un espacio vectorial sobre
el campo F.
Notemos que la prueba de que /(V, W) es un subespacio vectorial sobre
F, depende del hecho de que tanto V como W son espacios vectoriales sobre
F. En el siguiente teorema presentamos otras propiedades del espacio de las
transformaciones lineales.
Teorema 4.39. Supongamos que V, W y Z son tres espacios vectoriales so-
bre el campo F. Si T, T
1
, T
2
/(V, W) y U, U
1
, U
2
/(W, Z), entonces se
verican las siguientes condiciones:
1) las composiciones U (T
1
+ T
2
) y U T
1
+ U T
2
se encuentran en
/(V, Z) y, ademas,
U (T
1
+T
2
) = U T
1
+U T
2
;
4.11. ESPACIO DE TRANSFORMACIONES 213
2) las composiciones (U
1
+ U
2
) T y U
1
T + U
2
T se encuentran en
/(V, Z) y, ademas,
(U
1
+U
2
) T = U
1
T +U
2
T;
3) para cada F, las composiciones (U T), (U) T y U (T) se
encuentran en /(V, Z) y, ademas,
(U T) = (U) T = U (T);
en particular U T /(V, Z) y
U (T) = (U) T = (U T).
Demostracion. Notemos primero que las composiciones
U (T
1
+T
2
), (U
1
+U
2
) T, U T
1
, U T
2
, U
1
T y U
2
T,
son transformaciones lineales de V en Z, pues sabemos que la composicion
de transformaciones lineales es una transformacion lineal. Ademas, si v V
tenemos
(U (T
1
+T
2
))(v) = U((T
1
+T
2
)(v)) = U(T
1
(v) +T
2
(v))
= U(T
1
(v)) +U(T
2
(v)) = (U T
1
)(v) + (U T
2
)(v)
= (U T
1
+U T
2
)(v).
Luego U (T
1
+ T
2
) = U T
1
+ U T
2
. De manera similar se prueba que
(U
1
+U
2
)T = U
1
T+U
2
T. La prueba de 3) se deja al lector. Notemos que la
segunda parte de 3) se sigue de la primera parte de 3), haciendo = 1.
Como la composicion de funciones es asociativa, la composicion de trans-
formaciones lineales tambien es asociativa. Entonces si T /(V, W), U
/(W, Z) y S /(Z, X), resulta que
S (U T) = (S U) T.
En varios textos, la composicion U T de las transformaciones lineales T
/(V, W) y U /(W, Z) se denota como UT, como si dichas transformaciones
lineales se estuvieran multiplicando. Incluso se indica que la composicion
de funciones se denota utilizando el smbolo , mientras que la composi-
cion de transformaciones lineales se denota como un producto. Mas adelante
quedara claro el por que de todo esto: la composicion de transformaciones
lineales, estara identicada con la multiplicaci on de matrices. Ahora bien,
en este trabajo, la composicion de transformaciones lineales se denotara uti-
lizando el smbolo .
214 CAP

ITULO 4. TRANSFORMACIONES LINEALES


4.11.2. /(V, V ) es un

Algebra Lineal
En la presente subseccion estudiaremos la estructura algebraica del espa-
cio vectorial /(V, V ) de los operadores lineales sobre V. Primero mostraremos
que es un anillo unitario no conmutativo y, posteriormente, que es un algebra
lineal. A continuacion damos las deniciones correspondientes.
Denicion 4.40. Un anillo consiste de un conjunto R en el que estan
denidas dos operaciones, llamadas adicion y multiplicacion, con las si-
guientes propiedades:
1) La adicion es cerrada, es decir, x +y es un unico elemento de R, para
cada x, y R.
2) La adicion es conmutativa, es decir, x +y = y +x, para cada x, y R.
3) La adicion es asociativa, es decir, x + (y +z) = (x +y) +z, para cada
x, y, z R.
4) Existe un neutro aditivo en R, es decir, un elemento 0
R
R tal que
x + 0
R
= x, para todo x R.
5) Existe el inverso aditivo de cada elemento de R, es decir, para cada
x R existe un elemento y R tal que x +y = 0
R
.
6) La multiplicacion es cerrada, es decir x y es un unico elemento de R,
para cada x, y R.
7) La multiplicacion es asociativa, es decir, x (y z) = (x y) z, para
cada x, y, z R.
8) La multiplicacion es distributiva con respecto a la adicion, es decir, para
cada x, y, z R sucede que:
x (y +z) = x y +x z y (y +z) x = y x +z x.
Los anillos en donde la multiplicacion es conmutativa se llaman anillos
conmutativos, y aquellos que admiten un neutro multiplicativo se llaman
anillos unitarios.
Notemos que un campo es un anillo conmutativo y unitario, en el que cada
elemento diferente del neutro multiplicativo admite un inverso multiplicativo.
4.11. ESPACIO DE TRANSFORMACIONES 215
Teorema 4.41. El espacio /(V, V ) es un anillo unitario no conmutativo.
El neutro multiplicativo es la transformacion identidad. Las operaciones de
adicion y multiplicacion en /(V, V ) son la suma y la composicion, respecti-
vamente.
Demostracion. Es facil ver que la operacion de adicion en /(V, V ) es cerra-
da, conmutativa y asociativa. Notemos que las pruebas de estos dos ultimos
hechos dependen de la conmutatividad y la asociatividad de los elementos del
campo F, en donde se toman los escalares de V. El neutro aditivo en /(V, V )
es la transformacion lineal cero. El inverso aditivo de T /(V, V ) es la trans-
formacion lineal T : V V denida, para v V, como (T)(v) = T(v).
Notemos ahora que la multiplicaci on en /(V, V ) es cerrada. Ademas, como
dicha multiplicaci on es la composicion de funciones, esta no es conmutativa.
Esto signica que de ser /(V, V ) un anillo, sera no conmutativo.
Como la composicion de transformaciones lineales es una transformacion
lineal, y la multiplicaci on en el campo F es asociativa, se tiene que la mul-
tiplicacion en /(V, V ) tambien es asociativa. Ademas, por las propiedades
1) y 2) del Teorema 4.39, la multiplicacion es distributiva con respecto a la
adicion. Esto prueba que /(V, V ) es un anillo y, por tanto, es un anillo no
conmutativo. La identidad 1
V
: V V es el neutro multiplicativo, pues 1
V
es diferente de la transformacion lineal cero y, para T /(V, V ),
(T 1
V
)(v) = T(1
V
(v)) = T(v) y (1
V
T)(v) = 1
V
(T(v)) = T(v).
Luego T 1
V
= 1
V
T = T.
Notemos que, en el teorema anterior, es importante el hecho de considerar
al conjunto /(V, V ) y no a /(V, W), para concluir que es un anillo. En
el conjunto /(V, W) no tenemos denida una operacion de multiplicaci on
natural si V y W son distintos. Por otra parte, la estructura algebraica que en
realidad posee el espacio /(V, V ) es la que se llama algebra lineal y denimos
a continaci on.
Denicion 4.42. Un algebra lineal sobre un campo F consiste de un con-
junto L en el que estan denidas tres operaciones, llamadas adicion, mul-
tiplicacion y multiplicacion escalar, con las siguientes propiedades:
1) el conjunto L con la adicion y multiplicacion escalar es un espacio
vectorial sobre el campo F;
216 CAP

ITULO 4. TRANSFORMACIONES LINEALES


2) el conjunto L con la suma y multiplicacion es un anillo;
3) para cada F y cada x, y L, tenemos que
(x y) = (x) y = x (y),
donde el smbolo representa la multiplicacion en L.
Si el conjunto L con la suma y multiplicacion es un anillo unitario, entonces
L se llama un algebra lineal unitaria. Si dicho anillo es conmutativo,
entonces L se llama un albegra lineal conmutativa.
Teorema 4.43. El espacio /(V, V ) es un algebra lineal unitaria y no conmu-
tativa. Las operaciones de adicion y multiplicacion en /(V, V ) son la suma y
composicion, respectivamente. La multiplicacion escalar es la que denimos
en /(V, V ).
Demostracion. Ya probamos que /(V, V ) es un espacio vectorial sobre el
campo F y que /(V, V ) es un anillo unitario y no conmutativo. Ademas, por
la parte 3) del Teorema 4.39, se sigue que (U T) = (U) T = U (T),
para cada F. Esto prueba que /(V, V ) es un algebra lineal unitaria y no
conmutativa.
4.12. La Funci on A T
A
En la siguiente seccion probaremos que si los espacios vectoriales V y
W tienen dimension nita, entonces /(V, W) tiene dimension nita y su
dimension es el producto de las dimensiones de V y W. Antes de esto, conviene
estudiar una funcion natural entre los espacios M
mn
(F) y /(F
n
, F
m
).
Supongamos que A M
mn
(F) y que T
A
: F
n
F
m
es la transforma-
cion lineal asociada de A. Recordemos que T
A
(v) = Av, para cada v F
n
.
Ademas, podemos considerar la funcion
H: M
mn
(F) /(F
n
, F
m
)
denida, para A M
mn
(F), como H(A) = T
A
.
Teorema 4.44. La funcion H: M
mn
(F) /(F
n
, F
m
) es un isomorsmo.
4.12. LA FUNCI

ON A T
A
217
Demostracion. Para ver que H es una transformacion lineal, consideremos
A, B M
mn
(F). Como
T
A+B
(v) = (A +B)(v) = Av +Bv = T
A
(v) +T
B
(v) = (T
A
+T
B
)(v)
para cada v F
n
, resulta que T
A+B
= T
A
+T
B
. En otras palabras, la trans-
formacion lineal asociada a la suma A+B, es la suma de las transformaciones
lineales asociadas de A y B. Luego
H(A +B) = T
A+B
= T
A
+T
B
= H(A) +H(B).
Notemos ahora que, para v F
n
y F tenemos que:
T
A
(v) = (A)(v) = (Av) = (T
A
(v)) = (T
A
)(v).
Por tanto T
A
= T
A
. En otras palabras, la transformacion lineal asociada a
la matriz A, es el producto de por la transformacion lineal asociada a A.
Luego
H(A) = T
A
= T
A
= H(A).
Esto prueba que H es una transformacion lineal. Ahora probaremos que H es
inyectiva. Para esto tomemos A Nuc(H). Entonces H(A) = T
A
es igual al
neutro aditivo de /(F
n
, F
m
). Por tanto T
A
es la transformacion lineal cero,
es decir, T
A
(v) = 0
m1
, para cada v F
n
. Esto implica que A es la matriz
cero de orden mn. En efecto, si alguna componente A
ij
de A es diferente
de 0
F
, entonces podemos considerar el vector canonico e
j
cuyas componentes
son el vector 0
F
salvo la j-esima, cuyo valor es 1
F
. Entonces
Ae
j
=
_
_
_
_
_
_
_
_
_
A
11
A
12
A
1j
A
1n
A
21
A
22
A
2j
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
i1
A
i2
A
ij
A
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mj
A
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
F
0
F
.
.
.
1
F
.
.
.
0
F
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
A
1j
A
2j
.
.
.
A
ij
.
.
.
A
mj
_
_
_
_
_
_
_
_
_
.
Como Ae
j
= 0
m1
, sucede que (A
1j
, A
2j
, . . . , A
ij
, . . . , A
mj
) = 0
m1
. En parti-
cular A
ij
= 0
F
. Como esto contradice el hecho de que A
ij
,= 0
F
, tenemos que
A = 0
mn
. Por tanto, Nuc(H) = 0
mn
. Entonces, por el Teorema 4.12, H
es inyectiva.
218 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Como hemos indicado, vamos a demostrar (en el Teorema 4.46) que si los
espacios vectoriales V y W tienen dimension nita, entonces la dimension del
espacio /(V, W) es igual al producto de las dimensiones de V y W. Utilizando
este resultado, la dimension del espacio /(F
n
, F
m
) es igual a mn, el producto
de las dimensiones de los espacios F
n
y F
m
. Ahora bien, como la dimension de
M
mn
(F) tambien es mn y H es una transformacion lineal inyectiva denida
entre espacios dimensionalmente nitos y de la misma dimension, por las
equivalencias entre las condiciones 1) y 2) del Teorema 4.27, resulta que H
es biyectiva. Por tanto, H es un isomorsmo.
Ahora mostraremos que la transformacion lineal asociada al producto de
dos matrices, coincide con la composicion de las correspondientes transfor-
maciones lineales asociadas.
Teorema 4.45. Supongamos que A, B M
nn
(F). Si T
A
, T
B
: F
n
F
n
son las transformaciones lineales asociadas de A y B, respectivamente, en-
tonces T
A
T
B
es la transformacion lineal asociada a AB y T
B
T
A
es la
transformacion lineal asociada a BA.
Demostracion. Notemos que si v F
n
, entonces
(T
A
T
B
)(v) = T
A
(T
B
(v)) = T
A
(Bv) = A(Bv) = (AB)(v) = T
AB
(v).
Luego T
AB
= T
A
T
B
. De manera similar se prueba que T
BA
= T
B
T
A
.
Conviene ahora mencionar una serie de consecuencias de los teoremas
anteriores.
1) Por el Teorema 4.44, a cada matriz A M
mn
(F) le corresponde una
unica transformacion lineal T /(F
n
, F
m
) y, ademas, cada trans-
fomacion lineal T /(F
n
, F
m
) tiene asociada solo una matriz en
M
mn
(F). Si V y W son espacios tales que dim(V ) = n y dim(W) = m,
entonces los espacios /(V, W) y /(F
n
, F
m
) son isomorfos, pues tienen
dimension mn. Por tanto, como la relacion de isomorsmo es de equi-
valencia, los espacios /(V, W) y M
mn
(F) tambien son isomorfos. Por
tanto, cada transfomacion lineal T /(V, W) tiene asociada solo una
matriz en M
mn
(F).
2) Por el Teorema 4.43, el espacio /(F
n
, F
n
) de los operadores lineales
en F
n
es un algebra lineal y, como /(F
n
, F
n
)

= M
nn
(F), el espacio
4.13. DIMENSI

ON 219
de las matrices cuadradas M
nn
(F) tambien es un algebra lineal. Por
tanto, las operaciones de suma, multiplicaci on y multiplicacion escalar
en M
nn
(F), se corresponden con sus equivalentes en /(F
n
, F
n
). Es-
to es, la suma de dos matrices cuadradas equivale a la suma de dos
operadores lineales, multiplicar una matriz cuadrada por un escalar
equivale a multiplicar un operador lineal por el mismo escalar y, por
ultimo, multiplicar dos matrices cuadradas equivale a componer dos o-
peradores lineales.

Esto ultimo es consecuencia del Teorema 4.45 y, por
tanto, es una manera de justicar la forma de multiplicar dos matri-
ces: se dene as porque, de esta manera, la multiplicacion de matrices
equivale a componer transformaciones lineales.
Como hemos estado mencionando, uno de nuestros objetivos principales
es el de determinar la matriz que le corresponde a una transformacion lineal
dada T : V W, denida entre los espacios dimensionalmente nitos V y W.
Al escribir esto pensamos que no deseamos, como en 1), garantizar a nivel
teorico que dicha matriz existe, sino que esperamos un algoritmo o camino
para encontrarla. Por ejemplo, si nos dan una matriz A M
mn
(F) sabemos
lo que debemos hacer para calcular la transformacion lineal T
A
: F
n
F
m
que le corresponde. Dada v F
n
, debemos calcular Av para obtener T
A
(v).
Si nos dan ahora una transformacion lineal T : V W y pensamos que
dim(V ) = n y dim(W) = m que es lo que debemos hacer para obtener la
matriz A
T
M
mn
(F) que le corresponde? Como veremos, la respuesta a
esta pregunta radica en la forma en como se demuestra que la dimension del
espacio /(V, W) es igual al producto de las dimensiones de V y W.
4.13. dim(/(V, W)) = dim(V ) dim(W)
En esta seccion mostraremos el resultado que hemos venido anunciando,
que si V y W son dimensionalmente nitos, entonces el espacio /(V, W) es di-
mensionalmente nito y su dimension es igual al producto de las dimensiones
de V y W.
Teorema 4.46. Supongamos que V y W son espacios vectoriales sobre el
campo F. Si V y W son dimensionalmente nitos, dim(V ) = n y dim(W) =
m, entonces el espacio /(V, W) es dimensionalmente nito y
dim(/(V, W)) = mn.
220 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Demostracion. Aunque la demostracion puede darse en terminos de bases
ordinarias, conviene darla en terminos de bases ordenadas. Supongamos, por
tanto, que
= v
1
, v
2
, . . . , v
n
y = w
1
, w
2
, . . . , w
m

son bases ordenadas de V y W, respectivamente. El orden de dichas bases es


el determinado por la forma en que las escribimos. Utilizando dichas bases
ordenadas, deniremos una base ordenada de /(V, W) con justo mn ele-
mentos. Para esto consideremos (p, q) 1, 2, . . . , m1, 2, . . . , n, as como
la unica transformacion lineal E
p,q
: V W tal que
E
p,q
(v
i
) =
iq
w
p
, (4.13.1)
para cada i = 1, 2, . . . , n. Entendemos que si i 1, 2, . . . , n, entonces

iq
= 1 si i = q y
iq
= 0 si i ,= q. La transformacion lineal E
p,q
existe debido
al Teorema 4.7. Notemos que E
1,1
es la transformacion lineal que manda v
1
a w
1
y todos los demas elementos de a 0
W
. La transfomacion E
1,2
manda
v
2
a w
1
y todos los demas elementos de a 0
W
. En general, E
p,q
manda v
q
a w
p
y todos los demas elementos de a 0
W
. Como consecuencia de esto,
tenemos que
1) si (p
1
, q
1
), (p
2
, q
2
) 1, 2, . . . , m 1, 2, . . . , n son distintos, entonces
las transformaciones lineales E
p
1
q
1
y E
p
2
q
2
son distintas.
Para probar 1) tomemos (p
1
, q
1
) y (p
2
, q
2
) como se indica. Supongamos que
q
1
= q
2
. Como (p
1
, q
1
) ,= (p
2
, q
2
) sucede que p
1
,= p
2
. Entonces E
p
1
q
1
,= E
p
2
q
2
pues E
p
1
q
1
manda v
q
1
a w
p
1
, E
p
2
q
2
= E
p
2
q
1
manda v
q
1
a w
p
2
y w
p
1
,= w
p
2
dado
que p
1
,= p
2
y w
p
1
, w
p
2
(los elementos de una base son diferentes entre s).
Supongamos ahora que q
1
,= q
2
. Entonces v
q
1
,= v
q
2
, pues ambos elementos
se encuentran en la base y q
1
,= q
2
. Notemos ahora que E
p
1
q
1
manda v
q
1
a
w
p
1
y que E
p
2
q
2
manda v
q
1
a 0
W
. Entonces E
p
1
q
1
,= E
p
2
q
2
, pues w
p
1
,= 0
W
(los
elementos de una base son distintos del neutro del espacio vectorial). Esto
prueba 1).
Hagamos
= E
p,q
: (p, q) 1, 2, . . . , m 1, 2, . . . , n. (4.13.2)
Como tiene justo n elementos, justo m elementos y, por 1), los elementos
de son diferentes entre s, resulta que posee justo mn elementos. Ahora
4.13. DIMENSI

ON 221
mostraremos que es una base de /(V, W). Primero haremos ver que
genera a /(V, W). Para esto tomemos un elemento T /(V, W). Entonces
la funcion T : V W esta completamente determinada por sus valores en
los elementos de . A saber, para cada i 1, 2, . . . , n de acuerdo con el
Teorema 4.1, existen escalares unicos
1i
,
2i
, . . . ,
mi
tales que
T(v
i
) =
m

p=1

pi
w
p
.
Consideremos ahora la transformacion lineal U : V W denida como sigue:
U =
m

p=1
n

q=1

pq
E
p,q
. (4.13.3)
Notemos que U es una transformacion lineal de V en W, pues U es una combi-
nacion lineal de transformaciones lineales de V en W. Dada i 1, 2, . . . , n
tenemos que
U(v
i
) =
m

p=1
n

q=1

pq
E
p,q
(v
i
) =
m

p=1
n

q=1

pq

iq
w
p
=
m

p=1

pi
w
p
= T(v
i
).
Entonces U(v
i
) = T(v
i
), para cada i 1, 2, . . . , n. Esto signica que U y
T son dos transformaciones lineales de V en W que coiciden en la base .
Como solo existe una transformacion lineal con dicha propiedad, sucede que
U = T. Por tanto
T =
m

p=1
n

q=1

pq
E
p,q
(4.13.4)
es una combinaci on lineal de los elementos de . Esto prueba que genera a
/(V, W). Ahora mostraremos que es linealmente independiente. Para ver
esto consideremos escalares
pq
F con (p, q) 1, 2, . . . , m 1, 2, . . . , n
tales que
m

p=1
n

q=1

pq
E
p,q
= 0.
Notemos que el cero que aparece a la derecha de la igualdad anterior, es la
transformacion lineal cero. Por tanto 0(v
i
) = 0
W
, para cada i 1, 2, . . . , n.
222 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Por otro lado, si evaluamos el lado izquierdo de la ecuacion de arriba en v
i
obtenemos
m

p=1
n

q=1

pq
E
p,q
(v
i
) =
m

p=1
n

q=1

pq

iq
w
p
=
m

p=1

pi
w
p
Entonces
m

p=1

pi
w
p
= 0
W
y, como = w
1
, w
2
, . . . , w
m
es linealmente independiente, tenemos que

1i
=
2i
= =
mi
= 0
F
. Ahora bien, como lo anterior es cierto para cada
i 1, 2, . . . , n, concluimos que
pq
= 0
F
, para cada (p, q) 1, 2, . . . , m
1, 2, . . . , n. Esto prueba que es linealmente independiente. Por tanto,
es una base de /(V, W) y con esto
dim(/(V, W)) = dim(W) dim(V ) = mn.
4.14. Matriz Asociada a una Transformaci on
Lineal
4.14.1. Comentarios Iniciales
Supongamos que V y W son espacios vectoriales sobre el campo F, di-
mensionalmente nitos y que dim(V ) = n y dim(W) = m. De acuerdo al
Teorema 4.46, /(V, W) es un espacio vectorial sobre el campo F tal que
dim(/(V, W)) = mn. Notemos tambien que M
mn
(F) es un espacio vectorial
sobre el campo F tal que dim(M
mn
(F)) = mn. Entonces, por el Teorema
4.28, /(V, W) y M
mn
(F) son isomorfos. Por tanto existe un isomorsmo
M: /(V, W) M
mn
(F). Como consecuencia de esto, cada transformacion
lineal de V en W, puede pensarse como una matriz de m n y viceversa.
Dada una transformacion lineal T : V W, por lo que acabamos de hacer,
M(T) es la matriz de m n sobre el campo F que corresponde a T. Por
otro lado, dada una matriz A M
mn
(F), sucede que M
1
(A) es la trans-
formacion lineal de V en W que corresponde a A. Sera interesante, dada la
4.14. MATRIZ ASOCIADA 223
transformacion lineal, poder saber exactamente la forma que tiene su matriz
asociada, y lo mismo si empezamos con una matriz de mn.
La prueba del Teorema 4.46 es la clave para denir al isomorsmo M, y no
solo garantizar su existencia a nivel teorico. En dicha demostracion realizamos
lo siguiente: primero jamos una base ordenada = v
1
, v
2
, . . . , v
n
para V,
as como una base ordenada = w
1
, w
2
, . . . , w
m
para W. Luego denimos
en (4.13.1) transformaciones lineales E
p,q
y, con ellas, formamos el conjunto
como en (4.13.2). Posteriormente probamos que es una base de /(V, W).
Precisamente la demostracion de este hecho es lo que nos da una idea de
como denir a M. Veamos: dadas una transformacion lineal T : V W e
i 1, 2, . . . , n, existen escalares unicos
1i
,
2i
, . . . ,
mi
F tales que
T(v
i
) =
m

p=1

pi
w
p
.
Utilizando todos los escalares
pq
podemos formar la siguiente matriz de
mn:
A
T
=
_
_
_
_
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.

m1

m2

mn
_
_
_
_
_
.
Estamos tentados a decir que M(T) = A
T
. El problema de hacer esto
es que, si no procedemos con cuidado, entonces no estaremos deniendo una
funcion sino una relacion de /(V, W) en M
mn
(F). En efecto, si tan solo deci-
mos que M(T) = A
T
, entonces la asociacion no necesariamente es unica, con
todo y que cada eleccion de los escalares
pq
s lo es. Ahora bien, lo que hace
unica a una matriz es la posicision de sus elementos. Por tanto, debemos de
realizar lo anterior, de manera que la posicion en que colocamos los elementos
de A
T
sea unica. Si logramos esto entonces, la unicidad de dichos escalares
as como la unicidad de la posicion en que debemos colocarlos, hara que
la matriz A
T
sea unica. Por consiguiente, la correspondencia M(T) = A
T
resultara ser una funcion. Luego tendremos que ver que dicha funcion es una
transformacion lineal y que, ademas, es biyectiva. Pero primero debemos de
hacer las cosas de manera que se garantize que tenemos una funcion.
Para hacer que la matriz A
T
sea unica, debemos recurrir al orden que
le dimos a las bases y . Recordemos que el orden de es el indicado al
224 CAP

ITULO 4. TRANSFORMACIONES LINEALES


escribir sus elementos, es decir, su primer elemento es v
1
, su segundo es v
2
,
etc. El orden de es tambien el indicado al escribir sus elementos, es decir,
el primer elemento de de w
1
, el segundo es w
2
, etc. Entonces la base
de /(V, W) tambien la podemos ordenar. Para esto consideramos la doble
sumatoria que aparece en la ecuacion (4.13.4). En tal primero le damos el
valor de uno a p y dejamos correr q de uno a n. Los elementos de que se
obtienen son
E
1,1
, E
1,2
, . . . , E
1,n
.
Luego le damos el valor dos a p y dejamos correr q de uno a n. Los elementos
de que ahora obtenemos son
E
2,1
, E
2,2
, . . . , E
2,n
.
Despues le damos el valor tres a p y dejamos correr q de uno a n, luego p
vale cuatro, y as sucesivamente. Entonces
= E
1,1
, E
1,2
, . . . , E
1,n
, E
2,1
, E
2,2
, . . . , E
2,n
, . . . , E
m,1
, E
m,2
, . . . , E
m,n

(4.14.1)
es una base ordenada de /(V, W). El orden de es el determinado al escribir
sus elementos como se indica en (4.14.1). Los coecientes unicos
pq
que
obtuvimos anteriormente, escritos en el orden de la base , generan la mn-
ada
(
11
,
12
, . . . ,
1n
,
21
,
22
, . . . ,
2n
, . . . ,
m1
,
m2
, . . . ,
mn
). (4.14.2)
Ahora bien, sabemos que los espacios vectoriales F
mn
y M
mn
(F) son isomor-
fos y que, para pasar del primero al segundo, debemos de colocar los primeros
n elementos de una mn-ada como el primer renglon de una matriz, luego el
segundo grupo de n elementos de la mn-ada corresponde al segundo renglon
de dicha matriz y as sucesivamente. Entonces, la matriz correspondiente al
mn-tuple que aparece en (4.14.2) es
A
T
=
_
_
_
_
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.

m1

m2

mn
_
_
_
_
_
.
Notemos que ahora la matriz A
T
es unica pues, al establecer un orden en
las bases y , se establecio tambien un orden en y, utilizando este orden y
4.14. MATRIZ ASOCIADA 225
el isomorsmo entre F
mn
y M
mn
(F), pasamos un mn-tuple a una matriz de
mn. Otra forma de ver que la matriz A
T
es unica es la siguiente: escrita por
columnas, la primera columna de A
T
es la que tiene los coecientes utilizados
en T(v
1
), es decir, en la imagen bajo T del primer elemento de la base .
Dichos coecientes aparecen escritos en el orden que le dimos a la base . La
segunda columna de A
T
tiene a los coecientes utilizados en la imagen bajo T
del segundo elemento de la base , y tambien estos se encuentran escritos en
el orden que le dimos a la base . Las demas columnas se forman de manera
similar. Como columna a columna los coecientes de A
T
son unicos, estamos
indicando en que orden acomodarlos y dicho orden es unico, pues es justo el
orden que le dimos a la base , la matriz A
T
es unica.
Como consecuencia de lo anterior, tenemos una funcion
M: /(V, W) M
mn
(F),
denida para T /(V, W), como M(T) = A
T
. En la siguiente seccion
mostraremos que M es un isomorsmo. Terminamos la presente seccion in-
dicando que la unicidad de la matriz A
T
depende de las bases ordenadas
y elegidas en V y W, respectivamente. Si mantenemos las bases pero
cambiamos el orden o si consideramos bases diferentes ya sea en V, en W o
en ambos, entonces la matriz que resulta sera distinta. Por consiguiente, la
notacion A
T
para la matriz asociada a T no es una buena notacion, pues no
reeja la unicidad de dicha matriz de acuerdo a la eleccion de las bases. Una
mejor notacion es [T]

.
4.14.2. Aspectos Teoricos
En la presente subseccion formalizaremos lo que discutimos en la sub-
seccion anterior. Para esto utilizaremos las coordenadas de un vector, con
respecto a una base ordenada dada. Como en la subseccion anterior, supon-
dremos que V y W son espacios vectoriales dimensionalmente nitos sobre el
campo F. Ademas pensaremos que dim(V ) = n, dim(W) = m y que las letras
y denotan bases ordenadas en V y W, respectivamente. Supondremos
tambien que
= v
1
, v
2
, . . . , v
n
y = w
1
, w
2
, . . . , w
m
.
226 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Como sabemos si v V, entonces existen escalares unicos
1
,
2
, . . . ,
n
F
tales que
v =
1
v
1
+
2
v
x
+. . . +
n
v
n
.
Ademas la matriz de n 1 dada por
[v]

=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
representa las coordenadas de v con respecto a la base ordenada . En la
Seccion 4.8 estudiamos la nocion anterior y, en la Seccion 4.9, vimos que para
pasar de una base ordenada de un espacio vectorial a otra base ordenada del
mismo espacio, necesitamos multiplicar de manera pertinente por una matriz
invertible. El siguiente resultado generaliza esto ultimo.
Teorema 4.47. Sean V un espacio vectorial de dimension n sobre el campo
F, y W un espacio vectorial de dimension m sobre F. Supongamos que =
v
1
, v
2
, . . . , v
n
es una base ordenada de V y que = w
1
, w
2
, . . . , w
m
es una
base ordenada de W. Entonces, para cada transformacion lineal T : V W,
existe una unica matriz [T]

M
mn
(F) tal que
[T(v)]

= [T]

[v]

(4.14.3)
para cada v V. Denida por columnas
[T]

= ([T(v
1
)]

[ [T(v
2
)]

[ [ [T(v
n
)]

) .
Ademas la funcion
M: /(V, W) M
mn
(F)
denida, para T /(V, W), como M(T) = [T]

es un isomorsmo.
Demostracion. Dada j 1, 2, . . . , n, por el Teorema 4.1, existen es-
calares unicos
1j
,
2j
, . . . ,
mj
F tales que
T(v
j
) =
m

i=1

ij
w
i
. (4.14.4)
4.14. MATRIZ ASOCIADA 227
Entonces
[T(v
j
)]

=
_
_
_
_
_

1j

2j
.
.
.

mj
_
_
_
_
_
son las coordenadas de T(v
j
) en la base ordenada . Denamos, por colum-
nas, la matriz
[T]

= ([T(v
1
)]

[ [T(v
2
)]

[ [ [T(v
n
)]

) .
En otras palabras la matriz [T]

M
mn
(F) se dene de modo que, para
cada j = 1, 2, . . . , m, su j-esima columna es [T(v
j
)]

. Notemos que el orden


en que colocamos las columnas de [T]

es unico, pues este coincide con el


orden que le dimos a la base ordenada . Ademas, dada j 1, 2, . . . , m,
las coordenadas de T(v
j
) con respecto a la base ordenada son unicas. Como
consecuencia de esto, la matriz [T]

construida como se indica, es unica.


Para mostrar que se cumple la igualdad (4.14.3), tomemos un elemento
v V. Sean
1
,
2
, . . . ,
n
F los unicos escalares tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
=
n

j=1

j
v
j
.
Entonces
[v]

=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
.
Ademas, utilizando (4.14.4), el hecho de que T es una transformacion lineal
y propiedades de la doble sumatoria, tenemos que:
T(v) = T
_
n

j=1

j
v
j
_
=
n

j=1
T(
j
v
j
) =
n

j=1

j
T(v
j
) =
n

j=1

j
_
m

i=1

ij
w
i
_
=
=
n

j=1
m

i=1

ij
w
i
=
m

i=1
n

j=1

ij
w
i
=
m

i=1
_
n

j=1

ij
_
w
i
.
228 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Dada i 1, 2, . . . , m, hagamos

i
=
n

j=1

ij
.
Entonces
T(v) =
m

i=1
_
n

j=1

ij
_
w
i
=
m

i=1

i
w
i
por lo que
[T(v)]

=
_
_
_
_
_

2
.
.
.

m
_
_
_
_
_
.
Por otro lado
[T]

[v]

=
_
_
_
_
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.

m1

m2

mn
_
_
_
_
_
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
=
_
_
_
_
_

n
j=1

1j

n
j=1

2j
.
.
.
.
.
.

n
j=1

mj
_
_
_
_
_
=
_
_
_
_
_

2
.
.
.

m
_
_
_
_
_
Esto prueba que [T]

[v]

= [T(v)]

.
Ahora consideremos la funcion M: /(V, W) M
mn
(F) denida, para
T /(V, W), como M(T) = [T]

. Para ver que M es una transformacion


lineal, tomemos primero T, U /(V, W). Entonces M(T + U) = [T + U]

.
Mostraremos que
[T +U]

= [T]

+ [U]

.
Por denicion
[T]

= ([T(v
1
)]

[ [T(v
2
)]

[ [ [T(v
n
)]

) ,
[U]

= ([U(v
1
)]

[ [U(v
2
)]

[ [ [U(v
n
)]

)
y
[T +U]

= ([(T +U)(v
1
)]

[ [(T +U)(v
2
)]

[ [ [(T +U)(v
n
)]

) .
4.14. MATRIZ ASOCIADA 229
Notemos ahora que cuando sumamos dos matrices A y B, la j-esima colum-
na de la suma A + B es igual a la suma de las j-esimas columnas de las
matrices A y B. Utilizando esto y el hecho de que la funcion w [w]

es
una transformacion lineal, tenemos que
[T]

+ [U]

= ([T(v
1
)]

[ [T(v
2
)]

[ [ [T(v
n
)]

) +
([U(v
1
)]

[ [U(v
2
)]

[ [ [U(v
n
)]

)
= ([T(v
1
)]

+ [U(v
1
)]

[ [ [T(v
n
)]

+ [U(v
n
)]

)
= ([T(v
1
) +U(v
1
)]

[ [T(v
2
) + U(v
2
)]

[ [ [T(v
n
) + U(v
n
)]

)
= ([(T +U)(v
1
)]

[ [(T +U)(v
2
)]

[ [ [(T +U)(v
n
)]

)
= [T +U]

.
Esto muestra que [T +U]

= [T]

+ [U]

. Luego
M(T +U) = [T +U]

= [T]

+ [U]

= M(T) + M(U).
Ahora tomemos un escalar F. Notemos ahora que cuando multiplicamos
una matriz A por , la j-esima columna del producto A, es igual a la
multiplicacion por de la j-esima columna de A. Utilizando esto y el hecho
de que la funcion w [w]

es una transformacion lineal, tenemos que


[T]

= ([T(v
1
)]

[ [T(v
2
)]

[ [ [T(v
n
)]

)
= ([T(v
1
)]

[ [T(v
2
)]

[ [ [T(v
n
)]

)
= ([T(v
1
)]

[ [T(v
2
)]

[ [ [T(v
n
)]

)
= ([(T)(v
1
)]

[ [(T)(v
2
)]

[ [ [(T)(v
n
)]

) = [T]

.
Esto muestra que [T]

= [T]

. Luego
M(T) = [T]

= [T]

= M(T).
Esto prueba que M: /(V, W) M
mn
(F) es una transformacion lineal.
Como los espacios vectoriales /(V, W) y M
mn
(F) son dimensionalmente
nitos y ambos tienen dimension mn, para ver que M es un isomorsmo
basta con probar que M es inyectiva, seg un el Teorema 4.27. Ademas, por el
Teorema 4.12, M es inyectiva si y solo si Nuc(M) = 0, donde el smbolo
0 representa la transformacion lineal cero. Tomemos entonces T /(V, W)
tal que M(T) = 0
mn
. Entonces
0
mn
= M(T) = [T]

= ([T(v
1
)]

[ [T(v
2
)]

[ [ [T(v
n
)]

) .
230 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Por tanto si j 1, 2, . . . , n, sucede que
[T(v
j
)]

=
_
_
_
_
_

1j

2j
.
.
.

mj
_
_
_
_
_
=
_
_
_
_
_
0
F
0
F
.
.
.
0
F
_
_
_
_
_
.
Esto signica que
T(v
j
) = 0
F
w
1
+ 0
F
w
2
+ + 0
F
w
m
= 0
W
.
Por tanto T(v
j
) = 0
W
, para cada j = 1, 2, . . . , n. Entonces T es una transfor-
macion lineal que manda la base de V al conjunto 0
w
. Como el compor-
tamiento de una transformacion lineal esta determinado por su accion en los
elementos de una base de su dominio, tenemos que T es la transformacion
lineal cero. Esto muestra que Nuc(M) = 0 y, por tanto, M es inyectiva.
Como ya hicimos ver, se sigue entonces que M es un isomorsmo.
Por meritos propios, debemos darle un nombre a la matriz [T]

.
Denicion 4.48. Sean V un espacio vectorial de dimension n sobre el campo
F, y W un espacio vectorial de dimension m sobre F. Supongamos que =
v
1
, v
2
, . . . , v
n
es una base ordenada de V y que = w
1
, w
2
, . . . , w
m
es una
base ordenada de W. Si T : V W es una transformacion lineal, entonces a
la matriz
[T]

= ([T(v
1
)]

[ [T(v
2
)]

[ [ [T(v
n
)]

)
se le llama la matriz de T respecto a las bases ordenadas y .
Es tambien com un decir que [T]

es la matriz asociada a T con respecto a


las bases ordenadas y . Si V = W y = , entonces la matriz [T]

= [T]

se denotara simplemente como [T]

.
Consideremos ahora V, W, F, y como en la denicion anterior. Como
sabemos V es isomorfo a F
n
y la funcion

: V F
n
denida, para v V,
como

(v) = [v]

es un isomorsmo. De manera similar, la funcion

: W
F
m
denida, para w W, como

(w) = [w]

es un isomorsmo. Sea U : V
W una transformacion lineal y consideremos la matriz [U]

asociada a U, con
respecto a las bases ordenadas y . Notemos que [U]

M
mn
(F) por lo
4.14. MATRIZ ASOCIADA 231
que T
[U]

, la transformacion lineal asociada a [U]

, es una funcion de F
n
a
F
m
. Tenemos entonces que
U : V W y

: W F
m
,

: V F
n
y T
[U]

: F
n
F
m
.
Por tanto, las composiciones

U y T
[U]

, son transformaciones lineales


de V en F
m
. Si v V, entonces
_
T
[U]

_
(v) = T
[U]

(v)) = T
[U]

([v]

) = [U]

[v]

= [U(v)]

(U(v)) = (

U)(v).
Por tanto
T
[U]

U.
Con esto tenemos lo siguiente: estudiar una transformacion lineal denida
entre los espacios vectoriales V y W, puede ser complicado. Sin embargo,
podemos identicar V con F
n
y W con F
m
, utilizando los isomorsmos

, respectivamente. Una vez realizada dicha identicaci on, podemos


identicar U con T
[U]

. Por consiguiente, estudiar la transformacion U, en


cierto sentido, sera equivalente a estudiar la transformacion T
[U]

la cual, en
teora es mas sencilla, pues esta denida entre los espacios vectoriales F
n
y
F
m
los cuales son mas sencillos que los espacios V y W.
Notemos que de la igualdad T
[U]

U obtenemos que

T
[U]

= U y T
[U]

U
1

.
Supongamos ahora que V = F
n
y W = F
m
. Supongamos tambien que y
son las bases canonicas de F
n
y F
m
, respectivamente, y que esan ordenadas
en forma natural. Entonces, por el Teorema 4.32,

son las funciones


identidad en F
n
y en F
m
, respectivamente. Luego
T
[U]

U
1

= 1
F
m U 1
F
n = U.
Entonces T
[U]

= U. Esto signica que si tomamos una transformacion lineal


U, luego calculamos la matriz [U]

asociada a U con respecto a las bases


canonicas y y, por ultimo, consideramos la transformacion lineal asociada
a la matriz [U]

, entonces obtenemos la matriz U con la que empezamos. Mas


232 CAP

ITULO 4. TRANSFORMACIONES LINEALES


adelante, en el Teorema 4.54, retomaremos esto y mostraremos que el proceso
inverso tambien se cumple. Esto es, supongamos que empezamos con una
matriz A M
mn
(F), luego calculamos la transformacion lineal T
A
asociada
a A y, posteriormente la matriz [T
A
]

asociada a T
A
, con respecto a las bases
canonicas y . Entonces obtenemos A. Por tanto [T
A
]

= A.
4.14.3. Ejemplos
En la presente subseccion mostraremos una serie de ejemplos que ilustran
el calculo de la matriz [T]

.
Ejemplo 4.49. Consideremos la transformacion lineal T : R
2
R
3
denida,
para (x, y) R
2
, como
T(x, y) = (x + 3y, 0, 2x 4y).
Calcula [T]

si y son las bases canonicas de R


2
y de R
3
, respectivamente,
ordenadas en forma natural.
Solucion. Que la base canonica de R
2
este ordenada en forma natural, sig-
nica que su primer elemento es (1, 0) y el segundo es (0, 1). Las mismas
consideraciones hacemos al pensar que la base canonica de R
3
esta ordenada
en forma natural. Notemos ahora que
T(1, 0) = (1 + 3 0, 0, 2 1 4 0) = (1, 0, 2) = 1e
1
+ 0e
2
+ 2e
3
y
T(0, 1) = (0 + 3 1, 0, 2 0 4 1) = (3, 0, 4) = 3e
1
+ 0e
2
4e
3
donde e
1
= (1, 0, 0), e
2
= (0, 1, 0) y e
3
= (0, 0, 1). Por tanto
[T]

= ([T(1, 0)]

[ [T(0, 1)]

) =
_
_
1 3
0 0
2 4
_
_
.
Consideremos la transformacion lineal T del ejemplo anterior, as como
las bases ordenadas y . Supongamos que = e
3
, e
2
, e
1
. Entonces es
la base canonica de R
3
, pero ordenada de otra forma. Por tanto, como bases
ordenadas, ,= . Ahora bien, como
T(1, 0) = 2e
3
+ 0e
2
+ 1e
1
y T(0, 1) = 4e
3
+ 0e
2
+ 3e
1
,
4.14. MATRIZ ASOCIADA 233
sucede que
[T]

= ([T(1, 0)]

[ [T(0, 1)]

) =
_
_
2 4
0 0
1 3
_
_
.
Notemos que [T]

,= [T]

. Esto ejemplica lo que comentamos anteriormente,


que la unicidad de la matriz asociada a una transformacion lineal, depende
del par de bases ordenadas que elegimos en el dominio y en el contradominio
de la transformacion lineal. Para la transformacion lineal T, hemos cambiado
la base ordenada del contradominio, de a y, por consiguiente, las matrices
asociadas con respecto a las bases y y con respecto a las bases y , son
distintas, con todo y que y son iguales como conjuntos (pero no como
bases ordenadas).
Ejemplo 4.50. Consideremos el espacio vectorial P
3
(R) de los polinomios de
orden menor o igual a tres, con coecientes reales. Sea T : P
3
(R) P
3
(R) la
transformacion lineal derivada. Determina [T]

, donde es la base canonica


de P
3
(R), ordenada en forma natural.
Solucion. La base canonica de P
3
(R), ordenada en forma natural, es el
conjunto = f
1
, f
2
, f
3
, f
4
, donde
f
1
= 1, f
2
= x, f
3
= x
2
y f
4
= x
3
.
Notemos que
T(f
1
) = 0, T(f
2
) = 1, T(f
3
) = 2x y T(f
4
) = 3x
2
.
Ademas, como combinaci on lineal de los elementos de , tenemos que:
T(f
1
) = 0f
1
+ 0f
2
+ 0f
3
+ 0f
4
, T(f
2
) = 1f
1
+ 0f
2
+ 0f
3
+ 0f
4
,
T(f
3
) = 0f
1
+ 2f
2
+ 0f
3
+ 0f
4
y T(f
4
) = 0f
1
+ 0f
2
+ 3f
3
+ 0f
4
.
Por tanto
[T]

= ([T(f
1
)]

[ [T(f
2
)]

[ [T(f
3
)]

[ [T(f
4
)]

) =
_
_
_
_
0 1 0 0
0 0 2 0
0 0 0 3
0 0 0 0
_
_
_
_
.
234 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Como la derivada de una funcion hace decrecer el grado en una unidad, la
imagen de T esta contenida en el espacio vectorial P
2
(R). Considerando ahora
que T es una funcion de P
3
(R) a P
2
(R), cualquier matriz asociada a T sera de
orden 3 4. Si en P
3
(R) consideramos la base canonica = 1, x, x
2
, x
3
y
en P
2
(R) la base canonica = 1, x, x
2
entonces, del trabajo realizado
anteriormente, sucede que:
[T]

= ([T(f
1
)]

[ [T(f
2
)]

[ [T(f
3
)]

[ [T(f
4
)]

) =
_
_
0 1 0 0
0 0 2 0
0 0 0 3
_
_
.
Supongamos que T : V W es una transformacion lineal entre los espa-
cios vectoriales V y W de dimensiones n y m, respectivamente. Como hemos
indicado, cualquier transformacion lineal asociada a T es un matriz de orden
m n. Notemos ahora que Im(T) es un subespacio de W y que T, como
funcion de V en Im(T), es suprayectiva. Sea r = r(T) = dim(Im(T)). En-
tonces r m y, pensando a T como una funcion de V en Im(T), cualquier
matriz asociada a T es de orden r n. Notemos que dichas matrices de orden
r n reejan mejor la estructura de T que las matrices de orden mn.

Esto
ultimo es lo que se pretendio establecer en el ejemplo anterior. La matriz [T]

es mejor que la matriz [T]

, pues reeja mas la estructura de la derivada:


decrecer el grado en uno.
Ahora bien, a nivel teorico, no esperamos que todas las transformaciones
lineales sean suprayectivas, para que as su contradominio coincida con su
imagen. Nos tenemos que conformar con matrices de orden mn, en donde
m es la dimension del contradominio y n la del dominio de una transforma-
cion lineal dada. Lo que debemos tomar del ejemplo anterior es que, entre
mejor sea la eleccion del contradominio de una transformacion lineal, mejor
sera la correspondencia entre dicha transformacion lineal y cualquiera de sus
matrices asociadas.
4.14.4. Propiedades de la Matriz Asociada
Supongamos que V y W son espacios vectoriales sobre el campo F, que
dim(V ) = n, dim(W) = m y que
= v
1
, v
2
, . . . , v
n
y = w
1
, w
2
, . . . , w
n

4.14. MATRIZ ASOCIADA 235


son bases ordenadas en V y W, respectivamente. Si T, U /(V, W) y F
entonces, de acuerdo a lo demostrado en el Teorema 4.47, tenemos que
[T +U]

= [T]

+ [U]

y [T]

= [T]

.
Como consecuencia de dichas propiedades, la funcion
M: /(V, W) M
mn
(F)
denida, para T /(V, W), como M(T) = [T]

, resulto ser una transforma-


cion lineal. Como M es, de hecho, un isomorsmo las operaciones de suma
y multiplicaci on escalar en /(V, W), se corresponden con las operaciones de
suma y multiplicacion escalar en M
mn
(F). Si V = W, entonces M es un
isomorsmo entre /(V, V ) y M
nn
(F). Como /(V, V ) es un algebra lineal,
aparte de las operaciones de suma y multiplicaci on escalar, tenemos una o-
peracion de multiplicacion que, en este caso, es la composicion. Por tanto,
en vista de que los espacios /(V, V ) y M
nn
(F) son isomorfos, la operacion
de composicion de operadores lineales en V, debe de corresponderse con una
operacion en M
nn
(F).
En el Teorema 4.45 vimos que si A, B M
nn
(F) y T
A
, T
B
: F
n
F
n
son
las transformaciones lineales asociadas de A y B, respectivamente, entonces
T
A
T
B
es la transformacion lineal asociada a AB y T
B
T
A
es la transforma-
cion lineal asociada a BA. Como consecuencia de esto, la multiplicaci on de
matrices cuadradas se corresponde con la composicion de operadores lineales.
A continuaci on probaremos el recproco de dicho resultado, en una situacion
incluso mas general.
Teorema 4.51. Sean V, W y Z tres espacios vectoriales sobre el campo F,
dimensionalmente nitos y con bases ordenadas , y , respectivamente. Si
T /(V, W) y U /(W, Z), entonces
[U T]

= [U]

[T]

.
Demostracion. Supongamos que
= v
1
, v
2
, . . . , v
n
, = w
1
, w
2
, . . . , w
m
y = z
1
, z
2
, . . . , z
p
.
Hagamos A = [U]

, B = [T]

y C = AB. Notemos que B es de orden mn


y A es de orden p m. Por tanto C es una matriz de orden p n. Dada
236 CAP

ITULO 4. TRANSFORMACIONES LINEALES


1 j n tenemos que la j-esima columna de B es justo [T(v
j
)]

. Por tanto
T(v
j
) =
m

k=1
B
kj
w
k
.
Notemos que, en la igualdad de arriba, B
kj
es el elemento de la matriz B que
se encuentra en la posicion k-j. Notemos ahora que si 1 k m, entonces
la k-esima columna de A es [U(w
k
)]

. Por tanto
U(w
k
) =
p

i=1
A
ik
z
i
.
En la igualdad de arriba, A
ik
es el elemento de la matriz A que se encuentra
en la posicion i-k. Ahora bien, combinando las igualdades anteriores, tenemos
que, para 1 j n,
(U T)(v
j
) = U(T(v
j
)) = U
_
m

k=1
B
kj
w
k
_
=
m

k=1
B
kj
U(w
k
) =
=
m

k=1
B
kj
_
p

i=1
A
ik
z
i
_
=
m

k=1
p

i=1
B
kj
A
ik
z
i
=
p

i=1
m

k=1
A
ik
B
kj
z
i
=
=
p

i=1
_
m

k=1
A
ik
B
kj
_
z
i
=
p

i=1
C
ij
z
i
.
Por tanto
(U T)(v
j
) =
p

i=1
C
ij
z
i
. (4.14.5)
En la igualdad de arriba, C
ij
es el elemento de la matriz C = AB que se
encuentra en las posicion i-j. Notemos ahora que, dada 1 j n, la j-esima
columna de [U T]

es [(U T)(v
j
)]

. De acuerdo con la igualdad (4.14.5)


tenemos que
[(U T)(v
j
)]

=
_
_
_
_
_
C
1j
C
2j
.
.
.
C
pj
_
_
_
_
_
.
4.14. MATRIZ ASOCIADA 237
Por tanto
[U T]

= ([(U T)(v
1
)]

[ [(U T)(v
2
)]

[ [ [(U T)(v
n
)]

)
=
_
_
_
_
_
C
11
C
12
C
1n
C
21
C
22
C
2n
.
.
.
.
.
.
.
.
.
C
p1
C
p2
C
pn
_
_
_
_
_
= C = AB = [U]

[T]

.
Esto termina la demostracion.
Corolario 4.52. Sea V un espacio vectorial dimensionalmente nito con
una base ordenada . Si T, U /(V, V ), entonces
[U T]

= [U]

[T]

y [T U]

= [T]

[U]

.
Si V es como se indica en el corolario anterior y dim(V ) = n, entonces
a la composicion U T de los operadores lineales U y V, le corresponde el
producto [U]

[T]

de las matrices asociadas a U y V, y a la composicion T U


le corresponde el producto matricial [T]

[U]

. Notemos que esto ultimo es


posible, gracias a la forma en como se denio el producto de dos matrices.
En efecto, de acuerdo a lo indicado en la demostracion del teorema anterior,
tenemos que
(U T)(v
j
) =
p

i=1
_
m

k=1
A
ik
B
kj
_
z
i
.
Para que las cuentas salgan, debemos denir el producto C = AB de modo
que
C
ij
=
m

k=1
A
ik
B
kj
para cada 1 i p y cada 1 j n.

Esta es una de las razones del
porque el producto de dos matrices se dene como indicamos en la Seccion
3.6.
Como la composicion de transformaciones lineales es asociativa y la com-
posicion esta en correspondencia con el producto de matrices, necesariamente
el producto de matrices es asociativo. Como la composicion de transforma-
ciones lineales no es conmutativa, la multiplicacion de matrices tampoco es
conmutativa. En vista de la relacion que existe entre la composicion de trans-
formaciones lineales y el producto de matrices, los teoremas 3.22 y 3.23 son
238 CAP

ITULO 4. TRANSFORMACIONES LINEALES


ahora una consecuencia inmediata de propiedades que se cumplen para la
composicion de transformaciones lineales.
A continuaci on indicaremos otras propiedades de la matriz asociada a una
transformacion lineal. Como ya indicamos, los espacios vectoriales /(V, V )
y M
nn
(F) son isomorfos. Ademas la suma, multiplicacion escalar y com-
posicion en /(V, V ), se corresponden con la suma, multiplicaci on escalar y
producto en M
nn
(F). Mas a un, el neutro aditivo y el inverso aditivo de cada
elemento de /(V, V ), se corresponden con el neutro aditivo y el inverso aditivo
en M
nn
(F). Como tambien tenemos un neutro multiplicativo en /(V, V ),
es natural pensar que este se corresponde con el neutro multiplicativo en
M
nn
(F). En el siguiente teorema mostramos que esto es as. Recordemos
que el neutro multiplicativo en /(V, V ), es la transformacion lineal identidad
1
V
: V V, mientras que el neutro multiplicativo en M
nn
(F), es la matriz
identidad I
n
.
Teorema 4.53. Sea V un espacio vectorial dimensionalmente nito sobre el
campo F. Entonces [1
V
]

= I
n
, para cada base ordenada de V.
Demostracion. Sea = v
1
, v
2
, . . . , v
n
una base ordenada en V. Dada
1 i n, tenemos que [v
i
]

= e
i
, donde e
i
es el i-esimo vector canonico de
F
n
, esto es, todos los elementos de e
i
valen 0
F
salvo el que se encuentra en
la posicion i, cuyo valor es 1
F
. Entonces
[1
V
]

= ([1
V
(v
1
)]

[ [1
V
(v
2
)]

[ [ [1
V
(v
n
)]

)
= ([v
1
]

[ [v
2
]

[ [ [v
n
]

)
=
_
_
_
_
_
1
F
0
F
0
F
0
F
1
F
0
F
.
.
.
.
.
.
.
.
.
0
F
0
F
1
F
_
_
_
_
_
= I
n
.
En la Seccion 4.44, estudiamos la funcion
H: M
mn
(F) /(F
n
, F
m
)
denida, para A M
mn
(F), como H(A) = T
A
, donde T
A
es la transforma-
cion lineal asociada a A. Vimos que H es un isomorsmo. Posteriormente,
en el Teorema 4.47, consideramos la funcion
M: /(V, W) M
mn
(F)
4.14. MATRIZ ASOCIADA 239
denida, para T /(V, W), como M(T) = [T]

. Vimos que M es tambien un


isomorsmo. En la denicion de M, entendemos que V es cualquier espacio
de dimension n sobre el campo F, W es cualquier espacio de dimension m
sobre el campo F y que y son cualesquiera dos bases ordenadas en V
y W, respectivamente. Por tanto, una mejor notacion para M debera ser
M(V, W, , ).
Supongamos ahora que V = F
n
, W = F
m
y que y son las bases
canonicas de F
n
y F
m
, respectivamente, ordenadas en forma natural. Por
simplicidad, denotemos la funcion M(F
n
, F
m
, , ) como M. Entonces
H: M
mn
(F) /(F
n
, F
m
) y M: /(F
n
, F
m
) M
mn
(F).
Es natural preguntarse si las funciones H y M son una el inverso de la otra.
En el siguiente teorema respondemos esto en armativo.
Teorema 4.54. La inversa de la funcion H es la funcion M y, por tanto, la
inversa de M es H.
Demostracion. Mostraremos primero que MH = 1, en donde el smbolo 1
representa la funcion identidad de M
mn
(F) en M
mn
(F). Si A M
mn
(F),
entonces
(M H)(A) = M(H(A)) = M(T
A
) = [T
A
]

.
Escribamos la base canonica de F
n
como = e
1
, e
2
, . . . , e
n
. Por deni-
cion tenemos que
[T
A
]

= ([T
A
(e
1
)]

[ [T
A
(e
2
)]

[ [ [T
A
(e
n
)]

)
= ([Ae
1
]

[ [Ae
2
]

[ [ [Ae
n
]

).
Ademas, dada 1 j n,
Ae
j
=
_
_
_
_
_
_
_
_
_
A
11
A
12
A
1j
A
1n
A
21
A
22
A
2j
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
i1
A
i2
A
ij
A
in
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mj
A
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
F
0
F
.
.
.
1
F
.
.
.
0
F
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
A
1j
A
2j
.
.
.
A
ij
.
.
.
A
mj
_
_
_
_
_
_
_
_
_
.
Entonces el vector Ae
j
es la j-esima columna de A. Ahora bien, como es
la base canonica de F
m
, por el Teorema 4.32, [Ae
j
]

= Ae
j
. Por consiguiente
[T
A
]

= ([Ae
1
]

[ [Ae
2
]

[ [ [Ae
n
]

) = A.
240 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Esto muestra que (M H)(A) = [T
A
]

= A.
Ahora probaremos que H M = 1, en donde el smbolo 1 representa
ahora la funcion identidad de /(F
n
, F
m
) en /(F
n
, F
m
). Como es la base
canonica en F
n
, es la base canonica en F
m
y ambas estan ordenadas en la
forma natural tenemos, por el Teorema 4.32, que [v]

= v y [w]

= w para
cada v F
n
y cada w F
m
. Tomemos ahora un elemento U /(F
n
, F
m
).
Entonces
(H M)(U) = H(M(U)) = H([U]

) = T
[U]

,
donde T
[U]

es la transformacion lineal asociada a la matriz [U]

. Para ver
que las transformaciones lineales T
[U]

y U son iguales, basta con hacer ver


que coinciden en la base de F
n
. Como antes, escribamos la base canonica
de V como = e
1
, e
2
, . . . , e
n
. Entonces, para 1 j n,
T
[U]

(v
j
) = [U]

e
j
= [U]

[e
j
]

= [U(e
j
)]

= U(e
j
).
Esto muestra que (H M)(U) = T
[U]

= U.
En el teorema anterior es muy importante que en los espacios F
n
y F
m
tomemos las bases canonicas ordenadas en la forma natural. Si tomamos
cualesquiera otras bases en dichos espacios, entonces H no es la inversa de
M, ni M la de H.
4.15. Transformaciones Lineales Invertibles
En la Seccion 3.8, estudiamos el concepto de inversa de una matriz.
Recordemos que si A M
nn
(F), entonces A es invertible si existe C
M
nn
(F) tal que AC = CA = I
n
, donde I
n
es la matriz identidad de orden
nn. Recordemos tambien que si A es invertible, entonces la matriz C indi-
cada anteriormente, es unica, se llama la inversa de A y se denota por A
1
.
En el Teorema 3.33, mostramos que si A es invertible, entonces A
1
tambien
es invertible y (A
1
)
1
= A. Ademas vimos que si A y B son invertibles,
entonces AB tambien es invertible y (AB)
1
= B
1
A
1
.
Naturalmente podemos denir transformaciones lineales invertibles, de la
misma manera como denimos matrices invertibles.
4.15. TRANSFORMACIONES LINEALES INVERTIBLES 241
Denicion 4.55. Sean V y W dos espacios vectoriales sobre el campo F.
Decimos que T /(V, W) es invertible si existe S /(W, V ) tal que
T S = 1
W
y S T = 1
V
, donde 1
W
y 1
V
representan las funciones identidad
en W y en V, respectivamente.
Como las transformaciones lineales son funciones, una transformacion li-
neal es invertible, si como funcion es invertible. Podemos entonces apelar a
lo que vimos en

Algebra Superior I y decir que si T /(V, W) es invertible,
entonces solo existe una transformacion lineal S /(W, V ) tal que TS = 1
W
y S T = 1
V
. Como en el caso de las matrices, a S se le llama la inversa de
T y se la denota por T
1
. Tambien, por lo que se vio en

Algebra Superior I,
tenemos que
1) si T /(V, W) y U /(W, V ) son invertibles entonces las transfor-
maciones lineales T U y T
1
son invertibles y
(T U)
1
= U
1
T
1
y (T
1
)
1
= T.
2) T /(V, W) es invertible si y solo si T es biyectiva.
De acuerdo con 2) las transformaciones lineales invertibles son justo los
isomorsmos. Por tanto, las propiedades de las transformaciones lineales in-
vertibles, son justo las que estudiamos en la Seccion 4.7. En particular, en el
Teorema 4.27, podemos agregar una condicion 6) que diga: T es invertible.
Por tanto, si V es un espacio vectorial dimensionalmente nito, entonces una
transformacion lineal T : V V es invertible si y solo si T es inyectiva.
En el Teorema 4.13, mostramos que si A M
nn
(F) y T
A
: F
n
F
n
es la transformacion lineal asociada de A, entonces A es invertible si y solo
si la funcion T
A
es inyectiva. Por lo comentado al nal del parrafo anterior,
tenemos que A es invertible si y solo si T
A
es invertible. A continuaci on
probaremos el siguiente resultado, el cual sigue la misma direccion que el que
acabamos de mencionar.
Teorema 4.56. Sean V y W dos espacios vectoriales sobre el campo F.
Supongamos que V y W son dimensionalmente nitos y que y son bases
ordenadas de V y W, respectivamente. Sea T /(V, W). Entonces T es
invertible si y solo si la matriz [T]

es invertible. Ademas
([T]

)
1
= [T
1
]

.
242 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Demostracion. Supongamos primero que T es invertible. Entonces T es un
isomorsmo. Luego, por el Teorema 4.26, dim(V ) = dim(W). Esto implica,
haciendo n = dim(V ), que la matriz [T]

es de orden n n. Consideremos
ahora la transformacion lineal inversa T
1
: W V. Por el Teorema 4.51,
tenemos que
[T
1
T]

= [T
1
]

[T]

.
Ahora bien, como hemos convenido, [T
1
T]

= [T
1
T]

. Ademas T
1
T =
1
V
as que, por el Teorema 4.53,
[T
1
T]

= [1
V
]

= I
n
.
Combinando las igualdades anteriores, tenemos que
[T
1
]

[T]

= I
n
.
Ahora, como T T
1
= 1
W
, aplicando de nuevo los teoremas 4.51 y 4.53,
I
n
= [1
W
]

= [T T
1
]

= [T T
1
]

= [T]

[T
1
]

.
Por tanto [T]

[T
1
]

= [T
1
]

[T]

= I
n
. Esto prueba que la matriz [T]

es invertible y que su inversa es [T


1
]

. Esto prueba la primera parte del


teorema.
Supongamos ahora que la matriz A = [T]

es invertible. Entonces A es, en


particular, una matriz cuadrada. Esto implica que dim(V ) = dim(W), pues
A es la matriz asociada a una transformacion lineal denida entre espacios
dimensionalmente nitos. Ademas, como A es invertible, existe una matriz
B M
nn
(F) tal que AB = BA = I
n
. Hagamos
= v
1
, v
2
, . . . , v
n
y = w
1
, w
2
, . . . , w
n
.
Dada 1 j n denamos
z
j
=
n

i=1
B
ij
v
i
.
Notemos que z
j
V, para cada 1 j n. Ademas, por el Teorema 4.7,
existe solo una transformacion lineal U : W V tal que
U(w
j
) = z
j
4.15. TRANSFORMACIONES LINEALES INVERTIBLES 243
para cada 1 j n. Notemos que
[U(w
j
)]

=
_
_
_
_
_
B
1j
B
2j
.
.
.
B
nj
_
_
_
_
_
para cada 1 j n. Por tanto
[U]

= ([U(w
1
)]

[ [U(w
2
)]

[ [ [U(w
n
)]

)
=
_
_
_
_
_
B
11
B
12
B
1n
B
21
B
22
B
2n
.
.
.
.
.
.
.
.
.
B
n1
B
n2
B
nn
_
_
_
_
_
= B.
Esto es [U]

= B. Por consiguiente, aplicando los teoremas 4.51 y 4.53,


[U T]

= [U T]

= [U]

[T]

= BA = I
n
= [1
V
]

y
[T U]

= [T U]

= [T]

[U]

= AB = I
n
= [1
W
]

.
De la primera serie de igualdades, deducimos que 1
V
y UT son dos transfor-
maciones lineales de V en V, que tienen asociadas la misma matriz. Como la
funcion que a cada transformacion lineal le asocia una matriz (con respecto a
un par de bases ordenadas, por supuesto) es un isomorsmo, necesariamente
U T = 1
V
. De manera similar tenemos que T U = 1
W
. Esto prueba que T
es invertible.
Corolario 4.57. Supongamos que V es un espacio vectorial, dimensional-
mente nito, sobre el campo F. Sean una base ordenada de V y T
/(V, V ). Entonces T es invertible si y solo si [T]

es invertible. Ademas
[T]
1

= [T
1
]

.
Lo que el corolario anterior indica es que, en el algebra lineal /(V, V ),
si un elemento T /(V, V ) admite un neutro multiplicativo, entonces la
matriz [T]

M
nn
(F) asociada a T, con respecto a la base ordenada ,
tambien admite un neutro multiplicativo. Ademas dice que la imagen del
neutro multiplicativo de T, es el neutro multiplicativo de [T]

. Notemos que,
244 CAP

ITULO 4. TRANSFORMACIONES LINEALES


de existir, el neutro multiplicativo de T es su inversa. Notemos tambien que,
de existir, el neutro multiplicativo de una matriz es su inversa.
La consideraciones realizadas en el parrafo anterior tienen sentido. Mien-
tras que en un campo, todo elemento no nulo admite un inverso multiplicati-
vo, en un anillo como lo es /(V, V ), no necesariamente se tiene que cualquier
transformacion lineal no nula tiene un inverso multiplicativo. En efecto, si
cualquier operador lineal no nulo en V tiene un inverso multiplicativo en-
tonces, por el corolario anterior, cualquier matriz cuadrada y no nula sera
invertible, cosa que sabemos no es cierto.
De acuerdo con el Teorema 4.56 y la conexion que existe entre la com-
posicion de transformaciones lineales con el producto de matrices, varias
propiedades que probamos para la inversa de una matriz, como los teore-
mas 3.33 y 3.34, son consecuencia de propiedades que se cumplen para la
composicion de transformaciones lineales. Por ejemplo, el producto de ma-
trices invertibles es invertible, pues la composicion de isomorsmos es un
isomorsmo. Ademas si A y B son invertibles, entonces AB es invertible y
(AB)
1
= B
1
A
1
, pues la composicion T U de isomorsmos es un isomor-
smo y (T U)
1
= U
1
T
1
.
Terminamos la presente seccion, dando una prueba alternativa y mas
simple del Teorema 4.13.
Teorema 4.58. Supongamos que A M
nn
(F) y que T
A
: F
n
F
n
es la
transformacion lineal asociada de A. Entonces A es invertible si y solo si la
funcion T
A
es invertible. Ademas
(T
A
)
1
= T
A
1.
Demostracion. Notemos que si v F
n
, entonces
(T
A
1 T
A
)(v) = T
A
1(T
A
(v)) = T
A
1(Av) = A
1
(Av) = (A
1
A)v = I
n
v = v
y
(T
A
T
A
1)(v) = T
A
(T
A
1(v)) = T
A
(A
1
v) = A(A
1
v) = (AA
1
)v = I
n
v = v.
Por tanto T
A
es invertible y su inversa es T
A
1.
4.16. CAMBIO DE COORDENADAS 245
4.16. Cambio de Coordenadas
4.16.1. La Matriz de Cambio de Base
En la Seccion 4.9 estudiamos la forma de pasar entre dos bases ordenadas
del mismo espacio vectorial. Como ya indicamos, el trabajo realizado en la
Seccion 4.9, se puede tambien deducir de lo realizado en la Subseccion 4.14.2.
Para ver esto, supongamos que V es un espacio vectorial de dimension n sobre
el campo F. Supongamos, ademas, que
= v
1
, v
2
, . . . , v
n
y

= v

1
, v

2
, . . . , v

son dos bases ordenadas de V. Consideremos ahora la transformacion lineal


identidad 1
V
: V V de V en V. Sea A = [1
V
]

la matriz asociada a 1
V
,
con respecto a las bases

y . Entonces, por denicion,


[1
V
]

= ([1
V
(v

1
)]

[ [1
V
(v

2
)]

[ [ [1
V
(v

n
)]

) = ([v

1
]

[ [v

2
]

[ [ [v

n
]

).
Notemos que la matriz
A = ([v

1
]

[ [v

2
]

[ [ [v

n
]

)
es la que se muestra en el Teorema 4.34 y se dene como la matriz de cambio
de base, de la base ordenada

a la base ordenada . De acuerdo con la


condicion (4.14.3), tenemos que
[v]

= [1
V
(v)]

= [1
V
]

[v]

= A[v]

,
es decir [v]

= A[v]

. La igualdad anterior es justo la que se muestra en el


Teorema 4.34. Entonces, para tener una prueba alternativa del Teorema 4.34,
solo hay que probar que la matriz A M
nn
(F) es invertible. Como A es la
matriz asociada de la transformacion lineal identidad, la cual es invertible,
por el Teorema 4.56, A es invertible. De esta manera, el trabajo mostrado en
la Seccion 4.9, se simplica bastante utilizando la nocion de matriz asociada
a una transformacion lineal.
4.16.2. Matrices Asociadas a la Misma Transformacion
Lineal
Supongamos que T : V W es una transformacion lineal entre los espa-
cios vectoriales V y W, ambos dimensionalmente nitos. Supongamos tam-
bien que y

son bases ordenadas en V, mientras que y

son bases
246 CAP

ITULO 4. TRANSFORMACIONES LINEALES


ordenadas en W. Entonces podemos considerar las matrices [T]

y [T]

, co-
rrespondientes a las bases ordenadas y y a la bases ordenadas

,
respectivamente. Que relacion existe entre las matrices [T]

y [T]

?
Para responder la pregunta anterior, utilizaremos una buena parte de lo
estudiado en este captulo. Supongamos que dim(V ) = n y dim(W) = m.
Notemos que [T]

, [T]

M
mn
(F). Consideremos ahora la matriz Q
M
nn
(F) de cambio de base, de la base

a la base de V. Consideremos
tambien la matriz P M
mm
(F) de cambio de base, de la base

a la base
de W. Por lo que vimos en la subseccion anterior,
Q = [1
V
]

y P = [1
W
]

.
Tomemos un elemento v V. Utilizando la ecuacion (4.14.3) y el Teorema
4.51, tenemos que
[T]

Q[v]

= [T]

[1
V
]

[v]

= [T 1
V
]

[v]

= [T]

[v]

= [T(v)]

y
P[T]

[v]

= [1
W
]

[T]

[v]

= [1
W
T]

[v]

= [T]

[v]

= [T(v)]

.
Esto muestra que
[T]

Q[v]

= P[T]

[v]

para cada v V. Hagamos ahora A = [T]

Q y B = P[T]

. Entonces A, B
M
mn
(F). Sean T
A
, T
B
: F
n
F
m
las transformaciones lineales asociadas a
las matrices A y B, respectivamente. Mostraremos que T
A
(x) = T
B
(x), para
cada x F
n
. Para ver esto, tomemos un elemento x = (
1
,
2
, . . . ,
n
) F
n
.
Hagamos

= v

1
, v

2
, . . . , v

n
y consideremos el vector
v

=
1
v

1
+
2
v

n
+ +
n
v

n
.
Notemos que v

V y que
[v

=
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
= x.
4.16. CAMBIO DE COORDENADAS 247
Como la igualdad [T]

Q[v]

= P[T]

[v]

es cierta para cada elemento v de


V, en particular es cierta para v

. Utilizando esto y el hecho de que T


A
y T
B
son las transformaciones lineales asociadas a las matrices A y B, tenemos
que:
T
A
(x) = Ax = [T]

Qx = [T]

Q[v

= P[T]

[v

= Bx = T
B
(x).
Esto muestra que T
A
(x) = T
B
(x) para cada x F
n
. Por tanto T
A
= T
B
.
En terminos de la funcion H: M
mn
(F) /(F
n
, F
m
), que a cada matriz
le asigna su transformacion lineal asociada, tenemos que H(A) = H(B).
Como H es un isomorsmo (Teorema 4.44), en particular H es una funcion
inyectiva. Por tanto A = B. Luego
[T]

Q = P[T]

. (4.16.1)
Ahora bien, P es una matriz invertible pues P es una matriz de cambio de
base. Por tanto, en la igualdad anterior, podemos multiplicar por P
1
por la
izquierda y obtener que
P
1
([T]

Q) = P
1
(P[T]

) = (P
1
P)[T]

.
Por consiguiente
P
1
[T]

Q = [T]

. (4.16.2)
La igualdad (4.16.2) indica que si conocemos la matriz [T]

entonces, mul-
tiplicandola por la derecha por Q y por la izquierda por P
1
, obtenemos la
matriz [T]

. Naturalmente podemos tambien multiplicar por la derecha la


ecuacion (4.16.1) por Q
1
, para obtener
[T]

= P[T]

Q
1
. (4.16.3)
Esta igualdad nos dice que si conocemos la matriz [T]

entonces multi-
plicandola por la derecha por Q
1
y por la izquierda por P, obtenemos la
matriz [T]

. Las ecuaciones (4.16.2) y (4.16.3) responden la pregunta formula-


da. Sabemos que las matrices [T]

y [T]

son distintas pues, para obtenerlas,


utilizamos bases ordenadas distintas tanto en el dominio como en el contrado-
minio de la transformacion lineal T. Aunque dichas matrices son distintas,
las ecuaciones (4.16.2) y (4.16.3) dicen que para pasar de una a la otra, hay
que multiplicar por dos matrices invertibles especiales.
A continuacion escribimos lo obtenido como el cuerpo de un teorema.
248 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Teorema 4.59. Supongamos que V y W son espacios vectoriales, dimen-
sionalmente nitos, sobre el campo F. Supongamos que
1) y

son dos bases ordenadas de V ;


2) y

son dos bases ordenadas de W;


3) P = [1
W
]

es la matriz de cambio de base, de la base

a la base ;
4) Q = [1
V
]

es la matriz de cambio de base, de la base

a la base .
Si T : V W es una transformacion lineal, entonces
[T]

= P[T]

Q
1
y [T]

= P
1
[T]

Q. (4.16.4)
Como caso particular del teorema anterior, supongamos que V = W,
= y

. Entonces P = Q, [T]

= [T]

= [T]

y [T]

= [T]

= [T]

.
Por tanto, el teorema anterior posee la siguiente formulaci on.
Teorema 4.60. Supongamos que V es un espacio vectorial, dimensional-
mente nito, sobre el campo F. Supongamos que
1) y

son dos bases ordenadas de V ;


2) Q = [1
V
]

es la matriz de cambio de base, de la base

a la base .
Si T : V V es una transformacion lineal, entonces
[T]

= Q[T]

Q
1
y [T]

= Q
1
[T]

Q. (4.16.5)
Supongamos ahora que V es como en el teorema anterior y que
= v
1
, v
2
, . . . , v
n
y

= v

1
, v

n
, . . . , v

son dos bases ordenadas en V. Supongamos que Q = [1


V
]

es la matriz
de cambio de base, de la base

a la base . Consideremos ahora la unica


transformacion lineal U : V V tal que U(v
i
) = v

i
, para cada i = 1, 2, . . . , n.
Entonces
[U]

= [U]

= ([U(v
1
)]

[ [U(v
2
)]

[ [ [U(v
n
)]

)
= ([v

1
]

[ [[v

2
]

[ [ [[v

n
]

) = [1
V
]

= Q.
Esto prueba que Q = [U]

. En otras palabras, la igualdad Q = [U]

dice que
4.16. CAMBIO DE COORDENADAS 249
(*) la matriz de cambio de base, de la base ordenada

a la base ordenada
de V, coincide con la matriz asociada, en la base , de la unica
transformacion lineal que manda la base en la base

, respetando el
orden impuesto en dichas bases.
As pues, para calcular la matriz de cambio de base, de la base ordenada

a la base ordenada de V, tenemos dos caminos. O calculamos [1


V
]

o
bien primero encontramos la transformacion lineal U : V V que manda
la base en la base

, respetando el orden impuesto en dichas bases y,


posteriormente calculamos [U]

.
Como Q = [U]

tenemos, la segunda ecuacion mostrada en (4.16.5) toma


la forma
[T]

= Q
1
[T]

Q = [U]
1

[T]

[U]

.
Utilizando los corolarios 4.52 y 4.57, tenemos que
[U]
1

[T]

[U]

= [U
1
]

[T]

[U]

= [U
1
T U]

.
Por tanto
[T]

= [U
1
T U]

.
La igualdad anterior puede ser utilizada para calcular la matriz [T]

. Para
obtenerla, debemos primero calcular la transformacion lineal U ya indicada.
Posteriormente debemos calcular U
1
as como la composicion U
1
T U,
la cual es una transformacion lineal de V en V. Una vez calculada dicha
composicion, debemos calcular ahora [U
1
T U]

. La matriz obtenida
sera [T]

. Notemos que el calculo anterior no implica el conocimiento de la


matriz [T]

.
Como tambien
[T]

= Q
1
[T]

Q,
si ya conocemos [T]

entonces, para calcular [T]

, podemos en su lugar
calcular primero la matriz Q de cambio de base, de la base

a la base .
Posteriormente debemos calcular la inversa de Q por la forma que estudiamos
en la Seccion 3.8. Una vez que tenemos calculadas Q y Q
1
, debemos calcular
el producto Q
1
[T]

Q. La matriz obtenida sera [T]

.
El metodo mostrado en el parrafo anterior es, en general, mejor que el
indicado primero, pues el calculo de la inversa de una transformacion lineal
250 CAP

ITULO 4. TRANSFORMACIONES LINEALES


puede resultar algo engorroso, e incluso complicado. Tambien es engorroso
el calculo de la inversa de una matriz pero, por lo menos, contamos con un
metodo para realizar esto.
4.16.3. Matrices Semejantes
Antes de terminar la presente seccion, conviene recordar las ecuaciones
que encontramos en (4.16.5). En ellas obtuvimos que las matrices [T]

y [T]

se relacionan seg un las formulas


[T]

= Q[T]

Q
1
y [T]

= Q
1
[T]

Q.
La siguiente denicion indica el nombre que se le da a la relacion anterior.
Denicion 4.61. Supongamos que A, B M
nn
(F). Decimos que B es
semejante a A sobre el campo F si existe una matriz invertible Q
M
nn
(F) tal que B = Q
1
AQ.
Como [T]

= Q
1
[T]

Q, la matriz [T]

es semejante a A sobre el campo


F.
En el siguiente teorema mostramos una de las propiedades mas impor-
tantes de las matrices semejantes.
Teorema 4.62. La relacion de semejanza de matrices es de equivalencia.
Demostracion. Si A, B M
nn
(F) escribimos A B si la matriz B es
semejante a A sobre el campo F. Si Q = I
n
es la matriz identidad, entonces
Q
1
= Q y, ademas
Q
1
AQ = QAQ = I
n
AI
n
= A.
Esto muestra que A A, por lo que la relacion es reexiva. Ahora
supongamos que A B. Entonces existe una matriz invertible Q tal que
B = Q
1
AQ. Multiplicando la ecuacion anterior por Q, por la izquierda,
obtenemos que
QB = Q(Q
1
AQ) = (QQ
1
)AQ = I
n
(AQ) = AQ.
Ahora multipliquemos la ecuacion QB = AQ por Q
1
, por la derecha. En-
tonces
QBQ
1
= (AQ)Q
1
= A(QQ
1
) = AI
n
= A.
4.16. CAMBIO DE COORDENADAS 251
Por tanto A = QBQ
1
. Hagamos ahora P = Q
1
. Entonces P es invertible,
P
1
= (Q
1
)
1
= Q y la ecuacion A = QBQ
1
toma la forma A = P
1
BP.
Esto muestra que B A, por lo que la relacion es simetrica.
Supongamos ahora que A B y B C. Entonces existen matrices
invertibles Q y R tales que B = Q
1
AQ y C = R
1
BR. Como el producto
de matrices es asociativo y la inversa de un producto es el producto de las
inversas, pero invirtiendo el orden, sucede que
C = R
1
BR = R
1
(Q
1
AQ)R = (R
1
Q
1
)A(QR) = (QR)
1
A(QR).
Haciendo P = QR tenemos que P es invertible, pues es un producto de
matrices invertibles. Ademas la ecuacion C = (QR)
1
A(QR) toma la forma
C = P
1
AP. Esto muestra que A C, por lo que la relacion es transitiva.
Por consiguiente, la relacion es de equivalencia.
En vista del teorema anterior, si la matriz B es semejante a A, entonces
A es semejante a B. Por tanto, podemos simplemente decir que las matrices
A y B son semejantes (sobre el campo F, por supuesto). Como las relaciones
de equivalencia emulan la relacion de igualdad, las matrices semejantes se
pueden considerar como iguales (a los ojos de la relacion de equivalencia).
Entonces, regresando al contexto de la subseccion anterior, las matrices [T]

y [T]

, aunque distintas en el sentido estricto, se pueden considerar como


iguales, con respecto a la relacion de equivalencia de semejanza de matrices.
Considerando las hipotesis del Teorema 4.59, las matrices [T]

y [T]

no
son semejantes. En efecto, para que dos matrices sean semejantes, se requiere
que sean cuadradas y las matrices [T]

y [T]

no tienen por que serlo. Sin


embargo, las matrices [T]

y [T]

estan relacionadas en otro sentido. Veamos,


seg un (4.16.4), tenemos que
[T]

= P
1
[T]

Q.
La igualdad anterior nos permite denir una nueva relacion entre matrices
de orden m n. Si A, B M
mn
(F), diremos que A B si existen dos
matrices invertibles P M
mm
(F) y Q M
nn
(F) tales que B = P
1
AQ.
Siguiendo esencialmente las mismas ideas mostradas en la demostracion del
teorema anterior, se puede probar que es una relacion de equivalencia. Lo
anterior nos lleva a la siguiente denicion.
252 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Denicion 4.63. Supongamos que A, B M
mn
(F). Decimos que B es
conjugada a A sobre el campo F si existen dos matrices invertibles
P M
mm
(F) y Q M
nn
(F) tales que B = P
1
AQ.
Tenemos entonces que las matrices [T]

y [T]

son conjugadas. En termi-


nos de la relacion , las matrices [T]

y [T]

son equivalentes. Podemos


tambien decir que la matriz [T]

se encuentra en la clase de equivalencia


de [T]

. Un problema interesante es el de encontrar elementos en la clase de


equivalencia de [T]

que sean los mas simples posibles. Como los elementos


en la clase de equivalencia de [T]

son matrices, lo que se pretende es en-


contrar las matrices mas sencillas posibles, que se encuentren en la clase de
equivalencia de [T]

.
Como caso particular del problema planteado en el parrafo anterior,
podemos considerar que V = W. Entonces [T]

es una matriz cuadrada


y, por tanto, podemos pensar que una matriz A en la clase de equivalencia
de [T]

es de lo mas sencilla posible, si A se parece a la identidad. Mas es-


peccamente, podemos pensar que si A posee un elemento no nulo, este se
encuentra en la diagonal principal de A. La manera de encontrar una matriz
A con las propiedades indicadas, se obtiene a traves del calculo de lo que se
llaman los valores y vectores propios de una matriz dada, en este caso de
[T]

. Para aquellos que esten acostumbrados con el lenguaje, A es la matriz


diagonal cuyos elementos en la diagonal principal son los valores propios de
la matriz [T]

.
4.17. Ejercicios
1. Sea T : C
3
C
3
la unica transformacion lineal tal que
T(1, 0, 0) = (1, 0, i), T(0, 1, 0) = (0, 1, 1) y T(0, 0, 1) = (i, 1, 0).
Es T invertible? Justica tu respuesta.
2. Sea T : R
3
R
3
la tranformacion lineal denida, para (x
1
, x
2
, x
3
) R
3
,
como
T(x
1
, x
2
, x
3
) = (3x
1
, x
1
x
2
, 2x
1
+x
2
+x
3
).
Es T invertible? De serlo, encuentra una expresion para T
1
como
aquella que dene a T.
4.17. EJERCICIOS 253
3. Encuentra dos transformaciones lineales T, U : R
2
R
2
tales que
T U = 0 y U T ,= 0,
donde el smbolo 0 representa la transformacion lineal cero.
4. Supongamos que V es un espacio vectorial sobre el campo de los n umeros
complejos. Supongamos tambien que existe un isomorsmo T : V C
3
.
Sean v
1
, v
2
, v
3
, v
4
V tales que
T(v
1
) = (1, 0, i), T(v
2
) = (2, 1 +i, 0)
T(v
3
) = (1, 1, 1), T(v
4
) = (

2, i, 3).
a) Esta v
1
en el subespacio generado por v
2
y v
3
? Justica tu res-
puesta.
b) Supongamos que W
1
es el subespacio generado por v
1
y v
2
y que
W
2
es el subespacio generado por v
3
y v
4
. Cual es la interseccion
de W
1
y W
2
?
c) Encuentra una base del subespacio W de V generado por v
1
, v
2
, v
3
y v
4
.
5. Sea T : R
3
R
2
la transformacion lineal denida, para (x
1
, x
2
, x
3
)
R
3
, como
T(x
1
, x
2
, x
3
) = (x
1
+x
2
, 2x
3
x
1
).
a) Supongamos que es la base canonica de R
3
, ordenada en forma
natural, y que es la base canonica de R
2
, tambien ordenada en
forma natural. Cual es la matriz [T]

asociada a T, con respecto


a las bases y ?
b) Supongamos ahora que

= v
1
, v
2
, v
3
y

= w
1
, w
2
, donde
v
1
= (1, 0, 1), v
2
= (1, 1, 1), v
3
= (1, 0, 0),
w
1
= (0, 1) y w
2
= (1, 0).
Verica que

son bases de R
3
y de R
2
, respectivamente.
Supongamos que dichas bases estan ordenadas, y que su orden
es el que se indico cuando escribimos sus elementos. Calcula la
matriz [T]

.
254 CAP

ITULO 4. TRANSFORMACIONES LINEALES


c) Verica que las matrices [T]

y [T]

son conjugadas, encontrando


las correspondientes matrices P y Q que se indican en el Teore-
ma 4.59, y vericando alguna de las dos ecuaciones mostradas en
(4.16.4).
6. Supongamos que T : R
2
R
2
es la transformacion lineal denida, para
(x
1
, x
2
) R
2
, como
T(x
1
, x
2
) = (x
2
, x
1
).
a) Supongamos que es la base canonica de R
2
, ordenada en forma
natural. Calcula la matriz [T]

.
b) Consideremos ahora la base ordenada = v
1
, v
2
de R
2
, donde
v
1
= (1, 2) y v
2
= (1, 1). Calcula la matriz [T]

.
c) Supongamos que I = 1
R
2 : R
2
R
2
es la transformacion lineal
identidad. Muestra que, para cada c R, la transformacion lineal
T cI es invertible.
d) Sea cualquier base ordenada de R
2
. Supongamos que
[T]

=
_
a b
c d
_
.
Prueba que bc ,= 0.
7. Supongamos que T : R
3
R
3
es una transformacion lineal tal que
[T]

=
_
_
1 2 1
0 1 1
1 3 4
_
_
,
donde es la base canonica de R
3
, ordenada en forma natural. En-
cuentra una base para Im(T), as como una base para Nuc(T).
8. Consideremos la transformacion lineal T : M
22
(R) P
2
(R) denida
como
T
_
a b
c d
_
= (a +b) + (2d)x +bx
2
.
Consideremos las bases canonicas
=
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
y = 1, x, x
2

4.17. EJERCICIOS 255


de M
22
(R) y P
2
(R), respectivamente, ordenadas como se indica. Cal-
cula [T]

.
9. Supongamos que V es el espacio vectorial de los n umeros complejos
sobre el campo R. Denamos T : V V como T(z) = z, donde z es
el conjugado de z V. Demuestra que T es una transformacion lineal.
Considera ahora la base ordenada = 1, i. Calcula [T]

. Demuestra
ahora que T no es una transformacion lineal, si consideramos que V
es el espacio vectorial de los n umeros complejos, sobre el campo de los
n umeros complejos.
10. Supongamos que F es un campo. Denamos
V =
__
a a +b
0 c
_
: a, b, c F
_
.
Notemos que V M
22
(F). Construye un isomorsmo entre V y F
3
.
11. Consideremos la transformacion lineal T : R
2
R
3
denida, para
(a
1
, a
2
) R
2
, como
T(a
1
, a
2
) = (3a
1
a
2
, 2a
1
+ 4a
2
, a
1
+a
2
).
Supongamos que y son las bases canonicas de R
2
y R
3
, respectiva-
mente, ordenadas en forma natural. Supongamos tambien que

= (2, 1), (1, 1) y

= (1, 1, 0), (0, 2, 0), (0, 1, 1).


a) Demuestra que

son bases de R
2
y de R
3
, respectivamente.
Supongamos ahora que dichas bases se encuentran ordenadas, y
que su orden es el indicado cuando las escribimos.
b) Calcula las matrices A = [T]

y B = [T]

.
c) Calcula la matriz P de cambio de base, de la base

a la base .
d) Calcula la matriz Q de cambio de base, de la base

a la base .
e) Calcula P
1
.
f) Verica que B = P
1
AQ.
256 CAP

ITULO 4. TRANSFORMACIONES LINEALES


Bibliografa
[1] Stephen H. Friedberg, Arnold J. Insel y Lawrence E. Spence,

Algebra
Lineal, Publicaciones Cultural, S. A., Mexico, 1982.
[2] Stanley I. Grossman,

Algebra Lineal, McGraw Hill, S. A. Mexico, 1996.
[3] Paul R. Halmos, Teora Intuitiva de Conjuntos, editorial CECSA, S. A.,
Mexico, 1967.
[4] Kenneth Homan y Ray Kunze,

Algebra Lineal, Prentince Hall His-
panoamericana. Mexico, 1973.
[5] Natham Jacobson, Lectures in Abstract Algebra, Vol. II. Spinger-Verlag,
New York, Berlin, 1984.
[6] John L. Kelley, General Topology, Graduate Texts in Mathematical Se-
ries, Vol. 27, Springer-Verlag, 1991.
[7] Serge Lang,

Algebra Lineal, Fondo Educativo Interamericano, S. A.
Mexico, 1976.
257

You might also like