Professional Documents
Culture Documents
Indice general
Algebra Lineal I I
1. Campos 1
1.1. Denicion y Propiedades Elementales . . . . . . . . . . . . . . 1
2. Espacios Vectoriales 9
2.1. Denicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Propiedades Fundamentales . . . . . . . . . . . . . . . . . . . 16
2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . 19
2.4.1. Denicion y Caracterizacion . . . . . . . . . . . . . . . 19
2.4.2. Propiedades de Subespacios . . . . . . . . . . . . . . . 22
2.4.3. Suma y Suma Directa . . . . . . . . . . . . . . . . . . 23
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6. Combinaciones Lineales y Espacio Generado . . . . . . . . . . 28
2.6.1. Combinacion Lineal . . . . . . . . . . . . . . . . . . . . 28
2.6.2. Espacio Generado . . . . . . . . . . . . . . . . . . . . . 30
2.6.3. Subespacios de R
2
. . . . . . . . . . . . . . . . . . . . 34
2.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.8. Dependencia e Independencia Lineal . . . . . . . . . . . . . . 37
2.8.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . 37
2.8.2. Propiedades Fundamentales . . . . . . . . . . . . . . . 41
2.8.3. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . 42
2.8.4. Caracterizacion de la Dependencia Lineal . . . . . . . . 44
2.8.5. Subconjuntos y Superconjuntos . . . . . . . . . . . . . 46
2.8.6. Preservaci on de la Independencia Lineal . . . . . . . . 47
2.9. Base de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . 51
2.9.1. Denicion y Ejemplos . . . . . . . . . . . . . . . . . . 51
iii
iv
INDICE GENERAL
2.9.2. Resultados para Bases Finitas . . . . . . . . . . . . . . 54
2.10. Existencia de una Base . . . . . . . . . . . . . . . . . . . . . . 60
2.10.1. Una Base no Numerable . . . . . . . . . . . . . . . . . 66
2.11. Dimension de un Espacio Vectorial . . . . . . . . . . . . . . . 67
2.11.1. Denicion y Propiedades Fundamentales . . . . . . . . 67
2.11.2. Suma y Dimension . . . . . . . . . . . . . . . . . . . . 71
2.11.3. Comentarios Finales . . . . . . . . . . . . . . . . . . . 74
2.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3. Sistemas de Ecuaciones 77
3.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2. Sistema de Ecuaciones Lineales . . . . . . . . . . . . . . . . . 79
3.3. Matrices y Operaciones Elementales . . . . . . . . . . . . . . . 83
3.3.1. Operaciones Elementales por Renglon . . . . . . . . . . 83
3.3.2. Matrices Equivalentes por Renglones . . . . . . . . . . 86
3.3.3. Resolviendo un Sistema Homogeneo . . . . . . . . . . . 90
3.3.4. Matriz Escalonada Reducida por Renglones . . . . . . 93
3.4. Solucion de un Sistema de Ecuaciones . . . . . . . . . . . . . . 99
3.4.1. Sistema Homogeneo . . . . . . . . . . . . . . . . . . . . 99
3.4.2. Sistema no Homogeneo . . . . . . . . . . . . . . . . . . 105
3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3.6. Multiplicacion de Matrices . . . . . . . . . . . . . . . . . . . . 111
3.6.1. Denicion y Propiedades Fundamentales . . . . . . . . 111
3.6.2. Producto en Terminos de Columnas . . . . . . . . . . . 117
3.6.3. Producto y Sistemas de Ecuaciones Lineales . . . . . . 118
3.7. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . 121
3.8. La Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . 124
3.8.1. Denicion y Propiedades Fundamentales . . . . . . . . 124
3.8.2. Calculo de la Inversa de una Matriz . . . . . . . . . . . 128
3.8.3. Otras Propiedades . . . . . . . . . . . . . . . . . . . . 132
3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
3.10. Rango y Nulidad de una Matriz . . . . . . . . . . . . . . . . . 136
3.10.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . 136
3.10.2. N ucleo, Imagen, Nulidad y Rango . . . . . . . . . . . . 136
3.10.3. Espacio de los Renglones y de las Columnas . . . . . . 138
3.10.4. Nuc(A) y R
A
son Perpendiculares . . . . . . . . . . . . 143
3.10.5. Las Dimensiones de R
A
y C
A
son Iguales . . . . . . . . 146
3.10.6. Simplicacion de los Calculos . . . . . . . . . . . . . . 149
INDICE GENERAL v
3.10.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 157
3.11. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
4. Transformaciones Lineales 163
4.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
4.2. Denicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . 165
4.3. Transformacion Lineal Asociada a una Matriz . . . . . . . . . 167
4.4. Propiedades Fundamentales . . . . . . . . . . . . . . . . . . . 168
4.4.1. Un Teorema de Extension . . . . . . . . . . . . . . . . 170
4.5. N ucleo e Imagen de una Transformaci on Lineal . . . . . . . . 173
4.5.1. Propiedades Fundamentales . . . . . . . . . . . . . . . 173
4.5.2. Transformaciones Lineales Inyectivas . . . . . . . . . . 176
4.5.3. Transformaciones Lineales Suprayectivas . . . . . . . . 180
4.5.4. Balance Entre el Rango y la Nulidad . . . . . . . . . . 183
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
4.7. Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
4.7.1. Denicion y Ejemplos . . . . . . . . . . . . . . . . . . 186
4.7.2. V
= F
n
si V Tiene Dimension n . . . . . . . . . . . . . 190
4.7.3. Propiedades Fundamentales . . . . . . . . . . . . . . . 192
4.8. Bases Ordenadas y Coordenadas . . . . . . . . . . . . . . . . . 197
4.8.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . 197
4.8.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 200
4.9. Matriz de Cambio de Coordenadas . . . . . . . . . . . . . . . 204
4.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
4.11. Espacio de Transformaciones . . . . . . . . . . . . . . . . . . . 210
4.11.1. Denicion y Propiedades Fundamentales . . . . . . . . 210
4.11.2. /(V, V ) es un
Algebra Lineal . . . . . . . . . . . . . . 214
4.12. La Funcion A T
A
. . . . . . . . . . . . . . . . . . . . . . . . 216
4.13. Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
4.14. Matriz Asociada . . . . . . . . . . . . . . . . . . . . . . . . . . 222
4.14.1. Comentarios Iniciales . . . . . . . . . . . . . . . . . . . 222
4.14.2. Matriz Asociada . . . . . . . . . . . . . . . . . . . . . 225
4.14.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 232
4.14.4. Propiedades de la Matriz Asociada . . . . . . . . . . . 234
4.15. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . 240
4.16. Cambio de Coordenadas . . . . . . . . . . . . . . . . . . . . . 245
4.16.1. La Matriz de Cambio de Base . . . . . . . . . . . . . . 245
4.16.2. Semejantes . . . . . . . . . . . . . . . . . . . . . . . . 245
vi
INDICE GENERAL
4.16.3. Matrices Semejantes . . . . . . . . . . . . . . . . . . . 250
4.17. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
Captulo 1
Campos
1.1. Denicion y Propiedades Elementales
La idea intuitiva de un campo es la de un conjunto en donde existen dos
operaciones que se comportan como la adicion y multiplicaci on de n umeros
reales. Sabemos que la suma y multiplicaci on de n umeros reales es un n umero
real y que, ademas, dichas operaciones son conmutativas y asociativas. Con
respecto a la suma, un elemento distinguido de R es el n umero 0. Para la
multiplicacion es el n umero 1. Dichos elementos nos permiten hablar de los
inversos aditivos y multiplicativos de reales. El n umero 3, por ejemplo, es
el unico n umero real que sumado a 3 da 0, mientras que
1
2
es el unico real
que multiplicado con 2 da 1. Las propiedades anteriores son la base de la
denicion formal de un campo.
Denicion 1.1. Un campo consiste de un conjunto F en el que estan
denidas dos operaciones, llamadas adicion y multiplicacion, con las si-
guientes propiedades:
1) La adicion es cerrada, es decir, x +y es un unico elemento de F, para
cada x, y F.
2) La adicion es conmutativa, es decir, x +y = y +x, para cada x, y F.
3) La adicion es asociativa, es decir, x + (y +z) = (x +y) +z, para cada
x, y, z F.
4) Existe un neutro aditivo en F, es decir, un elemento 0
F
F tal que
x + 0
F
= x, para todo x F.
1
2 CAP
ITULO 1. CAMPOS
5) Existe el inverso aditivo de cada elemento de F, es decir, para cada
x F existe un elemento y F tal que x +y = 0
F
.
6) La multiplicacion es cerrada, es decir x y es un unico elemento de F,
para cada x, y F.
7) La multiplicacion es conmutativa, es decir x y = y x, para cada
x, y F.
8) La multiplicacion es asociativa, es decir, x (y z) = (x y) z, para
cada x, y, z F.
9) Existe un neutro multiplicativo en F y es diferente al neutro aditivo
de F, es decir, existe un elemento 1
F
F tal que 1
F
,= 0
F
y x 1
F
= x,
para cada x F.
10) Existe el inverso multiplicativo de cada elemento no nulo de F, es decir,
para cada x F con x ,= 0
F
, existe un elemento y F tal que xy = 1
F
.
11) La multiplicacion es distributiva con respecto a la adicion, es decir,
x (y +z) = x y +x z, para cada x, y, z F.
Algunos autores utilizan la palabra cuerpo para referirse a lo que hemos
denido como un campo. Los elementos neutros 0
F
y 1
F
bien pueden deno-
tarse por 0 y 1, entendiendo que no debe de haber confusion con los n umeros
reales cero y uno. Sin embargo, durante los primeros captulos utilizaremos
la notacion con subndices y, mas adelante, cuando hayamos adquirido mas
conanza con su trato, prescindiremos de ellos. Si F es un campo y x, y F,
a los elementos unicos x+y y x y de F les llamaremos la suma y el producto
de x y y, respectivamente. Cuando estemos considerando en F una unica
multiplicacion y no haya lugar a confusion, es usual escribir xy en lugar de
x y para denotar al producto de x y y.
Antes de comenzar a dar una serie de propiedades que cumplen los cam-
pos, es importante dar ejemplos de ellos. Naturalmente los conjuntos R y
C son campos (con las operaciones ordinarias de adicion y multiplicaci on).
Consideramos que C denota al conjunto de los n umeros complejos. El con-
junto Q de los n umeros racionales tambien es un campo, pero no el conjunto
I de los n umeros irracionales (
2 = 2 Q, as que la multiplicaci on no
es cerrada en I). Tampoco es un campo el conjunto Z de los n umeros enteros,
1.1. DEFINICI
ON Y PROPIEDADES ELEMENTALES 3
pues los elementos diferentes de 0, 1 y 1 no poseen neutro multiplicativo.
El conjunto N de los n umeros naturales no es un campo, pues no hay un
neutro aditivo. Consideremos ahora el conjunto F = a + b
2: a, b Q.
Entonces Q F R y, ademas, F es un campo. Es claro que si a
1
+ b
1
2
y a
2
+b
2
2) + (a
2
+b
2
2) = (a
1
+a
2
) + (b
1
+b
2
)
2
es un elemento de F. Ademas
(a
1
+b
1
2)(a
2
+b
2
2) = a
1
a
2
+a
1
b
2
2 + b
1
a
2
2 +b
1
b
2
2
= (a
1
a
2
+ 2b
1
b
2
) + (a
1
b
2
+b
1
a
2
)
2
tambien es un elemento de F. Esto muestra que tanto la adicion como la
multiplicacion que denimos son cerradas. Naturalmente, dichas operaciones
son asociativas y conmutativas. Tambien es facil ver que la multiplicaci on
es distributiva con respecto a la adicion. Ahora bien, el elemento neutro en
F es el n umero cero. Notemos que 0 F pues 0 = 0 + 0
2. El inverso
aditivo de a +b
2 es a b
2. Naturalmente a
1
se encuentra en F,
pues a
1
= a
1
+ 0
2)(x +y
2) = 1.
La ecuacion anterior equivale a escribir
(ax + 2by) + (ay +bx)
2 = 1.
Tenemos entonces que resolver el sistema de ecuaciones
ax + 2by = 1
bx +ay = 0.
Multiplicando la primera ecuacion por b y la segunda por a obtenemos el
sistema de ecuaciones
abx 2b
2
y = b
abx +a
2
y = 0.
4 CAP
ITULO 1. CAMPOS
Sumando ambas ecuaciones obtenemos que (a
2
2b
2
)y = b. Notemos ahora
que a
2
2b
2
= 0 si y solo si a
2
= 2b
2
. Como b es diferente de cero, la igualdad
anterior equivale a escribir
_
a
b
_
2
= 2. En vista de que a y b son racionales,
el cociente
a
b
tambien es irracional. Como no existe un n umero racional cuyo
cuadrado sea igual a dos, deducimos que a
2
2b
2
,= 0. Entonces podemos
dividir la ecuacion (a
2
2b
2
)y = b entre a
2
2b
2
para obtener
y =
b
a
2
2b
2
.
Sustituyendo dicho valor en la ecuacion bx +ay = 0, sucede que
bx = ay =
(a)(b)
a
2
2b
2
=
ab
a
2
2b
2
.
Ahora bien, como b ,= 0, podemos dividir la ecuacion de arriba entre b para
obtener que
x =
a
a
2
2b
2
.
Notemos ahora lo los n umeros
x =
a
a
2
2b
2
y y =
b
a
2
2b
2
son racionales pues, en vista de que a y b son racionales, el denominador
com un de x y y, que es a
2
2b
2
, es un n umero racional. Ademas el inverso
aditivo de un racional es un racional y la division de racionales nos da un
racional. De esta manera, el elemento de F
a
a
2
2b
2
+
b
a
2
2b
2
2
es un inverso multiplicativo de a +b
ON Y PROPIEDADES ELEMENTALES 5
Teorema 1.2. Todo subcampo de C contiene a Q.
Demostracion. Sean F un subcampo de C y x Q. Entonces x =
m
n
=
m
1
n
, donde m, n Z y n ,= 0. Como F es un campo resulta que 1 F. Luego
2 = 1 + 1 F y, por tanto, 3 = 2 + 1 F. Continuando este procedimiento,
probamos que [m[, [n[ F, en donde [m[ y [n[ denotan los valores absolutos
de m y n, respectivamente. En vista de que los inversos aditivos de elementos
que estan en F son a su vez elementos de F, tenemos que m, n F. Ahora
bien, como n ,= 0 y F es un campo, el inverso multiplicativo de n es un
elemento de F, esto es,
1
n
F. Tenemos entonces que m y
1
n
son elementos
de F. Luego su producto tambien es un elemento de F. Entonces x F. Esto
muestra que Q F.
Consideremos ahora el conjunto Z
2
= 0, 1 con las operaciones de adicion
y multiplicacion modulo dos: 0 + 0 = 0, 0 + 1 = 1 + 0 = 1, 1 + 1 = 0,
0 0 = 0, 0 1 = 1 0 = 0 y 1 1 = 1. Entonces Z
2
es un campo. De manera
similar podemos construir los campos Z
3
, Z
4
, etc. La operaciones de adicion
y multiplicacion en Z
n
= 0, 1, 2, . . . , n 1 se consideran modulo n. Dados
x, y Z
n
para determinar la suma x + y realizamos lo siguiente: primero
sumamos x y y de manera usual y despues dividimos el resultado entre n. El
residuo obtenido sera x + y. De manera similar obtenemos el producto de x
y y. Por ejemplo, si n = 5, entonces Z
5
es el conjunto cuyos elementos son
0, 1, 2, 3 y 4. Para determinar 3 + 4, sumamos primero dichos n umeros en
forma usual, obteniendo como resultado el n umero 7. Luego debemos dividir
7 entre 5. El cociente que se obtiene es 1 y el residuo es 2. Dicho residuo es
la suma buscada. De esta manera, en Z
5
, sucede que 3 + 4 = 2. El producto
usual de 3 y 4 es 12. La division de 12 entre 5 da como cociente 2 y como
residuo 2. El residuo obtenido es el producto de 3 y 4 en Z
5
. As pues 34 = 2.
Ahora veremos una serie de propiedades generales que cumplen los cam-
pos. Si no se menciona explcitamente, supondremos que la letra F denota
un campo. Comenzamos presentando las Leyes de Cancelacion.
Teorema 1.3. Si a, b, c F, entonces
(a) de a +b = c +b se sigue que a = c;
(b) si ab = cb y b ,= 0
F
, entonces a = c.
6 CAP
ITULO 1. CAMPOS
Demostracion. Supongamos que a +b = c +b. Sea d un inverso aditivo de
b. Entonces (a+b) +d = a+(b +d) = a+0
F
= a y (c +b) +d = c +(b +d) =
c+0
F
= c. Ahora bien, como a+b = c+b, sucede que (a+b)+d = (c+b)+d,
de donde a = c. Esto prueba (a). La demostracion de (b) es similar.
Recordemos que todo campo admite dos elementos neutros: el aditivo y
el multiplicativo. En el siguiente teorema mostraremos que dichos elementos
son unicos.
Teorema 1.4. Los elementos neutros de un campo son unicos.
Demostracion. Supongamos que 0
F
es un elemento de F tal que 0
F
+a = a,
para cada a F. Entonces 0
F
+ 0
F
= 0
F
. Como tambien 0
F
+ 0
F
= 0
F
y la
suma es conmutativa, sucede que 0
F
= 0
F
. Esto prueba que el neutro aditivo
0
F
es unico. De manera similar se prueba que el neutro multiplicativo 1
F
es
unico.
Se puede demostrar el Teorema 1.4 utilizando el Teorema 1.3. Para ver
esto supongamos que 0
F
es otro neutro aditivo. Entonces, dada a A, sucede
que 0
F
+ a = a y 0
F
+ a = a. Luego 0
F
+ a = 0
F
+ a y, utilizando la ley de
cancelacion para la adicion, 0
F
= 0
F
. La otra parte se prueba utilizando la
ley de cancelacion para el producto. Ahora demostraremos que los inversos,
el aditivo y el multiplicativo, tambien son unicos.
Teorema 1.5. Los inversos de un campo son unicos.
Demostracion. Supongamos que un elemento a F tiene dos inversos
aditivos. Entonces existen b, c F tales que b ,= c, a + b = 0
F
y a + c = 0
F
.
Por tanto a + b = a + c y, utilizando la ley de cancelacion para la adicion,
sucede que b = c. Como esto es una contradiccion, el elemento a solo posee
un inverso aditivo. De manera similar se prueba que cada elemento de F,
diferente de 0
F
, posee un unico inverso multiplicativo.
En vista del teorema anterior, si a F entonces a solo tiene un inverso
aditivo, el cual denotaremos por a. Si ademas a ,= 0
F
, entonces a posee
solo un inverso multiplicativo, y este lo denotaremos por a
1
. Las notaciones
que hemos establecido son las que estamos acostumbrados a utilizar cuando
los elementos con los que trabajamos son n umeros reales. Notemos que a
es simplemente un smbolo pues, de momento, no hemos denido una ope-
racion de resta en un campo. De manera similar, como no hemos denido
1.1. DEFINICI
ON Y PROPIEDADES ELEMENTALES 7
una operacion de division en un campo, a
1
es solo un smbolo. Mas adelante
deniremos las operaciones de resta y division en un campo.
Notemos que (a) = a y (a
1
)
1
= a. En efecto, (a) es el unico
elemento de F que sumado a a da el neutro aditivo. Como a es un elemen-
to que sumado a a da el neutro aditivo, necesariamente a = (a). De
manera similar se muestra que (a
1
)
1
= a. A continuacion mostramos otras
propiedades.
Teorema 1.6. Si a, b F, entonces
(a) a0
F
= 0
F
,
(b) (a)b = a(b) = (ab),
(c) (a)(b) = ab.
Demostracion. Como 0
F
+0
F
= 0
F
resulta, utilizando la propiedad distri-
butiva, que a0
F
= a(0
F
+ 0
F
) = a0
F
+ a0
F
. Luego 0
F
+ a0
F
= a0
F
+ a0
F
.
Eliminando el termino a0
F
resulta que a0
F
= 0
F
. Esto prueba (a). Para
mostrar (b) notemos que, de acuerdo con (a),
ab + (a)b = [a + (a)]b = 0
F
b = b0
F
= 0
F
.
Entonces (a)b es un inverso aditivo de ab. En vista de que el inverso
aditivo de cada elemento de F es unico, necesariamente (a)b = (ab).
Como
ab +a(b) = a[b + (b)] = a0
F
= 0
F
,
resulta, utilizando de nuevo la unicidad del inverso aditivo, que a(b) =
(ab). Esto prueba (b). Para probar (c) utilizamos dos veces el inciso (b).
En efecto: (a)(b) = [a(b)] = [(ab)] = ab.
En vista de que el producto de cualquier elemento de F por 0
F
es 0
F
, y
de que 0
F
,= 1
F
, el neutro aditivo no puede poseer un inverso multiplicativo.
Utilizando los elementos inversos, es posible hablar de las operaciones de
resta y division en un campo F. Si a, b F entonces a b = a + (b) y, si
b ,= 0
F
, entonces a/b = ab
1
.
Notemos que en Z
2
tenemos que 1 +1 = 0. En Z
3
sucede que 1 +1 +1 =
0. Esto muestra que, en general, en un campo F una suma de la forma
8 CAP
ITULO 1. CAMPOS
1
F
+1
F
+ +1
F
(con p sumandos) puede ser igual a 0
F
, para alg un entero
positivo p. Cuando esto sucede, al entero positivo mas peque no para el cual
una suma de p unos es igual al cero de F, se le llama la caracterstica de
F. Si tal entero positivo no existe, decimos que el campo tiene caracterstica
cero. De esta mamera Z
2
es un campo de caracterstica 2, mientras que Z
3
es un campo de caracterstica 3 y R tiene caracterstica cero. Si F tiene
caracterstica p, con p ,= 0, entonces x +x + +x (p sumandos) es igual al
cero de F, para cada x F. En efecto
x +x + +x = x(1
F
+ 1
F
+ + 1
F
) = x0
F
= 0
F
.
En un campo de caracterstica nita, especialmente de caracterstica dos,
surgen muchos problemas no usuales. Por esta razon, algunos de los resul-
tados sobre espacios vectoriales que enunciaremos en este trabajo, requieren
que el campo sobre el que se dena el espacio vectorial sea de caracterstica
cero o, al menos, de caracterstica diferente de dos. El estudio de los campos,
como estructuras algebraicas, es bastante mas extenso de lo que aqu hemos
presentado. Sin embargo, para lo que necesitamos en un curso de
Algebra
Lineal I, es suciente.
Captulo 2
Espacios Vectoriales
2.1. Denicion y Ejemplos
En los cursos de Geometra Analtica se ha trabajado con los conjuntos
R
2
y R
3
y, ademas, se ha mencionado que sus elementos son vectores que
se pueden sumar, restar y multiplicar por n umeros reales que llamamos es-
calares. Quiza tambien se menciono que dichos conjuntos son ejemplos de
espacios vectoriales. En este captulo veremos la nocion general de espacio
vectorial, daremos ejemplos de ellos as comos las propiedades basicas que
tienen.
Denicion 2.1. Un espacio vectorial sobre un campo F consiste de
un conjunto V en el que estan denidas dos operaciones, llamadas adicion
y multiplicacion por escalares, con las siguientes propiedades:
1) La adicion es cerrada, es decir x + y es un unico elemento de V, para
cada x, y V.
2) La adicion es conmutativa, es decir, x +y = y +x, para cada x, y V.
3) La adicion es asociativa, es decir, (x +y) +z = x + (y +z), para cada
x, y, z V.
4) Existe un neutro aditivo en V, es decir, un elemento 0
V
V tal que
x + 0
V
= x, para cada x V.
5) Existe el inverso aditivo de cada elemento de V, es decir, para cada
x V existe un elemento y V tal que x +y = 0
V
.
9
10 CAP
ON Y EJEMPLOS 11
0
F
0
V
denota, por ejemplo, el producto escalar del neutro aditivo 0
F
del cam-
po F con el vector cero, 0
V
, del espacio vectorial, en vista de que el producto
escalar se realiza entre un elemento del campo F y uno de V. Como co-
mentamos en el captulo anterior, en la medida en que vayamos agarrando
conanza, prescindiremos de los subndices. Sin utilizar subndices, el smbolo
00 debe referirse al producto escalar del cero del campo con el cero del espa-
cio vectorial pues, en un espacio vectorial, no hemos denido una operacion
de multiplicaci on entre vectores.
Formalmente deberamos siempre decir que un espacio vectorial es un
objeto de la forma (V, F, +, ) en donde V es un conjunto, F es un campo, +
es una funcion de V V en V y es una funcion FV en V, de tal manera que
las diez propiedades enunciadas en la denicion anterior se cumplen. Con esto
indicamos que, para que un conjunto V sea un espacio vectorial, necesitamos
un campo F y las operaciones binarias + y . Al cambiar alguna de ellas,
estamos entonces hablando de espacios vectoriales distintos, as ambos esten
denidos en el mismo conjunto V. Una vez entendido esto, en la practica
solemos proceder de una forma bastante mas arbitraria: cuando nos referimos
a un espacio vectorial en el que el campo F y las operaciones + y quedan
sobreentendidas, hacemos referencia unicamente al conjunto V. En ocasiones
tambien solemos referirnos al conjunto V y al campo F y, al decir, V es un
espacio vectorial sobre F, entendemos que se pueden denir las operaciones
+ y de modo que se cumplen las diez propiedades de la Denicion 2.1.
A continuacion daremos una serie de ejemplos de espacios vectoriales.
Ejemplo 2.2. El espacio de los n-tuples o de las n-adas. Supon-
gamos que F es un campo y que n N. Entonces F
n
es un espacio vec-
torial sobre F. Los elementos de F
n
, que se llaman n-tuples o n-adas,
tienen la forma (a
1
, a
2
, . . . , a
n
) donde a
i
F, para cada i = 1, 2, . . . , n. Si
(a
1
, a
2
, . . . , a
n
), (b
1
, b
2
, . . . , b
n
) F
n
, entonces (a
1
, a
2
, . . . , a
n
) = (b
1
, b
2
, . . . , b
n
)
si y solo si a
i
= b
i
, para cada i = 1, 2, . . . , n. Si (a
1
, a
2
, . . . , a
n
), (b
1
, b
2
, . . . , b
n
)
F
n
y c F, la adicion y multiplicacion por escalares estan dados por
(a
1
, a
2
, . . . , a
n
) + (b
1
, b
2
, . . . , b
n
) = (a
1
+b
1
, a
2
+b
2
, . . . , a
n
+b
n
)
y
c(a
1
, a
2
, . . . , a
n
) = (ca
1
, ca
2
, . . . , ca
n
).
12 CAP
ON Y EJEMPLOS 13
en el ejemplo anterior, las diez propiedades de la Denicion 2.1 se cumplen.
Como caso particular, si V es un espacio vectorial sobre el campo F, entonces
el conjunto
T(V, W) = f : V W[ f es una funcion
tambien es un espacio vectorial sobre el campo F. El conjunto T(V, W)
sera imuy mportante en el Captulo 4. Notemos que el hecho de que T(V, W)
sea un espacio vectorial sobre el campo F, depende solamente de que W es
un espacio vectorial sobre F.
El primer ejemplo es un caso particular del segundo, pues un n-tuple en
F se puede considerar como una funcion del conjunto S = 1, 2, . . . , n en F
(en donde el orden importa, pero a n de cuentas, como una funcion de S en
F). Ademas, el segundo ejemplo es un caso particular del tercero, pues todo
campo F es un espacio vectorial sobre el campo F.
En el siguiente ejemplo veremos el espacio de los polinomios sobre un
campo. En un curso de
Algebra Superior II se estudia la denicion formal de
un polinomio sobre un campo F. A saber, dichos polinomios son sucesiones
de elementos en F en las que casi todos sus elementos son iguales a cero
(esto es, todos son iguales a cero, salvo un n umero nito de ellos). Tambien
en dicho curso se indica la denicion formal de la indeterminada x, as como
la manera de sumar y multiplicar polinomios, justicando con ello el smbolo
ax
n
, para cada a F y cada n N. Ademas se formaliza lo que signica
evaluar un polinomio en un elemento del campo F. Todo esto se hace para
justicar la manera usual de considerar a un polinomio, la que aprendimos en
la secundaria, as como para justicar la manera usual de sumar polinomios,
multiplicar polinomios y evaluar un polinomio en un elemento de F. Para un
curso de
Algebra Lineal I, basta con referirse a dichas maneras usuales.
Ejemplo 2.5. El espacio de los polinomios. Dado un campo F, decimos
que un polinomio sobre F es una expresion de la forma
f(x) = a
n
x
n
+a
n1
x
n1
+ +a
1
x +a
0
donde n es un entero no negativo y a
n
, . . . , a
0
, llamados los coecientes
de f(x), son elementos de F. Si a
n
= a
n1
= a
1
= a
0
= 0
F
, entonces
el polinomio obtenido con dichos coecientes se llama el polinomio cero.
Decimos que dicho polinomio tiene grado 1, mientras que el grado de un
14 CAP
ON Y EJEMPLOS 15
sucesion (a
n
)
n
, en donde a
n
= 0
F
, para cada n N. Dicha sucesion es un
elemento de V, pues tiene cero terminos no nulos. El inverso de la sucesion
(b
n
)
n
en V es la sucesion (c
n
)
n
en donde c
n
= b
n
, para cada n N.
En el curso de
Algebra Superior II tambien se formaliza el conjunto C
de los n umeros complejos. A saber, C es el conjunto R
2
con dos operaciones
especiales de adicion y multiplicaci on que lo hacen un campo. Tambien en
dicho curso se dice que i = (0, 1) y se explica en que sentido se entiende que
R es un subconjunto de C. Como en el caso de los polinomios, esto se hace
para justicar las cosas que estamos acostumbrados a utilizar. Como este es
un curso de
Algebra Lineal I, procederemos como estamos acostumbrados.
Esto es, supondremos que R C y que los elementos de C son de la forma
a +ib, en donde a, b R y, ademas, i =
1.
Ejemplo 2.7. El conjunto de los n umeros complejos. El conjunto C
de los n umeros complejos es un espacio vectorial sobre R. Inclusive C es un
espacio vectorial sobre C, pues C es un campo (recordemos que todo campo
es un espacio vectorial sobre s mismo). Ahora bien, para n N, R
n
es un
espacio vectorial sobre R. Sin embargo, R
n
no es un espacio vectorial sobre
C. Notemos que C
n
es un espacio vectorial sobre R y sobre C. En todos estos
casos, entendemos que la adicion y la multiplicacion escalar considerados son
las usuales, esto es, las que se denen en el Ejemplo 2.2.
Si alteramos las formulas usuales de adicion y/o multiplicacion escalar,
podemos obtener conjuntos que ya no son espacios vectoriales. Por ejemplo,
consideremos en R
2
la siguiente manera de sumar y multiplicar por escalares
en R:
(a
1
, a
2
) + (b
1
, b
2
) = (a
1
+b
1
, a
2
b
2
) y c(a
1
, a
2
) = (ca
1
, ca
2
).
Entonces (b
1
, b
2
)+(a
1
, a
2
) = (a
1
+b
1
, b
2
a
2
). En vista de que los terminos
a
2
b
2
y b
2
a
2
no necesariamente son iguales, la suma no es conmutativa.
Luego R
2
no es un espacio vectorial sobre R, para esa adicion y esa multi-
plicacion escalar. Ahora sumemos y multipliquemos por escalares en R como
sigue:
(a
1
, a
2
) + (b
1
, b
2
) = (a
1
+b
1
, 0) y c(a
1
, a
2
) = (ca
1
, 0).
En este caso la suma es conmutativa y asociativa, pero no existe un ele-
mento neutro. Por tanto R
2
no es un espacio vectorial sobre R, para esa
16 CAP
1
+W y v
2
+W = v
2
+W, entonces
(v
1
+W) + (v
2
+W) = (v
1
+W) + (v
2
+W)
y a(v
1
+W) = a(v
1
+W), para cada a F.
d) Demuestra que el conjunto S es un espacio vectorial bajo las ope-
raciones denidas anteriormente. Este espacio vectorial se llama
el espacio cociente de V modulo W y se expresa como V/W.
2.6. Combinaciones Lineales y Espacio Gene-
rado
2.6.1. Combinacion Lineal
Supongamos que V es un espacio vectorial sobre el campo F. Dada
n N, consideremos n vectores x
1
, x
2
, . . . , x
n
V as como n escalares
c
1
, c
2
, . . . , c
n
F. Como V es cerrado bajo la multiplicaci on de elementos
2.6. COMBINACIONES LINEALES Y ESPACIO GENERADO 29
de F, sucede que c
1
x
1
, c
2
x
2
, . . . , c
n
x
n
V. Como ademas V es cerrado bajo
sumas de elementos en V, tenemos que
c
1
x
1
+c
2
x
2
+ +c
n
x
n
V.
Las expresiones de la forma c
1
x
1
+ c
2
x
2
+ + c
n
x
n
, en donde combinamos
escalares con elementos de V, son importantes en
Algebra Lineal e incluso se
les da un nombre.
Denicion 2.21. Sea V un espacio vectorial sobre un campo F. Supongamos
ademas que S es un subconjunto no vaco de V. Se dice que un vector x de
V es una combinacion lineal de elementos de S (o simplemente que x
es una combinacion lineal de S), si existen un n umero nito de elementos
x
1
, x
2
, . . . , x
n
S y escalares c
1
, c
2
, . . . , c
n
F tales que
x = c
1
x
1
+c
2
x
2
+ +c
n
x
n
.
Supongamos que S posee solo un elemento, digamos S = x
1
. Entonces
un vector x V es una combinaci on lineal de elementos de S si y solo si
existe un escalar c F tal que x = cx
1
. Notemos que la expresion cx
1
es
lo que com unmente conocemos como m ultiplo escalar de x
1
. Por tanto, las
combinaciones lineales de un conjunto con un solo elemento, son justo los
m ultiplos escalares de dicho elemento.
En general, cuando S es un subconjunto nito de V, tenemos el siguiente
resultado.
Teorema 2.22. Si S es nito, digamos S = x
1
, x
2
, . . . , x
n
, entonces un
vector x V es una combinacion lineal de elementos de S si y solo si existen
escalares c
1
, c
2
, . . . , c
n
F, tales que x = c
1
x
1
+c
2
x
2
+ +c
n
x
n
.
Demostracion. Supongamos que x es una combinaci on lineal de elemen-
tos de S. Entonces existen un subconjunto nito T = x
i
: i I de S y
escalares c
i
F, para cada i I, tales que x =
iI
c
i
x
i
. Notemos que
I 1, 2, . . . , n. Denamos c
i
= 0 para cada i 1, 2, . . . , n I. En-
tonces x = c
1
x
1
+ c
2
x
2
+ + c
n
x
n
. Esto prueba la primera parte del teo-
rema. Supongamos ahora que existen escalares c
1
, c
2
, . . . , c
n
F, tales que
x = c
1
x
1
+c
2
x
2
+ +c
n
x
n
. Entonces, por denicion, x es una combinaci on
lineal de elementos de S. Esto prueba la segunda parte del teorema y termina
la demostracion.
30 CAP
y T W
2
= y
1
, y
2
, . . . , y
m
. Notemos que T = (T W
1
)(T W
2
). Mas a un,
alguno de los conjuntos T W
1
y T W
2
podra ser vaco. Supongamos, por
el momento que ninguno de dichos conjuntos es vaco. Tomemos escalares
c
1
, c
2
, . . . , c
n
, d
1
, d
2
, . . . , d
m
F tales que
x = c
1
x
1
+c
2
x
2
+ +c
n
x
n
+d
1
y
1
+d
2
y
2
+ +d
m
y
m
.
Como x
1
, x
2
, . . . , x
n
W
1
y W
1
es un subespacio de V, la combinaci on lineal
w
1
= c
1
x
1
+ c
2
x
2
+ + c
n
x
n
se encuentra en W
1
. De manera similar, w
2
=
d
1
y
1
+d
2
y
2
+ +c
m
y
m
es un elemento de W
2
. Tenemos entonces que x = w
1
+
w
2
es la suma de un elemento en W
1
con uno en W
2
. Por tanto x W
1
+W
2
.
Esto prueba que W
1
W
2
) W
1
+ W
2
, en el caso en que tanto T W
1
como T W
2
son no vacos. Si, por ejemplo, el conjunto T W
1
es vaco,
entonces T = T W
2
por lo que x es una combinaci on lineal de todos los
elementos de T W
2
. Podemos hacer w
1
= 0
V
y denir a w
2
como antes, es
decir, hacemos w
2
= d
1
y
1
+d
2
y
2
+ +c
m
y
m
. Entonces, de cualquier manera,
x = w
1
+ w
2
es la suma de un elemento en W
1
como uno en W
2
. Si sucede
ahora que T W
2
es vaco, entonces hacemos w
2
= 0
V
y denimos a w
1
como
c
1
x
1
+ c
2
x
2
+ + c
n
x
n
. De nueva cuenta tenemos que x = w
1
+ w
2
es la
suma de un elemento en W
1
con uno en W
2
.
34 CAP
d
c
_
y, por lo que x es un m ultiplo escalar de y. Lo anterior
signica que x y y son paralelos. Hemos probado que los vectores x y y
de R
2
son paralelos si y solo si el vector (0, 0) se puede escribir como una
combinacion lineal de x y y, en donde al menos uno de los dos coecientes
utilizados es diferente de cero.
Para un espacio vectorial V, la nocion de vectores paralelos en R
2
se puede
generalizar como se indica a continuacion.
Denicion 2.30. Un subconjunto S de un espacio vectorial V sobre un cam-
po F es linealmente dependiente, si existen un n umero nito de vectores
distintos x
1
, x
2
, . . . , x
n
en S y escalares a
1
, a
2
, . . . , a
n
en F, no todos iguales
a 0
F
, tales que
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
.
Si el subconjunto S de V no es linealmente dependiente, entonces decimos
que S es linealmente independiente.
De la denicion anterior se sigue que los conjuntos linealmente depen-
dientes son no vacos. Si S es un subconjunto linealmente dependiente o
independiente, tambien es com un decir que los elementos de S son lineal-
mente dependientes o independientes, seg un corresponda. En el lenguaje que
acabamos de introducir, dos vectores x y y en R
2
son paralelos si y solo si x
y y son linealmente dependientes.
Notemos que un subconjunto S de V es linealmente independiente si y
solo si, para cualquier n umero nito de vectores distintos x
1
, x
2
, . . . , x
n
S, la unica manera de escribir al vector cero como una combinaci on li-
neal de x
1
, x
2
, . . . , x
n
es asignando a cada coeciente el valor 0
F
. As pues,
para probar que S es linealmente independiente, procedemos como sigue:
tomamos primero cualquier subconjunto nito T = x
1
, x
2
, . . . , x
n
de S.
Entendemos que los elementos de T son todos distintos. Tomamos ahora
escalares a
1
, a
2
, . . . , a
n
F tales que
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
.
2.8. DEPENDENCIA E INDEPENDENCIA LINEAL 39
Debemos probar que a
1
= a
2
= = a
n
= 0
F
. Para ver esto en la practica,
consideremos el espacio vectorial P(F) de los polinomios sobre el campo F.
Sea S = 1
P
, x, x
2
, x
3
, . . ., en donde 1
P
es el polinomio constante, cuyo valor
constante es 1
F
, el neutro multiplicativo en F. Denotemos por 0
P
al polinomio
cero. Para ver que S es linealmente independiente, supongamos primero que
T es un subconjunto nito de S. Entonces T es de la forma T = x
i
: i
J N0, pensando que x
0
= 1
P
. Supongamos que T tiene m elementos
y tomemos escalares a
i
F, para cada i J, de modo que 0
P
=
iJ
a
i
x
i
.
De acuerdo con el criterio de igualdad de dos polinomios sucede que a
i
= 0
F
,
para cada i J. Por tanto S es linealmente independiente.
Notemos ahora que un subconjunto S de un espacio vectorial V es li-
nealmente dependiente si y solo si el vector cero se puede escribir como una
combinacion lineal de todos los elementos de alg un subconjunto nito de S,
en donde no todos los coecientes utilizados en dicha combinaci on lineal son
iguales a 0
F
. As pues, para probar que un subconjunto S de V es linealmente
dependiente, debemos encontrar un subconjunto nito T de S y luego dar la
combinacion lineal de todos los elementos de T que produce el vector cero,
sin que todos los coecientes utilizados sean iguales a 0
F
.
El siguiente teorema indica la manera de expresar la independencia lineal
de S, cuando dicho conjunto es nito.
Teorema 2.31. Si S es nito, digamos S = x
1
, x
2
, . . . , x
n
, entonces S
es linealmente independiente si y solo si, para cada a
1
, a
2
, . . . , a
n
F de la
igualdad
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
,
se sigue que a
1
= a
2
= = a
n
= 0
F
.
Demostracion. Supongamos primero que S es linealmente independiente.
Entonces si a
1
, a
2
, . . . , a
n
F son tales que a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
se
sigue, por la denicion de independencia lineal, que a
1
= a
2
= = a
n
= 0
F
.
Ahora supongamos que para cualesquiera n escalares a
1
, a
2
, . . . , a
n
F,
de la igualdad
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
se sigue que a
1
= a
2
= = a
n
= 0
F
. Para ver que S es linealmente inde-
pendiente debemos tomar primero un subconjunto nito T de S. Pongamos
40 CAP
iI
b
i
x
i
. Haga-
mos a
i
= b
i
si i I y a
i
= 0
F
si i / I. Entonces a
1
, a
2
, . . . , a
n
son escalares
tales que a
1
x
1
+ a
2
x
2
+ + a
n
x
n
= 0
V
. Luego a
1
= a
2
= = a
n
= 0
F
.
En particular b
i
= 0
F
, para cada i I. Esto prueba que S es linealmente
independiente.
Como consecuencia del teorema anterior, la independencia lineal la pudi-
mos haber denido a traves de un proceso de dos pasos: primero denimos lo
que signica que un conjunto nito sea linealmente independiente y, poste-
riormente, denimos lo que signica la independencia lineal para un conjunto
innito. Esto es similar a lo que hicimos con la nocion de combinaci on lineal.
Siguiendo este proceso de dos pasos, tenemos lo siguiente:
a) Un subconjunto nito T = x
1
, x
2
, . . . , x
n
de V es linealmente inde-
pendiente si para cada a
1
, a
2
, . . . , a
n
F, de la igualdad
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
se sigue que a
1
= a
2
= = a
n
= 0
F
.
b) Un subconjunto innito S de V es linealmente independiente si todos
sus subconjuntos nitos son linealmente independientes.
Para denir la dependencia lineal siguiendo este camino, decimos primero
que un subconjunto nito y no vaco T de V es linealmente dependiente, si T
no es linealmente independiente. Luego decimos que un subconjunto innito
S de V es linealmente dependiente, si alg un subconjunto nito y no vaco de
S es linealmente dependiente.
A partir de este momento, tanto las nociones de combinacion lineal como
las de dependencia e independencia lineal seran importantes. El lector de-
bera decidir, seg un le convenga, si quiere utilizar las respectivas deniciones
mediante el proceso de dos pasos (considerandolas primero para el caso nito
y posteriormente para el caso innito), o bien mediante un proceso directo
(el dado en las deniciones 2.21 y 2.30). Aclarado esto, veamos ahora las
propiedades mas elementales de la dependencia e independencia lineal. Co-
mo lo hemos venido haciendo, supondremos que V es un espacio vectorial
sobre el campo F.
2.8. DEPENDENCIA E INDEPENDENCIA LINEAL 41
2.8.2. Propiedades Fundamentales
Una vez que hemos visto las nociones de dependencia e independencia
lineal, toca ahora estudiar sus propiedades fundamentales. Comenzamos con
el siguiente resultado.
Teorema 2.32. Cualquier subconjunto S de V tal que 0
V
S es linealmente
dependiente.
Demostracion. Notemos que 0
V
es un subconjunto nito de S y que
0
V
= 1 0
V
. Como F es un campo, 1 ,= 0
F
. Hemos escrito al vector cero como
una combinacion lineal de todos los elementos del subconjunto nito 0
V
y tomemos escalares a
1
, a
2
, . . . , a
n
F tales que
x = a
1
x
1
+a
2
x
2
+ +a
n
x
n
.
Notemos que T x es un subconjunto nito de S x y que
0
V
= (1
F
)x + (a
1
)x
1
+ (a
2
)x
2
+ + (a
n
)x
n
es una combinacion lineal de todos los elementos de T x, que da 0
V
, y
en donde uno de los coecientes utilizados (el de x) es diferente de 0
F
. Esto
contradice el hecho de que S x es linealmente independiente. Por tanto
x / S).
Ahora supongamos que x / S). Si S x es linealmente dependiente,
entonces existe un subconjunto nito T de S x, de manera que el vector
cero se puede escribir como una combinaci on lineal de todos los elementos de
T, en donde no todos los coecientes utilizados en dicha combinacion lineal
son iguales a 0
F
. Notemos que T S o bien x T. El primer caso no
es posible pues, de suceder, se contradice el hecho de que S es linealmente
independiente. Tenemos entonces que x T y, como T es nito, podemos
suponer que T = x, x
1
, x
2
, . . . , x
n
, en donde x
1
, x
2
, . . . , x
n
S. Ademas
existen escalares a, a
1
, a
2
, . . . , a
n
F, no todos iguales a 0
F
, de manera que
ax +a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
. (2.8.3)
Supongamos que a = 0
F
. Entonces de (2.8.3) se sigue que
a
1
x
1
+a
2
x
2
+ +a
n
x
n
= 0
V
.
Ahora bien x
1
, x
2
, . . . , x
n
es un subconjunto nito del conjunto linealmente
independiente S, por lo que a
1
= a
2
= = a
n
= 0
F
. Esto signica que todos
2.8. DEPENDENCIA E INDEPENDENCIA LINEAL 49
los coecientes utilizados en la ecuacion (2.8.3) son iguales a 0
F
, lo cual es una
contradiccion. Por tanto a ,= 0
F
. Como F es un campo, podemos entonces
considerar al neutro multiplicativo a
1
de a. Al multiplicar (2.8.3) por a
1
obtenemos que
x = (a
1
a
1
)x
1
+ (a
1
a
2
)x
2
+ + (a
1
a
n
)x
n
.
Por tanto x es una combinaci on lineal de un subconjunto nito de S. Luego,
x es una combinaci on lineal de elementos de S, as que x S). Como esto
contradice el hecho de que x / S), deducimos que el conjunto S x es
linealmente independiente.
Corolario 2.41. Supongamos que S V es linealmente independiente y que
x V S. Entonces S x es linealmente dependiente si y solo si x S).
Podemos utilizar los resultados anteriores, para determinar si un sub-
conjunto T de V, con justo dos elementos es linealmente independiente o
no. Supongamos que T = x
1
, x
2
y que x
1
,= x
2
. Como hemos indicado,
si 0
V
T, entonces T es linealmente dependiente. Supongamos, por tanto,
que x
1
y x
2
son diferentes del vector cero. Consideremos x
1
y notemos
que, por el Teorema 2.34, x
1
es linealmente independiente. Si x
2
x
1
) en-
tonces, por el corolario anterior, T es linealmente dependiente. Por otro lado,
si x
2
/ x
1
) entonces, por el Teorema 2.40, T es linealmente independiente.
En general, lo indicado en el parrafo anterior, nos sirve para determinar
si un subconjunto nito S = x
1
, x
2
, . . . , x
n
de V es linealmente indepen-
diente o no. Para esto, procedemos como sigue: si alg un elemento de S es
igual al vector cero, entonces S es linealmente dependiente. Supongamos en-
tonces que ning un elemento de S es igual al vector cero. Consideremos el
conjunto x
1
el cual, por el Teorema 2.34, es linealmente independiente. Si
x
2
x
1
) entonces, por el Corolario 2.41, el subconjunto x
1
, x
2
de S es
linealmente dependiente. Como los superconjuntos de conjuntos linealmente
dependientes, son linealmente dependientes (Teorema 2.37), el conjunto S es
linealmente dependiente. Por tanto, si x
2
x
1
), entonces S es linealmente
dependiente. Supongamos ahora que x
2
/ x
1
). Entonces, por el Teorema
2.40, el subconjunto x
1
, x
2
de S es linealmente independiente. Ahora debe-
mos tomar en cuenta a x
3
. Si x
3
x
1
, x
2
) entonces, por el Corolario 2.41,
el subconjunto x
1
, x
2
, x
3
de S es linealmente dependiente. Luego, por el
Teorema 2.37, S es linealmente dependiente. Si x
3
/ x
1
, x
2
) entonces, por
50 CAP
tal que
es linealmente inde-
pendiente y, como es linealmente dependiente, sucede que
. Ahora
bien, como
iI
de conjuntos
no vacos, entonces existe una familia x
i
iI
tal que x
i
X
i
, para cada
i I. El Axioma de Eleccion basicamente nos dice que podemos escoger
un punto en cada elemento de una familia de conjuntos no vacos. No es
uno de los objetivos de un curso de
Algebra Lineal I probar el Principio de
Maximalidad ni, mucho menos, probar que dicho principio es equivalente al
Axioma de Eleccion. El lector interesado puede consultar los textos [3] y [6].
En el siguiente teorema mostramos que todo subconjunto linealmente
independiente de V se puede extender a una base para V.
Teorema 2.55. Sea S un subconjunto linealmente independiente de un es-
pacio vectorial V. Entonces existe un superconjunto de T que satisface las
condiciones 1) y 2).
Demostracion. Sea T la familia de todos los subconjuntos linealmente in-
dependientes de V que contienen a S. Naturalmente S T. Supongamos que
c T es una cadena y sea U la union de todos los elementos de c. Notemos
que S C U, para cada C c. Ahora veremos que U T. Como S U
basta probar que U es linealmente independiente. Supongamos entonces que
u
1
, u
2
, . . . , u
n
U y c
1
, c
2
, . . . , c
n
F son escalares tales que:
c
1
u
1
+c
2
u
2
+ +c
n
u
n
= 0
V
. (2.10.1)
Por la denicion de U, dada i 1, 2, . . . , n, tenemos que u
i
C
i
, para
alguna C
i
c. Ahora bien, uno de los C
i
s contiene a todos los elementos
u
1
, u
2
, . . . , u
n
. Para ver esto consideremos primero a los conjuntos C
1
y C
2
.
Como c es una cadena sucede que C
1
C
2
o bien C
2
C
1
. Supongamos, sin
perder generalidad, que la primera contencion es la que se tiene. Entonces C
2
contiene tanto a u
1
como a u
2
. Ahora consideremos C
2
y C
3
. Nuevamente,
como c es una cadena, tenemos que C
2
C
3
o bien C
3
C
2
. En el primer
caso tenemos que C
3
contiene a u
1
, u
2
y u
3
y, en el segundo, C
2
es el conjunto
que contiene a u
1
, u
2
y u
3
. Continuando este proceso y, dado que tenemos
un n umero nito de elementos u
i
s, en alg un momento encontraremos un
elemento C
k
de c que contiene a todos los elementos u
1
, u
2
, . . . , u
n
. Como
dicho conjunto C
k
es linealmente independiente, de (2.10.1), se sigue que
c
1
= c
2
= = c
n
= 0
F
. Esto muestra que U es linealmente independiente.
2.10. EXISTENCIA DE UNA BASE 63
Hemos probado que para cada cadena c T, existe un elemento de T
que contiene a cada uno de los miembros de c. Entonces, por el Principio
de Maximalidad, T contiene un elemento maximal . De acuerdo con la
denicion de T, el conjunto es linealmente independiente y S . Entonces
satisface la condicion 1). Por la maximalidad de , sucede que satisface
tambien la condicion 2).
Teorema 2.56. Todo espacio vectorial tiene una base.
Demostracion. Sea V un espacio vectorial. Si V tiene un solo elemento,
entonces V = 0
V
. En este caso, como ya hicimos ver, = es una base de
V. Supongamos entonces que V tiene por lo menos dos elementos. Entonces
existe x V tal que x ,= 0
V
. Por el Teorema 2.34 el conjunto S = x
es linealmente independiente. Entonces, por el teorema anterior, existe un
superconjunto de S que satisface las condiciones 1) y 2). Por el Teorema
2.51, es una base de V.
Recordemos el proceso que comentamos en la seccion anterior, luego de
la denicion de base. En tal empezamos con un conjunto S
1
linealmente in-
dependiente y con justo un elemento, que llamamos x
1
. Luego dijimos que si
S
1
) = V, entonces S
1
es una base para V. Si S
1
) ,= V, entonces tomamos un
elemento x
2
V S
1
) y formamos el conjunto linealmente independiente
S
2
= S
1
x
2
= x
1
, x
2
. Dijimos que si S
2
) = V, entonces S
2
era una
base de V y, si S
2
) ,= V, entonces tomamos un elemento x
3
V S
2
).
Posteriormente formamos S
3
= S
2
x
3
, el cual es linealmente indepen-
diente y seguimos el razonamiento anterior, agregando un punto cada vez
de ser necesario. Como comentamos en la seccion anterior, este proceso no
garantiza que existe una base para V. Es decir, empezando con un conjunto
de un solo punto que es diferente de 0
V
y agregando un punto cada vez, no
podemos garantizar que existe una base que contiene al punto con el cual
iniciamos. Esto no contradice lo que hicimos en la prueba del teorema an-
terior pues, al haber recurrido al Teorema 2.55, utilizamos implcitamente
el Principio de Maximalidad, en el cual involucramos a todas las cadenas
de conjuntos linealmente independientes que contienen a un conjunto lineal-
mente independiente dado. En el proceso anterior, los conjuntos S
1
, S
2
, S
3
, . . .
que vamos formando constituyen una sola cadena de conjuntos linealmente
independientes que contienen al conjunto linealmente independiente S
1
.
64 CAP
Algebra Lineal I no es importante dar una prueba de esto. Una de las razones
66 CAP
pP
a
p
f
p
. El smbolo 0
f
representa a la funcion cero. Ahora bien, si
evaluamos la igualdad 0
f
=
pP
a
p
f
p
en x = p, donde p P, obtenemos
que
0 = 0
f
(p) =
pP
a
p
f
p
(p) = a
p
f
p
(p) = a
p
(1) = a
p
,
pues f
p
(p) = 1 mientras que f
q
(p) = 0, para cada q P tal que q ,= p. Con
esto mostramos que a
p
= 0, para cada p P. Por consiguiente, el conjunto
S es linealmente independiente. Aplicando ahora el Teorema 2.55 tenemos
que un superconjunto de S sera una base para V. Como S es innito y no
numerable, la base es innita y no numerable. En vista de que cualesquiera
dos bases de V tienen la misma cardinalidad, deducimos que toda base de
V = T(R, R) es innita y no numerable. Consideremos ahora los conjuntos:
W
1
= f T(R, R): f es continua
y
W
2
= f T(R, R): f es diferenciable.
Tanto W
1
como W
2
son subespacios de V = T(R, R). Entonces cada uno de
ellos admite una base. Es posible encontrar una base innita y numerable
2.11. DIMENSI
ON DE UN ESPACIO VECTORIAL 67
para W
1
? Toda base para W
2
es innita y no numerable? Preferimos que el
lector descubra por s solo las respuestas a estas preguntas.
Terminamos la presente seccion mencionando que, para cada n umero car-
dinal y cada campo F, existe un espacio vectorial V sobre el campo F que
admite una base con cardinalidad . En el Captulo IX de [5] se muestra
como hacer esto. El espacio vectorial V es de la forma T(S, F), en donde
S es un conjunto con cardinalidad . La base es una mocicacion de la
base que dimos para T(R, R). No entraremos aqu en los detalles. Preferimos
remitir al lector al texto indicado.
2.11. Dimension de un Espacio Vectorial
2.11.1. Denicion y Propiedades Fundamentales
Sea V un espacio vectorial. Como comentamos en las dos secciones an-
teriores, si y
tienen la misma
cardinalidad. Dicho cardinal, que no depende de la base considerada es, por
tanto, un invariante. Atendiendo a dicho cardinal los espacios vectoriales
reciben un nombre especial.
Denicion 2.60. Un espacio vectorial V es de dimension nia (o di-
mensionalmente nito), si V admite una base con una cantidad nita de
elementos. En este caso, el n umero de elementos com un a toda base de V se
llama la dimension de V. Si V no es de dimension nta, diremos que V es
de dimension innita (o dimensionalmente innito).
La dimension del espacio vectorial V sobre un campo F, se denotara por
dim
F
(V ). Como (1, 0), (0, 1) es una base para R
2
, tenemos que dim
R
(R
2
) =
2. De manera similar se prueba que dim
F
(F
n
) = n y dim
F
(P
n
(F)) = n + 1,
pues las bases que consideramos en dichos espacios tienen n y n+1 elementos,
respectivamente. Si P(F) es de dimension nita, entonces todas las bases de
P(F) tienen una cantidad nita de elementos. Sin embargo, hemos dado una
base para P(F) con un n umero innito de elementos, a saber 1
P
, x, x
2
, . . ..
Por tanto, P(F) es dimensionalmente innito.
A continuacion mostraremos una serie de resultados que involucran a la
dimension de un espacio vectorial.
68 CAP
= 1, i. Entonces
es
linealmente independiente. Para ver que
. Luego
) = C.
Esto prueba que
ON DE UN ESPACIO VECTORIAL 69
nitos, algunos conjuntos generadores pueden resultar ser una base, si conoce-
mos que su n umero maximo de elementos no supera la dimension del espacio.
Teorema 2.62. Sea V un espacio vectorial dimensionalmente nito. Supon-
gamos que dim(V ) = n. Entonces todo subconjunto de V que genere a V y
tenga a lo mas n elementos es una base para V.
Demostracion. Sea S un subconjunto de V con a lo mas n elementos y
tal que S) = V. Por el Teorema 2.43, existe S
1
S tal que S
1
es una base
de V. Como todas las bases de V tienen el mismo n umero de elementos y
dim(V ) = n, sucede que S
1
tiene justo n elementos. Entonces S
1
= S y con
esto probamos que S es una base para V.
Combinando el teorema anterior con el Teorema 2.45 y el Corolario 2.48,
obtenemos el siguiente resultado.
Teorema 2.63. Sea V un espacio vectorial dimensionalmente nito. Supon-
gamos que dim(V ) = n y que es una base para V. Si S es un subconjunto
linealmente independiente de V y con exactamente m elementos, entonces
existe un superconjunto T de S que es una base de V.
Demostracion. Como S es linealmente independiente, por el Corolario 2.48,
m n. Por el Teorema 2.45, existe un subconjunto S
1
de con exactamente
n m elementos tal que T = S S
1
genera a V. Notemos que T tiene a lo
mas n elementos. Entonces, por el teorema anterior, T es una base de V. Es
claro que T es un superconjunto de S.
El teorema anterior dice que, en los espacios dimensionalmente nitos, a
todo subconjunto linealmente independiente le podemos agregar elementos de
manera que el que conjunto resultante sea una base de dicho espacio. Notemos
que el teorema anterior no es otra cosa que una reformulaci on del Teorema
2.55, para espacios dimensionalmente nitos. Lo escribimos como un teorema
independiente dado que su prueba es muy sencilla, no depende del Principio
de Maximalidad (como se vio en la prueba del Teorema 2.55) y porque en
general utilizaremos espacios vectoriales dimensionalmente nitos. Ademas,
el Teorema 2.63 se usara con bastante frecuencia a partir del Captulo 4.
El siguiente teorema relaciona la dimension de un subespacio con la di-
mension del espacio vectorial que lo contiene.
70 CAP
es linealmente independiente. Si W
2
) = W, entonces W
2
es una base para W,
de lo contrario tomamos un elemento x
3
W W
2
). Aplicando de nuevo el
Teorema 2.40 tenemos que W
3
= x
1
, x
2
, x
3
es linealmente independiente.
Como dim(V ) = n tenemos, por el Corolario 2.48, que todo subconjunto de
V que sea linealmente independiente posee a lo mas n elementos. Por tanto,
el proceso anterior de ir agregando un elemento cada vez, para obtener un
nuevo conjunto linealmente independiente, debe terminar luego de a lo mas n
pasos. Cuando esto sucede, obtenemos un subconjunto W
k
= x
1
, x
2
, . . . , x
k
de W tal que W
k
es linealmente independiente pero W
k
x es linealmente
dependiente, para cada x W W
k
. Ademas k n y, de acuerdo a la
forma en que se van construyendo los conjuntos W
1
, W
2
, . . . , W
k
, resulta que
W
k
) = W. Por tanto dim(W) = k n = dim(V ). Esto termina la prueba
de la primera parte del teorema.
Para probar la segunda parte del teorema, supongamos que dim(W) =
dim(V ) = n. Como dim(W) = n, W admite una base con exactamente n
elementos. Ahora bien, V es un espacio que admite una base con exactamente
n elementos y es un subconjunto de V linealmente independiente y con
exactamente n elementos. Entonces, por el Corolario 2.46, es una base de
V. Entonces W = ) = V. Naturalmente, si suponemos que W = V, entonces
dim(W) = dim(V ). Esto termina la prueba del teorema.
Corolario 2.65. Si W es un subespacio de un espacio V dimensionalmente
nito, entonces W tiene una base nita y cualquier base para W es un sub-
conjunto de una base para V.
Demostracion. Por el teorema anterior, W es dimensionalmente nito. Por
tanto W admite una base nita. Ahora bien, si es una base para W, entonces
W es un subconjunto de V linealmente independiente. Aplicando el Teorema
2.63, un superconjunto de es una base para V.
2.11. DIMENSI
ON DE UN ESPACIO VECTORIAL 71
Utilizando el Teorema 2.64 podemos analizar geometricamente los su-
bespacios de R
2
. Sea W un subespacio de R
2
. Entonces, por el Teorema
2.64, dim(W) dim(R
2
) = 2. Si dim(W) = 0, entonces W = (0, 0). Si
dim(W) = 2 entonces, por el mismo Teorema 2.64, W = R
2
. Supongamos,
por tanto, que dim(W) = 1. Entonces W admite una base con exactamente
un elemento. Hagamos = x. Como es linealmente independiente, x ,=
(0, 0). Luego W = x) = ax: a R es la recta que pasa por x y el origen.
Esto prueba que si W es un subespacio de R
2
, entonces W = (0, 0), W = R
2
o bien W es una recta que pasa por el origen. Como (0, 0), R
2
y las rectas
que pasan por el origen son subespacios de R
2
, concluimos que los unicos
subespacios de R
2
son (0, 0), R
2
y las rectas que pasan por el origen. Un
analisis similar muestra que los unicos subespacios de R
3
son (0, 0, 0), R
3
,
las rectas que pasan por el origen y los planos que pasan por el origen.
2.11.2. Suma y Dimension
A continuaci on presentamos dos resultados mas, en donde analizamos la
dimension de la suma de dos subespacios de V.
Teorema 2.66. Sean W
1
y W
2
dos subespacios dimensionalmente nitos
de un espacio vectorial V (no necesariamente dimensionalmente nito). En-
tonces W
1
+W
2
es dimensionalmente nito y
dim(W
1
+W
2
) = dim(W
1
) + dim(W
2
) dim(W
1
W
2
).
Demostracion. Notemos primero que W
1
W
2
es un subespacio del espacio
vectorial dimensionalmente nito W
1
. Entonces, por el Corolario 2.65, W
1
W
2
es dimensionalmente nito y toda base de W
1
W
2
se puede extender
a una base para W
1
. Como tambien W
1
W
2
W
2
, utilizando de nuevo el
Corolario 2.65, tenemos que toda base W
1
W
2
se puede extender a una base
para W
2
.
Sea
0
= x
1
, x
2
, . . . , x
k
una base para W
1
W
2
. Como ya indicamos,
la base
0
esta contenida en una base B
1
de W
1
. De manera similar, la
base
0
esta contenida en una base B
2
para W
2
. Supongamos que en
1
=
y
1
, y
2
, . . . , y
r
se encuentran los elementos de W
1
que le debemos de agregar
a
0
para obtener B
1
. Supongamos tambien que en
2
= z
1
, z
2
, . . . , z
m
se
encuentran los elementos de W
2
que le debemos agregar a
0
para obtener
B
2
. Entonces B
1
=
0
1
y B
2
=
0
2
. Ademas B
1
tiene exactamente
72 CAP
2
. Notemos que B tiene exactamente k +r +m elementos.
Ademas, como
0
W
1
W
2
,
1
W
1
,
2
W
2
y W
1
W
2
W
1
+ W
2
,
tenemos que B W
1
W
2
W
1
+ W
2
. Entonces B es un subconjunto de
W
1
+ W
2
con exactamente k + r + m elementos. Si demostramos que B es
una base para W
1
+W
2
, tendremos que dim(W
1
+W
2
) = k +r +m y, como
k +r +m = dim(W
1
) + dim(W
2
) dim(W
1
W
2
), sucedera que
dim(W
1
+W
2
) = dim(W
1
) + dim(W
2
) dim(W
1
W
2
),
como queremos.
Para ver que B es una base para W
1
+ W
2
, mostraremos primero que B
es linealmente independiente. Tomemos escalares a
1
, a
2
, . . . , a
k
,b
1
, b
2
, . . . , b
r
,
c
1
, c
2
, . . . , c
m
F de modo que
a
1
x
1
+a
2
x
2
+ +a
k
x
k
+b
1
y
1
+b
2
y
2
+ +b
r
y
r
+c
1
z
1
+c
2
z
2
+ +c
m
z
m
= 0
V
.
Debemos probar que todos los escalares que tomamos son iguales a 0
F
. Ha-
gamos
v
0
= a
1
x
1
+a
2
x
2
+ +a
k
x
k
, v
1
= b
1
y
1
+b
2
y
2
+ +b
r
y
r
y
v
2
= c
1
z
1
+c
2
z
2
+ +c
m
z
m
.
Entonces v
0
+v
1
+v
2
= 0
V
. Luego v
0
+v
1
= v
2
. Ahora bien, tanto v
0
como
v
1
son combinaciones lineales de elementos que se encuentran en W
1
. Luego
v
0
, v
1
W
1
, de donde v
0
+v
1
W
1
. Como v
0
+v
1
= v
2
tenemos, por tanto,
que v
2
W
1
. Por otro lado, en vista de que v
2
es una combinacion lineal de
elementos que se encuentran en W
2
, sucede que v
2
W
2
. Luego v
1
W
2
.
Esto prueba que v
2
W
1
W
2
. Ahora bien,
0
es una base para W
1
W
2
y v
2
W
1
W
2
. Entonces v
2
es una combinacion lineal de todos los
2.11. DIMENSI
ON DE UN ESPACIO VECTORIAL 73
elementos de
0
. Esto signica que existen escalares d
1
, d
2
, . . . , d
k
F tales
que
v
2
= d
1
x
1
+d
2
x
2
+ +d
k
x
k
.
Luego
0
v
= v
0
+v
1
+v
2
=
= (a
1
x
1
+a
2
x
2
+ +a
k
x
k
) + (b
1
y
1
+b
2
y
2
+ +b
r
y
r
)+
(d
1
x
1
d
2
x
2
d
k
x
k
)
= (a
1
d
1
)x
1
+ (a
2
d
2
)x
2
+ + (a
k
d
k
)x
k
+b
1
y
1
+b
2
y
2
+ +b
r
y
r
.
Tenemos entonces que 0
V
es una combinacion lineal de todos los elementos
del conjunto linealmente independiente B
1
. Por tanto
a
1
d
1
= a
2
d
2
= = a
k
d
k
= b
1
= b
2
= = b
r
= 0
F
.
Como b
1
= b
2
= = b
r
= 0
F
, sucede que
v
1
= b
1
y
1
+b
2
y
2
+ +b
r
y
r
= 0
V
.
Luego
0
V
= v
0
+v
1
+v
2
= v
0
+v
2
= a
1
x
1
+a
2
x
2
+ +a
k
x
k
+c
1
z
1
+c
2
z
2
+ +c
m
z
m
.
La ecuacion anterior indica que el vector cero es una combinacion lineal de
todos los elementos del conjunto linealmente independiente B
2
. Luego
a
1
= a
2
= = a
k
= c
1
= c
2
= = c
m
= 0
F
.
Con esto probamos que todos los escalares involucrados en la ecuacion
a
1
x
1
+a
2
x
2
+ +a
k
x
k
+b
1
y
1
+b
2
y
2
+ +b
r
y
r
+c
1
z
1
+c
2
z
2
+ +c
m
z
m
= 0
V
son iguales a 0
F
. Por consiguiente B es linealmente independiente.
Ahora debemos de probar que B genera a W
1
+W
2
. Para ver esto, notemos
primero que W
1
= B
1
) =
0
1
) y W
2
= B
2
) =
0
2
), pues B
1
y
B
2
son bases de W
1
y W
2
, respectivamente. Luego, por el Ejercicio 1 de la
Seccion 2.7,
B) =
0
1
2
) = (
0
1
) (
0
2
))
= B
1
B
2
) = B
1
) +B
2
)
= W
1
+W
2
.
74 CAP
y
W
2
= (a
1
, a
2
, a
3
, a
4
, a
5
) F
5
: a
2
= a
3
= a
4
y a
1
+a
5
= 0
F
.
Muestra que W
1
y W
2
son subespacios de F
5
. Calcula ahora las dimen-
siones de W
1
,W
2
, W
1
W
2
y W
1
+W
2
.
Captulo 3
Matrices y Sistemas de
Ecuaciones Lineales
3.1. Matrices
Supongamos que F es un campo y que m y n son n umeros naturales.
Esquematicamente, una matriz de mn en F es un arreglo rectangular de
la forma
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
,
donde cada elemento A
ij
con 1 i m y 1 j n pertenece a F. Dada
i 1, 2, . . . , m, decimos que los elementos A
i1
, A
i2
, . . . , A
in
forman el i-
esimo renglon de la matriz, el cual a menudo se considera como el vector
renglon de F
n
:
(A
i1
, A
i2
, . . . , A
in
).
Dada j 1, 2, . . . , n, los elementos A
1j
, A
2j
, . . . , A
mj
forman la j-esima
columna de la matriz y, a menudo, se consideran como el vector columna de
F
m
:
_
_
_
_
_
A
1j
A
2j
.
.
.
A
mj
_
_
_
_
_
.
77
78 CAP
_
_
1 4 0 1
2 1 3 2
2 6 1 5
_
_
R
2
2R
1
+R
2
R
3
2R
1
+R
3
_
_
1 4 0 1
0 9 3 4
0 2 1 7
_
_
R
2
R
3
_
_
1 4 0 1
0 2 1 7
0 9 3 4
_
_
R
1
2R
2
+R
1
R
3
9
2
R
2
+R
3
_
_
1 0 2 13
0 2 1 7
0 0
15
2
55
2
_
_
R
2
1
2
R
2
R
3
2
15
R
3
_
_
1 0 2 13
0 1
1
2
7
2
0 0 1
11
3
_
_
R
2
1
2
R
3
+R
2
R
1
2R
3
+R
1
_
_
1 0 0
17
3
0 1 0
5
3
0 0 1
11
3
_
_
= B
Notemos que las matrices A y B son equivalentes por renglones pues, para
pasar de A a B, utilizamos diez operaciones elementales por renglon (dos del
tipo 1, seis del tipo 2 y dos del tipo 3). De acuerdo con el teorema anterior, el
sistema AX = 0
31
tiene exactamente las mismas soluciones que el sistema
BX = 0
31
el cual, en terminos de las cuatro variables involucradas x
1
, x
2
, x
3
y x
4
, se escribe como:
x
1
+
17
3
x
4
= 0
x
2
5
3
x
4
= 0
x
3
11
3
x
4
= 0
(3.3.1)
92 CAP
17
3
,
5
3
,
11
3
, 1
_
x
4
.
Tambien sucede que, para cualquier valor real que le demos a la variable
x
4
, el 4-tuple
_
17
3
,
5
3
,
11
3
, 1
_
x
4
es una solucion del sistema (3.3.1). Por tanto,
toda solucion del sistema (3.3.1) tiene la forma
_
17
3
,
5
3
,
11
3
, 1
_
c, en donde c
es un n umero real cualquiera. Como los sistemas AX = 0
31
y BX = 0
31
tienen exactamente el mismo n umero de soluciones, concluimos que todas las
soluciones del sistema AX = 0
31
, el cual es el que queremos resolver, son
de la forma
_
17
3
,
5
3
,
11
3
, 1
_
c, en donde c es un n umero real cualquiera.
Para no trabajar al nal con fracciones, podemos multiplicar por 3 cada
elemento que aparece en el 4-tuple
_
17
3
,
5
3
,
11
3
, 1
_
c. Como c es un n umero
real arbitrario, podemos decir que las soluciones del sistema original son de
la forma (17, 5, 11, 3)a, en donde a es un n umero real cualquiera.
Los pasos que realizamos para obtener la matriz B, a partir de A, no
determinan a una unica matriz equivalente a A, cuyo sistema homogeneo de
ecuaciones lineales es facil de resolver. La razon radica en el hecho de que
pudimos haber empezado por un camino distinto. Partiendo de A, la primera
operacion elemental por renglon a realizar, pudo haber sido R
3
R
1
+R
3
,
obteniendo una matriz equivalente por renglones a A cuyo tercer renglon es
distinto a los obtenidos en el proceso de arriba. Ahora bien, la manera de
llegar a B no fue arbitraria. Como el lector puede observar, lo que hicimos
fue conseguir un uno en la posicion que esta mas a la izquierda, y luego ceros
abajo de dicho uno. Dicha posicion fue la 1-1, es decir, la que se encuentra
en el primer renglon y la primera columna. Posteriormente nos movimos a la
posicion 2-2, es decir, la que se encuentra en el segundo renglon y la segunda
columna. En dicha posicion el objetivo fue formar un uno y luego hacer ceros
los elementos que se encuentran en la segunda columna, salvo el de la posicion
2-2. Luego nos movimos a la posicion 3-3, en donde debemos de conseguir
un uno y luego ceros en los demas elementos de la tercera columna. Una vez
cumplido este objetivo, el proceso termina, pues ya no tenemos disponible
la posicion 4-4. La matriz obtenida, que llamamos B, nos lleva entonces a
un sistema que es facil de resolver, debido a la cantidad de ceros y unos que
fuimos haciendo.
3.3. MATRICES Y OPERACIONES ELEMENTALES 93
El proceso ilustrado en el parrafo anterior, se conoce en algunos textos
como el metodo de eliminacion Gauss-Jordan para resolver un sistema de
ecuaciones lineales. Dicho metodo tiene tambien algunas variantes. El lector
puede consultar, por ejemplo, el Captulo 1 y el Apendice 4 del libro [2].
3.3.4. Matriz Escalonada Reducida por Renglones
Las matrices que tienen las caractersticas de la matriz B del Ejemplo
3.9, tienen un nombre especial. Se llaman escalonadas reducidas por ren-
glones. Para denirlas, primero consideraremos una clase de matrices que
estan cercanas a las escalonadas reducidas. Si A es una matriz, decimos
que un renglon de A es nulo, si todos sus elementos son iguales al cero del
campo. Por un elemento no nulo de una matriz, nos referimos a un elemento
de la matriz que es diferente del cero del campo.
Denicion 3.10. Una matriz R M
mn
(F) se llama reducida por ren-
glones si R satisface las siguientes dos condiciones:
1) el primer elemento no nulo de cada renglon no nulo de R es igual a 1
F
;
2) cada columna de R que tiene el primer elemento no nulo de alg un
renglon, tiene todos sus otros elementos iguales a 0
F
.
Dada n N, el ejemplo ideal de una matriz reducida por renglones es la
matriz identidad de orden n, la cual denotaremos por I
n
. Dicha matriz tiene
al elemento 1
F
en las posiciones 1-1, 2-2, . . . , n-n y, al cero del campo, en las
demas posiciones. Formalmente (I
n
)
ij
= 0
F
si i ,= j, mientras que (I
n
)
ij
= 1
F
cuando i = j. Las siguientes dos matrices no estan reducidas por renglones:
_
_
1 0 0 0
0 1 1 0
0 0 1 0
_
_
_
_
0 2 1
1 0 3
0 0 0
_
_
.
En la primera de ellas resulta que el primer elemento no nulo del tercer
renglon es 1, pero no todos los demas elementos que se encuentran en la
tercera columna, el lugar en donde aparece el primer uno del tercer renglon,
son iguales a cero (el que ocupa la posicion 2-3 es 1). La segunda matriz no
esta reducida por renglones, pues el primer elemento no nulo que aparece en
el primer renglon no es un uno, sino un dos. De estos ejemplos debe quedar
claro que cuando decimos el primer elemento no nulo del renglon r de A es
94 CAP
ON DE UN SISTEMA DE ECUACIONES 99
las mismas soluciones. Tambien, por el Teorema 3.8, los sistemas homogeneos
BX = 0
m1
y R
2
X = 0
m1
tienen exactamente las mismas soluciones. En-
tonces, como los sistemas homogeneos AX = 0
m1
y BX = 0
m1
tienen
exactamente las mismas soluciones, deducimos que los sistemas homogeneos
R
1
X = 0
m1
y R
2
X = 0
m1
tienen exactamente las mismas soluciones.
Luego, por el Teorema 3.13, R
1
= R
2
. Esto implica que A es equivalente
por renglones a R
1
y que R
1
es equivalente por renglones a B. Luego A es
equivalente por renglones a B.
Combinando lo que hicimos en el Ejemplo 3.9 y lo enunciado en el Teo-
rema 3.14, para resolver un sistema de ecuaciones lineales homogeneo de la
forma AX = 0
m1
, debemos primero llevar A a una matriz R que sea equiva-
lente por renglones a A y escalonada reducida por renglones. La manera de
obtener a R se sigue como se indico en el Ejemplo 3.9. Una vez que obtene-
mos la matriz R, debemos ahora resolver el sistema homogeneo RX = 0
m1
,
el cual tiene exactamente el mismo n umero de soluciones que el sistema
AX = 0
m1
, pues A y R son equivalentes por renglones. En la siguiente
seccion veremos como resolver, en general, un sistema RX = 0
m1
en donde
la matriz R esta escalonada reducida por renglones. Posteriormente haremos
ver que, el conocimiento de las soluciones de un sistema homogeneo, nos
ayuda para conocer las soluciones de un sistema que no es homogeneo.
3.4. Solucion de un Sistema de Ecuaciones
3.4.1. Sistema Homogeneo
En esta seccion veremos como resolver un sistema de ecuaciones lineales
de la forma RX = 0
m1
, en donde R M
mn
(F) esta escalonada reducida
por renglones y R ,= 0
mn
. Entendemos que X es la matriz de n1 en donde
se encuentran las incongitas x
1
, x
2
, . . . , x
n
del sistema.
Supongamos que los renglones 1, 2, . . . , r son los no nulos de R. Natu-
ralmente 1 r m, pues R no es la matriz cero. Supongamos tambien
que, para cada i = 1, 2, . . . , r, el primer elemento no nulo del renglon i se
encuentra en la columna k
i
. Como R esta reducida por renglones, en la posi-
cion i-k
i
aparece entonces el elemento 1
F
, y todos los demas elementos que
se encuentran en la columna k
i
son iguales a 0
F
. Tambien es cierto que
k
1
< k
2
< < k
r
. Notemos que en el renglon i, los elementos que estan en
100 CAP
nr
j=1
C
1j
u
j
= 0
F
x
k
2
+
nr
j=1
C
2j
u
j
= 0
F
.
.
.
.
.
.
.
.
.
.
.
.
x
k
r
+
nr
j=1
C
rj
u
j
= 0
F
(3.4.2)
102 CAP
nr
j=1
C
1j
u
j
= z
1
x
k
2
+
nr
j=1
C
2j
u
j
= z
2
.
.
.
.
.
.
.
.
.
.
.
.
x
k
r
+
nr
j=1
C
rj
u
j
= z
r
0
F
= z
r+1
0
F
= z
r+2
.
.
.
.
.
.
.
.
.
0
F
= z
m
.
(3.4.3)
Como lo hemos estado haciendo, entendemos que r es el n umero de ren-
glones no nulos de R y que, para 1 i r, el primer elemento no nulo
del renglon i de R, se encuentra en la columna k
i
. Ademas x
k
1
, x
k
2
, . . . , x
k
r
son las variables etiquetadas, mientras que u
1
, u
2
, . . . , u
nr
son las variables
no etiquetadas. Notemos que en el sistema anterior aparecen las ecuaciones
0
F
= z
r+1
, 0
F
= z
r+2
, . . . , 0
F
= z
m
. Esto signica que, para que el sistema
AX = Y
m1
, que es equivalente al sistema RX = Z
m1
, tenga solucion, los
valores de z
r+1
, z
r+2
, . . . , z
m
deben ser iguales a 0
F
. Si se cumple esta condi-
cion, entonces todas las soluciones del sistema no homogeneo se encuentran
del mismo modo que en el caso homogeneo: le damos valores arbitrarios a las
variables no etiquetadas u
1
, u
2
, . . . , u
nr
y calculamos luego el valor de las
variables etiquetadas x
k
1
, x
k
2
, . . . , x
k
r
.
Seg un lo comentado en el parrafo anterior, el sistema AX = Y
m1
no
tiene solucion si para alguna i > r, el valor de z
i
no es 0
F
. Si z
r+1
= z
r+2
=
= z
m
= 0
F
, entonces el sistema AX = Y
m1
tiene solucion. El n umero
de soluciones depende de si existen variables no etiquetadas y de que tan
grande es el campo. Si no tenemos variables etiquetadas es porque r = n. En
dicha situacion tambien debemos tener que n m, pues r siempre es menor
o igual al n umero de renglones de R. Entonces el sistema posee solamente la
solucion (z
1
, z
2
, . . . , z
n
). Si tenemos por lo menos una variable no etiquetada,
es porque r < n. En dicha situacion tenemos por lo menos dos soluciones.
De lo anterior, tenemos el siguiente resultado.
Teorema 3.19. Supongamos que A M
mn
(F) y Y
m1
M
m1
(F). Supon-
gamos tambien que la matriz aumentada (A[Y ) es equivalente por renglones
a la matriz (R[Z), donde R es la matriz escalonada reducida por renglones
108 CAP
y
1
y
2
y
3
_
_
3.5. EJERCICIOS 109
Efectuando operaciones elementales por renglon, debemos llevar la ma-
triz (A[Y ) a una, de modo que la matriz formada con sus primeras tres
columnas este escalonada reducida por renglones. Utilizaremos la notacion
que establecimos en el Ejemplo 3.9:
_
_
1 2 1
2 1 1
0 5 1
y
1
y
2
y
3
_
_
R
2
2R
1
+R
2
_
_
1 2 1
0 5 1
0 5 1
y
1
2y
1
+y
2
y
3
_
_
R
3
R
2
+R
3
_
_
1 2 1
0 5 1
0 0 0
y
1
2y
1
+y
2
2y
1
y
2
+y
3
_
_
R
2
1
5
R
2
_
_
1 2 1
0 1
1
5
0 0 0
y
1
1
5
(2y
1
+y
2
)
2y
1
y
2
+y
3
_
_
R
1
2R
2
+R
1
_
_
1 0
3
5
0 1
1
5
0 0 0
1
5
(y
1
+ 2y
2
)
1
5
(2y
1
+y
2
)
2y
1
y
2
+y
3
_
_
= (R[Z).
Considerando la matriz (R[Z) resulta que, para que el sistema AX = Y
31
tenga una solucion, se requiere que
2y
1
y
2
+y
3
= 0. (3.4.4)
Tambien, considerando la matriz (R[Z), tenemos que x
1
y x
2
son variables
etiquetadas, mientras que x
3
es una variable no etiquetada. Entonces el sis-
tema tendra por lo menos dos soluciones y, como el campo de los racionales es
innito tendra, de hecho, un n umero innito de soluciones. Todo esto siem-
pre y cuando y
1
, y
2
y y
3
satisfagan la ecuacion (3.4.4). De ser este el caso, le
damos a la variable x
3
el valor racional c y calculamos las variables x
1
y x
2
en terminos de c. Tenemos entonces que
x
1
=
3
5
c +
1
5
(y
1
+ 2y
2
) y x
2
=
1
5
c +
1
5
(2y
1
+y
2
)
3.5. Ejercicios
1. Encuentra una matriz escalonada reducida por renglones que sea equi-
valente por renglones a la matriz
A =
_
_
1 i
2 2
i i + 1
_
_
.
110 CAP
ON DE MATRICES 111
3.6. Multiplicacion de Matrices
3.6.1. Denicion y Propiedades Fundamentales
Cuando vamos efectuando operaciones elementales del tipo 1 y del tipo 2
sobre los renglones de una matriz, lo que vamos formando son combinaciones
lineales de los renglones de dicha matriz. Combinando esto con el hecho de
que, mediante una cantidad nita de operaciones elementales por renglon,
podemos llevar una matriz a una escalonada reducida por renglones, resulta
que, mediante una cantidad nita de combinaciones lineales de los renglones
de la matriz original, obtenemos la matriz escalonada reducida por renglones.
Por tanto, el proceso de formar combinaciones lineales con los renglones de
una matriz es fundamental. No esta de mas decir que, en los espacios vecto-
riales, la nocion de combinaci on lineal tambien es importante pues, gracias
a ella, obtenemos por ejemplo la nocion de base. Para el caso de matrices,
lo que deseamos ahora es una operacion que sistematice el proceso de tomar
combinaciones lineales. Dicha operacion es la multiplicaci on de matrices.
Para denir la multiplicacion de matrices, consideremos primero una ma-
triz A M
mn
(F). Podemos escribir a A en la forma
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
,
y tambien la podemos escribir considerando los renglones de A o bien las
columnas de A. Si r
1
, r
2
, . . . , r
m
son los renglones de A, entonces la notacion
A =
_
_
_
_
_
_
_
r
1
r
2
.
.
.
r
m1
r
m
_
_
_
_
_
_
_
(3.6.1)
representa la matriz Aen terminos de sus renglones, mientras que si c
1
, c
2
, . . . , c
n
son las columnas de A, entonces la notacion
A = (c
1
[c
2
[ [c
n
) (3.6.2)
112 CAP
1
.
.
.
n1
n
_
_
_
_
_
.
A partir de B construiremos una matriz C M
mp
(F) en donde los renglones
de C, que denotaremos por
1
,
2
, . . . ,
m
, seran combinaciones lineales de los
renglones de B. A saber, para 1 i m, denimos
i
= A
i1
1
+A
i2
2
+ +A
in
n
. (3.6.3)
Como
1
,
2
, . . . ,
n
F
p
y A
i1
, A
i2
, . . . , A
in
F, sucede que
i
F
p
, para
cada 1 i m. Por esta razon es que la matriz C es de orden m p.
Notemos que los elementos A
i1
, A
i2
, . . . , A
in
forman el renglon i de r, que
denotamos por r
i
. Entonces, en cierta forma, (3.6.3) representa un producto
punto entre r
i
y B, como ese producto punto que aprendimos en los cursos
de Geometra Analtica. Estrictamente hablando no tenemos un producto
punto, pero hagamonos de la vista gorda y consideremoslo como tal. Entonces
i
= r
i
B, para cada 1 i m.
Desarrollando ahora la ecuacion (3.6.3) obtenemos
A
i1
1
+A
i2
2
+ +A
in
n
= A
i1
_
_
_
_
_
_
_
_
_
B
11
B
12
.
.
.
B
1j
.
.
.
B
1p
_
_
_
_
_
_
_
_
_
+A
i2
_
_
_
_
_
_
_
_
_
B
21
B
22
.
.
.
B
2j
.
.
.
B
2p
_
_
_
_
_
_
_
_
_
+ +A
in
_
_
_
_
_
_
_
_
_
B
n1
B
n2
.
.
.
B
nj
.
.
.
B
np
_
_
_
_
_
_
_
_
_
=
3.6. MULTIPLICACI
ON DE MATRICES 113
=
_
_
_
_
_
_
_
_
_
A
i1
B
11
+A
i2
B
21
+ +A
in
B
n1
A
i1
B
12
+A
i2
B
22
+ +A
in
B
n2
.
.
.
.
.
.
.
.
.
A
i1
B
1j
+A
i2
B
2j
+ +A
in
B
nj
.
.
.
.
.
.
.
.
.
A
i1
B
1p
+A
i2
B
2p
+ +A
in
B
np
_
_
_
_
_
_
_
_
_
=
i
=
_
_
_
_
_
_
_
_
_
C
i1
C
i2
.
.
.
C
ij
.
.
.
C
ip
_
_
_
_
_
_
_
_
_
.
Por tanto, tenemos la siguiente igualdad:
C
ij
= A
i1
B
1j
+A
i2
B
2j
+ +A
in
B
nj
=
n
r=1
A
ir
B
rj
. (3.6.4)
Lo anterior indica que el elemento que ocupa la posicion i-j de C, esta da-
do por la formula (3.6.4). Esto nos permite denir al producto de A y B.
Denicion 3.21. Si A M
mn
(F) y B M
np
(F), entonces el producto
de A con B es la matriz C M
mp
(F) tal que
C
ij
=
n
r=1
A
ir
B
rj
,
para cada 1 i m y cada 1 j p.
Denotaremos por AB al producto de A con B. Uno de los objetivos prin-
cipales del Captulo 4, sera el de denir ciertas funciones entre espacios vec-
toriales, que llamaremos transformaciones lineales, y probar que cada trans-
formacion lineal puede ser vista como una matriz. En el proceso veremos que
sera posible considerar la composicion de transformaciones lineales como un
producto de matrices, siempre y cuando el producto de matrices se dena
como en la formula (3.6.4). Tenemos entonces dos razones para denir el
producto matricial como se indica en la denicion anterior. La primera es
por la razon ya indicada: estamos considerando combinaciones lineales de
los renglones de una matriz. La segunda es que, gracias a la forma en co-
mo lo estamos deniendo, el producto matricial quedara identicado con la
composicion de transformaciones lineales. Por tanto, propiedades que sean
validas para la composicion de transformaciones lineales, seran tambien vali-
das para el producto matricial. Todo esto quedara mas claro y formalizado,
luego de que probemos el Teorema 4.51.
114 CAP
ON DE MATRICES 115
Teorema 3.22. Si A, B y C son matrices sobre el campo F, tales que los
productos BC y A(BC) estan denidos, entonces tambien los productos AB
y (AB)C estan denidos. Ademas
A(BC) = (AB)C.
Demostracion. Supongamos que B M
np
(F). Como el producto BC
esta denido, C es una matriz con p renglones. Ademas, la matriz BC tiene
n renglones. Ahora bien, como la matriz A(BC) tambien esta denida y BC
tiene n renglones, necesariamente A tiene n columnas. Podemos suponer, por
tanto, que A M
mn
(F), para alg un n umero natural m. Entonces el pro-
ducto AB existe y, ademas, AB M
mp
(F). Como el n umero de columnas
de AB, el cual es p, coincide con el n umero de renglones de C, el producto
(AB)C tambien existe. Si suponemos que C M
pq
(F), para alg un n umero
natural q, entonces BC M
nq
(F) y (AB)C, A(BC) M
mq
(F).
Para mostrar que los productos A(BC) y (AB)C son iguales, debemos
hacer ver que
[A(BC)]
ij
= [(AB)C]
ij
para cada 1 i m y cada 1 j q. Dadas i y j como se indica
obtenemos, utilizando las respectivas deniciones del producto de matrices
as como propiedades de la sumatoria, la siguiente cadena de igualdades:
[A(BC)]
ij
=
n
r=1
A
ir
(BC)
rj
=
n
r=1
A
ir
_
p
s=1
B
rs
C
sj
_
=
=
n
r=1
p
s=1
A
ir
B
rs
C
sj
=
p
s=1
n
r=1
A
ir
B
rs
C
sj
=
=
p
s=1
_
n
r=1
A
ir
B
rs
_
C
sj
=
p
s=1
(AB)
is
C
sj
= [(AB)C]
ij
.
Esto termina la demostracion.
Notemos que el hecho de que el producto de matrices sea asociativo im-
plica, entre otras cosas, que combinaciones lineales de combinaciones lineales
son, de nueva cuenta, combinaciones lineales.
Si A M
nn
(F), entonces el producto AA esta denido. Esta matriz
se representa por A
2
. Como el producto de matrices es asociativo, tenemos
116 CAP
k=1
A
ik
(dB +eC)
kj
=
n
k=1
A
ik
(dB
kj
+eC
kj
) =
=
n
k=1
[A
ik
(dB
kj
) +A
ik
(eC
kj
)] =
n
k=1
[d(A
ik
B
kj
) +e(A
ik
C
kj
)] =
= d
_
n
k=1
A
ik
B
kj
_
+e
_
n
k=1
A
ik
C
kj
_
= d(AB)
ij
+e(AC)
ij
= [d(AB)+e(AC)]
ij
.
Esto muestra que A(dB +eC) = d(AB) +e(AC).
De la igualdad A(dB+eC) = d(AB)+e(AC) podemos decir, en terminos
un tanto libres, que el producto de matrices abre sumas y saca escalares. Co-
mo veremos en el Captulo 4, estas dos propiedades con las que caracterizaran
a las funciones que llamaremos transformaciones lineales.
3.6. MULTIPLICACI
ON DE MATRICES 117
Hemos demostrado que el producto de matrices es asociativo, distributivo
con respecto a la suma y no conmutativo. Terminamos la presente subseccion,
mostrando otras propiedades de la multiplicaci on de matrices. Supongamos
que A M
mn
(F). Notemos que si I
m
M
mm
(F) es la matriz identidad
de orden m, entonces I
m
A = A. Ademas, si I
n
M
nn
(F) es la matriz
identidad de orden n, entonces AI
n
= A. Por otro lado, 0
km
A = 0
kn
. De
manera similar A0
nr
= 0
mr
.
3.6.2. Producto en Terminos de Columnas
Consideremos dos matrices A M
mn
(F) y B M
np
(F). Supongamos
que B
1
, B
2
, . . . , B
p
son las columnas de B. Entonces
B = (B
1
[B
2
[ [B
p
).
Ademas, para cada 1 j p, tenemos que B
i
M
n1
(F). Por tanto,
podemos realizar el producto AB
i
y, ademas, AB
i
M
m1
(F). Mas a un,
sucede que
AB = (AB
1
[AB
2
[ [AB
p
). (3.6.5)
Para probar esto, supongamos que
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
y hagamos C = (AB
1
[AB
2
[ [AB
p
). Entonces, para 1 j p, la j-esima
columna de C es la matriz
AB
j
=
_
_
_
_
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
i1
A
i2
A
in
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
B
1j
B
2j
.
.
.
B
ij
.
.
.
B
nj
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
A
11
B
1j
+A
12
B
2j
+ +A
1n
B
nj
A
21
B
1j
+A
22
B
2j
+ +A
2n
B
nj
.
.
.
A
i1
B
1j
+A
i2
B
2j
+ +A
in
B
nj
.
.
.
A
m1
B
1j
+A
m2
B
2j
+ +A
mn
B
nj
_
_
_
_
_
_
_
_
_
.
Notemos que, para 1 i m, el i-esimo renglon de la matriz AB
j
(el cual
corresponde con el ij-esimo elemento de C) es la expresion:
A
i1
B
1j
+A
i2
B
2j
+ +A
in
B
nj
=
n
r=1
A
ir
B
rj
,
118 CAP
ON DE MATRICES 119
Demostracion. Dada 1 j n, tenemos que
c
j
=
_
_
_
_
_
A
1j
A
2j
.
.
.
A
mj
_
_
_
_
_
es la j-esima columna de A. Ademas, utilizando la ecuacion (3.6.7), tenemos
que:
x
1
c
1
+x
2
c
2
+ +x
n
c
n
= x
1
_
_
_
_
_
A
11
A
21
.
.
.
A
m1
_
_
_
_
_
+x
2
_
_
_
_
_
A
12
A
22
.
.
.
A
m2
_
_
_
_
_
+ +x
n
_
_
_
_
_
A
1n
A
2n
.
.
.
A
mn
_
_
_
_
_
_
_
_
_
_
A
11
x
1
+A
12
x
2
+ +A
1n
x
n
A
21
x
1
+A
22
x
2
+ +A
2n
x
n
.
.
.
.
.
.
A
m1
x
1
+A
m2
x
2
+ +A
mn
x
n
_
_
_
_
_
=
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
= Y.
Esto muestra que Y es una combinaci on lineal de las columnas de A.
En el siguiente teorema, mostramos que un sistema de ecuaciones lineales
puede utilizarse para determinar si las columnas de una matriz dada son
linealmente dependientes.
Teorema 3.25. Consideremos la matriz A M
mn
(F) dada por
A =
_
_
_
_
_
A
11
A
12
A
1n
A
21
A
22
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mn
_
_
_
_
_
.
Entonces las columnas de A, consideradas como elementos de F
m
, son lineal-
mente dependientes si y solo si el sistema homogeneo AX = 0
m1
tiene una
solucion no trivial.
120 CAP
k=1
E
ik
A
kj
=
m
k=1
ik
A
kj
= A
ij
= e(A)
ij
. (3.7.1)
Por otro lado
(EA)
rj
=
m
k=1
E
rk
A
kj
=
m
k=1
c
rk
A
kj
= cA
rj
= e(A)
rj
.
Entonces EA = e(A). Supongamos ahora que e es del tipo 2, digamos que
e reemplaza el renglon r por el renglon r mas c veces el renglon s, donde
r ,= s. Entonces, para cada matriz B M
mn
(F), tenemos que e(B)
ij
= B
ij
si i ,= r, mientras que e(B)
rj
= B
rj
+ cB
sj
. Si B = I
m
entonces, como
E = e(I
m
), tenemos que E
ik
=
ik
si i ,= r, mientras que E
rk
=
rk
+ c
sk
.
Luego, si i ,= r, siguiendo las igualdades presentadas en (3.7.1), sucede que
(EA)
ij
= e(A)
ij
. Por otro lado
(EA)
rj
=
m
k=1
E
rk
A
kj
=
m
k=1
(
rk
+c
sk
)A
kj
= A
rj
+cA
sj
= e(A)
rj
.
3.7. MATRICES ELEMENTALES 123
Esto muestra que EA = e(A). Supongamos, por ultimo, que e es del tipo
3. Digamos que e intercambia los renglones r y s, donde r ,= s. Entonces,
para cada matriz B M
mn
(F), tenemos que e(B)
ij
= B
ij
si i ,= r e i ,= s,
mientras que e(B)
rj
= B
sj
y e(B)
sj
= B
rj
. Si B = I
m
entonces, como
E = e(I
m
), tenemos que E
ik
=
ik
si i ,= r e i ,= s, mientras que E
rk
=
sk
y
E
sk
=
rk
. Notemos que si i ,= r e i ,= s, siguiendo las igualdades presentadas
en (3.7.1), sucede que (EA)
ij
= e(A)
ij
. Por otro lado
(EA)
rj
=
m
k=1
E
rk
A
kj
=
m
k=1
sk
A
kj
= A
sj
= e(A)
rj
y
(EA)
sj
=
m
k=1
E
sk
A
kj
=
m
k=1
rk
A
kj
= A
rj
= e(A)
sj
.
Esto muestra que EA = e(A) y termina la demostracion del teorema.
Corolario 3.30. Supongamos que A, B M
mn
(F). Entonces B es equiva-
lente por renglones a A si y solo si, B = PA, donde P M
mm
(F) es un
producto de matrices elementales.
Demostracion. Supongamos primero que B = PA, donde
P = E
s
E
s1
E
2
E
1
es el producto de las matrices elementales E
1
, E
2
, . . . , E
s
M
mm
(F). En-
tonces, por el teorema anterior, E
1
A es equivalente por renglones a A, pues
E
1
A es justo lo que se obtiene cuando a A le aplicamos una operacion ele-
mental por renglon. De modo similar tenemos que E
2
(E
1
A) es equivalente
por renglones a E
1
A. Como la equivalencia por renglones dene una relacion
de equivalencia, sucede que E
2
E
1
A es equivalente por renglones a A. Conti-
nuando de este modo, concluimos que (E
s
E
s1
E
2
E
1
)A es equivalente por
renglones a A. Esto muestra que B es equivalente por renglones a A.
Supongamos ahora que B es equivalente por renglones a A. Entonces B se
obtiene de A, luego de aplicar un n umero nito e
1
, e
2
, . . . , e
s
de operaciones
elementales por renglon. Entonces B = (e
s
e
s1
e
2
e
1
)(A). Dada
i 1, 2, . . . , s, supongamos que E
i
es la matriz elemental correspondiente
124 CAP
k=1
R
ik
S
kj
=
n
k=1
0
F
S
kj
= 0
F
.
En particular (RS)
ii
= 0
F
. Sin embargo, como RS = I
n
, tenemos que
(RS)
ii
= (I
n
)
ii
= 1
F
. Entonces 0
F
= 1
F
, lo cual es una contradiccion.
Entonces todos los renglones de R son no nulos. Esto muestra la primera
parte de b). Supongamos ahora que todos los renglones de R son no nulos.
Entonces R = I
n
pues R es una matriz escalonada reducida por renglones y
ning un renglon de R es nulo. Como la matriz I
n
es invertible, sucede que R
es invertible. Esto prueba b). Naturalmente, tambien es cierto que
c) todo renglon de R es no nulo si y solo si R = I
n
.
Combinando a), b) y c) tenemos que A es invertible si y solo si R = I
n
.
Esto prueba la equivalencia entre las armaciones 1) y 2) del teorema.
Para terminar la demostracion basta, por tanto, probar la equivalencia
entre las armaciones 1) y 3). Supongamos primero que A es un producto de
matrices elementales. Entonces, como las matrices elementales son inverti-
bles, A es un producto de matrices invertibles. Entonces A es invertible. Esto
prueba que 3) implica a 1). Supongamos ahora que A es invertible. Entonces,
por lo comentado en el parrafo anterior, R = I
n
. Luego, de R = PA se sigue
que PA = I
n
. Multiplicando la igualdad PA = I
n
por P
1
tenemos que
P
1
(PA) = P
1
I
n
= P
1
= (E
k
E
k1
E
2
E
1
)
1
= E
1
1
E
1
2
E
1
k
.
Como tambien P
1
(PA) = (P
1
P)A = I
n
A = A, tenemos que
A = E
1
1
E
1
2
E
1
k
.
Entonces A es un producto de matrices elementales. Esto prueba que 1)
implica a 3).
Combinando el Corolario 3.30 y el Teorema 3.36, tenemos el siguiente
resultado.
128 CAP
1 0 0
0 1 0
0 0 1
_
_
A continuaci on debemos reducir por renglones matriz anterior. Utilizaremos
la notacion acostumbrada para reducir una matriz por renglones.
_
_
2 4 6
4 5 6
3 1 2
1 0 0
0 1 0
0 0 1
_
_
R
1
1
2
R
1
_
_
1 2 3
4 5 6
3 1 2
1
2
0 0
0 1 0
0 0 1
_
_
R
2
4R
1
+R2
R
3
3R
1
+R
3
_
_
1 2 3
0 3 6
0 5 11
1
2
0 0
2 1 0
3
2
0 1
_
_
R
2
1
3
R
2
_
_
1 2 3
0 1 2
0 5 11
1
2
0 0
2
3
1
3
0
3
2
0 1
_
_
R
1
2R
2
+R
1
R
3
5R
2
+R
3
_
_
1 0 1
0 1 2
0 0 1
5
6
2
3
0
2
3
1
3
0
11
6
5
3
1
_
_
R
3
R
3
_
_
1 0 1
0 1 2
0 0 1
5
6
2
3
0
2
3
1
3
0
11
6
5
3
1
_
_
R
1
R
3
+R
1
R
2
2R
3
+R
2
_
_
1 0 0
0 1 0
0 0 1
8
3
7
3
1
13
3
11
3
2
11
6
5
3
1
_
_
.
Como A se redujo a la identidad I
3
, tenemos que A es invertible y, ademas,
A
1
=
_
_
8
3
7
3
1
13
3
11
3
2
11
6
5
3
1
_
_
=
1
6
_
_
16 14 6
26 22 12
11 10 6
_
_
.
Una vez calculada la inversa, podemos vericar que, efectivamente, A
1
A =
I
3
= AA
1
. Mas adelante, en el Teorema 3.43, vamos a demostrar que si
3.8. LA INVERSA DE UNA MATRIZ 131
una matriz cuadrada tiene una inversa izquierda o bien una inversa derecha,
entonces dicha matriz es invertible. En vista de este resultado, es suciente
con vericar alguna de las igualdades A
1
A = I
3
y AA
1
= I
3
. Esto ultimo
es recomendable hacerlo pues, al calcular la inversa por el metodo que hemos
discutido, es muy facil cometer errores. Por tanto, la vericacion se hace mas
para estar seguros de que no cometimos errores al ir reduciendo la matriz
aumentada (A[I
3
). En efecto
A
1
A =
1
6
_
_
16 14 6
26 22 12
11 10 6
_
_
_
_
2 4 6
4 5 6
3 1 2
_
_
=
1
6
_
_
6 0 0
0 6 0
0 0 6
_
_
= I
3
.
Ejemplo 3.40. Determinar si la matriz
A =
_
1 2
2 4
_
tiene inversa. Calcular A
1
en caso de que exista.
Solucion. En este caso tenemos que
_
1 2
2 4
1 0
0 1
_
R
2
2R
1
+R
2
_
1 2
0 0
1 0
2 1
_
.
Como la matriz
R =
_
1 2
0 0
_
no es equivalente por renglones a la matriz identidad I
2
, pues R tiene un
renglon nulo, sucede que A no es invertible.
Notemos que si A es equivalente por renglones a B y la matriz B posee
un renglon nulo, entonces B no puede ser equivalente por renglones a la iden-
tidad y, por tanto, tampoco A. En el fondo, lo unico que necesitamos saber
para probar lo anterior, es que esencialmente las operaciones elementales por
renglon transforman renglones nulos en renglones nulos. Utilizando una o-
peracion elemental del tipo 2, podemos transformar un renglon nulo en un
renglon no nulo, pero este resultara ser un m ultiplo escalar de un renglon
no nulo que, para efectos de la transformacion de una matriz a su matriz
escalonada reducida por renglones, terminara en un renglon nulo. A su vez,
si aplicamos una operacion elemental del tipo 1 o 3 a una matriz que posee un
renglon nulo, entonces obtendremos otra matriz que posee un renglon nulo.
132 CAP
se le llama la imagen de A.
En el siguiente teorema mostraremos que, en efecto, el n ucleo y la imagen
de A son subespacios de F
n
y de F
m
, respectivamente.
Teorema 3.46. Si A M
mn
(F), entonces Nuc(A) e Im(A) son subespa-
cios de F
n
y de F
m
, respectivamente.
Demostracion. Para ver que Nuc(A) es un subespacio de F
n
, notemos
primero que 0
n1
Nuc(A), pues A0
n1
= 0
m1
. Supongamos ahora que
X
1
, X
2
Nuc(A) y que c F. Entonces AX
1
= 0
m1
y AX
2
= 0
m1
.
Ademas, como el producto de matrices es distributivo con respecto a la suma:
A(cX
1
+X
2
) = A(cX
1
) +AX
2
= c(AX
1
) + AX
2
= c0
m1
+ 0
m1
= 0
m1
.
Esto muestra que cX
1
+X
2
Nuc(A) y, por el Teorema 2.13, Nuc(A) es un
subespacio de F
n
.
Para ver ahora que Im(A) es un subespacio de F
m
, notemos primero
que 0
m1
Im(A) pues el elemento 0
n1
de F
n
es tal que A0
n1
= 0
m1
.
Ahora tomemos dos elementos Y
1
, Y
2
Im(A) y d F. Entonces existen
X
1
, X
2
F
n
tales que AX
1
= Y
1
y AX
2
= Y
2
. Como dX
1
+ X
2
es un
elemento de F
n
tal que
A(dX
1
+X
2
) = d(AX
1
) +AX
2
= dY
1
+Y
2
,
tenemos que dY
1
+ Y
2
Im(A). Esto muestra, por el Teorema 2.13, que
Im(A) es un subespacio de F
m
.
Como Im(A) y Nuc(A) son espacios vectoriales, podemos calcular su
dimension. Ademas, en vista de que Im(A) y Nuc(A) son subespacios de
espacios vectoriales dimensionalmente nitos, Im(A) y Nuc(A) tambien son
dimensionalmente nitos, seg un el Teorema 2.64. Las dimensiones de Im(A)
y de Nuc(A) reciben nombres especiales.
138 CAP
0
0
_
R
2
2R
1
+R
2
_
1 2 1
0 5 5
0
0
_
R
2
1
5
R
2
_
1 2 1
0 1 1
0
0
_
R
1
2R
1
+R
1
_
1 0 1
0 1 1
0
0
_
.
Considerando ahora que
X =
_
_
x
1
x
2
x
3
_
_
tenemos, de acuerdo a la ultima matriz que aparece en el proceso de arriba,
que x
1
+ x
3
= 0 y x
2
x
3
= 0. Entonces x
1
= x
3
y x
2
= x
3
. Esto muestra
que si X Nuc(A), entonces X tiene la forma
X =
_
_
x
3
x
3
x
3
_
_
=
_
_
1
1
1
_
_
x
3
. (3.10.2)
Por tanto, si X Nuc(A) entonces X es un m ultiplo escalar del vector
(1, 1, 1). Luego Nuc(A) (1, 1, 1)).
Si probamos ahora que el vector (1, 1, 1) se encuentra en Nuc(A) en-
tonces, como Nuc(A) es un espacio vectorial, cualquier m ultiplo del vector
(1, 1, 1) tambien se encontrara en Nuc(A). Luego (1, 1, 1)) Nuc(A) y,
como tambien es cierto que Nuc(A) (1, 1, 1)), tendremos que Nuc(A) =
(1, 1, 1)).
142 CAP
x
y
z
_
_
R
2
2R
1
+R
2
R
3
R
1
+R
3
_
_
1 2
0 5
0 5
x
2x +y
x +z
_
_
R
2
1
5
R
2
R
3
1
5
R
3
_
_
1 2
0 1
0 1
x
2
5
x
1
5
y
1
5
x +
1
5
z
_
_
R
1
2R
2
+R
1
R
3
R
2
+R
3
_
_
1 0
0 1
0 0
1
5
x +
2
5
y
2
5
x
1
5
y
1
5
x +
1
5
y +
1
5
z
_
_
.
De la ultima matriz tenemos que el sistema (3.10.3) tiene solucion si y solo
si
1
5
x +
1
5
y +
1
5
z = 0.
Es claro que la ecuacion de arriba se puede escribir como x + y + z = 0.
Esto signica que
R
A
= (x, y, z) R
3
: x +y +z = 0.
Naturalmente R
A
es un plano en R
3
que pasa por el origen. Por tanto,
dim(R
A
) = 2.
3.10.4. Nuc(A) y R
A
son Perpendiculares
Como hemos visto en el Ejemplo 3.52, los subespacios Nuc(A) y R
A
de F
n
, pueden ser distintos. En el siguiente teorema mostramos que di-
chos espacios siempre son distintos. Incluso vemos que son perpendiculares.
Antes de enunciar el teorema, recordemos que si u = (x
1
, x
2
, . . . , x
n
) y
v = (y
1
, y
2
, . . . , y
n
) se encuentran en F
n
, entonces su producto punto se puede
pensar como el elemento de F dado por
u v = x
1
y
1
+x
2
y
2
+ +x
n
y
n
.
El producto punto que hemos denido, se comporta como el producto punto
de R
n
. Por ejemplo, dicho producto punto es conmutativo, abre sumas y saca
escalares. Por tanto
u (a
1
v
1
+a
2
v
2
+ +a
m
v
m
) = a
1
(u v
1
) + a
2
(u v
2
) + +a
m
(u v
m
),
144 CAP
de R
A
. Notemos que S F
n
. Ademas, cada renglon de A se puede expresar
como una combinaci on lineal de todos los elementos de S. Por tanto, para
cada 1 i m y cada 1 l k, existe un escalar B
il
F tal que
B
11
s
1
+B
12
s
2
+ +B
1k
s
k
= r
1
B
21
s
1
+B
22
s
2
+ +B
2k
s
k
= r
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
B
m1
s
1
+B
m2
s
2
+ +B
mk
s
k
= r
m
(3.10.5)
Ahora bien, dados 1 i m y 1 l k, pongamos que
r
i
= (A
i1
, A
i2
, . . . , A
in
) y s
l
= (s
l1
, s
l2
, . . . , s
ln
).
148 CAP
i=1
x
i
B
ik
j
=
r
i=1
x
i
ij
= x
j
.
Por tanto x
1
= a
k
1
, x
2
= a
k
2
, . . . , x
r
= a
k
r
. Esto prueba 1). Por tanto, la
ecuacion
a = x
1
b
1
+x
2
b
2
+ +x
r
b
r
se escribe como
a = a
k
1
b
1
+a
k
2
b
2
+ +a
k
r
b
r
.
Como caso particular, si a = 0
F
n
, entonces de a = x
1
b
1
+ x
2
b
2
+ + x
r
b
r
,
se sigue que x
1
= x
2
= = x
r
= 0
F
, pues los valores de cada variable x
j
corresponden a coordenadas del vector cero a de F
n
. Esto muestra que el
conjunto S es linealmente independiente. Por tanto 2) se cumple.
Supongamos que B M
mn
(F) es una matriz no nula y escalonada
reducida por renglones. Del teorema anterior, tenemos que los renglones no
nulos de B forman una base de R
B
, el espacio de los renglones de B. Si r es
el n umero de renglones no nulos de B entonces
r(B) = dim(R
B
) = r.
Por tanto,
3.10. RANGO Y NULIDAD DE UNA MATRIZ 155
(*) el rango de una matriz no nula y escalonada reducida por renglones
B M
mn
(F), es igual al n umero de renglones no nulos de B.
Como toda matriz es equivalente por renglones a una sola matriz escalo-
nada reducida por renglones, y el rango no cambia entre matrices equivalentes
por renglones, tenemos entonces el siguiente resultado.
Teorema 3.59. Supongamos que A M
mn
(F). Sea B la matriz escalonada
reducida por renglones que es equivalente por renglones a A. Si B ,= 0
mn
,
entonces el rango de A es igual al n umero de renglones no nulos de B.
Tomemos una matriz A M
mn
(F), y supongamos que B es la matriz
escalonada reducida por renglones que es equivalente por renglones a A. Si
B = 0
mn
, entonces R
B
= 0
n1
. Como R
A
= R
B
, tenemos que R
A
=
0
n1
. Luego el rango de A es igual a cero. Como B tiene cero renglones no
nulos, el teorema anterior es valido en general: el rango de una matriz A es
igual al n umero de renglones no nulos de la matriz escalonada reducida por
renglones, que es equivalente por renglones a A.
A continuacion presentamos un resultado que relaciona el rango y la nu-
lidad de una matriz. Aunque podemos presentar su demostracion en este
momento, preferimos presentarla en el siguiente captulo (ver Teorema 4.22).
La razon radica en que la prueba que daremos sera mas simple que la que
daramos en este momento, de querer presentarla.
Teorema 3.60. Si A M
mn
(F), entonces
r(A) +n(A) = n.
Es decir, el rango de A mas la nulidad de A es igual al n umero de columnas
de A.
Como consecuencia de la formula r(A) + n(A) = n tenemos que, entre
mas grande sea el rango de una matriz, mas peque na sera su nulidad. De
la misma manera, entre mas grande sea la nulidad, mas peque no sera el
rango. Por consiguiente, existe un cierto balance entre las nociones de rango
y nulidad de una matriz.
Podemos ahora presentar el Teorema 3.42, en donde hemos agregando
tres equivalencias.
156 CAP
R
4
3R
1
+R
4
_
_
_
_
1 2 4 3
0 1 14 14
0 1 14 14
0 0 0 0
_
_
_
_
R
3
R
2
+R
3
_
_
_
_
1 2 4 3
0 1 14 14
0 0 0 0
0 0 0 0
_
_
_
_
R
1
2R
2
+R
1
_
_
_
_
1 0 32 31
0 1 14 14
0 0 0 0
0 0 0 0
_
_
_
_
= B.
Como B no es la matriz identidad I
4
tenemos, por la equivalencia entre
las condiciones 1) y 3) del Teorema 3.61, que A no es invertible. Notemos
ahora que r, el n umero de renglones no nulos de B, es igual a dos. Luego
r(A) = r(B) = 2. Ademas, por el Teorema 3.58,
= (1, 0, 32, 31), (0, 1, 14, 14)
es una base para R
B
. Como R
A
= R
B
, tambien es una base para R
A
. Por
tanto
R
A
= (1, 0, 32, 31), (0, 1, 14, 14)).
Esto signica que R
A
es un plano en R
4
que pasa por el origen. Notemos
ahora que
n(A) = n r(A) = 4 2 = 2.
Como n(A) = dim(Nuc(A)), de la igualdad n(A) = 2, deducimos que
Nuc(A) es un subespacio de R
4
con dimension dos. Por tanto, Nuc(A) es un
plano en R
4
que pasa por el origen.
3.10. RANGO Y NULIDAD DE UNA MATRIZ 159
Notemos que Nuc(A) y R
A
son dos planos en R
4
que pasan por el ori-
gen. Como Nuc(A) R
A
, dichos planos son perpendiculares. Notemos que
esto no contradice el Teorema 3.54 pues, en R
4
, es posible tener dos planos
perpendiculares cuya intersecci on es solamente el origen (cosa que no sucede
en R
3
). Entonces Nuc(A) y R
A
son dos planos perpendiculares que se inter-
sectan solamente en el origen.
Para determinar con mas precision a Nuc(A), debemos utilizar la igualdad
Nuc(A) = Nuc(B), as como el hecho de que Nuc(B) se calcula resolviendo
el sistema homogeneo BX = 0
41
. Hagamos
X =
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
.
Entonces la ecuacion BX = 0
41
el equivalente al sistema de ecuaciones
lineales:
x
1
32x
3
+ 31x
4
= 0
x
2
+ 14x
3
14x
4
= 0
Entonces las coordenadas x
1
y x
2
se pueden expresar en terminos de x
3
y x
4
por lo que, utilizando vectores columna:
X =
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
32x
3
31x
4
14x
3
+ 14x
4
x
3
x
4
_
_
_
_
= x
3
_
_
_
_
32
14
1
0
_
_
_
_
+x
4
_
_
_
_
31
14
0
1
_
_
_
_
.
Hagamos
u = (32, 14, 1, 0) y v = (31, 14, 0, 1).
Entonces
X = x
3
u +x
4
v.
Por tanto, si X Nuc(B) entonces X es una combinaci on lineal de u y v.
Luego Nuc(B) u, v). Como ya hemos indicado, para probar que u, v)
Nuc(B), basta con vericar que u y v se encuentran en Nuc(B). Veamos:
Bu =
_
_
_
_
1 0 32 31
0 1 14 14
0 0 0 0
0 0 0 0
_
_
_
_
_
_
_
_
32
14
1
0
_
_
_
_
=
_
_
_
_
32 32
14 + 14
0
0
_
_
_
_
=
_
_
_
_
0
0
0
0
_
_
_
_
= 0
41
160 CAP
R
4
2R
1
+R
4
_
_
_
_
1 2 3
0 4 2
0 4 2
0 0 0
_
_
_
_
R
3
R
2
+R
3
_
_
_
_
1 2 3
0 4 2
0 0 0
0 0 0
_
_
_
_
R
2
1
2
R
2
_
_
_
_
1 2 3
0 1
1
2
0 0 0
0 0 0
_
_
_
_
R
1
2R
2
+R
1
_
_
_
_
1 0 2
0 1
1
2
0 0 0
0 0 0
_
_
_
_
= B.
Luego, una base para S) es la formada por los vectores (1, 0, 2) y (0, 1,
1
2
).
3.11. Ejercicios
1. Calcula el n ucleo, imagen, rango, nulidad y espacio de los renglones de
las siguientes matrices:
_
_
1 1 2
3 1 4
5 1 8
_
_
_
_
1 1 2 3
0 1 4 3
1 0 6 6
_
_
_
_
_
_
1 1 2 3
2 2 4 6
2 2 4 6
3 3 6 9
_
_
_
_
.
2. Encuentra una base para el espacio generado por los vectores
(1, 4, 2) (2, 1, 2) (1, 3, 4).
3. Encuentra una base para el espacio generado por los vectores
(1, 1, 1, 1) (2, 0, 0, 1) (4, 2, 2, 1) (7, 3, 3, 1).
162 CAP
1
v
1
+
2
v
2
+ +
n
v
n
=
1
v
1
+
2
v
2
+ +
n
v
n
.
Lo anterior implica que
(
1
1
)v
1
+ (
2
2
)v
2
+ + (
n
n
)v
n
= 0
V
y, como el conjunto es linealmente independiente, sucede que
1
1
=
2
= =
n
n
= 0
F
. Por tanto
1
=
1
,
2
=
2
, . . . ,
n
=
n
. Esto
prueba que cada elementos de V se puede escribir de una sola manera como
una combinaci on lineal de todos los elementos de .
Ahora supongamos que cada elemento de V se puede escribir de una sola
manera como una combinaci on lineal de todos los elementos de . Entonces,
en particular, ) = V. Para ver que es linealmente independiente, tomemos
escalares
1
,
2
, . . . ,
n
F tales que
1
v
1
+
2
v
2
+ +
n
v
n
= 0
V
. (4.1.1)
4.2. DEFINICI
ON Y EJEMPLOS 165
Notemos que 0
V
es un elemento de V y que
0
F
v
1
+ 0
F
v
2
+ + 0
F
v
n
= 0
V
. (4.1.2)
Como el elemento 0
V
se escribe de una sola manera como una combinaci on
lineal de todos los elementos de , las expresiones (4.1.1) y (4.1.2) son las
mismas. Luego
1
=
2
= =
n
= 0
F
. Esto prueba que es linealmente
independiente y, como ) = V, tenemos que es una base para V.
4.2. Denicion y Ejemplos
Denicion 4.2. Una transformacion lineal de V en W es una funcion
T : V W que respeta la estructura de los espacios vectoriales V y W, es
decir, tal que:
1) T(u +v) = T(u) +T(v), para cada u, v V ;
2) T(u) = T(u), para cada F y cada u V.
Notemos que si u, v V, entonces u + v denota la suma de u y v en V,
mientras que T(u)+T(v) representa la suma de T(u) y T(v) en W. El hecho de
utilizar el mismo signo para la suma en V y en W no debera de confundirnos.
No debemos de pensar que la suma que se dene en V, es siempre la misma que
la que se dene en W. La notacion que hemos establecido se realiza mas por
simplicidad que por otra cosa. Las mismas consideraciones se establecen con
las operaciones u y T(u), el primero representa la multiplicaci on escalar
de y u en V, mientras que el segundo representa la multiplicacion escalar
de y T(u) en W.
Si T : V W es una transformacion lineal, en ocasiones es com un decir
que T es F-lineal, para enfatizar el papel del campo F en la denicion anteri-
or. Tambien es com un decir que T es una aplicacion lineal, una funcion lineal
o simplemente que T es lineal. Cuando V = W, la transformacion lineal T
recibe un nombre en particular.
Denicion 4.3. Un operador lineal sobre un espacio vectorial V es una
transformacion lineal de V en V.
Los ejemplos mas sencillos de funciones lineales son la funcion identidad,
la funcion cero y las homotecias. Dichas funciones se denen como sigue: la
166 CAP
: V V
esta dada por H
V
((v
1
, w
1
)+(v
2
, w
2
)) =
V
(v
1
+v
2
, w
1
+w
2
) = v
1
+v
2
=
V
(v
1
, w
1
)+
V
(w
2
, w
2
)
y
V
((v
1
, w
1
)) =
V
(v
1
, w
1
) = v
1
=
V
(v
1
, w
1
),
para cada (v
1
, w
1
), (v
2
, w
2
) V W y cada F. De manera similar se
muestra que la funcion proyeccion
W
: V W W, dada por
W
(v, w) = w
para cada (v, w) V W, es lineal.
Otros ejemplos de transformaciones lineales son la funcion derivada y
la funcion integral. Para denirlas consideremos el conjunto C
0
(R) de las
funciones f : R R que son continuas. Consideremos tambien el conjunto
C
1
(R) de las funciones f : R R que son diferenciables y cuya derivada es
continua. Entonces las funciones D: C
1
(R) C
0
(R) e I : C
0
(R) C
1
(R)
dadas por
(D(f))(x) = f
(x) e (I(g))(x) =
_
x
0
g(t)dt
son transformaciones lineales, pues tanto la derivada como la integral de una
suma es la suma de las derivadas o de las integrales, seg un corresponda.
Ademas tanto la derivada como la integral sacan escalares.
4.3. TRANSFORMACI
1
v
1
+
2
v
2
+ +
n
v
n
= 0
V
.
170 CAP
1
,
2
, . . . ,
n
F tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
. (4.4.1)
Hagamos
T(v) =
1
w
1
+
2
w
2
+ +
n
w
n
. (4.4.2)
Notemos que T(v) se obtiene de la ecuacion (4.4.1) cambiando v
i
por w
i
, para
cada i = 1, 2, . . . , n. Ademas dada i = 1, 2, . . . , n tenemos que T(v
i
) = w
i
,
pues
v
i
= 0
F
v
1
+ 0
F
v
2
+ + 0
F
v
i1
+ 1
F
v
i
+ 0
F
v
i+1
+ + 0
F
v
n
,
4.4. PROPIEDADES FUNDAMENTALES 171
as que al cambiar cada v
j
por w
j
tendremos que T(v
i
) = w
i
. Para ver que
T es lineal, tomemos
u =
n
i=1
i
v
i
y v =
n
i=1
i
v
i
en V y F. Entonces
T(u +v) = T
_
n
i=1
(
i
+
i
)v
i
_
=
n
i=1
(
i
+
i
)T(v
i
) =
=
n
i=1
i
T(v
i
) +
n
i=1
i
T(v
i
) = T(u) +T(v)
y
T(u) = T
_
n
i=1
(
i
)v
i
_
=
n
i=1
(
i
)T(v
i
) =
n
i=1
i
T(v
i
) = T(u).
Ahora probaremos que T es unica. Para ver esto, supongamos que existe
otra transformacion lineal L: V W tal que L(v
i
) = w
i
, para cada i =
1, 2, . . . , n. Dada v V, sabemos que existen escalares unicos
1
,
2
, . . . ,
n
F tales que v =
n
i=1
i
v
i
. Luego
L(v) = L
_
n
i=1
i
v
i
_
=
n
i=1
i
L(v
i
) =
n
i=1
i
w
i
= T(v).
Por tanto, L = V.
Del teorema anterior se desprenden varios comentarios. Por ejemplo, cono-
cer el comportamiento de una transformacion lineal en los elementos de una
base de su dominio, automaticamente implica conocer toda la transforma-
cion lineal. Ademas, si dos transformaciones lineales de V en W coinciden en
los elementos de una base de V, entonces coinciden en todo V, es decir, son
iguales.
Para ilustrar lo comentado en el parrafo anterior, consideremos la base
canonica = (1, 0), (0, 1) de R
2
y los vectores w
1
= (2, 1, 0) y w
2
=
(3, 5, 2) de R
3
. De acuerdo al Teorema 4.7, existe una unica transformacion
172 CAP
ON LINEAL 173
para W, ni que sean distintos. Simplemente tomamos una base nita de V,
un conjunto en W con a lo mas la cantidad de elementos de dicha base, y
luego construimos la transformacion lineal. En su defecto, empezamos con
una base nita de V y una funcion f de en W, y luego la extendemos a
una transformacion lineal de V en W.
Regresando al tema de la preservaci on de la independencia lineal bajo
transformaciones lineales, mas adelante veremos una situacion especial en
donde s se preserva la independencia lineal. De momento recordemos que,
en general, las transformaciones lineales no preservan la independencia lineal,
pues elementos diferentes de cero pueden ir a dar al cero.
4.5. N ucleo e Imagen de una Transformacion
Lineal
4.5.1. Propiedades Fundamentales
En la Seccion 3.10, estudiamos el n ucleo y la imagen de una matriz. Aho-
ra estudiaremos dichos conceptos, desde el punto de vista de las transforma-
ciones lineales. Como veremos, estos seran utiles para obtener propiedades
de las transformaciones lineales.
Denicion 4.8. Sea T : V W una transformacion lineal. Los conjuntos
Nuc(T) = v V : T(v) = 0
W
e Im(T) = T(v) W : v V
se llaman el n ucleo y la imagen de T, respectivamente.
Si T : V W es una transformacion lineal, entonces Nuc(T) = T
1
(0
W
).
Ademas
Im(T) = T(V ) = w W : existe v V tal que T(v) = w.
Algunos autores preeren llamarle espacio nulo o kernel a lo que denimos
como n ucleo de una transformacion lineal. Notemos que, de acuerdo con la
Denicion 4.8, el n ucleo de T es un subconjunto de V, mientras que la ima-
gen de T es un subconjunto de W. Mas a un, dichos conjuntos son en realidad
subespacios de los espacios correspondientes, como muestra el siguiente re-
sultado.
174 CAP
ON LINEAL 175
Demostracion. Notemos que
Nuc(T
A
) = v F
n
: T
A
(v) = 0
m1
= v F
n
: Av = 0
m1
= Nuc(A).
Ademas
Im(T
A
) = w F
m
: existe v F
n
tal que T
A
(v) = w
= w F
m
: existe v F
n
tal que Av = w = Im(A).
Luego
n(T
A
) = dim(Nuc(T
A
)) = dim(Nuc(A)) = n(A)
y
r(T
A
) = dim(Im(T
A
)) = dim(Im(A)) = r(A).
Ahora bien, como por lo general trabajaremos con espacios vectoriales di-
mensionalmente nitos, la nulidad y el rango seran n umeros naturales. Para
espacios vectoriales dimensionalmente innitos, aunque esto sea matematica-
mente incorrecto, diremos simplemente que la nulidad y el rango toman el
valor innito.
Antes de presentar otras propiedades del n ucleo, la imagen, el rango y
la nulidad de una transformacion lineal, conviene calcularlos para algunos
casos en particular. Por ejemplo, consideremos la transformacion derivada
D: C
1
(R) C
0
(R). El n ucleo de D es el de las funciones que tienen derivada
igual a cero, es decir el de las funciones constantes. Dicho espacio esta gene-
rado por la funcion constante uno, por lo que n(D) = 1.
Consideremos ahora la transformacion lineal T : R
3
R
3
dada por
T(x, y, z) = (0, x, y).
Entonces
Nuc(T) = (x, y, z) R
2
: T(x, y, z) = (0, 0, 0)
= (x, y, z) R
2
: (0, x, y) = (0, 0, 0)
= (x, y, z) R
3
: x = y = 0 = 0 0 R.
La condicion Nuc(T) = 0 0 R, indica que los elementos del n ucleo
de T son ternas ordenadas en las que sus primeras dos coordenadas toman
176 CAP
ON LINEAL 177
que x
1
= x
2
. Luego (x
1
, y
1
) = (x
2
, y
2
) y, como consecuencia de esto, T es
inyectiva.
La transformacion lineal T que acabamos de denir es inyectiva y su
n ucleo es igual al vector cero. Por sorprendente que parezca, esto es un hecho
que satisfacen todas las transformaciones lineales inyectivas. Mas a un, es un
hecho que caracteriza a las transformaciones lineales inyectivas, como vemos
en el siguiente teorema.
Teorema 4.12. Una transformacion lineal T : V W es inyectiva si y solo
si Nuc(T) = 0
V
.
Demostracion. Supongamos primero que T es inyectiva y tomemos u
Nuc(T). Como u y 0
V
son dos elementos de V tales que T(u) = T(0
V
) = 0
W
y T es inyectiva, tenemos que u = 0
V
. Esto muestra que Nuc(T) = 0
V
.
Supongamos ahora que Nuc(T) = 0
V
. Tomemos dos elementos v, w V
tales que T(v) = T(w). Entonces T(v w) = T(v) T(w) = 0
W
, Por lo que
v w Nuc(T). Luego v w = 0
V
y, de esta manera, v = w. Esto prueba
que T es inyectiva.
Consideremos ahora una matriz A M
nn
(F). Sea T
A
: F
n
F
n
la
transformacion lineal asociada de A. Por el Teorema 3.48, sabemos que
A es invertible si y solo si n(A) = 0. Ahora bien, por el Teorema 4.11,
n(A) = n(T
A
) por lo que n(A) = 0 si y solo si n(T
A
) = 0. Como n(T
A
) =
dim(Nuc(T
A
)), tenemos que n(T
A
) = 0 si y solo si Nuc(T
A
) = 0
n1
. Apli-
cando ahora el Teorema 4.12, tenemos que Nuc(T
A
) = 0
n1
si y solo si T
A
es inyectiva. Tenemos, por tanto, el siguiente resultado.
Teorema 4.13. Sean A M
nn
(F) y T
A
: F
n
F
n
la transformacion lineal
asociada de A. Entonces A es invertible si y solo si la funcion T
A
es inyectiva.
Mas adelante, en el Teorema 4.58, daremos una generalizacion del teore-
ma anterior. Regresemos ahora al problema de la preservaci on de la indepen-
dencia lineal bajo transformaciones lineales. En el siguiente teorema vemos
que las transformaciones lineales inyectivas son las unicas que preservan la
independencia lineal.
Teorema 4.14. Las transformaciones lineales inyectivas son las unicas que
preservan la independencia lineal.
178 CAP
1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
) = 0
W
.
Como T es lineal tenemos que T(
1
v
1
+
2
v
2
+ +
n
v
n
) = 0
W
. Entonces,
por la parte 1) del Teorema 4.5, 0
V
y
1
v
1
+
2
v
2
+ +
n
v
n
son dos
elementos de V cuya imagen bajo T es 0
W
. En vista de que T es inyectiva,
sucede entonces que
1
v
1
+
2
v
2
+ +
n
v
n
= 0
V
.
Luego
1
=
2
= =
n
= 0
F
, pues el conjunto v
1
, v
2
, . . . , v
n
es lineal-
mente independiente, al ser un subconjunto nito del conjunto linealmente
independiente S. Esto muestra que R es linealmente independiente y, como
consecuencia de esto, T(S) tambien es linealmente independiente.
Ahora supongamos que T : V W es una transformacion lineal que
preserva la independencia lineal, es decir, supongamos que si tenemos un
subconjunto S de V que es linealmente independiente, sucede que T(S) es
linealmente independiente. Para ver que T es inyectiva basta con hacer ver,
de acuerdo con el Teorema 4.12, que Nuc(T) = 0
V
. Sean v Nuc(T) y
una base de Nuc(T). Entonces v ), por lo que v es una combinacion
lineal de un subconjunto nito S = v
1
, v
2
, . . . , v
n
de . Entonces existen
escalares
1
,
2
, . . . ,
n
F tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
. (4.5.1)
Luego, aplicando T a ambos miembros de la ecuacion anterior, resulta que
0
W
= T(v) =
1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
). (4.5.2)
Ahora bien, como es linealmente independiente y S es un subconjunto
de , tenemos que S es linealmente independiente. Entonces, por hipotesis,
T(S) = T(v
1
), T(v
2
), . . . , T(v
n
) es linealmente independiente. Luego, de
la ecuacion (4.5.2), se sigue que
1
=
2
= =
n
= 0
F
. Sustituyendo
dichos valores en la ecuacion (4.5.1), tenemos que v = 0
V
. Esto prueba que
Nuc(T) = 0
V
.
4.5. N
ON LINEAL 179
Supongamos que la transformacion lineal T : V W es inyectiva. En-
tonces, como vimos en el teorema anterior, T preserva la independencia lineal.
Por tanto, si consideramos un subconjunto nito S = v
1
, v
2
, . . . , v
n
de V
que sea linealmente independiente, resulta que el conjunto nito
T(S) = T(v
1
), T(v
2
), . . . , T(v
n
)
tambien es linealmente independiente. Ahora bien, como los elementos de
un conjunto linealmente independiente son diferentes entre s, dos a dos,
los elementos de T(S) son diferentes. Por tanto S y T(S) tienen la misma
cantidad de elementos. Lo anterior es importante pues, en general, si f : A
B es una funcion y C es un subconjunto de A con m elementos entonces f(A),
la imagen de A bajo f, tiene a lo mas m elementos. Como consecuencia del
teorema anterior, la imagen, bajo una transformacion lineal inyectiva, de
un subconjunto nito S y linealmente independiente de su dominio, es un
subconjunto nito, linealmente independiente de su contradominio y con la
misma cantidad de elementos de S.
En el siguiente resultado, mostramos que las transformaciones lineales
mandan subespacios del dominio en subespacios del contradominio.
Teorema 4.15. Supongamos que T : V W es una transformacion lineal.
Si S V es un subespacio de V, entonces T(S) es un subespacio de W.
Demostracion. Supongamos primero que S es un subespacio de V. En-
tonces S ,= , por lo que T(S) ,= . Tomemos w
1
, w
2
T(S) y F.
Entonces existen v
1
, v
2
S tales que T(v
1
) = w
1
y T(v
2
) = w
2
. Como S
es un subespacio de V, por el Teorema 2.13, v
1
+ v
2
es un elemento de S.
Ademas
T(v
1
+v
2
) = T(v
1
) +T(v
2
) = w
1
+w
2
.
Esto muestra que w
1
+w
2
T(S). Luego, por el Teorema 2.13, T(S) es un
subespacio de W.
Supongamos ahora que T : V W es lineal y que S V es tal que
T(S) es un subespacio de W. Si T es inyectiva, entonces S es un subespacio
de V. En efecto, como T(S) es un subespacio de W, tenemos que T(S) ,= ,
por lo que S ,= . Tomemos v
1
, v
2
S y F. Entonces T(v
1
), T(v
2
)
T(S) y, como T(S) es un subespacio de W, por el Teorema 2.13 resulta que
180 CAP
1
,
2
, . . . ,
n
tales que v =
1
v
1
+
2
v
2
+ +
n
v
n
. Luego
w = T(v) =
1
T(v
1
) +
2
T(v
2
) + +
n
T(v
n
).
Lo anterior muestra que w es una combinacion lineal del subconjunto ni-
to T(v
1
), T(v
2
), . . . , T(v
n
) de T(S). Luego w T(S)). Esto prueba que
Im(T) T(S)).
Para probar la otra contencion, tomemos ahora un elemento z T(S)).
Entonces z es una combinaci on lineal de alg un subconjunto nito R de
T(S). Supongamos que u
1
, u
2
, . . . , u
m
son elementos de V tales que R =
T(u
1
), T(u
2
), . . . , T(u
m
). Tomemos escalares
1
,
2
, . . . ,
m
tales que
z =
1
T(u
1
) +
2
T(u
2
) + +
m
T(u
m
).
Para ver que z Im(T), basta con denir v =
1
u
1
+
2
u
2
+ +
m
u
m
, y
hacer notar que v es un elemento de V tal que T(v) = z.
4.5. N
ON LINEAL 181
Corolario 4.18. Supongamos que T : V W es una transformacion lineal
y que V es dimensionalmente nito. Si = v
1
, v
2
, . . . , v
n
es una base para
V, entonces
Im(T) = T(v
1
), T(v
2
), . . . , T(v
n
)).
Demostracion. Si es una base para V, entonces en particular genera a V.
Luego, por el teorema anterior Im(T) = T()) = T(v
1
), T(v
2
), . . . , T(v
n
)).
Esto termina la prueba.
El corolario anterior nos dice que si conocemos una base para el dominio
de una transformacion lineal T, el cual suponemos dimensionalmente nito,
entonces al tomar las imagenes de los elementos de dicha base, obtenemos
un conjunto que genera a la imagen de T. De acuerdo con el Teorema 2.43, a
partir de este nuevo conjunto, es posible obtener una base para la imagen de
T, pensando que el contradominio de T tambien es dimensionalmente nito.
Si en el Teorema 4.17 suponemos que T es suprayectiva, entonces Im(T) =
W. Por tanto, la imagen bajo T de cualquier conjunto que genere a V, es
un conjunto que genera a W. En otras palabras, las transformaciones linea-
les suprayectivas preservan la propiedad de generar al total. En el siguien-
te teorema probamos que solo estas transformaciones lineales poseen dicha
propiedad.
Teorema 4.19. Supongamos que T : V W es una transformacion lineal.
Entonces T es suprayectiva si y solo si la imagen bajo T de cualquier conjunto
que genere a V, es un conjunto que genera a W.
Demostracion. Supongamos que la imagen bajo T de cualquier conjunto
que genere a V, es un conjunto que genera a W. Como V genera a V mismo,
sucede entonces que T(V ) genera a W. Por tanto, si tomamos un elemento
w W, resulta que w T(V )). Luego w es una combinacion lineal de
alg un subconjunto nito R de T(V ). Supongamos que u
1
, u
2
, . . . , u
m
son ele-
mentos de V tales que R = T(u
1
), T(u
2
), . . . , T(u
m
). Tomemos escalares
1
,
2
, . . . ,
m
tales que
w =
1
T(u
1
) +
2
T(u
2
) + +
m
T(u
m
)
y denamos v =
1
u
1
+
2
u
2
+ +
m
u
m
. Entonces v es un elemento de V
tal que T(v) = w. Luego T es suprayectiva. Esto prueba la primera parte del
teorema. La segunda parte se mostro en el parrafo anterior.
182 CAP
ON LINEAL 183
Supongamos que T : V W es una transformacion lineal que preserva
bases. Esto es, supongamos que si es una base de V, entonces T() es una
base de W. Como hemos visto en la prueba del teorema anterior, la funcion T
es suprayectiva. Notemos que para probar esto, utilizamos los teoremas 2.55
y 2.57, que involucran el Principio de Maximalidad. Ahora bien, debemos
utilizar estos teoremas, pues estamos trabajando con espacios vectoriales V
y W, que podran ser dimensionalmente innitos. Si suponemos que V y
W son dimensionalmente nitos y que T preserva bases, entonces podemos
demostrar que T es suprayectiva sin utilizar el Principio de Maximalidad.
Para esto debemos utilizar, en su lugar, los teoremas 2.50 y 2.63.
4.5.4. Balance Entre el Rango y la Nulidad
El siguiente resultado relaciona el rango y la nulidad de una transforma-
cion lineal, con la dimension de su dominio, cuando este es nito. Como el
teorema lo indica, mientras mas grande es la nulidad, menor es el rango. En
otras palabras, mientras mas vectores van a dar al cero, menor es el rango.
Visto de otra manera, el mismo teorema dice que, mientras mas grande sea
el rango, menor es la nulidad. Por tanto, existe un balance entre el rango y
la nulidad de una transformacion lineal.
Teorema 4.21. Si T : V W es una transformacion lineal y V es dimen-
sionalmente nito, entonces
dim(V ) = r(T) +n(T).
Demostracion. Supongamos que n = dim(V ). Como V es dimensional-
mente nito y Nuc(T) es un subespacio de V, resulta que Nuc(T) tambien
es dimensionalmente nito. Entonces podemos considerar una base nita
R = v
1
, v
2
, . . . , v
k
de Nuc(T). Como el conjunto R es linealmente indepen-
diente y k n, por el Teorema 2.63, podemos extender R a una base de
V. Entonces existe un subconjunto S = v
k+1
, v
k+2
, . . . , v
n
de V Nuc(T)
tal que = R S.
Antes de seguir con la demostracion, notemos que no estamos suponiendo
que W es dimensionalmente nito. Por tanto, en un principio podra suceder
que el subespacio Im(T) de W es dimensionalmente innito. Sin embargo, co-
mo vamos a demostrarlo, Im(T) es dimensionalmente nito y su dimension es
184 CAP
k+2
, . . . ,
n
tales que
k+1
T(v
k+1
) +
k+1
T(v
k+2
) + +
n
T(v
n
) = 0
W
.
Como T es una transformacion lineal, tenemos que
T(
k+1
v
k+1
+
k+2
v
k+2
+ +
n
v
n
) = 0
W
.
Luego
k+1
v
k+1
+
k+2
v
k+2
+ +
n
v
n
Nuc(T) y, como R es una base de
Nuc(T), existen escalares
1
,
2
, . . . ,
k
tales que
k+1
v
k+1
+
k+2
v
k+2
+ +
n
v
n
=
1
v
1
+
2
v
2
+ +
k
v
k
.
Por tanto
1
v
1
+
2
v
2
+ +
k
v
k
+(
k+1
)v
k+1
+(
k+2
)v
k+2
+ +(
n
)v
n
= 0
V
.
Ahora bien, como es linealmente independiente, de la ecuacion de arriba
se sigue que
1
=
2
= =
k
=
k+1
=
k+2
= =
n
= 0
F
. Esto
prueba que T(S) es linealmente independiente. Por tanto, T(S) es una base
para Im(T). Luego
r(T) = dim(Im(T)) = n k = dim(V ) dim(Nuc(T)) = dim(V ) n(T).
Esto termina la prueba del teorema.
4.6. EJERCICIOS 185
Como una consecuencia del resultado anterior, tenemos el Teorema 3.60,
que enunciamos y probamos a continuaci on.
Teorema 4.22. Si A M
mn
(F), entonces r(A) +n(A) = n.
Demostracion. Consideremos la transformacion lineal T
A
: F
n
F
m
aso-
ciada de A. Aplicando los teoremas 4.11 y 4.21, resulta que
n = dim(F
n
) = r(T
A
) +n(T
A
) = r(A) +n(A).
4.6. Ejercicios
1. Supongamos que T : V W es una funcion entre los espacios vec-
toriales V y W, ambos sobre el campo F. Demuestra que T es una
transformacion lineal si y solo si T(u +v) = T(u) +T(v), para cada
u, v V y cada F.
2. Demuestra que los operadores lineales sobre V que son homotecias, con
parametro no nulo, son transformaciones lineales biyectivas.
3. Muestra que la funcion T : R
3
R
3
denida para (x, y, z) R
3
como
T(x, y, z) = (2x y +z, x +y, 3x +y +z)
es una transformacion lineal biyectiva.
4. Supongamos que V y W son espacios vectoriales dimensionalmente
nitos y sobre el campo F. Consideremos una transformacion lineal
T : V W. Muestra que
a) si dim(V ) > dim(W), entonces T no es inyectiva;
b) si dim(V ) < dim(W), entonces T no es suprayectiva.
5. Dar un ejemplo de una transformacion lineal T : R
2
R
2
tal que
Nuc(T) = Im(T).
6. Consideremos la funcion T : M
nn
(F) M
nn
(F) denida para A
M
nn
(F) como T(A) = AA
t
. Muestra que T es una transformacion
lineal y calcula el n ucleo, la nulidad y el rango de T.
186 CAP
11
12
1n
21
22
2n
.
.
.
.
.
.
.
.
.
m1
m2
mn
_
_
_
_
_
, (4.7.2)
entonces la mn-ada que corresponde a B es
(
11
,
12
, . . . ,
1n
,
21
,
22
, . . . ,
2n
, . . . ,
m1
,
m2
, . . . ,
mn
). (4.7.3)
4.7. ISOMORFISMOS 189
Notemos que dicha mn-ada se construye a partir de B por bloques de n
elementos. El primer bloque de la mn-ada coresponde al primer renglon de
B, el segundo bloque al segundo renglon y as sucesivamente. Si comenzamos
con una mn-ada de la forma (4.7.3) entonces, siguiendo el proceso inverso,
podemos construir la matriz de mn correspondiente a la mn-ada dada.
Ahora bien, como caso particular de (4.7.1), tenemos que
M
1n
(F)
= F
n
= M
n1
(F). (4.7.4)
Por tanto, cualquier n-ada con coecientes en el campo F, se puede pensar
como un vector columna, el cual es formalmente un elemento de M
n1
(F), o
bien como un vector renglon, el cual es un elemento de M
1n
(F). Dependien-
do de lo que estemos interesados en hacer, podemos realizar dicho cambio.
En el Captulo 3 hicimos esto varias veces, escribiendo los vectores como
vectores columna, o bien como vectores renglon, seg un nos convino. La idea
formal detras de todo esto es la de que los espacios vectoriales M
1n
(F) y
M
n1
(F) son isomorfos.
Consideremos ahora el espacio vectorial P
n
(F) de los polinomios de grado
menor o igual a n, con coecientes en el campo F. Si L: P
n
(F) F
n+1
es
la funcion denida como
L(a
0
+a
1
x +a
2
x
2
+ +a
k
x
k
) = (a
0
, a
1
, . . . , a
k
, 0
F
, 0
F
, . . . , 0
F
),
entonces L es un isomorsmo. Entendemos que, para formar a
L(a
0
+a
1
x +a
2
x
2
+ +a
k
x
k
),
escribimos los coecientes del polinomio, con respecto a su orden y, posterior-
mente, escribimos ceros de ser necesario.
Esto ultimo se hace, por supuesto, si
el grado del polinomio considerado es menor de n. Para ver que L es suprayec-
tiva, consideremos un elemento y = (a
0
, a
1
, . . . , a
n
) F
n+1
y denamos
f(x) = a
0
+a
1
x +a
2
x
2
+ +a
n
x
n
.
Entonces L(f(x)) = y. Para ver que L es inyectiva supongamos que
L(a
0
+a
1
x +a
2
x
2
+ +a
k
x
k
) = L(b
0
+b
1
x +b
2
x
2
+ +b
l
x
l
).
190 CAP
1
,
2
, . . . ,
n
F y
1
,
2
, . . . ,
n
F los unicos escalares tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
y w =
1
v
1
+
2
v
2
+ +
n
v
n
.
Entonces T(v) = (
1
,
2
, . . . ,
n
) y T(w) = (
1
,
2
, . . . ,
n
). Como T(v) =
T(w) tenemos que (
1
,
2
, . . . ,
n
) = (
1
,
2
, . . . ,
n
). Luego
1
=
1
,
2
=
2
, . . . ,
n
=
n
, de donde
v =
1
v
1
+
2
v
2
+ +
n
v
n
=
1
v
1
+
2
v
2
+ +
n
v
n
= w.
Esto prueba que T es inyectiva. Notemos tambien que T es suprayectiva. Para
ver esto tomemos (
1
,
2
, . . . ,
n
) F
n
. Entonces, por el hecho de que cada
elemento de V se puede escribir de una sola manera como una combinacion
lineal de todos los elementos de , se sigue que v =
1
v
1
+
2
v
2
+ +
n
v
n
es un elemento de V tal que T(v) = (
1
,
2
, . . . ,
n
). Esto prueba que T es
suprayectiva. Tenemos entonces que T es una funcion biyectiva.
Ahora mostraremos que T es una transformacion lineal. Para esto tome-
mos v, w V y, como antes, los unicos escalares
1
,
2
, . . . ,
n
y
1
,
2
, . . . ,
n
tales que
v =
1
v
1
+
2
v
2
+ +
n
v
n
y w =
1
v
1
+
2
v
2
+ +
n
v
n
.
Entonces
1
+
1
,
2
+
2
, . . . ,
n
+
n
son los unicos escalares tales que
v +w = (
1
+
1
)v
1
+ (
2
+
2
)v
2
+ + (
n
+
n
)v
n
.
Por tanto T(v +w) = (
1
+
1
,
2
+
2
, . . . ,
n
+
n
). Ahora bien
T(v +w) = (
1
+
1
,
2
+
2
, . . . ,
n
+
n
)
= (
1
,
2
, . . . ,
n
) + (
1
,
2
, . . . ,
n
)
= T(v) +T(w).
192 CAP
= (
1
,
2
, . . . ,
n
)
se le conoce como las coordenadas de v con respecto a la base orde-
nada .
Es costumbre escribir las coordenadas de un vector como vectores colum-
na. Mas adelante resultara claro por que procedemos de esta manera. Por
tanto, las coordenadas de v en la base ordenada (o, lo que es lo mismo, la
4.8. BASES ORDENADAS Y COORDENADAS 199
matriz de coordenadas de v con respecto a ) seran:
[v]
=
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
.
Dada i 1, 2, . . . , n, el elemento
i
de [v]
(utilizando la notacion
(v) = [v]
+ [w]
y
[v]
.
Por tanto, las coordenadas de la suma de v y w en la base ordenada , se
obtienen sumando las coordenadas de v y w en dicha base. A su vez, las
coordenadas de v en la base ordenada , se obtienen multiplicando por
las coordenadas de v en .
Ejemplo 4.31. La Base Canonica de F
n
, Ordenada en Forma Na-
tural. En mas de una ocasion consideraremos, en F
n
, la base canonica =
e
1
, e
2
, . . . , e
n
ordenada en forma natural. Con esto queremos decir que el
primer elemento de la base es e
1
= (1
F
, 0
F
, . . . , 0
F
), su segundo elemento es
e
2
= (0
F
, 1
F
, 0
F
, . . . , 0
F
) y as sucesivamente. Recordemos que, en general, el
vector e
i
posee todos sus elementos iguales a 0
F
, salvo el que ocupa la posicion
i, cuyo valor es 1
F
.
Terminamos la presente subseccion con el siguiente teorema el cual sera util
mas adelante.
200 CAP
= v, para
cada v F
n
si y solo si es la base canonica de F
n
, ordenada en forma
natural.
Demostracion. Supongamos primero que = e
1
, e
2
, . . . , e
n
es la base
ordenada de F
n
ordenada en forma natural. Si v = (
1
,
2
, . . . ,
n
) F
n
,
entonces
v =
1
e
1
+
2
e
2
+ +
n
e
n
,
por lo que
[v]
=
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
= v.
Esto prueba la primera parte del teorema. Para probar la segunda parte,
supongamos ahora que = v
1
, v
2
, . . . , v
n
es una base ordenada de F
n
tal
que [v]
= v, para cada v F
n
. En particular [v
1
]
= v
1
. Notemos ahora que
v
1
= 1
F
v
1
+ 0
F
v
2
+ + 0
F
v
n
por lo que
v
1
= [v
1
]
=
_
_
_
_
_
1
F
0
F
.
.
.
0
F
_
_
_
_
_
= e
1
.
De manera similar se prueba que v
j
= e
j
, para cada 1 j n. Por tanto
es la base canonica de F
n
, ordenada en forma natural.
4.8.2. Ejemplos
Veamos ahora unos ejemplos. En R
3
los vectores v
1
= (1, 1, 1), v
2
=
(1, 2, 2) y v
3
= (1, 2, 3) son una base de R
3
. La podemos considerar ordenada
si decimos que su primer elemento es v
1
, su segundo es v
2
y el tercero es v
3
.
Pongamos entonces = v
1
, v
2
, v
3
y consideremos al vector v = (1, 1, 0).
Supongamos que = e
1
, e
2
, e
3
es la base canonica de R
3
, ordenada en forma
natural. Entonces, por el Teorema 4.32, [v]
= v. Si consideremos la misma
4.8. BASES ORDENADAS Y COORDENADAS 201
base canonica de R
3
, pero ordenada de otra manera, digamos = e
1
, e
3
, e
2
,
entonces
[v]
=
_
_
1
0
1
_
_
,= v
pues v = 1e
1
+ 0e
3
+ 1e
2
. Como v = 1v
1
+ 1v
2
1v
3
, tenemos que
[v]
=
_
_
1
1
1
_
_
,= v.
De lo anterior debemos notar dos cosas. La primera es que las coordenadas
de un vector en una base, dependen del orden que se establece en dicha base.
Como conjuntos = e
1
, e
2
, e
3
y = e
1
, e
3
, e
2
son los mismos pero,
como estan ordenados de forma distinta, como bases ordenadas no son las
mismas. Entonces [v]
y [v]
= v, as que las
coordenadas de v en la base ordenada canonica , son las mismas que las
coordenadas de v. Pero [v]
,= v y [v]
1
= (1, 0, i) y v
2
= (1 + i, 1, 1).
Sea W el subespacio de C
3
generado por v
1
y v
2
. Hagamos = v
1
, v
2
y
= v
1
, v
2
.
1) Muestra que
es una base de W.
2) Muestra que W y que tambien es una base de W.
3) Calcula [v
1
]
, [v
2
]
, [v
1
]
y [v
2
]
.
202 CAP
1
y v
2
no son paralelos, son entonces lineal-
mente independientes. Por tanto,
= v
1
, v
2
es una base de W y la
podemos considerar ordenada: su orden es el determinado por la forma en que
la escribimos. Para probar que v
1
W, debemos mostrar que v
1
es una com-
binacion lineal de los vectores v
1
y v
2
. Esto es, debemos encontrar escalares
1
,
2
C tales que
v
1
=
1
v
1
+
2
v
2
.
Una manera de encontrarlos es considerando la matriz aumentada, cuya
primera columna es v
1
, su segunda es v
2
y su tercera es v
1
. Luego debemos
llevar dicha matriz a su forma escalonada reducida. Veamos:
_
_
1 1 +i
0 1
i 1
1
1
0
_
_
(a)
_
_
1 1 + i
0 1
0 i
1
1
i
_
_
(b)
(c)
_
_
1 0
0 1
0 0
i
1
0
_
_
en donde (a) es la operacion elemental R
3
iR
1
+R
3
, (b) es la operacion
R
1
(1+i)R
2
+R
1
y (c) es la operacion R
3
iR
2
+R
3
. Por tanto
1
= i
y
2
= 1. Entonces
v
1
= iv
1
+v
2
.
Lo anterior signica que
[v
1
]
=
_
i
1
_
. (4.8.3)
El que las coordenadas de v
1
en la base
de W. Como W es un subconjunto
de C
3
, sus elementos son ternas ordenadas y, como W tiene dimension dos,
con respecto a la base
_
_
1
i
1
_
_
(b)
(c)
_
_
2 i
i
0
_
_
.
4.8. BASES ORDENADAS Y COORDENADAS 203
Por tanto
v
2
= (2 i)v
1
+iv
2
.
Luego
[v
2
]
=
_
2 i
i
_
. (4.8.4)
De lo anterior deducimos que W. Como los elementos de no son parale-
los, son por tanto linealmente independientes. Como ademas la dimension de
W es dos, = v
1
, v
2
tambien es una base de W, que podemos considerar
ordenada. De nueva cuenta, el orden de la base es el determinado al es-
cribir sus elementos. Para terminar el ejemplo falta encontrar [v
1
]
y [v
2
]
.
Procediendo como antes tenemos que:
_
_
1 1
1 i
0 1 + i
1
0
i
_
_
(a
_
_
1 1
0 i 1
0 i + 1
1
1
i
_
_
(b
_
_
1 1
0 i 1
0 0
1
1
0
_
_
(c
(c
_
_
1 1
0 1
0 0
1
1
2
(i + 1)
0
_
_
(d
_
_
1 0
0 1
0 0
1
2
(i 1)
1
2
(i + 1)
0
_
_
donde (a
) es la operacion R
2
R
1
+ R
2
, (b
) es R
3
iR
2
+ R
3
, (c
) es
R
2
1
2
(i + 1)R
2
y (d
) es la operacion R
1
R
2
+R
1
. Esto muestra que
v
1
=
1
2
(i 1)v
1
+
1
2
(i + 1)v
2
,
por lo que
[v
1
]
=
1
2
_
1 i
1 +i
_
. (4.8.5)
Para calcular [v
2
]
2
.
_
_
1 + i
1
1
_
_
(a
_
_
1 +i
i
1
_
_
(b
_
_
1 +i
i
0
_
_
(c
_
_
1 +i
1
2
(i 1)
0
_
_
(d
_
_
1
2
(i + 3)
1
2
(i 1)
0
_
_
.
Luego
v
2
=
1
2
(i + 3)v
1
+
1
2
(i 1)v
2
,
204 CAP
2
]
=
1
2
_
i + 3
i 1
_
. (4.8.6)
4.9. Matriz de Cambio de Coordenadas
La representacion de un vector por medio de sus coordenadas en una
base ordenada, es util cuando queremos expresar un vector en terminos de
dos bases del espacio vectorial en cuestion. Supongamos que V es un espacio
vectorial, dimensionalmente nito y de dimension n. Consideremos dos bases
ordenadas
= v
1
, v
2
, . . . , v
n
y
= v
1
, v
2
, . . . , v
j
=
n
i=1
ij
v
i
. (4.9.1)
Entonces
[v
j
]
=
_
_
_
_
_
1j
2j
.
.
.
nj
_
_
_
_
_
.
Ahora bien, dada v V, podemos considerar las coordenadas de v en las
bases y
. Supongamos que
[v]
=
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
y [v]
=
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
.
Utilizando (4.9.1) as como propiedades de la doble sumatoria, obtenemos
v =
n
j=1
j
v
j
=
n
j=1
j
_
n
i=1
ij
v
i
_
=
n
j=1
n
i=1
(
ij
)v
i
=
n
i=1
_
n
j=1
ij
j
_
v
i
.
4.9. MATRIZ DE CAMBIO DE COORDENADAS 205
Tenemos entonces que
v =
n
i=1
_
n
j=1
ij
j
_
v
i
.
Ahora bien, como tambien
v =
n
i=1
i
v
i
y las coordenadas de un vector en una base ordenada dada son unicas, de las
dos igualdades anteriores obtenemos que
i
=
n
j=1
ij
j
, (4.9.2)
para cada i 1, 2, . . . , n. Con los escalares
ij
podemos formar la matriz
A de n n dada por
A =
_
_
_
_
_
11
12
1j
1n
21
22
2j
2n
.
.
.
.
.
.
.
.
.
.
.
.
n1
n2
nj
nn
_
_
_
_
_
. (4.9.3)
Notemos que, escrita por columnas,
A = ([v
1
]
[ [v
2
]
[ [ [v
n
]
).
Esto es, la primera columna de A es [v
1
]
, la segunda es [v
2
]
y la ultima
es [v
n
]
, [v]
=
_
_
_
_
_
11
12
1n
21
22
2n
.
.
.
.
.
.
.
.
.
n1
n2
nn
_
_
_
_
_
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
=
_
_
_
_
_
n
j=1
1j
n
j=1
2j
j
.
.
.
n
j=1
nj
j
_
_
_
_
_
=
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
= [v]
.
206 CAP
= A[v]
. (4.9.4)
La ecuacion anterior dice que si conocemos la forma de escribir al vector
v como combinaci on lineal de los elementos de la base
entonces, multipli-
cando por A como se indica en (4.9.4), es posible conocer la forma de escribir
al mismo vector v como combinaci on lineal de los elementos de la base . La
matriz A resulta ser entonces la que nos permite pasar de la base
a la base
. Por esta razon decimos que A es la matriz de cambio de base, de la base
ordenada
a la base ordenada .
Notemos que para calcular la matriz A, debemos saber como se escriben
los vectores de la base
) y, ademas,
como se escribe cualquier elemento de V en la base
, entonces es posible
saber como se escriben todos los demas elementos de V en la base , siguiendo
la formula (4.9.4).
Antes de enunciar lo que hemos obtenido como un teorema, mostraremos
que la matriz de cambio de base A, que hemos denido en (4.9.3), es inver-
tible. Para probar esto supongamos que A[v]
= 0
n1
. Como A[v]
= [v]
,
tenemos que [v]
= 0
n1
. Entonces
v = 0
F
v
1
+ 0
F
v
2
+ + 0
F
v
n
= 0
V
.
Como
0
V
= 0
F
v
1
+ 0
F
v
2
+ + 0
F
v
n
es la unica manera de expresar a v = 0
V
como una combinacion lineal de
los elementos de la base
= [0
V
]
= 0
n1
. Lo que hemos
probado es que el sistema homogeneo A[v]
= 0
n1
posee unicamente la solu-
cion trivial [v]
= 0
n1
. Entonces, por la equivalencia entre las condiciones
1) y 2) del Teorema 3.41, A es invertible. Multiplicando la ecuacion (4.9.4)
por A
1
obtenemos
[v]
= A
1
[v]
. (4.9.5)
La ecuacion de arriba nos dice que, para pasar de la base a la base
,
debemos multiplicar de manera conveniente por A
1
. Tambien nos dice que
si A es la matriz de cambio de base de
a , entonces A
1
es la matriz de
cambio de base de a
.
4.9. MATRIZ DE CAMBIO DE COORDENADAS 207
A continuacion resumimos lo que hemos realizado hasta el momento, como
el cuerpo de un teorema.
Teorema 4.34. Sea V un espacio vectorial sobre el campo F, dimension-
almente nito, y de dimension n. Supongamos que y
= A[v]
y [v]
= A
1
[v]
,
para todo vector v V. Ademas, escrita por columnas,
A = ([v
1
]
[ [v
2
]
[ [ [v
n
]
).
Denicion 4.35. Bajo las hipotesis del teorema, anterior, la matriz A que
se indica, se llama matriz de cambio de base, de la base ordenada
a
la base ordenada .
El siguiente resultado es una especie de inverso del teorema anterior y se
deja como ejercicio al lector.
Teorema 4.36. Supongamos que B M
nn
(F) es una matriz invertible y
que V es un espacio vectorial dimensionalmente nito y de dimension n. Si
es una base ordenada de V, entonces existe una unica base ordenada
de
V tal que
[v]
= B[v]
y [v]
= B
1
[v]
,
para todo vector v V.
A continuacion presentamos el siguiente ejemplo, en el cual utilizamos
una buena parte de lo que hicimos en el Ejemplo 4.33.
Ejemplo 4.37. Tomando en cuenta la notacion establecida en el Ejemplo
4.33, encuentra la matriz de cambio de base de
1
]
=
1
2
_
1 i
1 +i
_
y [v
2
]
=
1
2
_
i + 3
i 1
_
.
Luego
A = ([v
1
]
[ [v
2
]
) =
1
2
_
1 i i + 3
1 +i i 1
_
.
208 CAP
= A[v]
=
1
2
_
1 i i + 3
1 +i i 1
_
[v]
. (4.9.6)
Vamos ahora a calcular las coordenadas del vector v = (x, y, z) W en la
base
1
+
2
v
2
.
Tambien indicamos que, para encontrar
1
y
2
, debemos aplicarle a v las
operaciones elementales (a), (b) y (c) que son R
3
iR
1
+R
3
, R
1
(1 +
i)R
2
+R
1
y R
3
iR
2
+R
3
, respectivamente. Luego
_
_
x
y
z
_
_
(a)
_
_
x
y
ix +z
_
_
(b)
(c)
_
_
(1 +i)y +x
y
iy ix +z
_
_
.
Ahora bien, debemos de recordar que el proceso anterior es la manera sim-
plicada de llevar una matriz aumentada a su forma escalonada reducida.
Cuando terminamos de efectuar la operacion (c), la forma escalonada de la
matriz aumentada (cuyas columnas son v
1
, v
2
y v) es en realidad
_
_
1 0
0 1
0 0
(1 +i)y +x
y
iy ix +z
_
_
.
Esto signica que
1
= (1 + i)y + x,
2
= y y, ademas, iy ix + z = 0.
Haciendo la comprobacion vemos que
[(1+i)y+x]
_
_
1
0
i
_
_
+y
_
_
i + 1
1
1
_
_
=
_
_
(1 +i)y +x +y(i + 1)
y
iy +y +ix y
_
_
=
_
_
x
y
ix iy
_
_
.
Y como z = ix iy, tenemos que
1
v
1
+
2
v
2
=
_
_
x
y
ix iy
_
_
=
_
_
x
y
z
_
_
= v.
4.9. MATRIZ DE CAMBIO DE COORDENADAS 209
Entonces, para v = (x, y, z) W, las coordenadas de v en la base
se
calculan como sigue:
[v]
=
_
(1 +i)y +x
y
_
. (4.9.7)
Combinando las ecuaciones (4.9.6) y (4.9.7), las coordenadas de v en la base
se calculan como sigue:
[v]
=
_
_
_
_
x
y
z
_
_
_
_
=
1
2
_
1 i i + 3
1 + i i 1
__
(1 +i)y +x
y
_
. (4.9.8)
De acuerdo con lo que hicimos en el Ejemplo 4.33, las coordenadas del vector
v en la base se calculan siguiendo las operaciones elementales (a
), (b
), (c
)
y (d
1
]
y [v
2
]
1
y v
2
es
necesario seguir dichas operaciones elementales pues, para los demas, basta
con aplicar la ecuacion (4.9.8). Por ejemplo, el vector
w = (1 + 4i, 2 +i, 3 +i)
se encuentra en W. Luego, por la ecuacion (4.9.8)
[w]
=
1
2
_
1 i i + 3
1 +i i 1
__
(1 +i)(2 +i) + (1 + 4i)
2 +i
_
=
=
1
2
_
1 i i + 3
1 +i i 1
__
i
2 +i
_
=
1
2
_
(1 i)i + (i + 3)(i + 2)
(1 +i)i + (i 1)(i + 2)
_
=
_
3 + 3i
2 +i
_
.
Notemos tambien que
[w]
=
_
i
2 +i
_
.
Terminamos la presente seccion indicando que, en el fondo, las ideas que
estamos utilizando para encontrar la matriz de cambio de base entre dos bases
ordenadas de un mismo espacio vectorial, son las mismas que se utilizaran
para encontrar la matriz asociada a una transformacion lineal.
210 CAP
y [v]
.
4. Considera los vectores
v
1
= (1, 1, 1), v
2
= (2, 3, 3) y v
3
= (3, 2, 3).
Muestra que el conjunto = v
1
, v
2
, v
3
es una base de R
3
. Ahora
considera los vectores
w
1
= (1, 2, 1), w
2
= (1, 1, 0) y w
3
= (2, 9, 8).
Muestra que el conjunto = w
1
, w
2
, w
3
tambien es una base de R
3
.
Considerando que las bases y estan ordenadas por la forma en que
las escribimos, encuentra la matriz A de cambio de base de la base
a la base , as como la matriz B de cambio de base de la base a la
base . Dada v = (x, y, z) R
3
, calcula ahora [v]
y [v]
. Determina
por ultimo [(3, 4, 1)]
= A[v]
.
4.11. El Espacio de las Transformaciones Li-
neales /(V, W)
4.11.1. Denicion y Propiedades Fundamentales
Para saber como determinar la matriz asociada a una transformacion li-
neal dada, debemos primero estudiar al espacio de las transformaciones linea-
4.11. ESPACIO DE TRANSFORMACIONES 211
les denidas entre dos espacios vectoriales dados. Supongamos, por tanto, que
V y W son dos espacios vectoriales denidos sobre el campo F. Consideremos
los conjuntos
T(V, W) = f : V W[ f es una funcion
y
/(V, W) = T : V W[ T es una transformacion lineal.
Como hicimos ver en el Ejemplo 2.4, T(V, W) es un espacio vectorial sobre el
campo F. Es claro que /(V, W) T(V, W). En esta seccion presentaremos
una serie de propiedades del conjunto /(V, W). Mostraremos, por ejemplo,
que es un espacio vectorial sobre el campo F y que, si tanto V como W son
espacios vectoriales de dimension nita, entonces /(V, W) es de dimension
nita y su dimension es el producto de las dimensiones de V y W. Por tanto, si
dim(V ) = n y dim(W) = m, entonces tendremos que dim(/(V, W)) = mn.
Como el espacio vectorial M
mn
(F) de las matrices de orden m n tiene
dimension mn, por el Teorema 4.28, sucedera que
/(V, W)
= M
mn
(F). (4.11.1)
Como consecuencia de lo anterior, toda transformacion lineal de V en W se
podra pensar como una matriz de mn y viceversa. Saber como realizar el
cambio de una transformacion lineal a una matriz y viceversa, sera un asunto
importante.
Antes de probar que /(V, W) es un espacio vectorial, recordemos que la
suma de los elementos f, g T(V, W) es la funcion f + g : V W denida
como (f + g)(v) = f(v) + g(v), para cada v V. Ademas si es un escalar,
entonces el producto escalar de f y es la funcion f : V W denida como
(f)(v) = f(v), para cada v V. Como vimos en el Ejemplo 2.4, el que
T(V, W) sea un espacio vectorial sobre el campo F, solo depende de que W
es un espacio vectorial sobre el campo F, pues tanto cada suma de la forma
f(v) +g(v), como cada producto escalar de la forma f(v), se consideran en
W. Si en /(V, W) la suma y el producto por escalares se dene igual que en
T(V, W), sucede que /(V, W) es un subespacio de T(V, W), como mostramos
en el siguiente teorema.
Teorema 4.38. Supongamos que V y W son espacios vectoriales sobre el
campo F. Entonces /(V, W) es un subespacio vectorial de T(V, W). Por tan-
to, /(V, W) es un espacio vectorial sobre el campo F.
212 CAP
ON A T
A
217
Demostracion. Para ver que H es una transformacion lineal, consideremos
A, B M
mn
(F). Como
T
A+B
(v) = (A +B)(v) = Av +Bv = T
A
(v) +T
B
(v) = (T
A
+T
B
)(v)
para cada v F
n
, resulta que T
A+B
= T
A
+T
B
. En otras palabras, la trans-
formacion lineal asociada a la suma A+B, es la suma de las transformaciones
lineales asociadas de A y B. Luego
H(A +B) = T
A+B
= T
A
+T
B
= H(A) +H(B).
Notemos ahora que, para v F
n
y F tenemos que:
T
A
(v) = (A)(v) = (Av) = (T
A
(v)) = (T
A
)(v).
Por tanto T
A
= T
A
. En otras palabras, la transformacion lineal asociada a
la matriz A, es el producto de por la transformacion lineal asociada a A.
Luego
H(A) = T
A
= T
A
= H(A).
Esto prueba que H es una transformacion lineal. Ahora probaremos que H es
inyectiva. Para esto tomemos A Nuc(H). Entonces H(A) = T
A
es igual al
neutro aditivo de /(F
n
, F
m
). Por tanto T
A
es la transformacion lineal cero,
es decir, T
A
(v) = 0
m1
, para cada v F
n
. Esto implica que A es la matriz
cero de orden mn. En efecto, si alguna componente A
ij
de A es diferente
de 0
F
, entonces podemos considerar el vector canonico e
j
cuyas componentes
son el vector 0
F
salvo la j-esima, cuyo valor es 1
F
. Entonces
Ae
j
=
_
_
_
_
_
_
_
_
_
A
11
A
12
A
1j
A
1n
A
21
A
22
A
2j
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
i1
A
i2
A
ij
A
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mj
A
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
F
0
F
.
.
.
1
F
.
.
.
0
F
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
A
1j
A
2j
.
.
.
A
ij
.
.
.
A
mj
_
_
_
_
_
_
_
_
_
.
Como Ae
j
= 0
m1
, sucede que (A
1j
, A
2j
, . . . , A
ij
, . . . , A
mj
) = 0
m1
. En parti-
cular A
ij
= 0
F
. Como esto contradice el hecho de que A
ij
,= 0
F
, tenemos que
A = 0
mn
. Por tanto, Nuc(H) = 0
mn
. Entonces, por el Teorema 4.12, H
es inyectiva.
218 CAP
ON 219
de las matrices cuadradas M
nn
(F) tambien es un algebra lineal. Por
tanto, las operaciones de suma, multiplicaci on y multiplicacion escalar
en M
nn
(F), se corresponden con sus equivalentes en /(F
n
, F
n
). Es-
to es, la suma de dos matrices cuadradas equivale a la suma de dos
operadores lineales, multiplicar una matriz cuadrada por un escalar
equivale a multiplicar un operador lineal por el mismo escalar y, por
ultimo, multiplicar dos matrices cuadradas equivale a componer dos o-
peradores lineales.
Esto ultimo es consecuencia del Teorema 4.45 y, por
tanto, es una manera de justicar la forma de multiplicar dos matri-
ces: se dene as porque, de esta manera, la multiplicacion de matrices
equivale a componer transformaciones lineales.
Como hemos estado mencionando, uno de nuestros objetivos principales
es el de determinar la matriz que le corresponde a una transformacion lineal
dada T : V W, denida entre los espacios dimensionalmente nitos V y W.
Al escribir esto pensamos que no deseamos, como en 1), garantizar a nivel
teorico que dicha matriz existe, sino que esperamos un algoritmo o camino
para encontrarla. Por ejemplo, si nos dan una matriz A M
mn
(F) sabemos
lo que debemos hacer para calcular la transformacion lineal T
A
: F
n
F
m
que le corresponde. Dada v F
n
, debemos calcular Av para obtener T
A
(v).
Si nos dan ahora una transformacion lineal T : V W y pensamos que
dim(V ) = n y dim(W) = m que es lo que debemos hacer para obtener la
matriz A
T
M
mn
(F) que le corresponde? Como veremos, la respuesta a
esta pregunta radica en la forma en como se demuestra que la dimension del
espacio /(V, W) es igual al producto de las dimensiones de V y W.
4.13. dim(/(V, W)) = dim(V ) dim(W)
En esta seccion mostraremos el resultado que hemos venido anunciando,
que si V y W son dimensionalmente nitos, entonces el espacio /(V, W) es di-
mensionalmente nito y su dimension es igual al producto de las dimensiones
de V y W.
Teorema 4.46. Supongamos que V y W son espacios vectoriales sobre el
campo F. Si V y W son dimensionalmente nitos, dim(V ) = n y dim(W) =
m, entonces el espacio /(V, W) es dimensionalmente nito y
dim(/(V, W)) = mn.
220 CAP
iq
= 1 si i = q y
iq
= 0 si i ,= q. La transformacion lineal E
p,q
existe debido
al Teorema 4.7. Notemos que E
1,1
es la transformacion lineal que manda v
1
a w
1
y todos los demas elementos de a 0
W
. La transfomacion E
1,2
manda
v
2
a w
1
y todos los demas elementos de a 0
W
. En general, E
p,q
manda v
q
a w
p
y todos los demas elementos de a 0
W
. Como consecuencia de esto,
tenemos que
1) si (p
1
, q
1
), (p
2
, q
2
) 1, 2, . . . , m 1, 2, . . . , n son distintos, entonces
las transformaciones lineales E
p
1
q
1
y E
p
2
q
2
son distintas.
Para probar 1) tomemos (p
1
, q
1
) y (p
2
, q
2
) como se indica. Supongamos que
q
1
= q
2
. Como (p
1
, q
1
) ,= (p
2
, q
2
) sucede que p
1
,= p
2
. Entonces E
p
1
q
1
,= E
p
2
q
2
pues E
p
1
q
1
manda v
q
1
a w
p
1
, E
p
2
q
2
= E
p
2
q
1
manda v
q
1
a w
p
2
y w
p
1
,= w
p
2
dado
que p
1
,= p
2
y w
p
1
, w
p
2
(los elementos de una base son diferentes entre s).
Supongamos ahora que q
1
,= q
2
. Entonces v
q
1
,= v
q
2
, pues ambos elementos
se encuentran en la base y q
1
,= q
2
. Notemos ahora que E
p
1
q
1
manda v
q
1
a
w
p
1
y que E
p
2
q
2
manda v
q
1
a 0
W
. Entonces E
p
1
q
1
,= E
p
2
q
2
, pues w
p
1
,= 0
W
(los
elementos de una base son distintos del neutro del espacio vectorial). Esto
prueba 1).
Hagamos
= E
p,q
: (p, q) 1, 2, . . . , m 1, 2, . . . , n. (4.13.2)
Como tiene justo n elementos, justo m elementos y, por 1), los elementos
de son diferentes entre s, resulta que posee justo mn elementos. Ahora
4.13. DIMENSI
ON 221
mostraremos que es una base de /(V, W). Primero haremos ver que
genera a /(V, W). Para esto tomemos un elemento T /(V, W). Entonces
la funcion T : V W esta completamente determinada por sus valores en
los elementos de . A saber, para cada i 1, 2, . . . , n de acuerdo con el
Teorema 4.1, existen escalares unicos
1i
,
2i
, . . . ,
mi
tales que
T(v
i
) =
m
p=1
pi
w
p
.
Consideremos ahora la transformacion lineal U : V W denida como sigue:
U =
m
p=1
n
q=1
pq
E
p,q
. (4.13.3)
Notemos que U es una transformacion lineal de V en W, pues U es una combi-
nacion lineal de transformaciones lineales de V en W. Dada i 1, 2, . . . , n
tenemos que
U(v
i
) =
m
p=1
n
q=1
pq
E
p,q
(v
i
) =
m
p=1
n
q=1
pq
iq
w
p
=
m
p=1
pi
w
p
= T(v
i
).
Entonces U(v
i
) = T(v
i
), para cada i 1, 2, . . . , n. Esto signica que U y
T son dos transformaciones lineales de V en W que coiciden en la base .
Como solo existe una transformacion lineal con dicha propiedad, sucede que
U = T. Por tanto
T =
m
p=1
n
q=1
pq
E
p,q
(4.13.4)
es una combinaci on lineal de los elementos de . Esto prueba que genera a
/(V, W). Ahora mostraremos que es linealmente independiente. Para ver
esto consideremos escalares
pq
F con (p, q) 1, 2, . . . , m 1, 2, . . . , n
tales que
m
p=1
n
q=1
pq
E
p,q
= 0.
Notemos que el cero que aparece a la derecha de la igualdad anterior, es la
transformacion lineal cero. Por tanto 0(v
i
) = 0
W
, para cada i 1, 2, . . . , n.
222 CAP
p=1
n
q=1
pq
E
p,q
(v
i
) =
m
p=1
n
q=1
pq
iq
w
p
=
m
p=1
pi
w
p
Entonces
m
p=1
pi
w
p
= 0
W
y, como = w
1
, w
2
, . . . , w
m
es linealmente independiente, tenemos que
1i
=
2i
= =
mi
= 0
F
. Ahora bien, como lo anterior es cierto para cada
i 1, 2, . . . , n, concluimos que
pq
= 0
F
, para cada (p, q) 1, 2, . . . , m
1, 2, . . . , n. Esto prueba que es linealmente independiente. Por tanto,
es una base de /(V, W) y con esto
dim(/(V, W)) = dim(W) dim(V ) = mn.
4.14. Matriz Asociada a una Transformaci on
Lineal
4.14.1. Comentarios Iniciales
Supongamos que V y W son espacios vectoriales sobre el campo F, di-
mensionalmente nitos y que dim(V ) = n y dim(W) = m. De acuerdo al
Teorema 4.46, /(V, W) es un espacio vectorial sobre el campo F tal que
dim(/(V, W)) = mn. Notemos tambien que M
mn
(F) es un espacio vectorial
sobre el campo F tal que dim(M
mn
(F)) = mn. Entonces, por el Teorema
4.28, /(V, W) y M
mn
(F) son isomorfos. Por tanto existe un isomorsmo
M: /(V, W) M
mn
(F). Como consecuencia de esto, cada transformacion
lineal de V en W, puede pensarse como una matriz de m n y viceversa.
Dada una transformacion lineal T : V W, por lo que acabamos de hacer,
M(T) es la matriz de m n sobre el campo F que corresponde a T. Por
otro lado, dada una matriz A M
mn
(F), sucede que M
1
(A) es la trans-
formacion lineal de V en W que corresponde a A. Sera interesante, dada la
4.14. MATRIZ ASOCIADA 223
transformacion lineal, poder saber exactamente la forma que tiene su matriz
asociada, y lo mismo si empezamos con una matriz de mn.
La prueba del Teorema 4.46 es la clave para denir al isomorsmo M, y no
solo garantizar su existencia a nivel teorico. En dicha demostracion realizamos
lo siguiente: primero jamos una base ordenada = v
1
, v
2
, . . . , v
n
para V,
as como una base ordenada = w
1
, w
2
, . . . , w
m
para W. Luego denimos
en (4.13.1) transformaciones lineales E
p,q
y, con ellas, formamos el conjunto
como en (4.13.2). Posteriormente probamos que es una base de /(V, W).
Precisamente la demostracion de este hecho es lo que nos da una idea de
como denir a M. Veamos: dadas una transformacion lineal T : V W e
i 1, 2, . . . , n, existen escalares unicos
1i
,
2i
, . . . ,
mi
F tales que
T(v
i
) =
m
p=1
pi
w
p
.
Utilizando todos los escalares
pq
podemos formar la siguiente matriz de
mn:
A
T
=
_
_
_
_
_
11
12
1n
21
22
2n
.
.
.
.
.
.
.
.
.
m1
m2
mn
_
_
_
_
_
.
Estamos tentados a decir que M(T) = A
T
. El problema de hacer esto
es que, si no procedemos con cuidado, entonces no estaremos deniendo una
funcion sino una relacion de /(V, W) en M
mn
(F). En efecto, si tan solo deci-
mos que M(T) = A
T
, entonces la asociacion no necesariamente es unica, con
todo y que cada eleccion de los escalares
pq
s lo es. Ahora bien, lo que hace
unica a una matriz es la posicision de sus elementos. Por tanto, debemos de
realizar lo anterior, de manera que la posicion en que colocamos los elementos
de A
T
sea unica. Si logramos esto entonces, la unicidad de dichos escalares
as como la unicidad de la posicion en que debemos colocarlos, hara que
la matriz A
T
sea unica. Por consiguiente, la correspondencia M(T) = A
T
resultara ser una funcion. Luego tendremos que ver que dicha funcion es una
transformacion lineal y que, ademas, es biyectiva. Pero primero debemos de
hacer las cosas de manera que se garantize que tenemos una funcion.
Para hacer que la matriz A
T
sea unica, debemos recurrir al orden que
le dimos a las bases y . Recordemos que el orden de es el indicado al
224 CAP
(4.14.1)
es una base ordenada de /(V, W). El orden de es el determinado al escribir
sus elementos como se indica en (4.14.1). Los coecientes unicos
pq
que
obtuvimos anteriormente, escritos en el orden de la base , generan la mn-
ada
(
11
,
12
, . . . ,
1n
,
21
,
22
, . . . ,
2n
, . . . ,
m1
,
m2
, . . . ,
mn
). (4.14.2)
Ahora bien, sabemos que los espacios vectoriales F
mn
y M
mn
(F) son isomor-
fos y que, para pasar del primero al segundo, debemos de colocar los primeros
n elementos de una mn-ada como el primer renglon de una matriz, luego el
segundo grupo de n elementos de la mn-ada corresponde al segundo renglon
de dicha matriz y as sucesivamente. Entonces, la matriz correspondiente al
mn-tuple que aparece en (4.14.2) es
A
T
=
_
_
_
_
_
11
12
1n
21
22
2n
.
.
.
.
.
.
.
.
.
m1
m2
mn
_
_
_
_
_
.
Notemos que ahora la matriz A
T
es unica pues, al establecer un orden en
las bases y , se establecio tambien un orden en y, utilizando este orden y
4.14. MATRIZ ASOCIADA 225
el isomorsmo entre F
mn
y M
mn
(F), pasamos un mn-tuple a una matriz de
mn. Otra forma de ver que la matriz A
T
es unica es la siguiente: escrita por
columnas, la primera columna de A
T
es la que tiene los coecientes utilizados
en T(v
1
), es decir, en la imagen bajo T del primer elemento de la base .
Dichos coecientes aparecen escritos en el orden que le dimos a la base . La
segunda columna de A
T
tiene a los coecientes utilizados en la imagen bajo T
del segundo elemento de la base , y tambien estos se encuentran escritos en
el orden que le dimos a la base . Las demas columnas se forman de manera
similar. Como columna a columna los coecientes de A
T
son unicos, estamos
indicando en que orden acomodarlos y dicho orden es unico, pues es justo el
orden que le dimos a la base , la matriz A
T
es unica.
Como consecuencia de lo anterior, tenemos una funcion
M: /(V, W) M
mn
(F),
denida para T /(V, W), como M(T) = A
T
. En la siguiente seccion
mostraremos que M es un isomorsmo. Terminamos la presente seccion in-
dicando que la unicidad de la matriz A
T
depende de las bases ordenadas
y elegidas en V y W, respectivamente. Si mantenemos las bases pero
cambiamos el orden o si consideramos bases diferentes ya sea en V, en W o
en ambos, entonces la matriz que resulta sera distinta. Por consiguiente, la
notacion A
T
para la matriz asociada a T no es una buena notacion, pues no
reeja la unicidad de dicha matriz de acuerdo a la eleccion de las bases. Una
mejor notacion es [T]
.
4.14.2. Aspectos Teoricos
En la presente subseccion formalizaremos lo que discutimos en la sub-
seccion anterior. Para esto utilizaremos las coordenadas de un vector, con
respecto a una base ordenada dada. Como en la subseccion anterior, supon-
dremos que V y W son espacios vectoriales dimensionalmente nitos sobre el
campo F. Ademas pensaremos que dim(V ) = n, dim(W) = m y que las letras
y denotan bases ordenadas en V y W, respectivamente. Supondremos
tambien que
= v
1
, v
2
, . . . , v
n
y = w
1
, w
2
, . . . , w
m
.
226 CAP
=
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
representa las coordenadas de v con respecto a la base ordenada . En la
Seccion 4.8 estudiamos la nocion anterior y, en la Seccion 4.9, vimos que para
pasar de una base ordenada de un espacio vectorial a otra base ordenada del
mismo espacio, necesitamos multiplicar de manera pertinente por una matriz
invertible. El siguiente resultado generaliza esto ultimo.
Teorema 4.47. Sean V un espacio vectorial de dimension n sobre el campo
F, y W un espacio vectorial de dimension m sobre F. Supongamos que =
v
1
, v
2
, . . . , v
n
es una base ordenada de V y que = w
1
, w
2
, . . . , w
m
es una
base ordenada de W. Entonces, para cada transformacion lineal T : V W,
existe una unica matriz [T]
M
mn
(F) tal que
[T(v)]
= [T]
[v]
(4.14.3)
para cada v V. Denida por columnas
[T]
= ([T(v
1
)]
[ [T(v
2
)]
[ [ [T(v
n
)]
) .
Ademas la funcion
M: /(V, W) M
mn
(F)
denida, para T /(V, W), como M(T) = [T]
es un isomorsmo.
Demostracion. Dada j 1, 2, . . . , n, por el Teorema 4.1, existen es-
calares unicos
1j
,
2j
, . . . ,
mj
F tales que
T(v
j
) =
m
i=1
ij
w
i
. (4.14.4)
4.14. MATRIZ ASOCIADA 227
Entonces
[T(v
j
)]
=
_
_
_
_
_
1j
2j
.
.
.
mj
_
_
_
_
_
son las coordenadas de T(v
j
) en la base ordenada . Denamos, por colum-
nas, la matriz
[T]
= ([T(v
1
)]
[ [T(v
2
)]
[ [ [T(v
n
)]
) .
En otras palabras la matriz [T]
M
mn
(F) se dene de modo que, para
cada j = 1, 2, . . . , m, su j-esima columna es [T(v
j
)]
j=1
j
v
j
.
Entonces
[v]
=
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
.
Ademas, utilizando (4.14.4), el hecho de que T es una transformacion lineal
y propiedades de la doble sumatoria, tenemos que:
T(v) = T
_
n
j=1
j
v
j
_
=
n
j=1
T(
j
v
j
) =
n
j=1
j
T(v
j
) =
n
j=1
j
_
m
i=1
ij
w
i
_
=
=
n
j=1
m
i=1
ij
w
i
=
m
i=1
n
j=1
ij
w
i
=
m
i=1
_
n
j=1
ij
_
w
i
.
228 CAP
i
=
n
j=1
ij
.
Entonces
T(v) =
m
i=1
_
n
j=1
ij
_
w
i
=
m
i=1
i
w
i
por lo que
[T(v)]
=
_
_
_
_
_
2
.
.
.
m
_
_
_
_
_
.
Por otro lado
[T]
[v]
=
_
_
_
_
_
11
12
1n
21
22
2n
.
.
.
.
.
.
.
.
.
m1
m2
mn
_
_
_
_
_
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
=
_
_
_
_
_
n
j=1
1j
n
j=1
2j
.
.
.
.
.
.
n
j=1
mj
_
_
_
_
_
=
_
_
_
_
_
2
.
.
.
m
_
_
_
_
_
Esto prueba que [T]
[v]
= [T(v)]
.
Ahora consideremos la funcion M: /(V, W) M
mn
(F) denida, para
T /(V, W), como M(T) = [T]
.
Mostraremos que
[T +U]
= [T]
+ [U]
.
Por denicion
[T]
= ([T(v
1
)]
[ [T(v
2
)]
[ [ [T(v
n
)]
) ,
[U]
= ([U(v
1
)]
[ [U(v
2
)]
[ [ [U(v
n
)]
)
y
[T +U]
= ([(T +U)(v
1
)]
[ [(T +U)(v
2
)]
[ [ [(T +U)(v
n
)]
) .
4.14. MATRIZ ASOCIADA 229
Notemos ahora que cuando sumamos dos matrices A y B, la j-esima colum-
na de la suma A + B es igual a la suma de las j-esimas columnas de las
matrices A y B. Utilizando esto y el hecho de que la funcion w [w]
es
una transformacion lineal, tenemos que
[T]
+ [U]
= ([T(v
1
)]
[ [T(v
2
)]
[ [ [T(v
n
)]
) +
([U(v
1
)]
[ [U(v
2
)]
[ [ [U(v
n
)]
)
= ([T(v
1
)]
+ [U(v
1
)]
[ [ [T(v
n
)]
+ [U(v
n
)]
)
= ([T(v
1
) +U(v
1
)]
[ [T(v
2
) + U(v
2
)]
[ [ [T(v
n
) + U(v
n
)]
)
= ([(T +U)(v
1
)]
[ [(T +U)(v
2
)]
[ [ [(T +U)(v
n
)]
)
= [T +U]
.
Esto muestra que [T +U]
= [T]
+ [U]
. Luego
M(T +U) = [T +U]
= [T]
+ [U]
= M(T) + M(U).
Ahora tomemos un escalar F. Notemos ahora que cuando multiplicamos
una matriz A por , la j-esima columna del producto A, es igual a la
multiplicacion por de la j-esima columna de A. Utilizando esto y el hecho
de que la funcion w [w]
= ([T(v
1
)]
[ [T(v
2
)]
[ [ [T(v
n
)]
)
= ([T(v
1
)]
[ [T(v
2
)]
[ [ [T(v
n
)]
)
= ([T(v
1
)]
[ [T(v
2
)]
[ [ [T(v
n
)]
)
= ([(T)(v
1
)]
[ [(T)(v
2
)]
[ [ [(T)(v
n
)]
) = [T]
.
Esto muestra que [T]
= [T]
. Luego
M(T) = [T]
= [T]
= M(T).
Esto prueba que M: /(V, W) M
mn
(F) es una transformacion lineal.
Como los espacios vectoriales /(V, W) y M
mn
(F) son dimensionalmente
nitos y ambos tienen dimension mn, para ver que M es un isomorsmo
basta con probar que M es inyectiva, seg un el Teorema 4.27. Ademas, por el
Teorema 4.12, M es inyectiva si y solo si Nuc(M) = 0, donde el smbolo
0 representa la transformacion lineal cero. Tomemos entonces T /(V, W)
tal que M(T) = 0
mn
. Entonces
0
mn
= M(T) = [T]
= ([T(v
1
)]
[ [T(v
2
)]
[ [ [T(v
n
)]
) .
230 CAP
=
_
_
_
_
_
1j
2j
.
.
.
mj
_
_
_
_
_
=
_
_
_
_
_
0
F
0
F
.
.
.
0
F
_
_
_
_
_
.
Esto signica que
T(v
j
) = 0
F
w
1
+ 0
F
w
2
+ + 0
F
w
m
= 0
W
.
Por tanto T(v
j
) = 0
W
, para cada j = 1, 2, . . . , n. Entonces T es una transfor-
macion lineal que manda la base de V al conjunto 0
w
. Como el compor-
tamiento de una transformacion lineal esta determinado por su accion en los
elementos de una base de su dominio, tenemos que T es la transformacion
lineal cero. Esto muestra que Nuc(M) = 0 y, por tanto, M es inyectiva.
Como ya hicimos ver, se sigue entonces que M es un isomorsmo.
Por meritos propios, debemos darle un nombre a la matriz [T]
.
Denicion 4.48. Sean V un espacio vectorial de dimension n sobre el campo
F, y W un espacio vectorial de dimension m sobre F. Supongamos que =
v
1
, v
2
, . . . , v
n
es una base ordenada de V y que = w
1
, w
2
, . . . , w
m
es una
base ordenada de W. Si T : V W es una transformacion lineal, entonces a
la matriz
[T]
= ([T(v
1
)]
[ [T(v
2
)]
[ [ [T(v
n
)]
)
se le llama la matriz de T respecto a las bases ordenadas y .
Es tambien com un decir que [T]
= [T]
.
Consideremos ahora V, W, F, y como en la denicion anterior. Como
sabemos V es isomorfo a F
n
y la funcion
: V F
n
denida, para v V,
como
(v) = [v]
: W
F
m
denida, para w W, como
(w) = [w]
es un isomorsmo. Sea U : V
W una transformacion lineal y consideremos la matriz [U]
asociada a U, con
respecto a las bases ordenadas y . Notemos que [U]
M
mn
(F) por lo
4.14. MATRIZ ASOCIADA 231
que T
[U]
, es una funcion de F
n
a
F
m
. Tenemos entonces que
U : V W y
: W F
m
,
: V F
n
y T
[U]
: F
n
F
m
.
Por tanto, las composiciones
U y T
[U]
_
(v) = T
[U]
(v)) = T
[U]
([v]
) = [U]
[v]
= [U(v)]
(U(v)) = (
U)(v).
Por tanto
T
[U]
U.
Con esto tenemos lo siguiente: estudiar una transformacion lineal denida
entre los espacios vectoriales V y W, puede ser complicado. Sin embargo,
podemos identicar V con F
n
y W con F
m
, utilizando los isomorsmos
la cual, en
teora es mas sencilla, pues esta denida entre los espacios vectoriales F
n
y
F
m
los cuales son mas sencillos que los espacios V y W.
Notemos que de la igualdad T
[U]
U obtenemos que
T
[U]
= U y T
[U]
U
1
.
Supongamos ahora que V = F
n
y W = F
m
. Supongamos tambien que y
son las bases canonicas de F
n
y F
m
, respectivamente, y que esan ordenadas
en forma natural. Entonces, por el Teorema 4.32,
U
1
= 1
F
m U 1
F
n = U.
Entonces T
[U]
asociada a T
A
, con respecto a las bases
canonicas y . Entonces obtenemos A. Por tanto [T
A
]
= A.
4.14.3. Ejemplos
En la presente subseccion mostraremos una serie de ejemplos que ilustran
el calculo de la matriz [T]
.
Ejemplo 4.49. Consideremos la transformacion lineal T : R
2
R
3
denida,
para (x, y) R
2
, como
T(x, y) = (x + 3y, 0, 2x 4y).
Calcula [T]
= ([T(1, 0)]
[ [T(0, 1)]
) =
_
_
1 3
0 0
2 4
_
_
.
Consideremos la transformacion lineal T del ejemplo anterior, as como
las bases ordenadas y . Supongamos que = e
3
, e
2
, e
1
. Entonces es
la base canonica de R
3
, pero ordenada de otra forma. Por tanto, como bases
ordenadas, ,= . Ahora bien, como
T(1, 0) = 2e
3
+ 0e
2
+ 1e
1
y T(0, 1) = 4e
3
+ 0e
2
+ 3e
1
,
4.14. MATRIZ ASOCIADA 233
sucede que
[T]
= ([T(1, 0)]
[ [T(0, 1)]
) =
_
_
2 4
0 0
1 3
_
_
.
Notemos que [T]
,= [T]
= ([T(f
1
)]
[ [T(f
2
)]
[ [T(f
3
)]
[ [T(f
4
)]
) =
_
_
_
_
0 1 0 0
0 0 2 0
0 0 0 3
0 0 0 0
_
_
_
_
.
234 CAP
= ([T(f
1
)]
[ [T(f
2
)]
[ [T(f
3
)]
[ [T(f
4
)]
) =
_
_
0 1 0 0
0 0 2 0
0 0 0 3
_
_
.
Supongamos que T : V W es una transformacion lineal entre los espa-
cios vectoriales V y W de dimensiones n y m, respectivamente. Como hemos
indicado, cualquier transformacion lineal asociada a T es un matriz de orden
m n. Notemos ahora que Im(T) es un subespacio de W y que T, como
funcion de V en Im(T), es suprayectiva. Sea r = r(T) = dim(Im(T)). En-
tonces r m y, pensando a T como una funcion de V en Im(T), cualquier
matriz asociada a T es de orden r n. Notemos que dichas matrices de orden
r n reejan mejor la estructura de T que las matrices de orden mn.
Esto
ultimo es lo que se pretendio establecer en el ejemplo anterior. La matriz [T]
= [T]
+ [U]
y [T]
= [T]
.
Como consecuencia de dichas propiedades, la funcion
M: /(V, W) M
mn
(F)
denida, para T /(V, W), como M(T) = [T]
= [U]
[T]
.
Demostracion. Supongamos que
= v
1
, v
2
, . . . , v
n
, = w
1
, w
2
, . . . , w
m
y = z
1
, z
2
, . . . , z
p
.
Hagamos A = [U]
, B = [T]
. Por tanto
T(v
j
) =
m
k=1
B
kj
w
k
.
Notemos que, en la igualdad de arriba, B
kj
es el elemento de la matriz B que
se encuentra en la posicion k-j. Notemos ahora que si 1 k m, entonces
la k-esima columna de A es [U(w
k
)]
. Por tanto
U(w
k
) =
p
i=1
A
ik
z
i
.
En la igualdad de arriba, A
ik
es el elemento de la matriz A que se encuentra
en la posicion i-k. Ahora bien, combinando las igualdades anteriores, tenemos
que, para 1 j n,
(U T)(v
j
) = U(T(v
j
)) = U
_
m
k=1
B
kj
w
k
_
=
m
k=1
B
kj
U(w
k
) =
=
m
k=1
B
kj
_
p
i=1
A
ik
z
i
_
=
m
k=1
p
i=1
B
kj
A
ik
z
i
=
p
i=1
m
k=1
A
ik
B
kj
z
i
=
=
p
i=1
_
m
k=1
A
ik
B
kj
_
z
i
=
p
i=1
C
ij
z
i
.
Por tanto
(U T)(v
j
) =
p
i=1
C
ij
z
i
. (4.14.5)
En la igualdad de arriba, C
ij
es el elemento de la matriz C = AB que se
encuentra en las posicion i-j. Notemos ahora que, dada 1 j n, la j-esima
columna de [U T]
es [(U T)(v
j
)]
=
_
_
_
_
_
C
1j
C
2j
.
.
.
C
pj
_
_
_
_
_
.
4.14. MATRIZ ASOCIADA 237
Por tanto
[U T]
= ([(U T)(v
1
)]
[ [(U T)(v
2
)]
[ [ [(U T)(v
n
)]
)
=
_
_
_
_
_
C
11
C
12
C
1n
C
21
C
22
C
2n
.
.
.
.
.
.
.
.
.
C
p1
C
p2
C
pn
_
_
_
_
_
= C = AB = [U]
[T]
.
Esto termina la demostracion.
Corolario 4.52. Sea V un espacio vectorial dimensionalmente nito con
una base ordenada . Si T, U /(V, V ), entonces
[U T]
= [U]
[T]
y [T U]
= [T]
[U]
.
Si V es como se indica en el corolario anterior y dim(V ) = n, entonces
a la composicion U T de los operadores lineales U y V, le corresponde el
producto [U]
[T]
[U]
i=1
_
m
k=1
A
ik
B
kj
_
z
i
.
Para que las cuentas salgan, debemos denir el producto C = AB de modo
que
C
ij
=
m
k=1
A
ik
B
kj
para cada 1 i p y cada 1 j n.
Esta es una de las razones del
porque el producto de dos matrices se dene como indicamos en la Seccion
3.6.
Como la composicion de transformaciones lineales es asociativa y la com-
posicion esta en correspondencia con el producto de matrices, necesariamente
el producto de matrices es asociativo. Como la composicion de transforma-
ciones lineales no es conmutativa, la multiplicacion de matrices tampoco es
conmutativa. En vista de la relacion que existe entre la composicion de trans-
formaciones lineales y el producto de matrices, los teoremas 3.22 y 3.23 son
238 CAP
= I
n
, para cada base ordenada de V.
Demostracion. Sea = v
1
, v
2
, . . . , v
n
una base ordenada en V. Dada
1 i n, tenemos que [v
i
]
= e
i
, donde e
i
es el i-esimo vector canonico de
F
n
, esto es, todos los elementos de e
i
valen 0
F
salvo el que se encuentra en
la posicion i, cuyo valor es 1
F
. Entonces
[1
V
]
= ([1
V
(v
1
)]
[ [1
V
(v
2
)]
[ [ [1
V
(v
n
)]
)
= ([v
1
]
[ [v
2
]
[ [ [v
n
]
)
=
_
_
_
_
_
1
F
0
F
0
F
0
F
1
F
0
F
.
.
.
.
.
.
.
.
.
0
F
0
F
1
F
_
_
_
_
_
= I
n
.
En la Seccion 4.44, estudiamos la funcion
H: M
mn
(F) /(F
n
, F
m
)
denida, para A M
mn
(F), como H(A) = T
A
, donde T
A
es la transforma-
cion lineal asociada a A. Vimos que H es un isomorsmo. Posteriormente,
en el Teorema 4.47, consideramos la funcion
M: /(V, W) M
mn
(F)
4.14. MATRIZ ASOCIADA 239
denida, para T /(V, W), como M(T) = [T]
.
Escribamos la base canonica de F
n
como = e
1
, e
2
, . . . , e
n
. Por deni-
cion tenemos que
[T
A
]
= ([T
A
(e
1
)]
[ [T
A
(e
2
)]
[ [ [T
A
(e
n
)]
)
= ([Ae
1
]
[ [Ae
2
]
[ [ [Ae
n
]
).
Ademas, dada 1 j n,
Ae
j
=
_
_
_
_
_
_
_
_
_
A
11
A
12
A
1j
A
1n
A
21
A
22
A
2j
A
2n
.
.
.
.
.
.
.
.
.
.
.
.
A
i1
A
i2
A
ij
A
in
.
.
.
.
.
.
.
.
.
.
.
.
A
m1
A
m2
A
mj
A
mn
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
F
0
F
.
.
.
1
F
.
.
.
0
F
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
A
1j
A
2j
.
.
.
A
ij
.
.
.
A
mj
_
_
_
_
_
_
_
_
_
.
Entonces el vector Ae
j
es la j-esima columna de A. Ahora bien, como es
la base canonica de F
m
, por el Teorema 4.32, [Ae
j
]
= Ae
j
. Por consiguiente
[T
A
]
= ([Ae
1
]
[ [Ae
2
]
[ [ [Ae
n
]
) = A.
240 CAP
= A.
Ahora probaremos que H M = 1, en donde el smbolo 1 representa
ahora la funcion identidad de /(F
n
, F
m
) en /(F
n
, F
m
). Como es la base
canonica en F
n
, es la base canonica en F
m
y ambas estan ordenadas en la
forma natural tenemos, por el Teorema 4.32, que [v]
= v y [w]
= w para
cada v F
n
y cada w F
m
. Tomemos ahora un elemento U /(F
n
, F
m
).
Entonces
(H M)(U) = H(M(U)) = H([U]
) = T
[U]
,
donde T
[U]
. Para ver
que las transformaciones lineales T
[U]
(v
j
) = [U]
e
j
= [U]
[e
j
]
= [U(e
j
)]
= U(e
j
).
Esto muestra que (H M)(U) = T
[U]
= U.
En el teorema anterior es muy importante que en los espacios F
n
y F
m
tomemos las bases canonicas ordenadas en la forma natural. Si tomamos
cualesquiera otras bases en dichos espacios, entonces H no es la inversa de
M, ni M la de H.
4.15. Transformaciones Lineales Invertibles
En la Seccion 3.8, estudiamos el concepto de inversa de una matriz.
Recordemos que si A M
nn
(F), entonces A es invertible si existe C
M
nn
(F) tal que AC = CA = I
n
, donde I
n
es la matriz identidad de orden
nn. Recordemos tambien que si A es invertible, entonces la matriz C indi-
cada anteriormente, es unica, se llama la inversa de A y se denota por A
1
.
En el Teorema 3.33, mostramos que si A es invertible, entonces A
1
tambien
es invertible y (A
1
)
1
= A. Ademas vimos que si A y B son invertibles,
entonces AB tambien es invertible y (AB)
1
= B
1
A
1
.
Naturalmente podemos denir transformaciones lineales invertibles, de la
misma manera como denimos matrices invertibles.
4.15. TRANSFORMACIONES LINEALES INVERTIBLES 241
Denicion 4.55. Sean V y W dos espacios vectoriales sobre el campo F.
Decimos que T /(V, W) es invertible si existe S /(W, V ) tal que
T S = 1
W
y S T = 1
V
, donde 1
W
y 1
V
representan las funciones identidad
en W y en V, respectivamente.
Como las transformaciones lineales son funciones, una transformacion li-
neal es invertible, si como funcion es invertible. Podemos entonces apelar a
lo que vimos en
Algebra Superior I y decir que si T /(V, W) es invertible,
entonces solo existe una transformacion lineal S /(W, V ) tal que TS = 1
W
y S T = 1
V
. Como en el caso de las matrices, a S se le llama la inversa de
T y se la denota por T
1
. Tambien, por lo que se vio en
Algebra Superior I,
tenemos que
1) si T /(V, W) y U /(W, V ) son invertibles entonces las transfor-
maciones lineales T U y T
1
son invertibles y
(T U)
1
= U
1
T
1
y (T
1
)
1
= T.
2) T /(V, W) es invertible si y solo si T es biyectiva.
De acuerdo con 2) las transformaciones lineales invertibles son justo los
isomorsmos. Por tanto, las propiedades de las transformaciones lineales in-
vertibles, son justo las que estudiamos en la Seccion 4.7. En particular, en el
Teorema 4.27, podemos agregar una condicion 6) que diga: T es invertible.
Por tanto, si V es un espacio vectorial dimensionalmente nito, entonces una
transformacion lineal T : V V es invertible si y solo si T es inyectiva.
En el Teorema 4.13, mostramos que si A M
nn
(F) y T
A
: F
n
F
n
es la transformacion lineal asociada de A, entonces A es invertible si y solo
si la funcion T
A
es inyectiva. Por lo comentado al nal del parrafo anterior,
tenemos que A es invertible si y solo si T
A
es invertible. A continuaci on
probaremos el siguiente resultado, el cual sigue la misma direccion que el que
acabamos de mencionar.
Teorema 4.56. Sean V y W dos espacios vectoriales sobre el campo F.
Supongamos que V y W son dimensionalmente nitos y que y son bases
ordenadas de V y W, respectivamente. Sea T /(V, W). Entonces T es
invertible si y solo si la matriz [T]
es invertible. Ademas
([T]
)
1
= [T
1
]
.
242 CAP
es de orden n n. Consideremos
ahora la transformacion lineal inversa T
1
: W V. Por el Teorema 4.51,
tenemos que
[T
1
T]
= [T
1
]
[T]
.
Ahora bien, como hemos convenido, [T
1
T]
= [T
1
T]
. Ademas T
1
T =
1
V
as que, por el Teorema 4.53,
[T
1
T]
= [1
V
]
= I
n
.
Combinando las igualdades anteriores, tenemos que
[T
1
]
[T]
= I
n
.
Ahora, como T T
1
= 1
W
, aplicando de nuevo los teoremas 4.51 y 4.53,
I
n
= [1
W
]
= [T T
1
]
= [T T
1
]
= [T]
[T
1
]
.
Por tanto [T]
[T
1
]
= [T
1
]
[T]
= I
n
. Esto prueba que la matriz [T]
i=1
B
ij
v
i
.
Notemos que z
j
V, para cada 1 j n. Ademas, por el Teorema 4.7,
existe solo una transformacion lineal U : W V tal que
U(w
j
) = z
j
4.15. TRANSFORMACIONES LINEALES INVERTIBLES 243
para cada 1 j n. Notemos que
[U(w
j
)]
=
_
_
_
_
_
B
1j
B
2j
.
.
.
B
nj
_
_
_
_
_
para cada 1 j n. Por tanto
[U]
= ([U(w
1
)]
[ [U(w
2
)]
[ [ [U(w
n
)]
)
=
_
_
_
_
_
B
11
B
12
B
1n
B
21
B
22
B
2n
.
.
.
.
.
.
.
.
.
B
n1
B
n2
B
nn
_
_
_
_
_
= B.
Esto es [U]
= [U T]
= [U]
[T]
= BA = I
n
= [1
V
]
y
[T U]
= [T U]
= [T]
[U]
= AB = I
n
= [1
W
]
.
De la primera serie de igualdades, deducimos que 1
V
y UT son dos transfor-
maciones lineales de V en V, que tienen asociadas la misma matriz. Como la
funcion que a cada transformacion lineal le asocia una matriz (con respecto a
un par de bases ordenadas, por supuesto) es un isomorsmo, necesariamente
U T = 1
V
. De manera similar tenemos que T U = 1
W
. Esto prueba que T
es invertible.
Corolario 4.57. Supongamos que V es un espacio vectorial, dimensional-
mente nito, sobre el campo F. Sean una base ordenada de V y T
/(V, V ). Entonces T es invertible si y solo si [T]
es invertible. Ademas
[T]
1
= [T
1
]
.
Lo que el corolario anterior indica es que, en el algebra lineal /(V, V ),
si un elemento T /(V, V ) admite un neutro multiplicativo, entonces la
matriz [T]
M
nn
(F) asociada a T, con respecto a la base ordenada ,
tambien admite un neutro multiplicativo. Ademas dice que la imagen del
neutro multiplicativo de T, es el neutro multiplicativo de [T]
. Notemos que,
244 CAP
= v
1
, v
2
, . . . , v
la matriz asociada a 1
V
,
con respecto a las bases
= ([1
V
(v
1
)]
[ [1
V
(v
2
)]
[ [ [1
V
(v
n
)]
) = ([v
1
]
[ [v
2
]
[ [ [v
n
]
).
Notemos que la matriz
A = ([v
1
]
[ [v
2
]
[ [ [v
n
]
)
es la que se muestra en el Teorema 4.34 y se dene como la matriz de cambio
de base, de la base ordenada
= [1
V
(v)]
= [1
V
]
[v]
= A[v]
,
es decir [v]
= A[v]
son bases
246 CAP
y [T]
, co-
rrespondientes a las bases ordenadas y y a la bases ordenadas
,
respectivamente. Que relacion existe entre las matrices [T]
y [T]
?
Para responder la pregunta anterior, utilizaremos una buena parte de lo
estudiado en este captulo. Supongamos que dim(V ) = n y dim(W) = m.
Notemos que [T]
, [T]
M
mn
(F). Consideremos ahora la matriz Q
M
nn
(F) de cambio de base, de la base
a la base de V. Consideremos
tambien la matriz P M
mm
(F) de cambio de base, de la base
a la base
de W. Por lo que vimos en la subseccion anterior,
Q = [1
V
]
y P = [1
W
]
.
Tomemos un elemento v V. Utilizando la ecuacion (4.14.3) y el Teorema
4.51, tenemos que
[T]
Q[v]
= [T]
[1
V
]
[v]
= [T 1
V
]
[v]
= [T]
[v]
= [T(v)]
y
P[T]
[v]
= [1
W
]
[T]
[v]
= [1
W
T]
[v]
= [T]
[v]
= [T(v)]
.
Esto muestra que
[T]
Q[v]
= P[T]
[v]
Q y B = P[T]
. Entonces A, B
M
mn
(F). Sean T
A
, T
B
: F
n
F
m
las transformaciones lineales asociadas a
las matrices A y B, respectivamente. Mostraremos que T
A
(x) = T
B
(x), para
cada x F
n
. Para ver esto, tomemos un elemento x = (
1
,
2
, . . . ,
n
) F
n
.
Hagamos
= v
1
, v
2
, . . . , v
n
y consideremos el vector
v
=
1
v
1
+
2
v
n
+ +
n
v
n
.
Notemos que v
V y que
[v
=
_
_
_
_
_
2
.
.
.
n
_
_
_
_
_
= x.
4.16. CAMBIO DE COORDENADAS 247
Como la igualdad [T]
Q[v]
= P[T]
[v]
Qx = [T]
Q[v
= P[T]
[v
= Bx = T
B
(x).
Esto muestra que T
A
(x) = T
B
(x) para cada x F
n
. Por tanto T
A
= T
B
.
En terminos de la funcion H: M
mn
(F) /(F
n
, F
m
), que a cada matriz
le asigna su transformacion lineal asociada, tenemos que H(A) = H(B).
Como H es un isomorsmo (Teorema 4.44), en particular H es una funcion
inyectiva. Por tanto A = B. Luego
[T]
Q = P[T]
. (4.16.1)
Ahora bien, P es una matriz invertible pues P es una matriz de cambio de
base. Por tanto, en la igualdad anterior, podemos multiplicar por P
1
por la
izquierda y obtener que
P
1
([T]
Q) = P
1
(P[T]
) = (P
1
P)[T]
.
Por consiguiente
P
1
[T]
Q = [T]
. (4.16.2)
La igualdad (4.16.2) indica que si conocemos la matriz [T]
entonces, mul-
tiplicandola por la derecha por Q y por la izquierda por P
1
, obtenemos la
matriz [T]
= P[T]
Q
1
. (4.16.3)
Esta igualdad nos dice que si conocemos la matriz [T]
entonces multi-
plicandola por la derecha por Q
1
y por la izquierda por P, obtenemos la
matriz [T]
y [T]
a la base ;
4) Q = [1
V
]
a la base .
Si T : V W es una transformacion lineal, entonces
[T]
= P[T]
Q
1
y [T]
= P
1
[T]
Q. (4.16.4)
Como caso particular del teorema anterior, supongamos que V = W,
= y
. Entonces P = Q, [T]
= [T]
= [T]
y [T]
= [T]
= [T]
.
Por tanto, el teorema anterior posee la siguiente formulaci on.
Teorema 4.60. Supongamos que V es un espacio vectorial, dimensional-
mente nito, sobre el campo F. Supongamos que
1) y
a la base .
Si T : V V es una transformacion lineal, entonces
[T]
= Q[T]
Q
1
y [T]
= Q
1
[T]
Q. (4.16.5)
Supongamos ahora que V es como en el teorema anterior y que
= v
1
, v
2
, . . . , v
n
y
= v
1
, v
n
, . . . , v
es la matriz
de cambio de base, de la base
i
, para cada i = 1, 2, . . . , n.
Entonces
[U]
= [U]
= ([U(v
1
)]
[ [U(v
2
)]
[ [ [U(v
n
)]
)
= ([v
1
]
[ [[v
2
]
[ [ [[v
n
]
) = [1
V
]
= Q.
Esto prueba que Q = [U]
dice que
4.16. CAMBIO DE COORDENADAS 249
(*) la matriz de cambio de base, de la base ordenada
a la base ordenada
de V, coincide con la matriz asociada, en la base , de la unica
transformacion lineal que manda la base en la base
, respetando el
orden impuesto en dichas bases.
As pues, para calcular la matriz de cambio de base, de la base ordenada
o
bien primero encontramos la transformacion lineal U : V V que manda
la base en la base
.
Como Q = [U]
= Q
1
[T]
Q = [U]
1
[T]
[U]
.
Utilizando los corolarios 4.52 y 4.57, tenemos que
[U]
1
[T]
[U]
= [U
1
]
[T]
[U]
= [U
1
T U]
.
Por tanto
[T]
= [U
1
T U]
.
La igualdad anterior puede ser utilizada para calcular la matriz [T]
. Para
obtenerla, debemos primero calcular la transformacion lineal U ya indicada.
Posteriormente debemos calcular U
1
as como la composicion U
1
T U,
la cual es una transformacion lineal de V en V. Una vez calculada dicha
composicion, debemos calcular ahora [U
1
T U]
. La matriz obtenida
sera [T]
.
Como tambien
[T]
= Q
1
[T]
Q,
si ya conocemos [T]
, podemos en su lugar
calcular primero la matriz Q de cambio de base, de la base
a la base .
Posteriormente debemos calcular la inversa de Q por la forma que estudiamos
en la Seccion 3.8. Una vez que tenemos calculadas Q y Q
1
, debemos calcular
el producto Q
1
[T]
.
El metodo mostrado en el parrafo anterior es, en general, mejor que el
indicado primero, pues el calculo de la inversa de una transformacion lineal
250 CAP
y [T]
= Q[T]
Q
1
y [T]
= Q
1
[T]
Q.
La siguiente denicion indica el nombre que se le da a la relacion anterior.
Denicion 4.61. Supongamos que A, B M
nn
(F). Decimos que B es
semejante a A sobre el campo F si existe una matriz invertible Q
M
nn
(F) tal que B = Q
1
AQ.
Como [T]
= Q
1
[T]
Q, la matriz [T]
y [T]
y [T]
no
son semejantes. En efecto, para que dos matrices sean semejantes, se requiere
que sean cuadradas y las matrices [T]
y [T]
y [T]
= P
1
[T]
Q.
La igualdad anterior nos permite denir una nueva relacion entre matrices
de orden m n. Si A, B M
mn
(F), diremos que A B si existen dos
matrices invertibles P M
mm
(F) y Q M
nn
(F) tales que B = P
1
AQ.
Siguiendo esencialmente las mismas ideas mostradas en la demostracion del
teorema anterior, se puede probar que es una relacion de equivalencia. Lo
anterior nos lleva a la siguiente denicion.
252 CAP
y [T]
y [T]
.
Como caso particular del problema planteado en el parrafo anterior,
podemos considerar que V = W. Entonces [T]
.
4.17. Ejercicios
1. Sea T : C
3
C
3
la unica transformacion lineal tal que
T(1, 0, 0) = (1, 0, i), T(0, 1, 0) = (0, 1, 1) y T(0, 0, 1) = (i, 1, 0).
Es T invertible? Justica tu respuesta.
2. Sea T : R
3
R
3
la tranformacion lineal denida, para (x
1
, x
2
, x
3
) R
3
,
como
T(x
1
, x
2
, x
3
) = (3x
1
, x
1
x
2
, 2x
1
+x
2
+x
3
).
Es T invertible? De serlo, encuentra una expresion para T
1
como
aquella que dene a T.
4.17. EJERCICIOS 253
3. Encuentra dos transformaciones lineales T, U : R
2
R
2
tales que
T U = 0 y U T ,= 0,
donde el smbolo 0 representa la transformacion lineal cero.
4. Supongamos que V es un espacio vectorial sobre el campo de los n umeros
complejos. Supongamos tambien que existe un isomorsmo T : V C
3
.
Sean v
1
, v
2
, v
3
, v
4
V tales que
T(v
1
) = (1, 0, i), T(v
2
) = (2, 1 +i, 0)
T(v
3
) = (1, 1, 1), T(v
4
) = (
2, i, 3).
a) Esta v
1
en el subespacio generado por v
2
y v
3
? Justica tu res-
puesta.
b) Supongamos que W
1
es el subespacio generado por v
1
y v
2
y que
W
2
es el subespacio generado por v
3
y v
4
. Cual es la interseccion
de W
1
y W
2
?
c) Encuentra una base del subespacio W de V generado por v
1
, v
2
, v
3
y v
4
.
5. Sea T : R
3
R
2
la transformacion lineal denida, para (x
1
, x
2
, x
3
)
R
3
, como
T(x
1
, x
2
, x
3
) = (x
1
+x
2
, 2x
3
x
1
).
a) Supongamos que es la base canonica de R
3
, ordenada en forma
natural, y que es la base canonica de R
2
, tambien ordenada en
forma natural. Cual es la matriz [T]
= v
1
, v
2
, v
3
y
= w
1
, w
2
, donde
v
1
= (1, 0, 1), v
2
= (1, 1, 1), v
3
= (1, 0, 0),
w
1
= (0, 1) y w
2
= (1, 0).
Verica que
son bases de R
3
y de R
2
, respectivamente.
Supongamos que dichas bases estan ordenadas, y que su orden
es el que se indico cuando escribimos sus elementos. Calcula la
matriz [T]
.
254 CAP
y [T]
.
b) Consideremos ahora la base ordenada = v
1
, v
2
de R
2
, donde
v
1
= (1, 2) y v
2
= (1, 1). Calcula la matriz [T]
.
c) Supongamos que I = 1
R
2 : R
2
R
2
es la transformacion lineal
identidad. Muestra que, para cada c R, la transformacion lineal
T cI es invertible.
d) Sea cualquier base ordenada de R
2
. Supongamos que
[T]
=
_
a b
c d
_
.
Prueba que bc ,= 0.
7. Supongamos que T : R
3
R
3
es una transformacion lineal tal que
[T]
=
_
_
1 2 1
0 1 1
1 3 4
_
_
,
donde es la base canonica de R
3
, ordenada en forma natural. En-
cuentra una base para Im(T), as como una base para Nuc(T).
8. Consideremos la transformacion lineal T : M
22
(R) P
2
(R) denida
como
T
_
a b
c d
_
= (a +b) + (2d)x +bx
2
.
Consideremos las bases canonicas
=
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
y = 1, x, x
2
.
9. Supongamos que V es el espacio vectorial de los n umeros complejos
sobre el campo R. Denamos T : V V como T(z) = z, donde z es
el conjugado de z V. Demuestra que T es una transformacion lineal.
Considera ahora la base ordenada = 1, i. Calcula [T]
. Demuestra
ahora que T no es una transformacion lineal, si consideramos que V
es el espacio vectorial de los n umeros complejos, sobre el campo de los
n umeros complejos.
10. Supongamos que F es un campo. Denamos
V =
__
a a +b
0 c
_
: a, b, c F
_
.
Notemos que V M
22
(F). Construye un isomorsmo entre V y F
3
.
11. Consideremos la transformacion lineal T : R
2
R
3
denida, para
(a
1
, a
2
) R
2
, como
T(a
1
, a
2
) = (3a
1
a
2
, 2a
1
+ 4a
2
, a
1
+a
2
).
Supongamos que y son las bases canonicas de R
2
y R
3
, respectiva-
mente, ordenadas en forma natural. Supongamos tambien que
son bases de R
2
y de R
3
, respectivamente.
Supongamos ahora que dichas bases se encuentran ordenadas, y
que su orden es el indicado cuando las escribimos.
b) Calcula las matrices A = [T]
y B = [T]
.
c) Calcula la matriz P de cambio de base, de la base
a la base .
d) Calcula la matriz Q de cambio de base, de la base
a la base .
e) Calcula P
1
.
f) Verica que B = P
1
AQ.
256 CAP