You are on page 1of 60

MATEM

ATICAS M

INIMAS PARA CIENCIA Y


ALTA TECNOLOG

IA
Tonatiuh Matos
(1) Departamento de Fsica, CINVESTAV
E-mail address, 1: tmatos@fis.cinvestav.mx
URL: http://www.fis.cinvestav.mx/~tmatos
A mi pasion: Ursula y Tiuh
1991 Mathematics Subject Classication. Curso de Matem aticas
Abstract. Curso de Matem aticas para estudiantes de ciencias exactas y tec-
nologa avanzada.
CHAPTER 1
ESTRUCTURAS ALGEBRAICAS B

ASICAS
La primera parte de nuestro estudio esta dedicada a las estructuras algebraicas.
En esta parte vamos a iniciar agregandole a los conjuntos operaciones. Primero una,
luego dos y as, varias operaciones. Cuando estas operaciones tienen determinadas
propiedades, estos conjuntos con operaciones denidas en el conjunto reciben difer-
entes nombres. Vamos a iniciar con la estructura mas simple, un conjunto mas una
operaci on, llamada semigrupo. Como esta estructura es tan pobre, (pero impor-
tante), la siguiente sera una estructura con una operaci on, pero con inverso y un
elemento especial, llamado identidad. A esta estructura se le llama grupo. De esta
forma, los conjuntos se van enriqueciendo con operaciones formando estructruas
cada vez mas ricas e interesantes. Luego agregaremos dos, tres y mas operaciones,
aunque aqu solo nos limitaremos a las estructuras mas conocidas y las mas usadas
en las ciencias exactas y en la ingeniera.
1. Grupos y Semigrupos
Los grupos han adquirido suma importancia en muchos campos de aplicacion
de las matematicas. En fsica y qumica la estructura de grupo es fundamental
tanto para entender las simetras en teoras de campo, en teoras de partculas
elementales, como para resolver ecuaciones diferenciales no lineales. Los grupos
son estructuras b asicas de las matematicas. Vamos a iniciar con la denicion de
semigrupo para a partir de esta denicion, dar la denicion de grupo.
Un grupo es un conjunto provisto de una operaci on con ciertas propiedades,
las cuales generalizan de forma abstracta operaciones que nos son familiares desde
ni nos para calcular con n umeros. Antes de denir un grupo, consideramos entonces
un concepto todava mas simple, el de semigrupo:
Definici on 1. Un semigrupo es un conjunto E provisto de una operaci on
binaria asociativa sobre E, se donota por (E, ).
El hecho que es una operaci on binaria sobre E signica que, siempre cuando
a, b A, entonces a b A. Veamos unos ejemplos:
Exemplo 1. Sea A = {f : A A} el conjunto de todos los mapeos del conjunto
A en s mismo, y consideramos la operaci on de composici on (concatenaci on)
entre mapeos, entonces (A, ) es un semigrupo. Observamos que (A, ) adem as
tiene un elemento especial: un elemento neutro, el mapeo identidad I
A
denido por
I
A
(x) = x para todo x A, pues, denitivamente I
A
f = f I
A
para cualquier
f A.
Notaci on 1. Si un semigrupo E tiene un elemento identidad, es decir, si
tiene un elemento e E tal que e a = a para todo a E, el semigrupo se llama
monoide.
1
2 1. ESTRUCTURAS ALGEBRAICAS B

ASICAS
Exemplo 2. Sea A un conjunto arbitrario (por ejemplo, de letras y cifras).
Una secuencia nita de elementos de A la llamamos una palabra sobre A, es decir,
una palabra tiene la forma (a
1
, a
2
, a
3
, ..., a
n
), con n 1, n natural, a
i
A para
todo i. El n umero n es llamado longitud de la palabra. Adicionalmente se considera
la palabra vaca, denotada por y denida como la secuencia de longitud cero (la
cual no contiene ning un elemento). Entonces el conjunto de palabras sobre A est a
dado por E = {(a
i
)
n
i=1
, n N, a
i
A para toda i = 1, ..., n} {}. Denimos
ahora la adici on de palabras como:
(a
1
, a
2
, a
3
, ..., a
k
) + (b
1
, b
2
, b
3
, ..., b
l
) = (a
1
, a
2
, a
3
, ..., a
k
, b
1
, b
2
, b
3
, ..., b
l
)
Es evidente que (E, +) es un semigrupo, llamado el semigrupo de las palabras, el
cual tiene importancia b asica en teoras de la computaci on. La adici on + aqui
denidida es claramente no conmutativa y tiene un elemento neutro: la palabra
vaca.
Con esto ya estamos listos para la denicion de grupo.
Definici on 2. Un grupo (E, ) es un semigrupo con elemento neutro y ele-
mentos inversos, es decir:
1) (E, ) es semigrupo
2) Existe e E tal que e a = a
3) Para todo a E existe x E tal que x a = e. A x se le denota por a
1
.
Notaci on 2. En caso de que la operaci on sea adem as conmutativa, (E, ) se
llama grupo Abeliano o grupo conmutativo.
Antes de considerar unos ejemplos de grupos, observamos los siguientes detalles
y propiedades elementales:
Comentario 1. Sea E grupo y a E. Seg un la denici on, existe x E tal que
x a = e, es decir, x es un inverso por la izquierda de a. Pero x a x = e x = x.
Por otro lado, existe y E tal que y x = e. Eso signica (y x)a x = y x, en
consecuencia e a x = e, entonces a x = e , es decir, x es a la vez inverso por
la derecha de a. El elemento x se llama inverso de a y se denota por a
1
.
Comentario 2. En un grupo:
* Para cada a E existe a
1
E tal que a
1
a = a a
1
= e, lo cual signica
que las ecuaciones x a = e y a x = e, con a E, x incognita, siempre se pueden
resolver.
* Para cada a E, su inverso a
1
es determinado de manera unica.
* El elemento neutro tambien es determinado de manera unica. Adem as, seg un
la denici on, el neutro primero es un neutro por la izquierda. Sin embargo, con
e a = a tenemos tambien a e = a (a
1
a) = (a a
1
) a = e a = a, as que, e
es a la vez un neutro por la derecha. En consecuencia:
* Para toda a E, se tiene que e a = a e = a.
* Para a, b, c E, a c = b c implica que a = b, lo cual es f acil de deducir.
* Para a, b E, (a b)
1
= b
1
a
1
, puesto que (b
1
a
1
) (a b) =
b
1
(a
1
a) b = e.
Ahora analizamos unos ejemplos :
Exemplo 3. (Z, +) el conjunto de los n umeros enteros con la suma ordinaria,
es un grupo abeliano. Su neutro es el n umero 0; para cada entero a, su inverso es
2. HOMOMORFISMOS 3
el n umero a. Asimismo, los n umeros racionales Q, los reales R, y los complejos
C, cada uno con la suma ordinaria, son grupos abelianos.
Exemplo 4. (Z, ), el conjunto de los enteros con el producto ordinario, es un
semigrupo conmutativo, cuyo neutro es el n umero 1. Sin embargo, no es un grupo,
puesto que para cualquier entero a diferente de 1, su inverso multiplicativo sera el
n umero a
1
=
1
a
, el cual no es entero y el 0 no tiene inverso.
Exemplo 5. El conjunto Q de los racionales, igualmente como el de los reales
R y el de los complejos C, con el producto ordinario , son semigrupos conmutativos
con el neutro 1, pero no son grupos. Eso se debe a que el n umero 0, el cual es el
neutro aditivo, no tiene inverso multiplicativo, puesto que
1
0
no es un n umero. Por
otro lado, es evidentemente que (Q \ {0}, ), (R \ {0}, ) y (C \ {0}, ) son grupos
abelianos.
Exemplo 6. Sea A un conjunto y F = {f : A A, biyectiva}, el conjunto
de los mapeos biyectivos de A en s mismo. Entonces (F, ) con la operaci on de
la composici on, es un grupo, en general este grupo no es abeliano. El neutro de
este grupo (su unidad) es el mapeo identico I
A
: A A denido por I
A
(x) = x
para toda x A. El elemento inverso para cada f F es el mapeo inverso f
1
,
cuya existencia est a asegurada para cualquier biyecci on. (F, ) se llama el grupo
de permutaciones del conjunto A, cada f F es llamado una permutaci on de A.
Ejercicio 1. .
1) Demuestre que Z
2
= ({1, 1}, ) es un grupo.
2) Sea el conjunto A = {a, b, c}. Dena un producto + en A de tal forma que
(A, +) sea un grupo.
3) Se puede denir + de tal forma que (A, +) sea abeliano?
Ejercicio 2. Sea O(n) = {O | O es matriz n n con O
T
= O
1
}. Demuestre
que este conjunto es un grupo con la multiplicaci on de matrices.
Ejercicio 3. Sea el conjunto SU(2) = {U | U es matriz 2 2 compleja
U =
_
a b
c d
_
, con d = a

y c = b

}, donde * signica complejo conjugado.


Demuestre que SU(2) es un grupo con el producto entre matrices. Observe que
det U = 1.
2. Homomorsmos
Las estructuras algebraicas suelen tener semejanzas entre ellas. Estas semejan-
zas se representan en matematicas utilizando el concepto de mapeos muy epeciales
llamados morsmo. Los morsmos nos sirven para relacionar conjuntos con estruc-
turas entre s, de tal forma que con estos morsmo, uno puede estudiar propiedades
de alg un conjunto usando otro, en donde estas propiedades sean mas simples de
entender. En esta secci on daremos solo la denicion de estos morsmos para grupos.
Definici on 3. Sean (E, ) y (F, ) grupos y f : E F. f se llama homo-
morsmo si f(a b) = f(a) f(b) para toda a, b E
Un homomorsmo se llama
monomorsmo si f es mapeo 1 1
epimorsmo si f es mapeo sobre
isomorsmo si f es biyectiva
automorsmo de E si f es isomosmo y f : E E.
4 1. ESTRUCTURAS ALGEBRAICAS B

ASICAS
Exemplo 7. Sea el conjunto Z
2
= {k
0
, k
1
} con el producto + denido por
k
0
+k
0
= k
0
, k
0
+k
1
= k
1
, k
1
+k
0
= k
1
y k
1
+k
1
= k
0
. Es f acil ver que (Z
2
, +) es
un grupo. Ahora tomemos la funci on f : Z
2
Z
2
, tal que f(k
0
) = 1 y f(k
1
) = 1.
Entonces se tiene que
f(k
0
+k
0
) = f(k
0
) = 1 = 1 1 = f(k
0
) f(k
0
)
f(k
0
+k
1
) = f(k
1
) = 1 = 1 (1) = f(k
0
) f(k
1
)
f(k
1
+k
0
) = f(k
1
) = 1 = (1) 1 = f(k
1
) f(k
0
)
f(k
1
+k
1
) = f(k
0
) = 1 = (1) (1) = f(k
1
) f(k
1
)
Por lo que f es un homomorsmo entre los grupos (Z
2
, +) y (Z
2
, ). Adem as es un
homomorsmo 1-1, por lo que es un monomorsmo, y es sobre, entonces tambien
es un epimorsmo, por lo que f es un isomorsmo entre estos dos grupos.
3. Subgrupos y Grupos cociente
Los subconjuntos de un conjunto A con estructura de grupo, no necesariamente
son grupos. Eso es facil verlo, ya que si, por ejemplo, un subconjunto de A no
contiene el neutro o no tiene los inversos de todos los elementos del subconjunto, este
no sera grupo. Sin embargo, si en este subconjunto se tiene tambien la estructura de
grupo con la misma operaci on binaria que el original, entonces se sigue la siguiente
denicion.
Definici on 4. Sea A B. Se dice que A es un subgrupo de (B, ) si (A, )
tambien es grupo, si (B, ) conserva el mismo elemento neutro de (A, )
Comentario 3. El producto del grupo (A, ) y (B, ) podran no ser el mismo,
si no lo especicamos as. Sin embargo, en este texto siempre sobre entenderemos
que ambos grupos conserven la misma operaci on binaria.
Notaci on 3. Si el conjunto A es subgrupo del conjunto B, lo vamos a denotar
como A
gr
B.
Ahora vamos a introducir un concepto muy importante en los grupos que de-
spues extederemos para los anillos, es el concepto de grupo cociente. Primero vamos
a introducir una ralacion de equivalencia en el grupo, con ella, el conjunto se separa
en clases de equivalencia formando el conjunto de las clases. Luego podemos denir
en ciertas ocaciones una operaci on en el conjunto de las clases y con este fomar de
nuevo un grupo. A este grupo lo llamaremos grupo cociente. Vamos a hacerlo
formalmente.
Definici on 5. Sea (E, ) grupo y H subgrupo de E es decir H
gr
E y sean
a, b E. La relaci on
H
se dene como
a
H
b a b
1
H
Lema 1.
H
es una relaci on de equivalencia.
Dem. 1. Chequemos que se cumple la denici on de relaci on de equivalencia.
1) e H porque H es subgrupo de E. Adem as si a H esto implica que
a
1
H por lo mismo. Se sigue que e H sii a a
1
H, esto implica que
a
H
a o sea
H
es reexiva.
2) Sean a
H
b, por denici on esto es sii a b
1
H. Por ser subgrupo se
sigue que (a b
1
)
1
H y esto es sii b a
1
H, lo que implica que b
H
a, es
decir
H
es simetrica.
3. SUBGRUPOS Y GRUPOS COCIENTE 5
3) Sean a
H
b y b
H
c. Esto implica que a b
1
H y b c
1
H. Pero H
es cerrado bajo , por lo que (a b
1
) (b c
1
) = a e c
1
= a c
1
H es decir
a
H
c, lo que implica que
H
es transitiva.
Corolario 1.
H
genera una descomposici on de E en clases de equivalencia.
Es decir E/
H
= {[a] | a E}.
Notaci on 4. Vamos a denotar a estas clases de equivalencia como: [a] =
not
k
a
y al conjunto de clases de equivalencia como: E/
H
=
not
K = {k
a
| a E}
Exemplo 8. Unos ejemplos muy interesantes son los siguientes:
1) k
e
= {b E | e
H
b e b
1
= b
1
H} = H
2) k
a
= {b E | a
H
b b a
1
= h H}
= {b E | b = ha} = {h a E | h H} =
not
H a
donde la ultima identidad es la notaci on que usaremos para este conjunto.
Para poder denir una estructura de grupo en el conjunto de las clases, es
necesario que el grupo original tenga una propiedad mas. Esta propiedad es la
siguiente.
Definici on 6. Un subgrupo H E tal que a H = H a para toda a E se
llama subgrupo normal de E.
Observemos primero que si el grupo original es abeliano, entonces todos su
subgrupos son normales. Pero si el grupo no es abeliano, hay que enteder con
cuidado la denicion anterior. El hecho de que a H = H a implica que si tomamos
el elemento a h, siendo h H, tiene que haber alg un elemento en h
1
H a, donde
h
1
no necesariamente es h
1
= h a, pero tal que a h = h
1
. Y viceversa, si tomamos
h a, entonces existe h
2
a H tal que h a = h
2
. Si siempre existen estos elementos
h
1
y h
2
para todo h H, el grupo es normal. Entonces podemos dar la estructura
de grupo al conjunto K de las clases usando la siguiente denicion:
Definici on 7. Sean k
a
, k
b
K clases de E generadas por
H
. Se dene el
producto
k
a
k
b
= {x y | x k
a
K, y k
b
K}
como el producto entre clases de equivalencia.
Con este producto se pueden denir a la vez una estructura de grupo en el
conjunto de las clases de equivalencia, usando la siguiente proposicion.
Proposici on 1. Sea E grupo y H un subgrupo normal de E. Sean k
a
K las
clases generadas por
H
con a E. Con el producto k
a
k
b
= k
ab
, se sigue que
(E/
H
, ) es grupo i.e. (K,) es un grupo.
Dem. 2. Chequemos que se cumple la denici on de grupo.
a)k
a
k
b
K ya que (H a) (H b) = H (a H) b = H H a b = H a b
(ya que H H = H), se sigue que. k
a
k
b
= k
ab
K
b)(k
a
k
b
) k
c
= (H a H b) H c = H a (H b H c)
c) k
e
K y es el neutro del grupo, ya quek
a
k
e
= k
ae
= k
a
d) k
a
k
a
1 = k
aa
1 = k
e

Notaci on 5. Al grupo K se le denota como K = E/H y se le llama el grupo
cociente de E por H.
El siguiente ejemplo nos dar a mayor claridad sobre las deniciones anteriores.
6 1. ESTRUCTURAS ALGEBRAICAS B

ASICAS
Exemplo 9. Sea (Z, +) y H = {2n | n Z}, el grupo de los enteros pares.
Entonces (H, +) es subgrupo normal de (Z, +). Veamos esto con detalle.
Observemos que la relaci on
H
para los elementos a, b Z es tal que si a
H
b,
se tiene que a +(b) H, lo cual implica que a b debe estar en H, es decir, debe
ser par. Pero esto solo pasa si ambos a y b son pares o ambos son impares. Vamos
a denir las clases de equivalencia de los pares y las clases de equivalencia de los
impares en los enteros como:
k
0
= {b Z | b
H
0} = H
k
1
= {b Z | b
H
1} = {2n + 1, n Z}
k
2
= H
es decir, K = {k
0
, k
1
}. Observemos que con la suma (el producto de grupo)
k
0
k
1
=
_
_
_
k
0
k
1
k
0
k
0
k
1
k
1
k
1
k
2
= k
0
(K, ) es un grupo. Pero ya habiamos visto en el ejemplo 7 que este grupo es
isomorfo a Z
2
, por lo que Z/H = Z
2
= Z/{2n | n Z}.
Ejercicio 4. Construir Z
3
= Z/multiplos de 3 y Z
4
= Z/multiplos de 4.
4. Anillos y Campos
Otras estructuras algebraicas de mucha importancia son los anillos y los cam-
pos. En esta secci on veremos la denicion de estos.
Definici on 8. Sea A conjunto y , + operaciones binarias sobre A es decir
: A A A y + : A A A.
A la triada (A, +, ) se le llama anillo si
1) (A, +) es grupo abeliano
2) (A, ) es semigrupo
3) + y son distributivos
Comentario 4. Explcitamente, un conjunto con las operaciones + y es un
anillo, si se cumple lo siguiente
1) Para toda a, b A, a +b A es asociativo.
2) Existe e tal que e + a = a +e = a para toda a A.A e tambien se le llama
el cero de A y se le denota por e = 0
3) Para toda a A existe a tal que a + (a) = 0
4) a +b = b +a para todos a, b A
5) a, b A, se sigue que a b A, es decir, el producto es asociativo
6) Para toda a, b, c A se tiene que el producto es distributivo por la izquierda
con la suma, es decir c (a +b) = c a +c b
7) Analogamente por la derecha, esto es (a +b) c = a c +b c
Exemplo 10. ({0}, +, ) es un anillo trivial
(Z, +, ) es el anillo de los enteros
(, +, ) es el anillo de los reales
Ejercicio 5. Demuestre que (Z, +, ) y (, +, ) son anillos.
5. IDEALES Y ANILLOS COCIENTE 7
Entre mas ricas sean las estructuras algebraicas, mas propiedades tienen. Ahora
veremos alg unas de las propiedades mas interesantes de los anillos.
Sea (A, +, ) anillo y 0 el neutro de la operaci on binaria +. Entonces se siguen
los siguientes lemas.
Lema 2. Para todo a A implica que a 0 = 0 a = 0
Dem. 3. Como a 0 = a (0 + 0) = a 0 + a 0, y 0 = (a 0) + a 0 =
(a 0) +a 0 +a 0, entonces 0 = a 0
Lema 3. (a) b = (a b) y a (b) = (a b)
Dem. 4. Ya que (a b) + (a) b = (a + (a)) b = 0 b = 0
Lema 4. (a) (b) = a b
Dem. 5. An alogo.
Las propiedades anteriores son bien conocidas en los n umeros reales, pero se
cumplen en cualquier anillo. Algunos de los tipos especiales de anillos mas usados
en la literatura son los siguientes
Sea (A, +, ) anillo
Definici on 9. Un anillo (A, +, ) se llama:
Anillo conmutativo, si es conmutativo
Anillo con unidad, si A tiene al menos 2 elementos y tiene elemento
neutro (llamado 1).
Anillo sin divisores de cero, si A tiene al menos 2 elementos y a = 0 y
b = 0 implica que a b = 0 para todos a, b A
Dominio integral, si A es anillo conmutativo, con unidad, sin divisores de
cero.
Campo si A es anillo sin divisores de cero cuyo semigrupo multiplicativo
(A\{0}, ) es grupo abeliano.
Semicampo si A es anillo sin divisores de cero cuyo semigrupo multiplicativo
(A\{0}, ) es grupo no abeliano.
Ejercicio 6. .
1) Exprese explcitamente todas la propiedades de un campo.
2) Demuestre que (Z, +, ), (Q, +, ), (, +, ), (C, +, ), son anillos conmutativos
con unidad sin divisores de cero.
3) Demuestre que (Q, +, ), (, +, ) y (C, +, ), son campos.
4) Demuestre que ({2n | n Z}, +, ) es anillo conmutativo sin unidad sin
divisores de cero.
De forma analoga a como denimos subgrupo, se puede denir subanillo.
Definici on 10. Sea E A. (E, +, ) es un subanillo de A, si E es anillo con
el mismo neutros multiplicativo y aditivo de A.
5. Ideales y Anillos Cociente
En una secci on anterior denimos los grupos cociente. Analogamente vamos a
denir ahora los anillos cociente y alg unas de sus propiedades mas interesantes.
Sean (A, +, ) anillo y (H, +, ) un subanillo de A. Claramente se tiene que
(H, +) tiene que ser subgrupo abeliano de (A, +). Pero si (H, +) es abeliano, esto
8 1. ESTRUCTURAS ALGEBRAICAS B

ASICAS
implica que (H, +) es un subgrupo normal de (A, +). Entonces podemos construir
(A, +)/
H
= A/H = K. Si k
a
, k
b
K, se tiene que
k
a
k
b
= {m+n | m k
a
, n k
b
} = k
a+b
Analogamente denimos en el semigrupo (H, )
k
a
k
b
= {m n | m k
a
, n k
b
}
= {m n | m H +a, n H +b}
= {(k
1
+a) (k
2
+b) = k
1
k
2
+k
1
b +a k
2
+a b, k
1
, k
2
H}
Proposici on 2. Sea (A, +, ) anillo y H A subanillo de A y sean a A y
h H. Entonces la triada (A/
H
, , ) es un anillo si a h H y h a H, con
k
a
k
b
= k
a+b
k
a
k
b
= k
ab
= {h +a b, h H} = H +ab
Ejercicio 7. Probar la proposici on formalmente.
Notaci on 6. Al anillo (A/H, +, ) se le llama anillo cociente y a H se le
llama un ideal en A.
Exemplo 11. Sea el anillo (Z, +, ). El conjunto H = ({3n | n Z}, +, ) es
un ideal de Z. Para ver esto, primero veamos que H es un subanillo de Z :
1) H es cerrado para la suma, ya que 3n + 3m = 3(n +m) H.
2) Con inversos, ya que (3n) = 3(n) H.
3) H es cerrado para el producto, ya que 3n 3m = 3(3nm) H.
Entonces H es subanillo de Z. Adem as: + y son asociativos. El neutro de la
suma es 0 = 3 0
Comentario 5. (H, +, ) es anillo conmutativo sin divisores de cero, pero no
tiene unidad, ya que (1 = 3n).
Exemplo 12. Ahora chequemos que H es ideal. Para ver esto, falta ver que el
producto de un elemento de H con cualquier elemento de Z pertenece a H. Pero
esto es asi, ya que (3n) m = 3(nm) H. Entonces Z
3
= (Z/H, +, ) es un
anillo cociente. Ahora veamos como se ve este anillo cociente. Los elementos k
a
se
pueden escribir como: a, b Z, a
H
b ssi a b H, es decir ssi a b es multiplo
de 3 y esto es ssi a y b dejan el mismo resto en sus divisores entre 3, es decir, si
a = 3l
1
+r, y b = 3l
2
+r. Entonces se tiene que,
k
0
= H
k
1
= {3n + 1 | n Z}
k
2
= {3n + 2 | n Z}
k
3n
= k
0
, k
3n+1
= k
1
, k
3n+2
= k
2
Si las operaciones entre las clases de equivalencia est an dadas por
k
a
k
b
= k
a+b
k
a
k
b
= k
ab
5. IDEALES Y ANILLOS COCIENTE 9
se tiene entonces que la suma y el producto est an dados respectivamente por
k
a
k
b
=
_

_
k
0
k
1
k
2
k
0
k
0
k
1
k
2
k
1
k
1
k
2
k
0
k
2
k
2
k
0
k
1
y
k
a
k
b
=
_

_
k
0
k
1
k
2
k
0
k
0
k
0
k
0
k
1
k
0
k
1
k
2
k
2
k
0
k
2
k
1
Por lo que H es un ideal.
Ejercicio 8. Respondan sin pruebas explicitas a las siguientes preguntas.
1) Cu ales de los anillos Z
2
, Z
3
, Z
4
no tienen divisores de cero?
2) Cu ales si tienen divisi on entre cero?
3) Cu ales son campos?
Ejercicio 9. Construya explicitamente los ideales de Z
4
CHAPTER 2
ESPACIOS VECTORIALES
Los espacios vectoriales son la estructura mas rica que vamos a ver aqu con
detalle. Los espacios vectoriales son tan importantes en fsica, qumica, ingeniera,
etc. que les vamos a dedicar un capitulo completo a ellos solos. Los espacios
vectoriales mas conocidos son los que se construyen sobre
n
. En este captulo
vamos a repasar estos espacios y despues vamos a generalizarlos a espacio vectoriales
arbitrarios. Estamos suponiendo que el lector esta familiarizado con
n
, pero para
iniciar el tema, vamos a dar un resumen de sus propiedades mas importantes.
1. El Espacio Vectorial
n
Resumen 1. Recordemos que el espacio vectorial
n
, o escrito explicitamente
(
n
, , +, ), es una estructura algebr aica, denida sobre los reales, tal que:
(, +, ) es un campo que con la operaci on + es grupo Abeliano, con neutro
0

y distributividad entre + y , y con la operacion , (\{0

}, ) es grupo Abeliano,
con neutro 1

sin divisores de cero: a = 0

, b = 0

a b = 0

(
n
, +, ) es espacio vectorial sobre (, +, ) tal que (
n
, +) son grupos
Abelianos con neutro 0

n
(
n
, ) es un mapeo de
n
en
n
(es un nuevo tipo de multiplicaci on);
es distributiva con + y asociativa con , es decir, si se tiene que, a, b , x, y
n
entonces:
a (x +y) = (a x) + (a y)
(a +b) x = (a x) + (b x)
(a b) x = a (b x)
tiene neutro representado por 1

y cumple que 1

x = x para todo x V.
En otras palabras, (
n
, , +, ) es un espacio vectorial sobre el campo (, +, ),
donde para x, y
n
, x = (x
1
, x
2
, , x
n
), y = (y
1
, y
2
, , y
n
) se tiene:
(1) x +y = (x
1
+y
1
, x
2
+y
2
, , x
n
+y
n
),
(2) 0

n = (0, 0, , 0),
(3) (x
1
, x
2
, , x
n
) = (x
1
, x
2
, , x
n
),
(4) es la multiplicaci on de escalares con vectores, para k , k
(x
1
, x
2
, , x
n
) = (k x
1
, k x
2
, , k x
n
).
Otros conceptos importantes a recordar de espacios vectoriales son:
Un subespacio vectorial H de
n
es un espacio vectorial tal que H
n
, y
(H, , +, ) mismo es un espacio vectorial.
La interpretaci on geometrica de un punto en
n
se suele dar de la forma
siguiente. Un punto x
n
es un vector de traslaci on, determinado por valor y
direcci on y representado por una echa.
Los Homomorsmos son mapeos lineales entre espacios vectoriales (
n
, , +, )
y (
m
, , +, ) sobre el mismo campo :
11
12 2. ESPACIOS VECTORIALES
Sean (
n
,
1
, +
1
,
1
) y (
m
,
1
, +
2
,
2
) espacios vectoriales y f :
n

m
una funci on entre estos espacios. f se llama homomorsmo si f(x+
1
y) = f(x) +
2
f(y) y f(a
1
x) = a
2
f(x), para cualesquiera x, y
n
, a . f se llama
isomorsmo si es homomorsmo y biyecci on.
Independencia y bases en (
n
, +, ) sobre el campo . Si X
n
, entonces
L(X) = {
m

i=1
a
i
x
i
| a
i
, x
1
, , x
m
elementos distintos de
n
, m N}
se llama cerradura lineal de X. L(X) es el subespacio m as peque no de
n
que
contiene a X. X se llama linealmente independiente si para cualesquiera ele-
mentos distintos x
1
, , x
m
de X,
0
V
=
m

i=1
a
i
x
i
con a
i
K implica a
1
= a
2
= = a
m
= 0
K
.
X se llama base de
n
si X es linealmente independiente y L(X) =
n
.
Cada espacio vectorial
n
tiene una base y cualesquiera dos bases tienen el
mismo n umero n de elementos. Este n umero n se llama dimensi on (vectorial)
de
n
. Por ejemplo dim(
n
) = n. La base canonica de
n
es
{(1, 0, , 0, 0), (0, 1, , 0, 0), , (0, 0, , 0, 1, 0), (0, 0, , 0, 1)}
Hasta aqu hemos recordado las propiedades mas importantes de
n
, en ade-
lante hablaremos de los espacios vectoriales en general.
2. Denicion de Espacio Vectorial
Los espacios vectoriales son de las estructuras algebraicas mas utilizadas en
todas las ramas de la ciencia. En fsica e ingeniera se utilizan intensamente para
modelar el espacio, las funciones periodicas, soluciones de ecuaciones lineales y
diferenciales, los polinomios, etc. Debido a su rica estructura algebraica, los espacios
vectoriales son tambien muy interesantes para estudiarse desde el punto de vista
matematico puro. En este capitulo estudiaremos los espacios vectoriales y sus
propiedades mas importantes. Empecemos entonces con su denicion.
Definici on 11. Sea (K, +, ) campo y V conjunto. Sean : V V V y
: K V V operaciones binarias asociativas y distributivas, i.e., se tiene que
para todo a, b K y x, y V .
a) (a b) x = a (b x)
b) (a +b) x = (a x) (b x).
c) a (x y) = (a x) (a y)
Un espacio vectorial es el ordenamiento (K, V, , ) tal que (V, ) es grupo
abeliano y la identidad 1
K
de K es tal que 1
K
x = x para toda x V .
El ejemplo mas conocido y mas utilizado por todos es sin duda el espacio
vectorial
n
. Sin embargo, un caso mas general se puede construir con el producto
cartesiano del campo sobre el que se dene el espacio vectorial.
Exemplo 13. Sea V = K
n
= K K K = {(a
1
, , a
n
) | a
i
K para
toda i = 1, , n}. Si x = (a
1
, , a
n
) y y = (b
1
, , b
n
), se pueden denir
la suma como x y = (a
1
+b
1
, , a
n
+ b
n
)
el producto como a x = (a a
1
, , a a
n
)
3. SUBESPACIOS VECTORIALES 13
entonces (V, ) es grupo abeliano con neutro 0
V
= (0, , 0) e inverso (x) =
(a
1
, , a
n
).
Uno de los espacios vectoriales mas usados y mas importantes que se utiliza en
todas las areas de la ingeniera, fsica, matematicas, etc. son los polinomios. Como
espacios vectoriales estos se pueden denir como seigue.
Exemplo 14. Sea P
n
= {a
0
+ a
1
x + a
2
x
2
+ + a
n
x
n
| a
i
K para todo
i = 1, , n} el conjunto de los polinomios sobre el campo K. Si se dene la
suma entre polinomios x, y P
n
, con x = a
0
+ a
1
x + a
2
x
2
+ + a
n
x
n
y
y = b
0
+b
1
x +b
2
x
2
+ +b
n
x
n
como:
x y = (a
0
+b
0
) + (a
1
+b
1
) x + + (a
n
+b
n
) x
n
el producto como
a x = a a
0
+a a
1
x + +a a
n
x
n
entonces (K, P
n
, , ) es un espacio vectoral.
Notaci on 7. En lo que sigue, generalmente vamos a denotar las operaciones
y en el espacio vectoral, simplemente como + y respectivemente y al espacio
vectorial simplemente como V .
Exemplo 15. El conjunto de funciones peri odicas F
p
, con la suma y el producto
de funciones, tambien es un espacio vectorial.
Ejercicio 10. Demuestre con todo detalle que K
n
es espacio vectorial.
Ejercicio 11. Sea P = {p(x) |polinomio de grado n}. Demuestre que P es un
espacio vectorial con las operaciones estandard entre polinomios.
Ejercicio 12. Sea H
1
= {h(t) | h(t) = a
1
cos(t) + a
2
cos
2
(t) + +
a
n
cos
n
(t)}. Demuestre que H
2
es un espacio vectorial con las operaciones es-
tandard entre polinomios.
Ejercicio 13. Sea H
2
= {h(t) | h(t) = a
1
cos(t) + a
2
cos(2t) + +
a
n
cos(nt)}. Demuestre que H
2
es un espacio vectorial con las operaciones es-
tandard entre polinomios.
3. Subespacios Vectoriales
En la misma forma como hemos denido subgrupos y subanillos, se puede
denir subespacios vectoriales. Este concepto sera el tema de esta secci on. Su
denicion formal es como sigue.
Definici on 12. Sea V un espacio vectorial sobre un campo K y H V. H es
un subespacio Vectorial de V, si H es espacio vectorial con las mism as opera-
ciones binarias.
Para demostrar que un espacio vectorial es subespacio de otro, afortunadamente
no es necesario probar todas las propiedades de espacio vectorial del subconjunto,
es suciente con ver que las dos operaciones del subconjunto son cerradas, esto
es debido a que las operaciones ya cumplen con todas las propiedades de espacio
vectorial de entrada. Esta propiedad la enunciaremos como el siguiente lema.
14 2. ESPACIOS VECTORIALES
Lema 5. Sea V espacio vectorial sobre un campo K y H V . H es subespacio
Vectorial de V si
1) Para todos h
1
, h
2
H implica que h
1
+h
2
H
2) Para todos a K, h H implica que a h H
Dem. 6. Se cumplen todas las propiedades de espacio vectorial.
Exemplo 16. Sea el plano
2
y H
1
= {(a, b)
2
| b = ma} con m
una recta que pasa por el origen. Veamos que una recta que pasa por el origen
es subespacio vectorial del plano. Usemos el lema anterior. Entonces (a
1
, b
1
) +
(a
2
, b
2
) = (a
1
+ a
2
, ma
1
+ ma
2
) = (a
1
+ a
2
, m(a
1
+ a
2
)) H
1
. Es decir, es
cerrado para la suma. Por otro lado se tiene que a (a
1
, b
2
) = (a a
1
, a b
1
) =
(a a
1
, a (m a
1
)) = (a a
1
, m (a a
1
)) H
1
, por lo que la recta tambien es cerrada
para el producto. Entonces esta recta es un subespacio de
2
.
Exemplo 17. Sea H
2
= {(a, b)
2
| b = ma + n}, con m, n pero
m n = 0 una recta que no pasa por el origen. Es H
2

2
un subespacio vectorial
del plano? Veamos esto, si (a
1
, b
1
) + (a
2
, b
2
) = (a
1
+ a
2
, m(a
1
+ a
2
) + 2n) / H
2
,
este punto no est a en la misma recta. Entonces una recta que no pasa por el origen
no es subespacio vectorial de plano.
Exemplo 18. Sea H
3
= {(a, b)
2
| b = na} Es H
1
H
3

2
un subespacio
vectorial del plano? Para ver esto, sean x
1
= (a
1
, b
1
) H
1
y x
2
= (a
2
, b
2
) H
3
,
entonces se tiene que x
1
+ x
2
= (a
1
+ a
2
, ma
1
+ na
2
) / H
1
H
3
, el cual no est a
en la uni on. Por lo tanto H
1
H
3
no es subespacio vectorial del plano.
Generalmente la union de espacios vectoriales no siempre es un espacio vecto-
rial, pero la interseccion s, ya que si
1) x, y H
1
H
2
esto implica que x, y H
1
y x, y H
2
y esto implica que
x +y H
1
H
2
2) a K y x H
1
H
2
esto implica que a x H
1
y a x H
2
esto implica
que a x H
1
H
2
Entonces podemos escribir el siguiente
Lema 6. La intersecci on de espacios vectoriales, es espacio vectorial.
Ejercicio 14. Digan si el plano P
1
= {(x, y, z) | 3x +2y 3z = 0} y el plano
P
2
= {(x, y, z) | 3x + 2y 3z = 1} son subespacios de
3
.
4. Homomorsmos
Los homomorsmos son una herramienta de mucha ayuda en espacios vectori-
ales. Para estudiar las propiedades de espacio vectorial, el espacio
n
es sin duda
el mas estudiado y el mas simple. Basta entonces relacionar todos los espacios
homomorfos e isomorfos con el plano n-dimensional para haberlos estudiado todos.
Pero la sorpresa es que todos los espacios vectoriales de la misma dimensi on, son
isomorfos. Esta es la raz on por cual el plano n-dimensional es tan interesante. Para
ver esto, iniciemos con la siguiente denicion:
Definici on 13. Sean (V
1
, , +
1
,
1
) y (V
2
, , +
2
,
2
) espacios vectoriales sobre
K. Un homomorsmo entre V
1
y V
2
es un mapeo que preserva las operaciones, es
decir f : V
1
V
2
se llama homomorsmo si
f(x +
1
y) = f(x) +
2
f(y)
f(a
1
x) = a
2
f(x) para toda x, y V
1
y a K
4. HOMOMORFISMOS 15
Como siempre, f se llama:
isomorsmo, si f es homomorsmo y biyecci on
automosmo, si f es homomorsmo y V
1
= V
2
Notaci on 8. Dos espacios vectoriales se llaman isomorfos, si existe un
isomorsmo entre ellos, se escribe V
1

= V
2
Un ejemplo sencillo e ilustrativo usando planos n-dimensionales es el siguiente.
Exemplo 19. Sea V
1
=
n
, y V
2
=
n+1
. El mapeo f :
n

n+1
tal que
f((a
1,
, a
n
)) = (a
1,
, a
n
, 0) es un homomorsmo 1 1 pero no sobre, ya que
ning un (a
1
. , a
n
, a
n+1
) con a
n+1
= 0 es imagen de alg un x
n
.
Algunas de las propiedades generales de los homomorsmos es que estos mapean
el cero en el cero y los inversos en los inversos, veamos esto.
Comentario 6. Sean V
1
y V
2
espacios vectoriales y f : V
1
V
2
un homo-
morsmo entre ellos, entonces
f(0
V1
) = 0
V2
, ya que f(0 x) = 0 f(x)
f(x) = f(x) para toda x V
1
ya que f(x x) = f(x) +f(x)
Otra propiedad importante de los espacios vectoriales, es que bajo homomor-
smos se conservan las propiedades de subespacio, esto es
Comentario 7. f(V
1
) es subespacio de V
2
.
Incluso si H es subespacio de V
1
, se tiene que f(H) es subespacio de V
2
, ya que
si x
2
, y
2
f(H), y a K, esto implica que existen x
1
, y
1
H con f(x
1
) = x
2
y
f(y
1
) = y
2
, tal que x
2
+y
2
= f(x
1
+y
1
) f(H) y a x
2
= f(a x
1
) f(H). Esto
da pie al siguiente
Lema 7. Sean V
1
y V
2
espacios vectoriales. Sea H V
1
y f : V
1
V
2
homomorsmo. Entonces f(H) V
2
Una relacion muy importante entre espacio vectoriales es la relacion de ser
isom orcos, esta relacion es una relacion de equivalencia y por tanto separa los
espacios vectoriales en clases de equivalencia en el conjunto de espacios vectoriales.
Esta separacion es muy importante porque al separar este espacio en clases, limita
el estudio de los espacios vectoriales a solo estudiar un representante de cada clase
de estos. Para esto tenemos el siguiente lema:
Lema 8. Sean V
1
, V
2
y V
3
espacios vectoriales y f : V
1
V
2
y g : V
2
V
3
isomorsmos. Entonces
a) f
1
es isomorsmo
b) f g es isomorsmo.
Ejercicio 15. Demostrar el lema.
Lema 9. Sean V
1
y V
2
espacios vectoriales. La relaci on V
1
V
2
sii V
1

= V
2
son isomorfos, es una relaci on de equivalencia.
Dem. 7. Veamos que cumple la denici on de relaci on de equivalenca.
1) V
1
V
1
, ya que la identidad en V
1
es un isomorsmo.
2) Si V
1
V
2
, si usamos la inversa del isomorsmos se tendra que V
2
V
1
.
3) Si V
1
V
2
y V
2
V
3
, usando la composici on de isomorsmo, tendremos
que V
1
V
3
.
16 2. ESPACIOS VECTORIALES
Ejercicio 16. Digan en que casos las siguientes funciones son homomosmos:
1.- f :
3

2
, tal que f((x, y, z)) = 2(x, y).
2.- f :
3

2
, tal que f((x, y, z)) = (x z, y +z).
3.- f :
2

2
, tal que f((x, y)) = (x
2
, y).
5. Independencia Lineal y Bases
El concepto de independencia lineal se basa en el simple hecho de c omo poder
escribir un conjunto de vectores en terminos del mnimo posible de vectores de otro
conjunto. La pregunta que est a detras de este concepto es cu al es el mnimo n umero
de vectores con el que yo puedo representar todos los vectores de alg un espacio o
subespacio vectorial? Entonces, el primer problema que tenemos, es encontrar este
n umero y luego encontrar un conjunto mnimo de vectores. Cuando esto se puede
hacer, podremos trabajar en muchas ocasiones solo con estos vectores, sin tomar
en cuenta todo el espacio. Vamos a iniciar con la siguiente denicion:
Definici on 14. Sea V espacio vectorial sobre el campo K y X V . En general
X no necesariamente subespacio vectorial de V . Un elemento de V de la forma
x =
m

i=1
a
i
x
i
, a
i
K, x, x
i
X todos distintos
se llama combinaci on lineal de los elementos x
1
, , x
m
de X.
Con esta denicion podemos construir un subespacio vectorial. Para eso de-
namos la cerradura lineal de un conjunto de vectores.
Definici on 15. Al conjunto de todas las combinaciones lineales de un con-
junto, es decir, al conjunto
L(X) := {x =
n

i=1
a
i
x
i
| a
i
K, x
i
X elementos distintos}
se le llama cerradura lineal de X
Lema 10. Sea V espacio vectorial y X V . L(X) es un subespacio de V .
Dem. 8. Sean x =

n
i=1
a
i
x
i
y y =

n
i=1
b
i
x
i
, con x
i
X y a
i
, b
i
K.
Entonces x + y =

n
i=1
a
i
x
i
+

n
i=1
b
i
x
i
=

n
i=1
(a
i
+ b
i
) x
i
L(X) ya que
a
i
+ b
i
K. Adem as a x = a

n
i=1
a
i
x
i
=

n
i=1
a a
i
x
i
L(X) ya que
a a
i
K. Entonces x +y y a x L(X) para todos los vectores x, y L(X), con
a K. Esto implica que L(X) es el subespacio mnimo de V que contiene a X.
Corolario 2. Sea V espacio vectorial y X V . Si X es subespacio de V, se
sigue entonces que L(X) = X.
Dem. 9. X L(X) ya que si x X, esto implica que x = a
1
x
1
+ +a
n
x
n
=
1 x L(X). Por otro lado, si x L(X), se tiene que x = a
1
x
1
+ +a
n
x
n
con
x
i
X y como X es subespacio, se sigue que a
1
x
1
+ +a
n
x
n
X.
Vamos a ver alg unos ejemplos de lo anterior.
Exemplo 20. .
a) H
1
= {(a, b)
2
| a, b , b = am} una recta que pasa por cero en
2
.
Se tiene:
L(H
1
) = {x = a
1
(a, am) | a, m, a
1
} = H
1
5. INDEPENDENCIA LINEAL Y BASES 17
b) H
2
= {(a, b)
2
| a, b , b = am+ n, m n = 0} una recta que no pasa
por el origen. Entonces:
L(H
2
) = {x = a
1
(a, am+n) | a
1
b, m, n }
= {x = (a
1
a, a
1
am+a
1
n) | a
1
, b, m, n } =
2
Por lo que, una recta que no pasa por el origen, no es un subespacio, genera
2
.
Con esto ya podemos introducir el concepto de independencia lineal.
Definici on 16. Sea V espacio vectorial sobre el campo K y X V un subcon-
junto arbitrario de V . X se llama linealmente independiente si para cualquiera
elementos distintos x
1
, x
2
, , x
n
X se tiene que 0
V
=

n
i=1
a
i
x
i
, a
i
K,
implica que necesariamente a
1
= a
2
= = a
n
= 0
K
.
X se llama linealmente dependiente si X no es linealmente independiente.
Es decir, si 0
V
=

n
i=1
a
i
x
i
implica que al menos un a
j
= 0. En tal caso 0
V
= a
j

x
j
+

n
i=1,i=j
a
i
x
i
de donde podemos despejar x
j
como x
j
= a
1
j

n
i=1,i=j
a
i
x
i
.
O sea, x
j
depende de todas los dem as vectores en forma lineal.
Notaci on 9. Cuando un conjunto de vectores sean linealmente independientes,
diremos que son l.i.
Al n umero minimo de vectores con los que podemos escribir todos los vectores
de alg un espacio o subespacio, se le llama base. Su denici on es como sigue.
Definici on 17. Sea V espacio vectorial sobre el campo K y X V . X se
llama base de V si
1) L(X) = V
2) X es linealmente independiente.
Esto es as ya que 1) asegura la representatividad de cada x V por combi-
nacion lineal de los elementos de X. Es decir, L(X) V implica que x L(X),
lo podemos escribir como x =

n
i=1
a
i
x
i
con cada x
i
X y cada a
i
K, pero
ademas x V. Por otro lado, V L(X) implica que si x V entonces x L(X),
esto es, x se puede escribir como x =

n
i=1
a
i
x
i
L(X) siempre.
2) asegura que la representacion es unica, ya que x =

n
i=1
a
i
x
i
y x =

n
i=1
b
i
x
i
, entonces x x = 0
V
=

n
i=1
(a
i
b
i
) x
i
lo que implica que a
i
= b
i
Vamos a ver un ejemplo muy representativo.
Exemplo 21. V = K
n
Si denimos
e
1
= (1
K
, 0
K
, , 0
K
)
e
2
= (0
K
, 1
K
, , 0
K
)
.
.
.
e
n
= (0
K
, 0
K
, , 1
K
) (5.1)
es una base en K
n
. Es decir, el conjunto E = {e
1
, , e
n
} genera todo el espacio
K
n
= L(E), ya que x = (a
1
, , a
n
) = a
1
e
1
+ +a
n
e
n
L(E). Por otro lado,
E es linealmente independiente, ya que 0
V
= a
1
e
1
+ +a
n
e
n
= (a
1
, , a
n
) =
(0
K
, , 0
K
) implica a
i
= 0, para toda i. Entonces K
n
siempre tiene una base. Al
conjunto (5.1) se le llama base can onica de K
n
y su dimensi on es n.
18 2. ESPACIOS VECTORIALES
Exemplo 22. Sea P
n
el espacio vectorial de los polinomios de grado n. En-
tonces, una base de P
n
es E
n
= {1, x, x
2
, , x
n
}. Claramente la dimensi on del
espacio P
n
es n + 1.
Exemplo 23. En el espacio de las funciones peri odicas F
p
, el conjunto E
p
=
{1, cos(), cos(2), cos(3), }, es una base de este espacio vectorial. La dimensi on
del espacio F
p
es innita.
En todo espacio vectorial es posible denir una base. La base canonica es, desde
muchos puntos de vista, la mas simple. Este hecho lo ponemos en el siguiente lema.
Lema 11. Todo espacio vectorial contiene una base.
La demostracion de este lema la dejaremos para libros mas especializados. A un
mas fuerte que este lema (y tambien enunciaremos sin demostracion), es el hecho
de que para todo espacio vectorial siempre existe una base de este y el n umero de
vectores de dos bases diferentes es siempre el mismo.
Proposici on 3. Sea V espacio vectorial sobre K y sean X V y Y V dos
bases de V . Si X es nito, implica que Y es nito y tiene el mismo n umero de
elementos que X.
En base a esta proposicion, es posible entonces hacer la siguiente denicion:
Definici on 18. La dimensi on de un espacio vectorial V es el n umero de ele-
mentos de la base de V .
Notaci on 10. La dimensi on de V se denota como dimV = n.
El concepto de dimensi on esta basado entonces en la existencia de un espacio
vectorial y por tanto, del n umero de vectores de su base. Vamos a ver algunos
ejemplos para dejar mas claro este concepto.
Exemplo 24. dimK
n
= n pues se necesitan n elementos {e
i
}
n
i=1
para repre-
sentar todo el espacio.
Exemplo 25. Sea H
1
= {(a, am)}
2
. Una base de H
1
es X = {(1, m)},
entonces se tiene que dimX = 1. Esto implica a su vez que dimH
1
= 1.
Exemplo 26. Sea V = {0
V
}, se tiene que dimV = 0
Ejercicio 17. Sean los planos del ejercicio 14. Encuentre una base vectorial
para el plano que es subespacio de
3
.
Ejercicio 18. Den una base para el espacio P del ejercicio 11.
Ejercicio 19. Den una base para el espacio H
1
del ejercicio 12 y otra para el
espacio H
2
del ejercicio 13.
Ejercicio 20. Demuestren que H
1
= H
2
. De una f ormula para representar las
bases de los dos conjuntos hasta n = 5.
6. Transformaciones Lineales
Los homomorsmos entre espacios vectoriales son de tal importancia, que in-
cluso reciben un nombre especial. En esta secci on veremos estos homomorsmos,
sus propiedades mas importantes y alg unos ejemplos representativos de homomor-
smos entre espacios vectoriales.
6. TRANSFORMACIONES LINEALES 19
Definici on 19. Sean V
1
y V
2
espacios vectoriales sobre el mismo campo K.
Se dene el conjunto Hom(V
1
, V
2
) = {f : V
1
V
2
| f es homomorsmo}
Notaci on 11. A los homomorsmo entre espacios vectoriales se les llama
transformaciones lineales o mapeos lineales y se denotan por L(V
1
, V
2
) :=
Hom(V
1
, V
2
)
Vamos a escribir explcitamente el concepto de transformaci on lineal. Sea f
L(V
1
, V
2
), esto implica que la suma y el producto en los espacios se conservan
bajo f, esto es f(x + y) = f(x) + f(y) para todos los vectores x, y V
1
y
f(k x) = k f(x) para todo k K, x V
2
. Si ahora tomamos como conjunto base
al conjuto de todas las transformaciones lineales, podemos introducir en L(V
1
, V
2
)
la estructura de espacio vectorial. Vamos a denir entonces la suma y el producto
como
(f g)(x) = f(x) +g(x)
(k f)(x) = k f(x) k K, x V
1
y observemos que (f g) L(V
1
, V
2
), ya que + est a denida en V
2
. As mismo
(k f) L(V
1
, V
2
) ya que est a denido en K V
2
V
2
. Entonces se tiene que
f g y kf son mapeos de V
1
en V
2
.

Este es un resultado muy importante, porque
con el tenemos el siguiente lema.
Lema 12. Sean V
1
y V
2
espacios vectoriales. Entonces (L(V
1
, V
2
), , , ) es
un espacio vectorial sobre K
Ejercicio 21. Demostrar el lema.
La pregunta que surge inmediatamente despues de denir los mapeos lineales, es
si la composicion de mapeos lineales es tambien lineal y forma un espacio vectorial.
Para ver esto, sean f L(V
1
, V
2
) y g L(V
2
, V
3
) y g f : V
1
V
3
Para ver si
g f L(V
1
, V
3
), hay que checar las propiedades de espacio vectorial, dado que
f y g son lineales. Sean x, y V
1
entonces la suma cumple con (g f)(x + y) =
g(f(x) + f(y)) = g f(x) + g f(y), por la propiedades de linearidad de ambas
funciones. Analogamente, sean x V
1
, k K, entonces (gf)(k x) = g(f(k x)) =
g(k f(x)) = k (g f)(x), por lo que ambas propiedades se cumplen.
Otro caso interesante es cuando ambos espacios, el de salida y el de llegada son
el mismo, i.e., cuando V
1
= V
2
= V , entonces, claramente L(V, V ) es un espacio
vectorial sobre K con las operaciones + y sobre V . Ademas, si f, g L(V, V )
implica que f g L(V, V ). Algunas propiedades de estos espacios son:
a) Sea k K, y f, g L(V, V ) entonces k (g f) = (k g) f = g (k f) ya
que para para toda x V se tiene que
[k (g f)](x) = k (g f)(x) = k g(f(x)) = (k g) (f(x)) = [(k g) f](x)
= g(k f(x)) = g((k f)(x)) = [g (k f)](x)
b) Como es asociativo para todo mapeo, entonces es asociativo para las
transfomaciones lineales.
c) (g +h) f = g f +h f es distributiva, para f, g, h L(V, V ).
b), c) y la cerradura para implican que (L(V, V ), +, ) es un anillo.
20 2. ESPACIOS VECTORIALES
7.

Algebras
La ultima estructura algebraica que veremos aqu es la de algebra. Las algebras
son mas ricas en estructura que los espacios vectoriales, ya que en estas se denen
tres operaciones binarias. Para denir las algebras usaremos el concepto de modulo.
Al igual que en los espacios vectoriales, los modulos se denen usando dos opera-
ciones binarias denidas en el conjunto con propiedades especiales. La denicion
de un modulo es la siguiente.
Definici on 20. Sea K anillo. (V, , ) se llama m odulo sobre K si:
1) (V, ) grupo abeliano
2) es mapeo de K V en V, y para toda a, b K, y para toda x, y V se
tiene:
a) (a b) x = a (b x) es asociativa,
b) a (x y) = (a x) (a y)
c) (a +b) x = (a x) (b x) son distributivos.
Es decir, un modulo consiste de un anillo K, de un grupo abeliano y de una
operaci on que combina elementos de K y V . Con este concepto es mas sencillo
denir algebra. Es mas, un espacio vectorial, es un modulo muy particular, se
tiene:
Corolario 3. Un m odulo (V, , ) es un espacio vectorial, si se cumple que:
a) K es un campo o semicampo.
b) 1
K
x = x para toda x V.
Usando la denicion de modulo, podemos denir el concepto de algebra.
Definici on 21. Una estructura (A, +, , ) sobre K se llama algebra si
1) K es anillo conmutativo con unidad
2) (A, +, ) m odulo sobre K, con 1
K
x = x, para toda x A
3) es mapeo de A A en A con las propiedades
a) k (x y) = (k x) y = x (k y) para toda k K x, y A
(asociatividad).
b) z(x+y) = zx+zy; (x+y)z = xz+yz, para todos x, y, z A
(distributividad).
Exemplo 27. Sea V espacio vectorial sobre el campo K, x V y k K.
L = (L(V, V ), +, , ) es un algebra sobre el campo K con las siguientes operaciones
en L(V, V ).
+ : L(V, V ) L(V, V ) L(V, V )
(f, g) (f +g)(x) = f(x) +g(x),
: K L(V, V ) L(V, V )
(k, g) (k f)(x) = k f(x),
: L(V, V ) L(V, V ) L(V, V )
(f, g) (f g)(x) = f(g(x)).
para todas las f, g L(V, V ).
Corolario 4. L es una algebra asociativa ( es asociativa), no-conmutativa
( no es conmutativa), con unidad ( tiene unidad, el mapeo identidad).
7.

ALGEBRAS 21
Exemplo 28. Sea K campo y
_
K
3
, +,
_
su espacio vectorial asociado. En-
tonces el espacio vectorial K
3
, con el producto cruz entre vectores denido por:
x y = (a
2
b
3
a
3
b
2
, a
3
b
1
a
1
b
3
, a
1
b
2
a
2
b
1
) para x = (a
1
, a
2
, a
3
), y =
(b
1
, b
2
, b
3
), es un algebra no conmutativa, asociativa.
Ejercicio 22. Demostrar con todo detalle que
_
K
3
, +, ,
_
, donde es el
producto cruz entre vectores, es una algebra.
Ejercicio 23. Sea o(2) = {o | o es matriz 2 2 con o =
_
0 r
r 0
_
con
r }. Demuestre que este conjunto es una algebra con las operaciones de matrices.
Ejercicio 24. Sea su(2) = {u | u es matriz 2 2 con u =
_
r z
z

r
_
con
r y z n umero complejo}. Demuestre que este conjunto es una algebra con las
operaciones de matrices.
CHAPTER 3
MATRICES
1. Mapeos Lineales y Matrices
En esta secci on vamos a introducir los arreglos matriciales. Las matrices son
arreglos que se usan en muchas areas de la fsica, qumica, las matematicas, la
computacion, etc. Muchas cantidades en todas estas areas son arreglos que pueden
ser representados como matrices. El uso mas importante que se le ha dado a las
matrices es porque los sistemas de ecuaciones lineales pueden ser representados
en forma matricial, y las matrices son una herramienta perfecta para ayudar a
resolverlos. Una matriz puede ser denida por s misma, sin necesidad de ser basada
en otras deniciones. La existencia de estos arreglos es independiente del algebra
lineal, sin embargo nosotros les daremos un sentido muy claro introduciendolos
como representaciones naturales de los mapeos lineales. Con esta analoga sera mas
facil introducir despues conceptos que se usan en matrices como rango, dimensi on,
etc. Iniciemos entonces con este concepto.
Sean V
1
y V
2
espacios vectoriales de dimensi on nita bajo un campo K, tal
que dimV
1
= m y dimV
2
= n, entonces existen bases tales que {x
1
, x
2
, , x
m
}
es base de V
1
y {y
1
, y
2
, , y
n
} es base de V
2
. Sea f L(V
1
, V
2
) con x V
1
y
f(x) = y V
2
, con
x =
m

j=1
a
j
x
j
siendo, ademas, la representacion unica de x en esa base, con a
j
K para todo
j = 1, , m. Si mapeamos linealmente al elemento x al espacio vectorial V
2
,
encontramos que
(1.1) f(x) =
m

j=1
a
j
f(x
j
).
Por otro lado, tambien y =

n
i=1
b
i
y
i
tiene una representacion unica en V
2
en terminos de los n umeros b
i
K con i = 1, ., n. Como esta representacion
es unica, se tiene entonces que hay una relacion directa entre los n umeros a
j
y b
i
.
Para ver esta relacion, mapeamos linealmente el elemento base x
k
al espacio V
2
. Se
tiene que f(x
k
) V
2
entonces
(1.2) f(x
k
) =
n

i=1
c
ik
y
i
En terminos de estos n umeros c
ik
K podemos escribir el elemento x susti-
tuyendo la expresion (1.2) en (1.1), se obtiene
23
24 3. MATRICES
f(x) =
m

j=1
a
j
_
n

i=1
c
ij
y
i
_
=
n

i=1
b
i
y
i
= y
= a
1
_
n

i=1
c
i1
y
i
_
+a
2
_
n

i=1
c
i2
y
i
_
+ +a
m
_
n

i=1
c
im
y
i
_
=
n

i=1
m

j=1
a
j
c
ij
y
i
=
_
_
m

j=1
a
j
c
1j
_
_
y
1
+
_
_
m

j=1
a
j
c
2j
_
_
y
2
+ +
_
_
m

j=1
a
j
c
nj
_
_
y
n
= b
1
y
1
+b
2
y
2
+ +b
n
y
n
,
pero como la representacion es unica, se debe tener que b
i
=

m
j=1
c
ij
a
j
, es decir,
los coecientes de y son totalmente determinados por los coecientes de a
k
y los
coecientes c
ik
K. Estos coecientes c
ik
los podemos ordenar en la forma mas
conveniente
C =
_
_
_
_
_
c
11
c
12
c
1m
c
21
c
22
c
2m
.
.
.
c
n1
c
n2
c
nm
_
_
_
_
_
y se llama matriz asocidada al mapeo f L(V
1
, V
2
). Noten que estos coecientes
dependen fuertemente de las bases usadas, pero cada par de bases en V
1
y V
2
jan
y determinan unicamente el arreglo (matriz) C, del tipo C = (c
ik
)
k=1m
i=1n
, del
tipo (n, m), (n renglones o lneas y m columnas). Analogamente, cada matriz C
determina unicamente el mapeo f L(V
1
, V
2
). Por eso vamos a describir mapeos
lineales con matrices y vamos a asocior a cada matriz un mapeo lineal.
Si escribimos
x =
_
_
_
_
_
a
1
a
2
.
.
.
a
m
_
_
_
_
_
y y =
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
entonces Cx = y y f(x) = y corresponden a la aplicacion del mepeo lineal f
a x, siendo ambas expresiones equivalentes. Transportemos las operaciones entre
mapeos a operaciones entre matrices. Vamos a ver esto con detalle.
Sean f, g L(V
1
, V
2
), k K y x V
1
, tal que
x =
_
_
_
a
1
.
.
.
a
m
_
_
_,
Entonces se tiene:
1.- La suma de mapeos se traduce a la suma de matrices, es decir (f +g)(x) =
f(x) + g(x), si a f corresponde la matriz C y a g la matriz D, se tiene que a
f + g corresponde a la matriz C + D. (C + D)(x) = Cx + Dx con la suma entre
matrices dada por (C +D) = c
ij
+d
ij
, donde c
kj
y d
ij
son los coecientes de C y
D repectivamente.
2. ISOMORFISMOS 25
2.- Al producto de un n umero por el mapeo lineal, corresponde el producto de
un n umero por la matriz que representa al mapeo de la forma (kf)(x) = k f(x).
Si B corresponde a (kf), entonces Bx = k Cx con el producto dado por b
ij
= kc
ij
3.- Sean f L(V
1
, V
2
) y g L(V
2
, V
3
), esto implica que g f L(V
1
, V
3
). A la
composicion de mapeos corresponde el producto entre matrices, es decir (gf)(x) =
g(f(x)) corresponde a B C = D entre matrices, con d
ij
=

n
k=1
b
ik
c
kj
, donde b
ik
,
c
kj
y d
ij
son los coecientes de B, C y D repectivamente.
Ejercicio 25. Demuesten los puntos 1.-, 2.- y 3.- anteriores.
2. Isomorsmos
En esta secci on, trataremos particularmente con los mapeos lineales uno a uno
y sobre, los isomorsmo. Estos mapeos son muy importantes porque de ellos se
desprenden teoremas que pueden ser traducidos directamente a las matrices, que a
su vez se traducen en teoremas que serviran para resolver sistemas de ecuaciones
lineales. Estos sistemas son uno de los objetivos de este capitulo. Asi que veamos
las proposiciones correspondientes a isomorsmos. Empecemos por denir el Kernel
o n ucleo de un mapeo lineal. En lo que sigue V
1
y V
2
son espacios vectoriales sobre
un cuerpo K.
Definici on 22. Sea f L(V
1
, V
2
) (no necesariamente biyectiva). El n ucleo
de f es el conjunto ker f = {x V
1
| f(x) = 0
V2
}
Lema 13. Sea f L(V
1
, V
2
). Si ker f es subespacio vectorial de V
1
, entonces
f(V
1
) es subespacio vectorial de V
2
.
Ejercicio 26. Demostrar el lema.
El lema anterior es valido para cualquier mapeo. Si especializamos este lema a
los isomorsmos, se tiene este otro lema.
Lema 14. Sea f L(V
1
, V
2
). Si f es isomorsmo implica que ker f = {0
V1
}.
Dem. 10. Es claro que 0
V1
ker f, ya que f(0
V1
) = f(x x) = f(x)
f(x) = 0
V2
, con x V
1
. Por otro lado, cualquier elemento x ker f cumple con
f(x) = 0
V2
. Si hubiera un elemento x V
1
con x = 0
V1
tal que x ker f, entonces
f(x) = f(0
V1
) = 0
V2
, lo cual contradice que f es un mapeo inyectivo.
Comentario 8. Si el ker f = {0
V1
}, ya sabemos entonces que dimker f = 0
En lo que sigue vamos a ver una proposion que nos ayudar a a demostrar alg unos
resultados posteriores.
Proposici on 4. Sean V
1
y V
2
espacios vectoriales sobre el campo K. Sea
{x
1
, , x
m
} base de V
1
y sea f L(V
1
, V
2
).
i) Si f es sobre, implica que V
2
= L({f(x
1
), f(x
2
), , f(x
m
)})
ii) Si f es isomorsmo, implica que {f(x
1
), , f(x
m
)} es base de V
2
Dem. 11. Denotamos a M = {f(x
1
), , f(x
m
)}
i) : Sea y V
2
, f sobre implica que existe x V
1
, tal que f(x) = y, pero
x =

m
i=i
a
i
x
i
implica que y = f(x) =

m
i=i
a
i
f(x
i
) L(M).
: Sea y L(M) se tiene y =

m
i=i
a
i
f(x
i
) V
2
pues V
2
es espacio vectorial.
ii) En particular f sobre implica que V
2
= L(M), ya que M V
2
. Demostremos
que M es linealmente independiente. Sea 0
V2
=

r
i=i
a
i
y
i
con elementos distintos
26 3. MATRICES
y
1
, , y
r
, de M, con r m. f sobre implica que existe x
i
V
1
tal que y
i
= f(x
i
),
y f mapeo implica que los x
1
, , x
r
tambien son distintos (x
i
= x
j
implica f(x
i
) =
f(x
j
)). Entonces 0
V2
=

r
i=i
a
i
f(x
i
) = f(

r
i=1
a
i
x
i
), por lo que

r
i=1
a
i
x
i

ker f est a en el n ucleo de f. f uno a uno implica que 0
V1
=

r
i=1
a
i
x
i
es una
representacion del 0 en V
1
con distintos x
1
, , x
r
con r m. Pero {x
1
, , x
m
}
es una base, entonces se tiene que a
i
= 0 para toda i = 1, , r.
Corolario 5. Sea f L(V
1
, V
2
) con dimV
1
= n. Entonces f es isomorsmo
s y s olo s dimf(V
1
) = n
Dem. 12. f isomorsmo implica que f es 1-1 y sobre. Sea {x
1
, . . . , x
n
} una
base de V
1
. Entonces f(a
1
x
1
+ +a
n
x
n
) = a
1
f(x
1
)+ +a
n
f(x
n
) = 0 implica que
a
1
= = a
n
= 0, y como f es un isomorsmo, esto implica que f(x
1
), . . . , f(x
n
)
son todos diferentes y forman una base de f(V
1
), por lo que dimf(V
1
) = n.
El corolario anterior nos da un criterio para saber si un mapeo es isomorsmo o
no. Este criterio tambien lo podemos obtener usando otra denicion util para esto.
Definici on 23. El Rango de un mapeo lineal f L(V
1
, V
2
) se dene como
Rgf := dim f(V
1
)
Podemos traducir el corolario anterior a esta terminologa. Se tiene que f
es isomorsmo s y solo s Rgf = dimV
1
. El problema de saber si un mapeo es
isomorsmo o no, se reduce entonces a determinar el rango del mapeo. Vamos a
determinar Rgf. Para esto tenemos la siguiente proposicion.
Proposici on 5. Sea f L(V
1
, V
2
) y X una base de V
1
. Entonces el Rgf =
Rg(f(X)) = dimL(f(X)).
Dem. 13. Como X es base de V
1
, se tiene que si X = {x
1
, . . . , x
n
}, se sigue que
f(X) = {f(x
1
), . . . , f(x
n
)} existen al menos m < n elementos de f(X) que son l.i.,
es decir, dimf(X) = m. Sea u f(V
1
), implica que existe v = a
1
x
1
+ +a
n
x
n

V
1
, tal que u = f(v) = a
1
f(x
1
) + + a
n
f(x
n
), de donde aparecen al menos m
componentes diferentes en la suma. Por lo que dimf(V
1
) = m = dimf(X). De
aqui se sigue que Rgf = dimf(V
1
) = dimf(X). Tambien se tiene que L(f(X)) =
f(V
1
), entonces por denici on Rgf = dimf(V
1
) = dimL(f(X))
Aqu estamos usando de una manera analoga la denicion de rango del conjunto
de vectores M como Rg (M) := dimL(M), la dimensi on de la cubierta lineal.
Entonces, para saber el rango de una transformaci on, es suciente con determinar
el rango del conjunto de vectores de alg una base de V
1
.
Ahora vamos a mostrar un metodo para calcular el rango de f. Sea V espacio
vectorial sobre un campo K y M V . El metodo consiste en escribir la matriz
de representacion del mapeo. Como el rango del mapeo es el mismo que el de su
cubierta lineal, se tiene que Rg (M) = dimL(M) = n ya que L(M) es subespacio
de V . Entonces podemos escoger cualquier elemento de la cubierta, el rango sera
el mismo. Escojamos entonces un elemento de la cubierta que nos de una lectura
rapida del rango. Para poder escoger este elemento, observemos primero que existen
un conjunto de acciones posibles que no cambian al conjunto L(M), estas son:
a) intercambiar elementos de M.
b) multiplicar elementos de M por k K.
c) sumar m M a k x con k K, x M.
2. ISOMORFISMOS 27
d) eliminar un elemento m M con m = 0.
Llevando a cabo cualquiera de las acciones enumeradas arriba, el conjunto
L(M) seguira siendo el mismo. Estas acciones se pueden traducir a la matriz
correspondiente, estas serian:
a) Intercambiar renglones de la matriz de transformaci on.
b) Multiplicar renglones de la matriz por k K.
c) Sumar renglones por un m ultiplo de otro rengl on.
d) Eliminar un rengl on de la matriz igual a cero.
O hacer lo mismo cambiando la palabra rengl on por columna.
La receta, entonces, para encontrar el rengo de una transformaci on lineal, es
escribir la matriz de transfomacion y reducirla con estas operaciones, hasta ponerla
en una manera conveniente para poder leer su rango. Vamos a ver un ejemplos de
este proceso.
Exemplo 29. Sea f (
2
,
3
) y sea la base
{x
1
=
_
1
0
_
, x
2
=
_
0
1
_
}
2
{y
1
=
_
_
1
0
0
_
_
, y
2
=
_
_
0
1
0
_
_
, y
3
=
_
_
0
0
1
_
_
}
3
La transformaci on
f A =
_
_
2 1
1 3
1 0
_
_
es tal que f(x
k
) =
_
_
2 1
1 3
1 0
_
_
x
k
k = 1, 2, esto es, los elementos de la base se mapean como
f(
_
1
0
_
) =
_
_
2
1
1
_
_
y f(
_
0
1
_
) =
_
_
1
3
0
_
_
por lo que, cualquier elemento de
2
se leera en
3
como
f(
_
a
1
a
2
_
) = f(a
1
_
1
0
_
+a
2
_
0
1
_
) = a
1
_
_
2
1
1
_
_
+a
2
_
_
1
3
0
_
_
=
_
_
2 1
1 3
1 0
_
_
_
a
1
a
2
_
Este mismo proceso no cambia si usamos vectores rengl on en vez de vectores columna,
lo que se haga para cada columna es an alogo para cada rengl on. Ahora vamos a
reducir la matriz de representaci on utilizando las operaciones que enunciamos an-
teriormente. Vamos a indicar arriba o abajo de cada matriz la operaci on que se va
a efectuar para pasar a la siguiente matriz. Se tiene:
A =
_
_
2 1
1 3
1 0
_
_

2 +
_
_
1 2
3 1
0 1
_
_

_
_
1 0
3 5
0 1
_
_
+ 3/5

28 3. MATRICES
1/5
_
_
1 0
0 5
3/5 1
_
_

_
_
1 0
0 1
3/5 1/5
_
_
El rango de A es de hecho el n umero de columnas linealmente independientes de A.
Esto implica que Rg (A) = 2 y por tanto el rengo de f es tambien 2.
Ejercicio 27. Digan el rango de las siguientes transfomaciones lineales:
1.-
f(
_
1
0
_
) =
_
1
2
_
, f(
_
0
1
_
) =
_
1
1
_
2.-
f(
_
_
1
0
0
_
_
) =
_
_
1
2
1
_
_
, f(
_
_
0
1
0
_
_
) =
_
_
1
1
2
_
_
, f(
_
_
0
0
1
_
_
) =
_
_
0
1
0
_
_
3.-
f(
_
_
1
0
0
_
_
) =
_
_
1
2
1
_
_
, f(
_
_
0
1
0
_
_
) =
_
_
4
5
0
_
_
, f(
_
_
0
0
1
_
_
) =
_
_
2
1
2
_
_
Ejercicio 28. Encuentren el n ucleo de las siguientes transformaciones lin-
eales.
1.-
f(
_
_
1
0
0
_
_
) =
_
_
1
2
1
_
_
, f(
_
_
0
1
0
_
_
) =
_
_
1
1
2
_
_
, f(
_
_
0
0
1
_
_
) =
_
_
0
1
0
_
_
2.-
f(
_
_
1
0
0
_
_
) =
_
_
1
2
0
_
_
, f(
_
_
0
1
0
_
_
) =
_
_
1
1
1
_
_
, f(
_
_
0
0
1
_
_
) =
_
_
0
1
1
_
_
Ejercicio 29. Utilizando transformaciones de invariancia, reduzca las sigu-
ientes matrices a una forma diagonal.
1.-
_
1 2
4 5
_
2.-
_
_
1 2 1
4 5 0
2 0 2
_
_
3.-
_
_
1 2 1
4 5 0
2 1 2
_
_
4.-
_
_
_
_
1 2 1 1
4 5 0 1
2 1 2 2
2 4 2 1
_
_
_
_
3. ECUACIONES LINEALES 29
Ejercicio 30. Digan con solo ver las matrices diagonalizadas del ajercicio
anterior, cual es la dimensi on del n ucleo, el rango y cual de las tranformaciones es
biyectiva.
3. Ecuaciones Lineales
Todo lo aprendido hasta ahora en el capitulo de algebra lineal, lo vamos a
aplicar en la resolucion de sistem as de ecuaciones lineales. A partir de aqu usaremos
la matriz de representacion de un mapeo para representar al mapeo mismo. Sea
A L(V
1
, V
2
) con dimV
1
= m y dimV
2
= n. Sea A matriz del tipo (n, m) y sea
b V
2
. Usaremos aqu a la letra b para representar un vector conocido, esto nos
ayudar a para escribir el sistema de ecuaciones lineales con la notaci on estandard,
utilizada en la secci on anterior.
Problema 1. Resolver el sistema de ecuaciones lineales
a
11
l
1
+ +a
1m
l
m
= b
1
a
21
l
1
+ +a
2m
l
m
= b
2
.
.
.
.
.
.
a
n1
l
1
+ +a
nm
l
m
= b
n
(3.1)
en donde los n umeros l
i
K son desconocidos y los coecientes a
ij
y b
j
son cono-
cidos.
Observe que encontrar una solucion al sistema, es encontrar el conjunto de
n umeros l
i
K que hagan todas las identidades del sistema verdaderas. Vamos a
denir el conjunto de vectores {x, b} y la matriz A como
x =
_
_
_
l
1
.
.
.
l
m
_
_
_, b =
_
_
_
b
1
.
.
.
b
n
_
_
_ y A =
_
_
_
a
1n
a
1m
.
.
.
.
.
.
a
n1
a
nm
_
_
_
El problema Ax = b escrito explicitamente, se ve como en (3.1). Entonces el
problema que nos hemos planteado es equivalente al problema de trasfomaciones
lineales o matrices.
Problema 2. Encontrar x V , tal que Ax = b
A Ax = b se le llama ecuaci on lineal en x. De este problema surgen muchas
preguntas:
a) Cuantas soluciones hay?
b) La solucion es unicamente determinada?
c) Como escribir el conjunto de soluciones?
La existencia de una solucion lo podemos resolver con ayuda del siguiente lema.
Lema 15. Si representamos el mapeo f como A(V
1
) = L({Ax
1
, , Ax
m
}),
usando la base {x
1
, , x
m
} de V
1
, tenemos que Ax = b tienen soluci on sii b
L({Ax
1
, , Ax
m
}) y esto se cumple sii L({Ax
1
, , Ax
m
}) = L({Ax
1
, , Ax
m
, b}).
Dem. 14. De la proposici on 4 se sigue el resultado.
Esto implica la igualdad de la dimensi on de los dos espacios, es decir
Rg({Ax
1
, , Ax
m
}) = Rg ({Ax
1
, , Ax
m
, b})
30 3. MATRICES
Estos resultados quedaran mas claros con alg unos ejemplos.
Exemplo 30. Vamos a determinar si el sistema
4l
1
+ 5l
2
+ 6l
3
= 2
2l
1
+ 2l
2
+l
3
= 10
l
1
+l
2
+l
3
= 1
tiene soluciones. Hagamos
A =
_
_
4 5 6
2 2 1
1 1 1
_
_
y b =
_
_
2
10
1
_
_
entonces
Ae
1
=
_
_
4
2
1
_
_
, Ae
2
=
_
_
5
2
1
_
_
, Ae
3
=
_
_
6
1
1
_
_
Hay que determinar una base simple de L({Ae
1
, Ae
2
, Ae
3
}) para determinar
dimL({Ae
1
, Ae
2
, Ae
3
}) = Rg (A)
Ejercicio 31. Llevar la matriz A a su forma diagonal, usando las operaciones
invariates de la cerradura lineal.
_
_
4 2 1
5 2 1
6 1 1
_
_

_
_
1 0 0
0 1 0
0 0 1
_
_
Por lo tanto Rg (A) = Rg ({Ae
1
, Ae
2
, Ae
3
}) = 3, ademas b L({Ae
1
, Ae
2
, Ae
3
}) .
Es facil ver que L({Ae
1
, Ae
2
, Ae
3
, b}) = L({Ae
1
, Ae
2
, Ae
3
}) por lo tanto el sis-
tema tiene solucion.
Un metodo muy eciente para encontrar la solucion de un sistema de ecuaciones
lineales es el metodo de Gau-Jordan. El metodo se basa en las operaciones que
dejan invariante la cerradura lineal. Estas se traducen en las siguientes operaciones
en el sistema.
El sistema no cambia s
a) Se intercambian ecuaciones
b) Se multiplica una ecuaci on por una constante del campo diferente de cero.
c) Se suma un m ultiplo de una ecuaci on con otra.
d) Se elimina una ecuaci on de ceros.
Ejercicio 32. Resolver el sistema anterior usando el metodo de Gau-Jordan.
La solucion de un sistema sera unica s la matriz tiene propiedades muy espe-
ciales. Estas propiedades son importantes ya que en tal caso no solo sabremos que
la solucion existe, sino ademas cual es. Veamos.
Proposici on 6. Si

x es soluci on de Ax = b,

x est a unicamente determi-
nada s y s olo s A es mapeo uno a uno y s y s olo s ker A = {0
V1
}
Dem. 15. ) Sea

x unica. Sean x, y V
1
con Ax = Ay. Entonces
Ax Ay = 0
V2
, o sea A(x y) = 0
V2
. Como A

x = b, entonces se cumple
que A
_

x + (x y)
_
= A

x + A(x y) = b. Por lo que se tiene tambien que

x + x y es soluci on. Pero



x es unica, por lo que

x =

x + (x y), se sigue que
x = y. Implica entonces que A es uno a uno.
4. TRANSPUESTA E INVERSA DE MATRICES 31
) Sea A uno a uno,

x es soluci on y sea

x tambien soluci on. A

x = A

x = b.
Pero A uno a uno implica que

x =

x.
adem as A uno a uno implica que el ker A = {O
V2
} .
Ejercicio 33. Demostrar que A =
_
_
4 5 6
2 2 1
1 1 1
_
_
tiene una soluci on
unica.
Con estas proposiciones ya es entonces posible obtener la solucion del sistema
de ecuaciones. La solucion se construye usando la siguiente proposicion.
Proposici on 7. Sea

x una soluci on al sistema Ax = b. El conjunto de todas
las soluciones del sistema es {

x +h | h ker A} =
not

x + ker A.
Dem. 16. i) Sea y

x + ker A, esto implica que y =

x +h, con h ker A es
soluci on ya que A
_

x +h
_
= b + 0 = b.
ii) Sea y soluci on, entonces y =

x +
_
y

x
_
. S escribimos h = y

x, se
tiene que y =

x + h. Pero Ah = A
_
y

x
_
= Ay A

x = b b = 0. Por lo que
h ker A. Por lo tanto y

x + ker A.
En el caso de que el n ucleo de la transformaci on sea solo el conjunto con el
cero, se tiene que la transformaci on correspondiente es biyectiva. S olo en este caso
la solucion del sistema correspondiente es unica, ya que le podemos sumar a la
solucion solo el vector cero. En terminos del rango, esto quiere decir lo siguiente.
Proposici on 8. Sea A matriz del tipo (n, m). Supongamos que Ax = b tiene
soluci on

x, entonces

x es unicamente determinada s y s olo s Rg (A) = m.
Vamos a resumir todos los resultados sobre soluciones de un sistema de ecua-
ciones. Podemos poner los diferentes casos en una tabla como sigue.
Resumen 2. Sea A del tipo (n, m), con Ax = b sistema de ecuaciones. Se
tiene que
A matriz (n, m) Ax = b (inhomogeneo) Ax = 0 (homogeneo)
Rg (A, b) = Rg (A) no hay soluci on s olo la soluci on trivial

x = 0
Rg (A, b) = Rg (A) = r
r = m
soluci on unica s olo la soluci on trivial
r < m m as de una soluci on soluciones no triviales
4. Transpuesta e Inversa de Matrices
En esta secci on vamos a denir dos matrices derivadas de una matriz cualquiera,
la transpuesta y la inversa. Ambas son de mucha utilidad en problem as concre-
tos y seran utilizadas mas adelante, aqu daremos su denicion y alg unas de sus
propiedades mas importantes.
32 3. MATRICES
Definici on 24. Sea A matriz del tipo (n, m) . La transpuesta de A, es la
matriz A
T
tal que si
A =
_
_
_
a
11
a
1m
.
.
.
a
n1
a
nm
_
_
_ se tiene que A
T
=
_
_
_
a
11
a
n1
.
.
.
a
1m
a
nm
_
_
_
y es del tipo (m, n) , es decir, se cambian renglones por columnas.
Cuando calculamos el rango de una matriz, las operaciones que hacemos con
los renglones las podemos igualmente hacer con la columnas de la matriz, por lo
que si cambiamos renglones por columnas el rango no cambia. Por esta raz on se
sigue la siguiente proposicion
Proposici on 9. Rg (A) = Rg
_
A
T
_
Ejercicio 34. Probar la proposici on anterior.
La matriz tanspuesta tiene una serie de propiedades que la hacen muy intere-
sante, las mas iportantes las podemos resumir como sigue.
Propiedades de la transpuesta de Matrices.
1)
_
A
T
_
T
= A
2) (A B)
T
= B
T
A
T
3) (A +B)
T
= A
T
+B
T
4) Si x K, se cumple (x A)
T
= x A
T
Comentario 9. Como veremos m as adelante, las propiedades 1) y 2) se pare-
cen a propiedades analogas a las de la inversa de una matriz. Pero la transpuesta
siempre existe, la inversa no necesariamente.
Ahora veamos las propiedades de la inversa de matrices.
Definici on 25. La inversa de una matriz A(n, n) es la matriz A tal que
A A
1
= A
1
A =
_
_
_
1 0
.
.
.
0 1
_
_
_
Notaci on 12. De aqu en adelante usaremos a notaci on
I =
_
_
_
1 0
.
.
.
0 1
_
_
_
Las propiedades mas importantes de la inversa de una matriz se resumen en la
siguiente proposicion.
Proposici on 10. Sea A matriz del tipo (n, n)
Las siguientes condiciones son equivalentes.
1) Existe la matriz A
1
de tipo (n, n) tal que A
1
A = A A
1
= I
2) Sea f el mapeo correpondiente a A, entonces f es sobre
3) ker A = {0}
4) Rg (A) = n
5) El mapeo f correspondiente a A es uno a uno.
4. TRANSPUESTA E INVERSA DE MATRICES 33
Dem. 17. Para demostrar esta proposici on, vamos a demostrar del paso 1) al
5) y luego el 5) al 1).
1) 2): Sea f L(V
1
, V
2
) , tal que dimV
1
= dimV
2
= n. Sea y V
2
, tal que
y = Iy, con I la matriz identidad. Se sigue que y =
_
A A
1
_
y = A
_
A
1
y
_
.
Entonces s existe un x V
1
tal que Ax = y pues x = A
1
y.
2) 3): Esto se sigue del hecho que n = dimA(V
1
) + dimker A, entonces
dimker A = 0.
3) 4): Esto se sigue del hecho que Rg (A) = dimA(V
1
) = n
4) 5): Rg(A) = n implica que no existen columnas o renglones de ceros, esto
hace al mapeo correspondiente uno a uno.
5) 1): f uno-uno implica que existe f
1
, por tanto A
1
es la matriz asociada
a f
1
.
Ahora veremos un metodo para encontrar la inversa. De nuevo usamos las op-
eraciones invariantes de la cerradura lineal. Supongamos que A
1
existe y aplique-
mos el metodo de GauJordan a la matriz extendida (A, I), lo que debemos
obtener al nal es (I, A
1
), es decir
_
_
_
_
_
a
11
a
1n
.
.
. 1 0
.
.
.
.
.
.
.
.
.
a
n1
a
nn
.
.
. 0 1
_
_
_
_
_
pasos de

Gau-Jordan
_
A
.
.
. I
_
_
_
_
_
_
1 0
.
.
. a
1
11
a
1
1n
.
.
.
.
.
.
.
.
.
0 1
.
.
. a
1
n1
a
1
nn
_
_
_
_
_
_
I
.
.
. A
1
_
donde estamos usando la notaci on a
1
ij
= (a
ij
)
1
.
Definici on 26. Una matriz A del tipo (n, n) se llama regular s Rg(A) = n.
Se llama singular si Rg(A) = n.
Es decir, A regular implica que existe su inversa A
1
y ademas Rg (A) = n.
Comentario 10. Si A es regular la soluci on de Ax = b es x = A
1
b y es
unica.
Ejercicio 35. Sean las matrices
M =
_
_
1 1 2
2 3 1
1 1 0
_
_
N =
_
_
0 1 2
2 0 1
1 1 0
_
_
S =
_
_
1 1 2
2 2 2
1 1 0
_
_
Usando el metodo de Gau-Jordan, encuentre la inversa de M, N y S.
Ejercicio 36. Sean el vector
b =
_
_
1
1
2
_
_
34 3. MATRICES
Resuelva los sistem as Mx = 0, Nx = 0 y Sx = 0 asi como Mx = b, Nx = b
y Sx = b usando el metodo de Gau-Jordan y usando la inversa de las matrices
M y N. Diga cuantas soluciones tiene cada sistema.
CHAPTER 4
DETERMINANTES
1. Denicion
Al igual que los grupos y los anillos, el conjunto de las matrices puede separarse
en clases. Las matrices son objetos matematicos de cierta complejidad, es por eso
que es muy interesante analizar cantidades que sean invariantes en las diferentes
clases de las matrices. Como veremos mas adelante, los determinantes son canti-
dades invariantes en las clases y pertenecen al campo en donde se denieron las
matrices. Estas cantidades se le pueden asociar a las matrices cuadradas. Como
veremos en la siguiente secci on, los determinantes tambien son muy utiles para
calcular las soluciones de sistem as de ecuaciones lineales. Por ahora daremos su
denicion y alg unas de sus propiedades.
Sea A matriz cuadrada sobre el campo K del tipo (n, n), asociada al mapeo
lineal f L(V
1
, V
2
)
A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn
_
_
_
Definici on 27. Se asocia a A de manera unica, un n umero de K llamado el
determinante de A, denido como
det A =

a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn

P
(sgnP) a
1i1
a
2i2
a
nin
,
donde la suma se lleva a cabo sobre todas las posibles permutaciones
P =
_
1 2 n
i
1
i
2
i
n
_
de los n umeros 1, 2, , n.
Observemos entonces que la suma que calcula el determinante de la matriz
A, tiene n! terminos. El sgnP es el signo de la permutacion de P. Y como se
calculan los determinantes? El c alculo de los determinantes suele ser un proceso
muy largo y tedioso, sobre todo para matrices de dimensi on grande. Sin embargo
existen alg unos metodos para calcular el determinante que suelen ayudar y reducir
mucho el trabajo del c alculo. Para el caso de dimensiones bajas, n = 2, 3 se usa la
regla de Sarras. Aplicando la denicion de determinante para una matriz (2, 2),
se llega facilmente a la formula
det

a b
c d

= ad bc
35
36 4. DETERMINANTES
Para el caso de una matriz (3, 3) tambien existe una formula simple. De la
denicion de determinante se obtiene
det

a b c
d e f
g h i

= aei +bfg +cdh ceg bdi afh


Para n > 3 el ploblema se complica mucho y es conveniente usar el teorema
de Laplace, que consiste en lo siguiente. Para calcular el determinante de la matriz
A = (A)
j
= a
ij
que es (n, n), primero se calculan los determinantes

C
lk
, donde los

C
lk
son los subdeterminantes (n 1, n 1) generados por medio de quitar la l-esima
linea y la k-esima columna del det A, tal que det A =
n
i=1
a
ik
C
ik
=
n
i=1
a
ki
C
ki
para k {1, 2, , n}, donde los determinantes C
lk
= (1)
l+k

C
lk
se llaman los
cofactores de A, es decir
C
ik
= (1)
i+k

a
11
a
12
a
1k1
a
1k+1
a
1n
a
21
a
22
a
2k1
a
2k+1
a
2n
.
.
.
.
.
.
a
i1 1
a
i1 2
a
i1 n
a
i+1 1
a
i+1 2
a
1+1 n
.
.
.
.
.
.
a
n1
a
n2
a
nn

El teorema de Laplace consiste en reducir det A en n subdeterminantes


C
ik
de una dimensi on menor y despues aplicar la formula de Laplace det A =

n
i=1
a
i
k
C
i
k
. Entonces se aplica sucesivamente este proceso hasta llegar a un de-
terminante de 3 o 2 lineas, cuya formula es ya conocida. Por supuesto este proceso
puede llegar a ser muy largo para determinantes de dimensi on grande. Para calcular
estos determinantes, a veces ayudan otros metodos. A continuacion presentaremos
uno de ellos que es muy util para estos determinantes. Este metodo esta basado en
alg unas propiedades de los determinantes. Para explicar estas propiedades, escribi-
mos las lineas de det A como n -uplas o vectores {V
1
, V
2
, , V
n
}. Entonces det A
se puede ver como una funci on del conjunto de estos vectores, al campo K, es decir
D : {V
1
, V
2,
, V
n
} K , tal que D(V
1
, , V
n
) = det A, donde V
i
es la linea i
de A. Las propiedades del determinate en terminos de esta funci on son
1) D(V
1
, , V
i1
, V
i
, V
n
) = D(V
1
, , V
i
, V
i1
, , V
n
), intercambiar dos
lineas cambia el signo del determinante.
2)
a) Sea m K, entonces mD(V
1
, , V
i
, , V
n
) = D(V
1
, , mV
i
, , V
n
),
el producto del determinate por una constante es igual al producto de una linea
por la constante.
b) D(V
1
, , V
k
, , V
n
)+D(V
1
, , V
1
k
, , V
n
) = D(V
1
, , V
k
+V
1
k
, , V
n
),
la suma de dos determinantes con una k-esima linea diferente, es igual al determi-
nante de la matriz con la suma de las k-esimas lineas. Estas dos propiedasdes hacen
al determinante lineal en cada argumento, es decir, D es una funci on multilineal.
3) D(V
1
, V
n
) = 0 sii {V
1
, V
n
} son linealmente dependientes.
4) det A = det A
T
5) det (A B) = (det A) (det B) = det (B A)
1. DEFINICI

ON 37
El determinante es muy util para saber si una matriz es regular. Esto se logra
usando el siguiente lema.
Lema 16. Sea A matriz del tipo (n, n). A es regular s y s olo s det A = 0
Dem. 18. =) A regular implica que existe A
1
, entonces A A
1
= I, pero
det
_
A A
1
_
= (det A)
_
det A
1
_
. Como det I = 1, se sigue que (det A)
_
det A
1
_
=
1, por lo que det A = 0.
Ejercicio 37. Demuestre la otra direcci on =) del lema.
Corolario 6. A regular implica que det A
1
= (detA)
1
Existe un metodo muy usado para calcular la inversa de una matriz, usando
los cofactores. Para ver esto, primero denamos la matriz adjunta.
Definici on 28. La matriz adjunta se dene como
adj (A) = (adj (A))
ij
= C
ij
donde los C
ij
son los cofactores de la matriz A
Recordemos que el determinante de A se calcula como det A =
n
i=1
a
ik
C
ik
.
Vamos a introducir una proposicion, sin demostracion, que generaliza esta ultima
expresion.
Proposici on 11. Se puede generalizar la expresi on para detA como det A
kj
=

n
i=1
a
ik
C
ij
donde
kj
es la delta de Kronecker denida por

kj
=
_
1 si k = j
0 si k = j
la cual tambien puede ser representada por la matriz identidad I, i.e. (I)
kj
=
kj
Es por eso que en terminos de la matriz adjunta, el determinante se escribe
entonces como (det A) I =
n
i=1
a
ik
C
ij
= A(adj (A)). Esta ultima formula nos da
un metodo para calcular la inversa, esto es
A
1
= (det A)
1
(adj (A))
Finalmente, ya vimos que det A = 0 implica que A es regular y ademas que
Rg (A) = n. Entonces implica que existe una unica solucion del sistema Ax = b.
Existe tambien un metodo que usa determinantes para resolver este sistema. A
este metodo se le conoce como Teorema de Cramer, el cual enunciaremos aqu sin
demostracion.
Teorema 19. de Cramer. Sea A matriz de tipo (n, n) y Ax = b sistema de
ecuaciones lineales.
A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn
_
_
_ b =
_
_
_
b
1
.
.
.
b
n
_
_
_
si det A = |A| = 0 entonces la soluci on al sistema
x =
_
_
_
l
1
.
.
.
l
n
_
_
_
38 4. DETERMINANTES
es unicamente determinada y tiene la forma
l
j
=

a
11
a
1j1
b
1
a
1j+1
a
1n
.
.
.
a
n1
a
nj1
b
n
a
nj+1
a
nn

det A
El numerador de la solucion l
j
, es el determinante de la matriz A
j
generada
por substituir la j-esima columna de A por el vector b. Para entender mejor esta
formula, vamos a ver algunos ejemplos.
Exemplo 31. Sea Ax = b
A =
_
_
4 5 6
2 2 1
1 1 1
_
_
b =
_
_
2
10
1
_
_
,
el determinante de A lo calculamos usando el teorema de Laplace
det A = 4

2 1
1 1

(2)

5 6
1 1

+ 1

5 6
2 1

= 4 (1) + (1) + 1 (7) = 5


Entonces la soluci on del sistema esta dado por
l
1
=
1
5

2 5 6
10 2 1
1 1 1

= 3, l
2
=
1
5

4 2 6
2 10 1
1 1 1

= 2,
l
3
=
1
5

4 5 2
2 2 +10
1 1 1

= 0
Ejercicio 38. Resolver por el metodo de Gau-Jordan, por el metodo de la
matriz inversa y por el metodo de Kramer, los siquientes sistem as de ecuaciones.
1)
3l
1
+ 2l
2
l
3
= 1
l
1
l
2
+ 3l
3
= 9
4l
1
6l
2
+l
3
= 2
2l
1
+ 3l
2
4l
3
= 8
2)
3l
1
+ 2l
2
l
3
= 1
l
1
l
2
+ 3l
3
= 9
2l
1
+ 3l
2
4l
3
= 8
3)
3l
1
+ 2l
2
l
3
= 0
l
1
l
2
+ 3l
3
= 0
2l
1
+ 3l
2
4l
3
= 0
2. MATRICES SIMILARES 39
4)
3l
1
+ 2l
2
l
3
= 0
l
1
l
2
+ 3l
3
= 0
4l
1
6l
2
+l
3
= 0
5)
3l
1
+ 2l
2
l
3
= 1
l
1
l
2
+ 3l
3
= 2
4l
1
6l
2
+l
3
= 2
2l
1
+ 3l
2
4l
3
= 8
2. Matrices Similares
El conjunto de matrices se puede separar en clases de equivalencia. Esta sepa-
racion es muy conveniente ya que en muchas ocaciones va a ser suciente trabajar
con alg un elemento de la clase y no con una matriz en general. A la relacion que
separa a las matrices en clases, se le llama similaridad y es de lo que nos ocuparemos
en esta secci on.
Definici on 29. Dos matrices A, B del tipo (n, n, ) se llama similares s
existe una matriz regular U del tipo (n, n) tal que A = UBU
1
.
Notaci on 13. A la transformaci on B UBU
1
se le llama transfor-
maci on de similaridad.
La transformaci on de similaridad es una relacion de equivalencia y es justo este
hecho lo que da a esta transformaci n su importancia. Esta armaci on la pondremos
en la siguiente proposicion.
Proposici on 12. La similaridad en el conjunto de todas las matrices (n, n) es
una relaci on de equivalencia.
Dem. 20. Veamos que la relaci on es
1) reexiva: A es similar a A pues U = I es regular.
2) simetrica: A = UBU
1
implica que B = U
1
AU
3) transitiva: A = UBU
1
y B = SCS
1
con U y S regulares, entonces
existe W = US tal que A = UBU
1
= U
_
SCS
1
_
U
1
= (US) CS
1
U
1
=
USC (US)
1
.
Ahora vamos a ver algunas de las propiedades mas interesantes de matrices
similares. Para esto, supongamos que tenemos una matriz que es la suma de muchas
matrices. Para transformar esta matriz a su similar, es suciente en conocer la
similaridad de cada sumando y luego sumarlas todas. Esta propiedad la podemos
enunciar como un lema.
Lema 17. Para transformar una suma de matrices en su similar, se suman las
similares de cada matriz.
Dem. 21. Se tiene U (A
1
+ +A
n
) U
1
= UA
1
U
1
+ +UA
n
U
1
.
De la misma forma, podemos transformar potencias de matrices
Lema 18. El similar de la potencia de una matriz es la potencia del similar.
40 4. DETERMINANTES
Dem. 22. Se tiene UA
n
U
1
= UAU
1
UAU
1
UAU
1
=
_
UAU
1
_
n
.
Por lo tanto, se tiene la siguiente proposicion,
Lema 19. La matriz similar de una matriz polinomial es el polinomio de la
matriz similar .
Dem. 23. Por los lem as anteriores se tiene que Up
n
(A)U
1
= p
n
(UAU
1
)
para todo polinomio p
n
de grado n.
El siguinte paso es determinar representantes convenientes de cada clase de
equivalencia.
3. Invariantes de Matrices Similares (Vectores y Valores Propios)
El problema que nos enfrentamos ahora es el de saber si una matriz est a en
alg una clase de equivalencia del conjunto de matrices conocidas. Las clases de equiv-
alencia poseen alg unos inveriantes, n umeros o vectores que caracterizan la clase o
son un criterio para saber si alg una matriz esta en alg una clase determinada. En
esta secci on veremos alg unos invariates, sus propiedades y lo metodos mas comunes
para calcularlos. La primera propiedad esta dada por la siguiente proposicion
Proposici on 13. Matrices similares realizan la misma transformaci on lineal,
usando diferentes bases del espacio vectorial.
Dem. 24. Veamos primero una idea de la demostraci on. Sea la transformaci on
lineal f L(V, V ), esta transformaci on tendra asociada una matriz A en la base
{x
i
}
i=1, ,n
. En otra base {y
i
}
i=1, ,n
, relacionada con la base {x
i
}
i=1, ,n
por
y
i
=

n
j=1
u
ij
x
j
, que se puede representar matricialmente por y = Ux, la trans-
formaci on lineal tendr a otra matriz de representaci on B. Entonces, un vector v V
podr a escribirse en cualquiera de las dos bases como v =

n
i=1
r
i
x
i
=

n
j=1
s
j
y
j
=

n
j=1

n
k=1
s
j
u
jk
x
k
, por lo que encontramos la relaci on matricial r = Us. Se debe
cumplir que Av = Bv, o sea Arx = Bsy, es decir, AUsx = BsUx, de donde se
sigue que U
1
AU = B.
Ejercicio 39. Mostrar los detalles de la proposici on anterior.
Entonces tenemos el siguiente problema Como reconocer matrices similares?
Que propiedades se mantienen iguales cuando transformamos una matriz en otra
por medio de una transformaci on de similaridad? La siguiente proposicion nos dar a
una idea para resolver estas preguntas.
Proposici on 14. Sean A y B matrices similares. Entonces
a) Rg (A) = Rg (B)
b) det A = det B
Dem. 25. Sean A, B del tipo (n, n) y A = UBU
1
, con U regular.
b) det A = det
_
ABU
1
_
= det U det Bdet U
1
= det B
Ejercicio 40. Demostrar a) de la proposici on anterior.
Ahora ya tenemos un primer criterio para saber cuando dos matrices pertenecen
a la misma clase, con esta proposicion, al menos sabemos que si det A = det B o
Rg (A) = Rg (B) entonces A y B no son similares. Vamos a introcir otro criterio
para saber si dos matrices no son similares. Para esto iniciamos con la siguiente
denicion.
3. INVARIANTES DE MATRICES SIMILARES (VECTORES Y VALORES PROPIOS) 41
Definici on 30. Sea A la matriz que representa al automorsmo f L(V, V )
con dimV = n. A cada x V , con x = 0
V
, que cumple Ax = x para alg un
K, se le llama vector propio (eigen vector) de A y se le llama valor
propio (eigen valor) asociado a x.
El sistema Ax = x puede ser escrito de la manera mas conveniente como
(3.1) (A I) x = O
donde I es la matriz identidad y O es la matriz con ceros en todas las entradas.
(3.1) es un sistema homogeneo de ecuaciones lineales que en principio podemos
resolver con caulquiera de los metodos que ya hemos expuesto. Observemos que el
sistema (3.1) tiene soluciones no triviales, diferentes de cero, si Rg (A I) < n,
pero esto sucede si det (A I) = 0
K
. Este hecho da pie a la siguiente denicion.
Definici on 31. A la matriz AI se le llama la matriz caracteristica de A.
Al polinomio det (AI) se le llama polinomio carateriztico de la ecuaci on
(3.1). det (A I) = 0 se le llama la ecuaci on caracteristica de A.
Una de las propiedades mas importantes de los polinomios caracteristicos es la
siguiente
Teorema 26 (Cayley-Hamilton). Toda matriz es raiz de su polinomio carac-
teristico.
Dem. 27. Sea A matriz y P = A I. Sea B la matriz adjunta de P, por lo
que det(P)I = P(adj(P)), es decir
| A I | I = (A I) B.
Como B es una matriz polinomial de grado n 1 y det(P) es un polinomio de
grado n, se tiene que la ecuaci on anterior se puede reescribir como
(a
0
+a
1
+ +a
n

n
) I = (A I)
_
B
0
+B
1
+ +B
n1

n1
_
donde det(P) = a
0
+a
1
+ +a
n

n
es el polinomio caracteristico y las matrices B
i
,
con i = 1, , n1 son las matrices que forman la matiz polinomial B. Igualemos
coecientes de igual grado en de ambos lados de la ecuaci on anterior, de donde
se obtiene
a
0
I = AB
0
;
a
1
I = AB
1
B
0
;
a
2
I = AB
2
B
1
;
.
.
.
a
n1
I = AB
n1
B
n2
;
a
n
I = B
n1
.
Ahora multipliquemos la segunda igualdad de la lista anterior por A, la tercera
igualdad por A
2
, y asi susesivamente hasta que la ultima la multiplicamos por A
n
y sumemos todo de ambos lados. El resultado es
a
0
I +a
1
A + +a
n
A
n
= 0

42 4. DETERMINANTES
En lo que sigue, daremos un metodo para calcular los valores propios y los
vectores propios de una matriz A.
Paso 1. Usando la ecuaci on caracteristica, se calculan los valores caracterisiticos

1
, ,
n
como raices del polinomio caracteristico.
Paso 2. Para cada autovalor encontrado, se soluciona la ecuaci on
(A I) x =
_
_
_
_
_
a
11
a
12
a
in
a
21
a
22
a
nn
.
.
.
a
n1
a
n2
a
nn

_
_
_
_
_
_
_
_
_
_
l
1
l
2
.
.
.
l
n
_
_
_
_
_
= 0.
El metodo es simple, para verlo con mas claridad vamos a ver un ejemplo.
Exemplo 32. Sea V = R
2
y K = R, y sea A la matriz A =
_
3 1
2 4
_
.
Entonces el polinomio caracteristico de A es
det (AI) = (3 ) (4 ) 2 = 12 3 4 +
2
2 =
2
7 + 10 = 0
Las raices del polinomio caracteristico son,
1,2
=
7
2

_
49
4

40
4
=
7
2

3
2
, es
decir
1
= 2 y
2
= 5. Entonces los valores propios son 2 y 5.
Los vectores propios asociados a
1
se encuentran resolviendo
(A
1
I) x = 0 =
_
3 2 1
2 4 2
__
l
1
l
2
_
=
_
0
0
_
La soluci on de esta ecuaci on matricial se reduce a la soluci on del sistema
l
1
+l
2
= 0
2l
1
+ 2l
2
= 0
que conduce a la soluci on l
1
= l
2
. Esto es, los vectores propios asociados a este
valor propio son de la forma
_
r
r
_
con r R. Los vectores propios asociados a

2
se encuentran resolviendo la ecuaci on
(A
2
I) x = 0 =
_
3 5 1
2 4 5
__
l
1
l
2
_
=
_
0
0
_
la ecuaci on matricial se reduce a
2l
1
+l
2
= 0
2l
1
l
2
= 0
cuya soluci on esta dada por l
2
= 2l
1
, entonces los vectores propios est an dados por
_
s
2s
_
, con s R.
Observemos la siguiente importante propiedad. Sean A y B matrices similares,
i..e. A = UBU
1
. Entonces se sigue que det (AI) = det
_
U
1
BU I
_
=
det
_
U
1
BU U
1
IU
_
= det
_
U
1
(B I) U
_
=
_
det U
1
_
det (B I) det U = det (B I) o sea det (A I) = det (B I).
Esta es una propiedad muy importante de las matrices similares, es decir:
Proposici on 15. Matrices similares tiene el mismo polinomio caracteristico y
por lo tanto los mismos valores y vectores propios.
3. INVARIANTES DE MATRICES SIMILARES (VECTORES Y VALORES PROPIOS) 43
Con este ultimo resultado ya tenemos tres criterios para decidir si dos matrices
no son similares. Si su rango o su determinante o sus valores o vectores propios no
son los mismos, de entrada las matrices no son similares. Para que dos matrices
sean similares, deben tener al menos el mismo rango, el mismo determinante y los
mismo valores propios.
Vamos a introducir una denicion muy importante que consiste en la suma
de los elementos de la diagonal de una matriz, a esta suma se le llama la traza.
Formalmente se dene como sigue.
Definici on 32. La traza de A esta denida por
T
r
A =
n
i=1
a
ii
es decir, es la suma de los elementos de la diagonal de A
Comentario 11. Otras propiedades de los valores y vectores propios, son las
siguientes.
1) Si
1
,
2
, ,
n
son los valores propios de la matriz A, se tiene que
det A =
n
i=1

i
, y
T
r
A =
n
i=1

i
2) Como consecuencia de 1) se sigue
Si det A = 0, esto es s y s olo s existe alg un valor propio de A que es cero,

j
= 0.
A regular, s y s olo s ningun valor propio de A tiene el valor 0, es decir, s y
s olo s 0 no es valor propio de A.
3) Si
1
,
2
, ,
n
son los valores propios de A y son todos distintos, im-
plica que el conjunto de vectores propios {x
1
, , x
n
} donde x
i
es el vector propio
asociado a
i
, es linealmente independiente en V.
4) Si K = R y V = R
n
, los valores propios son en general complejos. Pero si
A = A
T
los valores propios son reales.
5) Si A O(n) =
_
A | A es (n, n) y A
T
= A
1
_
, entonces todos los valores
propios tienen el valor 1.
Ejercicio 41. Demostrar las propiedades 1) a 5)
Estas propiedades de los valores y vectores propios vuelven a estos de suma
importancia en el estudio de matrices y en general en el algebra lineal.
CHAPTER 5
FORMAS CANONICAS
1. Introducci on
Ya hemos separado al conjunto de matrices en clases de equivalencia. Ahora
buscaremos representantes diversos que sean simples en estas clases de equivalen-
cia. Ya sabemos que estos representantes puede ser cualquier miembro de la clase.
Sin embargo, los representantes mas simples para trabajar seran siempre los que
contengan un mayor n umero de ceros en sus componentes. Estos representantes
simples son generalmente diagonales o cuasidiagonales. Para obtener estos repre-
sentantes hay que tomar varias cosas en cuenta. Ya sabemos que invariantes de
matrices similares son, entre otros, el rango, el determinante y los valores propios.
Sin embargo, estos invariantes sirven para saber cuando dos matrices no son sim-
ilares. Por ejemplo, si Rg(A) = Rg(B), esto implica que A y B no son similares.
Sin embargo, si Rg(A) = Rg(B), esto no implica que A y B son similares.
Para ver si dos matrices est an en la misma clase de equivalencia con la relacion
de similaridad, se encuentra un representante simple de la clase y se compara este
con las matrices que deben ser similares. Si cada una es similar al representante,
las matrices son similares. En otras palabras, sean por ejemplo A y B, son A B
similares? Si [C] es un representante de una clase tal que A [C], se ve si B [C].
A estos representantes simples se les llama formas canonicas. Para introducir las
formas canonicas, vamos primero a dar alg unas deniciones utiles.
Definici on 33. Las matrices pueden ser
Una matriz diagonal, si solo tiene terminos de cero en los elementos diag-
onales esto es
C =
_
_
_
_
_
c
11
0 0
0 c
22
0
.
.
.
.
.
.
0 0 c
nn
_
_
_
_
_
Una matriz es triagonal, si es de la forma
C =
_
_
_
_
_
c
11
c
12
c
1n
0 c
22
c
2n
.
.
.
.
.
.
.
.
.
0 c
nn
_
_
_
_
_
, o C =
_
_
_
_
_
c
12
0 0
c
21
c
22
.
.
.
.
.
.
c
n1
c
n2
c
nn
_
_
_
_
_
45
46 5. FORMAS CANONICAS
Una matriz es cuasidiagonal, si es hecha de bloques no diagonales en la
diagonal, de la forma
C =
_
_
_
_
_
_
[ ] 0

.
.
.
.
.
.
0 [ ]
_
_
_
_
_
_
Si la matriz es polinomial, como es el caso de la matriz caracteristica, es muy
conveniente hacer la siguiente denicion.
Definici on 34. Una matriz polinomial U() se llama forma can onica
diagonal, si todo elemento diagonal p
i
() divide al elemento siguiente p
i+1
() y si
el elemento principal de todos los polinomios p
1
(), , p
n
() diferente de cero es
1, es decir, una matriz en su forma can onica diagonal tiene la estructura
C =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0
.
.
. 0
0 1
p
1
()
.
.
.
.
.
.
.
.
.
p
n
()
0 0 0
.
.
.
0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
donde p
i
() con i = 1, , n son polinomios, tales que p
2
/p
1
, , p
n
/p
n1
son
polinomios. A los polinomios p
i
() se les llama los factores invariantes de la
matriz.
Siempre es posible llevar a una matriz polinomial a su forma canonica diagonal,
usando transformaciones elementales. Para ver esto veamos un ejemplo:
Exemplo 33. Sea la matriz polinomial
_
_
x
3
2x + 1 3x
4
+ 2x x
2
2x
2
x 0 1
3x
2
+ 1 2x
3
x
_
_
El primer paso para llevar esta matriz a su forma can onica diagonal, es poner
el polinomio de la matriz de menor grado diferente de cero, en la esquina superior
izquierda. En este caso el polinomio de menor grado es el 1. Entonces, cambiando
la tercera columna por la primera y luego el segundo rengl on por el primero, se
obtiene
_
_
1 0 2x
2
x
x
2
3x
4
+ 2x x
3
2x + 1
x 2x
3
3x
2
+ 1
_
_
Ahora multiplicamos el primer rengl on por x
2
y lo restamos con el segundo,
lo ponemos como segundo rengl on. An alogamente, multiplicamos el primer rengl on
1. INTRODUCCI

ON 47
por x y lo restamos con el tercero, colocandolo en el tercer rengl on. Se obtiene:
_
_
1 0 2x
2
x
0 3x
4
+ 2x 2x
4
+ 2x
3
2x + 1
0 2x
3
2x
3
+ 4x
2
+ 1
_
_
Entonces multiplicamos la primera columna por 2x
2
x y la restamos de la
tercera columna, la ponemos en vez de la tercera columna, para obtener
_
_
1 0 0
0 3x
4
+ 2x 2x
4
+ 2x
3
2x + 1
0 2x
3
2x
3
+ 4x
2
+ 1
_
_
El resultado es que tenemos una matriz cuasidiagonal. Volvemos a empezar el
proceso, pero ahora con la matriz 2 2 de la diagonal inferior. Pongamos de nuevo
el polinomio de menor grado (y m as simple) en la esquina superior izquierda. Esto
se logra cambiando el segundo por el tercer rengl on. Se obtiene
_
_
1 0 0
0 2x
3
2x
3
+ 4x
2
+ 1
0 3x
4
+ 2x 2x
4
+ 2x
3
2x + 1
_
_
Lo que sigue es an alogo al proceso anterior, hay que diagonalizar este bloque.
Vamos a multiplicar el segundo rengl on por 3x
4
+2x y restarlo con el tercer rengl on
multiplicado por 2x
3
. Se obtiene
_
_
1 0 0
0 2x
3
2x
3
+ 4x
2
+ 1
0 0
_
2x
4
+ 2x
3
2x + 1
_ _
2x
3
_

_
2x
3
+ 4x
2
+ 1
_ _
3x
4
+ 2x
_
_
_
Finalmente, multiplicamos la tercera columna por 2x
3
y se la restamos a la
segunda columna multiplicada por 2x
3
+4x
2
+1 y la ponemos en vez de la tercera
columna, obtenemos:
_
_
1 0 0
0 1 0
0 0 10x
7
16x
6
+ 5x
4
10x
3
2x
_
_
donde hemos dividido el segundo rengl on entre 2x
3
, para obtener en la diagonal
un polinomio que divida al ultimo de la diagonal. Observemos que el determinante
de la matriz original es justamente
_
10x
7
16x
6
+ 5x
4
10x
3
2x
_
, como era
de esperarse.
Cuando representamos una transformaci on lineal con su matriz, generalmente
utilizamos elementos arbitrarios del dominio de la funci on. Como vamos a ver
adelante, los valores y vectores propios son muy convenientes para representar la
transformaci on linea, porque la matriz que le corresponde en esta representacion es
diagonal. Vamos a ver esto en la siguiente proposicion.
Proposici on 16. Sea V espacio vectorial de dimensi on nita n y f L(V, V ).
f es representable por una matriz diagonal, sii existe una base {x
1
, , x
n
} de V
y n umeros del campo
1
,
2
, ,
n
K tales que f (x
i
) =
i
x
i
. Entonces los
n umeros
1
, ,
n
son los elementos de la diagonal de esta matriz.
48 5. FORMAS CANONICAS
Dem. 28. Sea A la matriz que representa a f. Como f(x
1
) =
1
x
1
, , f(x
n
) =

n
x
n
, esto es sii se tiene que
A =
_
_
_

1
0
.
.
.
0
n
_
_
_

Esta proposicion es muy importante porque reduce el problema de encotrar una


representacion simple de la clase a encontrar la base en la cual esta representacion
es diagonal. Es mas, los valores propios de la transformaci on lineal son raices del
polinomio caracteristico de la matriz de representacion, esto es:
Teorema 29. Sean V espacio vectorial, f L(V, V ), A la matriz repre-
sentaci on de f y k K. Entonces k es un valor propio de f sii k es una raiz
del polinomio caracteristico de A.
Dem. 30. Sea k valor propio de f, del vector propio x. Entonces Ax = kx, esto
es sii (A kI) x = 0. Pero este sistema de ecuaciones lineales solo tiene soluci on
no trivial sii det (A kI) = 0.
Esto es, si queremos encontrar la base en la cual una transformaci on lineal tiene
una representacion diagonal, basta con encontrar sus valores y vectores propios. Si
estos vectores propios son l.i., esta base es la apropiada. Si los vectores propios no
son l.i., entonces debemos buscar alg una representacion similar adecuada. Vamos
a ver esto. Para poder ver si dos matrices son similares, se utiliza la denicion de
matrices equivalentes, esta es:
Definici on 35. Dos matrices polinomiales A() y B() son equivalentes,
si existen U y V de determinantes no nulos que no dependen de , tal que
A() = UB() V
La relacion entre matrices similares y matrices equivalentes es que dos matrices
son similares si sus matrices caracteristicas son equivalentes, esto lo vemos en el
siguiente teorema.
Teorema 31. Sean A y B denidas en un cuerpo conmutativo K. A y B son
similares s y s olo s AI y B I son equivalentes.
Dem. 32. =) Si A = UBU
1
entonces A I = U (B I) U
1
=) Sean AI y BI equivalentes, entonces AI = S (B I) R, para
S y R matrices que no dependen de . Como B tampoco depende de , igualando
coecientes del mismo orden, se tiene I = SR y A = SBR, ambas identidades
implican que A = SBS
1
.
Un metodo para determinar la semejanza de las matrices A y B es el siguiente.
Se forma la matriz caracteristica de cada una de las matrices AI y B I y se
reducen a su forma canonica diagonal con pasos elementales. Si despues de reducir
ambas matrices caracteristicas a su forma mas elemental, las dos formas coinciden,
entonces A y B son similares. Veamos un ejemplo.
1. INTRODUCCI

ON 49
Exemplo 34. Sean
A =
_
_
5 3 3
3 1 3
3 3 1
_
_
y (1.1)
B =
_
_
1 3 3
6 8 6
6 6 4
_
_
(1.2)
mostremos que estas dos matrices son similares. Primero notemos que sus determi-
nantes son iguales, i.e., det A = det B = 4. Si esto no fuera asi, A y B no pueden
ser similares. Tambien notemos que A y B tienen la misma traza trA = trB = 3.
Entonces si pueden ser similares. El determinante y la traza nos dan una guia
para ver si las dos matrices son similares, pero no es suciente. Las dos matri-
ces pueden tener incluso el mismo polinomio caracteristico, pero aun asi no ser
similares. Vamos a ver si AI y B I son equivalentes. Se tiene
AI =
_
_
5 3 3
3 1 3
3 3 1
_
_

_
_
3 3 1
3 1 3
5 3 3
_
_

_
_
1 0 0
0 2 2 +
0 3 (5 ) 3 1/3 (1 +) (5 )
_
_

_
_
1 0 0
0 2 0
0 0 3 1/3 (1 +) (5 ) + 2
_
_

_
_
1 0 0
0 2 0
0 0 (1 +) (2 )
_
_
50 5. FORMAS CANONICAS
y
B I =
_
_
1 3 3
6 8 6
6 6 4
_
_

_
_
6 6 4
6 8 6
1 3 3
_
_

_
_
1 0 0
0 2 2 +
0 3 + 1 + 3 1/6 (4 +) (1 +)
_
_

_
_
1 0 0
0 2 0
0 0 3 1/6 (4 +) (1 +) 2 +
_
_

_
_
1 0 0
0 2 0
0 0 (2 +) (1 +)
_
_
es decir, ambas tienen la misma reducci on usando operaciones elementales, por lo
que las dos matrices son similares.
Observen c omo el elemento central de la diagonal divide al ultimo. Esto es
muy interesante, en este caso se puede demostrar que A y B son ceros (raices) del
polinomio (1 +) (2 ). Por el teorema de Cayley-Hamilton sabemos que A y B
son ceros de su polinomio caracteristico (1 +) (2 )
2
, pero en este caso hay un
polinomio de grado menor (1 +) (2 ) con esa cararteristica. Esto da pie a la
siguiente denicion.
Definici on 36. Sea A matriz y m(x) polinomio. m se llama polinomio
mnimo de A, si m es el polinomio con menor grado que existe, tal que m(A) = 0.
Existe una relacion muy interesante entre los polinomios caracteristico y mnimo,
ya que este ultimo divide al primero. Esta armaci on la podemos ver en la siguiente
proposicion.
Proposici on 17. El polinomio minimo de una matriz divide siempre a su
polinomio caracteristico.
Dem. 33. Sea P(x) el polinomio caracteristico de la matriz A y m es su
polinomio mnimo, se debe tener que P(x) = p
1
(x)m(x) + p
2
(x), donde p
1
(x) y
p
2
(x) son polinomios. Esto implica que P(A) = p
1
(A)m(A) + p
2
(A) = 0, pero
como m(A) = 0, se sigue que p
2
(A) = 0.
Es claro entonces que si el polinomio caracteristico es de la forma P(x) =
(x
1
)
n1
(x
2
)
n2
(x
s
)
ns
, el polinomio minimo tiene que ser de la forma
m(x) = (x
1
)
m1
(x
2
)
m2
(x
s
)
ms
, con m
i
n
i
para todo i = 1, , s.
La pregunta que sigue es, si dos matrices son similares, como encuentro la
matriz que las relaciona? Ya vimos que las matrices A y B de los ejercicios 34
anteriores son similares, estas deben estar relacionadas entre si, tal que debe de
existir alg una matriz no sigular U que cumpla A = UBU
1
. Esta pregunta es la
2. FORMA CAN

ONICA DE JORDAN 51
que nos va a ocupar en la secci on siguiente, pero por ahora encontremos la matriz
de relacion de forma directa en un ejercicio.
Ejercicio 42. Encontrar los valores propios y los vectores propios de las ma-
trices A y B ((1.1) y (1.2)) del ejemplo 34. Ver si sus vectores propios son l.i. En
caso que si, construir la matriz diagonal de la clase correspondiente. Encontrar las
matrices U que relacionan a A y B con la matriz diagonal. Encontrar entonces la
matriz U que relaciona a A y B.
Ejercicio 43. Mostrar que si es valor propio de f y f es invertible, entonces

1
es valor propio de f
1
.
Ejercicio 44. Mostrar que una matriz y su transpuesta tienen el mismo poli-
nomio caracteristico.
Ejercicio 45. Sea A matriz cuadrada 2 2. Mostrar que el polinomio carac-
teristico de A esta dado por
x
2
(trA) x + det A
donde trA =

n=2
i=1
(A)
ii
es la traza de A. (Ayuda: Mostrar primero que para todo
polinomio ax
2
+bx+c con raices x
1
, x
2
, se tiene que x
1
+x
2
= b/a y x
1
x
2
= c/a.)
Ejercicio 46. Sea A matriz cuadrada 3 3. Mostrar que el polinomio carac-
teristico de A esta dado por
x
3
(trA) x
2
+
1
2
_
(trA)
2

_
trA
2
_
_
x det A
Ejercicio 47. Sea A matriz cuadrada 4 4. Mostrar que el polinomio carac-
teristico de A esta dado por
x
4
(trA) x
3
+
1
2
_
(trA)
2

_
trA
2
_
_
x
2

1
6
_
(trA)
3
3
_
trA
2
_
(trA) + 2
_
trA
3
_
_
xdet A
2. Forma Canonica de Jordan
Veremos solo dos de las formas canonicas mas utilizadas en la literatura, la
forma canonica de Jordan y la forma canonica natural. La primera es muy con-
veniente porque es cuasidiagonal, pero tiene el problema de que el campo de las
matrices deben ser el de los complejos o alg un campo cerrado, entonces el repre-
sentante de la clase no siempre pertenece al campo donde estan las matrices. Esto
implica que esta forma canonica es conveniente solo para matrices sobre campos
cerrados. En cambio la forma canonica natural siempre conserva el campo donde se
trabaja, aunque tiene el inconveniente de que no es cuasidiagonal. Veamos primero
la forma canonica de Jordan.
Definici on 37. Una celula de Jordan es una matriz n n de la forma
J =
_
_
_
_
_
_
_
l 1 0 0
0 l 1 0
.
.
.
.
.
.
.
.
.
0 l 1
0 0 l
_
_
_
_
_
_
_
= lI +N
n
52 5. FORMAS CANONICAS
donde
N
n
=
_
_
_
_
_
_
_
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
0 0 1
0 0 0
_
_
_
_
_
_
_
Las matrices N
n
son matrices n n y tienen la asombrosa propiedad de
ser nilpotentes de grado n, es decir, (N
n
)
n
= 0. Esta propiedad es crucial
para denir la forma canonica de Jordan. Pero primero observemos la siguiente
proposicion.
Proposici on 18. El polinomio cararteristico de las celulas de Jordan n n
son de la forma (l x)
n
.
Dem. 34. Se puede ver por c alculo directo que det(J xI) = (l x)
n
.
Antes de ver el teorema de Jordan, vamos a observar una propiedad muy in-
teresante de las matrices.
Lema 20. El determinante de una matriz cuasidiagonal A es igual al producto
de los determinantes de las matrices de su diagonal.
Dem. 35. Sea
A =
_
_
_
_
_
_
A
1
0 0
0 A
2
.
.
.
.
.
.
.
.
.
0 A
s
_
_
_
_
_
_
entonces A se puede escribir como
A =
_
_
_
_
_
_
A
1
0 0
0 I
.
.
.
.
.
.
.
.
.
0 I
_
_
_
_
_
_
_
_
_
_
_
_
I 0 0
0 A
2
.
.
.
.
.
.
.
.
.
0 I
_
_
_
_
_
_

_
_
_
_
_
_
I 0 0
0 I
.
.
.
.
.
.
.
.
.
0 A
s
_
_
_
_
_
_
donde las matrices I son matrices identidad de dimensi on conveniente. Se sigue
que det A = det A
1
det A
2
det A
s

Con esta propiedad ya podemos denir la forma canonica de Jordan a traves
del siguiente
Teorema 36. Sea A matriz cuadrada de orden n sobre el cuerpo de los n umeros
complejos, (o sobre un cuerpo algebraicamente cerrado) con polinomio caracteris-
tico P(x) = (x
1
)
n1
(x
s
)
ns
, con n = n
1
+ +n
s
, y polinomio minimo
m(x) = (x
1
)
m1
(x
s
)
ms
. Entonces A es similar a una matriz de Jordan,
de la forma.
J =
_
_
_
_
_
_
J
11
0 0
0 J
12
.
.
.
.
.
.
.
.
.
0 J
sk
_
_
_
_
_
_
2. FORMA CAN

ONICA DE JORDAN 53
donde cada
i
, con i = 1, , s es representada por las celulas de Jordan J
ik
con
k = 1, , t
i
tal que
1.- Existe al menos una celula de Jordan de orden m
i
y las dem as tendr an
ordenes menores o iguales que m
i
.
2.- La suma de los ordenes de las celulas J
ik
es n
i
.
3.- El n umero de celulas de Jordan J
ik
, es unicamente determinado para cada
matriz A.
Dem. 37. Vamos a ver s olo una idea de la demostraci on. Construyamos la
representaci on de Jordan de A. Como el polinomio mnimo de A es m, se tiene
que m(A) = (A
1
I)
m1
(A
s
I)
ms
= 0. Podemos denir matrices A
i
con
i = 1, , s tales que (A
1

1
I)
m1
= 0, , (A
s

s
I)
ms
= 0 y escribir
det
_

_
_
_
_
_
_
_
A
1
0 0
0 A
2
.
.
.
.
.
.
.
.
.
0 A
s
_
_
_
_
_
_
xI
_

_
= (x
1
)
m1
(x
s
)
ms
Denamos las matrices N
i
= A
i

i
I. Claramente las matrices N
i
son nilpo-
tentes tales que (N
i
)
mi
= 0. Una representaci on de estas matrices esta dada por
las matrices nilpotentes
N
i
=
_
_
_
_
_
_
_
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
0 0 1
0 0 0
_
_
_
_
_
_
_
Entonces podemos representar a la matriz A por una matriz de Jordan. La repre-
sentaci on quedar a determinada al reducir la matriz de Jordan y la matriz A a su
forma equivalente. Adem as se sigue que:
1.- El orden de A
i
es m
i
, al menos una vez.
2.- La suma de los ordenes de las celulas J
ik
es n
i
, debido a que J y A tienen
el mismo polinomio caracteristico.
3.- El n umero de celulas de Jordan J
ik
, es unicamente determinado para cada
matriz A ya que A y J son similares.
Exemplo 35. Tomemos de nuevo la matriz A (1.1) del ejemplo 34
A =
_
_
5 3 3
3 1 3
3 3 1
_
_
ya sabemos que su polinomio caracteristico esta dado por (1 +) (2 )
2
y su poli-
nomio mnimo por (1 +) (2 ). Entonces, siguiendo la regla del teorema, se
tiene que, seg un el polinomio caracteristico, el valor propio 1 aparece una vez en la
diagonal y el valor propio 2 aparece dos veces. Adem as, segun el polinomio mnimo,
los dos valores propios tiene una celula de Jordan de grado 1. As, su forma de
Jordan ser a
(2.1) J =
_
_
2 0 0
0 2 0
0 0 1
_
_
54 5. FORMAS CANONICAS
Exemplo 36. Sea ahora A la matriz
(2.2) A =
_
_
6 3 4
3 1 3
4 3 2
_
_
El determinante de esta matriz es 4 y su traza es 3. Su polinomio caracteristico es
de nuevo (1 +) (2 )
2
y ahora el polinomio mnimo es tambien (1 +) (2 )
2
,
como puede verse de tomar
(I +A) (2I A) =
_
_
3 0 3
0 0 0
3 0 3
_
_
= 0.
Entonces la matriz de Jordan correspondiente tendr a al menos una celula de Jordan
de grado 2 del valor propio 2, esto es:
(2.3) J =
_
_
2 1 0
0 2 0
0 0 1
_
_
Hay una forma alternativa de encontrar la forma canonica de Jordan de una
matriz. Observemos lo siguiente. En una matriz diagonal, digamos 3 3, con sus
tres valores propios iguales, la forma canonica diagonal de su matriz caracteristica
sera
_
_
x 0 0
0 x 0
0 0 x
_
_
ya que el polinomio superior de la diagonal divide al siguiente. Si solo dos valores
propios fueran iguales, su matriz canonica diagonal sera
_
_
1 0 0
0 x
1
0
0 0 (x
1
) (x
2
)
_
_
y si los tres valores propios son diferentes sera
_
_
1 0 0
0 1 0
0 0 (x
1
) (x
2
) (x
3
)
_
_
Entonces, podemos tambien constriur la forma canonica de Jordan, calculando
la forma canonica diagonal de la matriz y formando una celula de Jordan para cada
factor invariante del grado del factor invariante correspondiente. Esto se puede
entender mejor con un ejemplo.
Exemplo 37. Como ya vimos, la forma can onica diagonal de la matriz carac-
teristica de la matriz (1.1)
A =
_
_
5 3 3
3 1 3
3 3 1
_
_
3. FORMA CAN

ONICA NATURAL 55
es la matriz
_
_
1 0 0
0 2 0
0 0 (1 +) (2 )
_
_
Por lo que, su forma can onica de Jordan tendr a una celula de Jordan de orden
uno para el factor invariante 2 y otra celula diagonal para el factor invariante
(1 +) (2 ) (ver (2.1)).
Ejercicio 48. Encontrar la forma can onica de Jordan de las matrices
_
_
1 0 0
1
2
0
1
2
1 2 2
_
_
_
_
5
2
3
3
2
1 2 1

5
2
3
3
2
_
_
_
_
1 1 0
1 1 1
1 3 0
_
_
Ejercicio 49. Sea A una matriz con polinomio caracteristico (x 2)
3
(x 1)
2
y polinomio minimo (x 2)
2
(x 1) . Cual es su forma can onica de Jordan?
Ejercicio 50. Encontrar todas las form as can onicas de Jordan posibles de una
matriz que tiene polinomio caracteristico (x 2)
3
(x 1)
2
.
3. Forma Canonica Natural
La forma canonica natural tiene la ventaja sobre la forma canonica de Jordan,
de ser un representante para las clases de matrices en cualquier campo. A diferencia
de la forma canonica de Jordan, donde el campo tiene que ser algebraicamente
cerrado, como los complejos, la forma canonica natural es adecuada para cualquier
campo. Tiene la desventaja de nos ser diagonal. Hay una enorme semejanza entre
las dos formas canonicas, asi que empecemos por denir las celulas de la forma
canonica natural.
Definici on 38. Sea P(x) polinomio de grado n, tal que su coeciente principal
sea 1, i.e.
P(x) = a
0
+a
1
x + +a
n1
x
n1
+x
n
La matriz
N =
_
_
_
_
_
_
_
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
a
0
a
1
a
2
a
n1
_
_
_
_
_
_
_
se llama la matriz asociada al polinomio P(x).
Vamos a calcular el polinomio caracteristico de N. Se obtiene
56 5. FORMAS CANONICAS
det (N Ix) = det
_
_
_
_
_
_
_
x 1 0 0
0 x 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
a
0
a
1
a
2
a
n1
x
_
_
_
_
_
_
_
= a
0
det
_
_
_
_
_
1 0 0
x 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
a
1
det
_
_
_
_
_
x 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
+
(a
n1
x) det
_
_
_
_
_
x 1 0
0 x 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 x
_
_
_
_
_
= a
0
+a
1
x + + (a
n1
+x) x
n1
= P(x)
Este resultado da pie al siguiente lema.
Lema 21. El polinomio caracteristico de una matriz asociada al polinomio P(x)
es P(x).
La forma canonica natural consiste en substituir por cada factor invariante
de grado n
i
su respectiva matriz asociada. Analogamente a la forma can onica
de Jordan, las matrices nilpotentes ahora son subtituidas por matrices naturales.
Veamos alg unos ejemplos.
Exemplo 38. Tomemos de nuevo la matriz (1.1) del ejmplo 34
A =
_
_
5 3 3
3 1 3
3 3 1
_
_
ya sabemos que su polinomio caracteristico esta dado por (1 +) (2 )
2
=
3

3
2
+ 4 y su polinomio mnimo por (1 +) (2 ). Ya sabemos que la matriz
caracteristica tiene la forma can onica diagonal
_
_
1 0 0
0 2 0
0 0 (1 +) (2 )
_
_
Por lo que, su forma can onica natural tendra una celula natural de orden uno
para el factor invariante 2 y otra celula natural para el factor invariante
(1 +) (2 ) =
2
2
(3.1) N =
_
_
2 0 0
0 0 1
0 2 1
_
_
3. FORMA CAN

ONICA NATURAL 57
Exemplo 39. Sea de nuevo A la matriz (2.2)
A =
_
_
6 3 4
3 1 3
4 3 2
_
_
Como ya vimos, el determinante de esta matriz es 4 y a traza es 3. Su polinomio
caracteristico es de nuevo (1 +) (2 )
2
y ahora el polinomio mnimo es tambien
(1 +) (2 )
2
. Esta matriz tiene una forma can onica diagonal para su matriz
caracteristica dada por
_
_
1 0 0
0 1 0
0 0 (1 +) ( 2)
2
_
_
por lo que solo tiene una celula natural de grado tres para el polinomio (1 +) ( 2)
2
=

3
+ 4
2
3. Por lo que su forma natural ser a
(3.2) N =
_
_
0 1 0
0 0 1
3 0 4
_
_
Exemplo 40. Observemos como se relacionan las matrices can onicas de Jordan
y la can onica natural. Por ejemplo, de las form as can onicas anteriores, se tiene
que (3.1) y (2.1) se ralacionan sug un
_
_
2 0 0
0 0 1
0 1 2
_
_
= U
_
_
2 0 0
0 2 0
0 0 1
_
_
U
1
con U =
_
_
1 0 0
0 a b
0 2a b
_
_
ab = 0
y para (3.2) y (2.3), la relaci on es
_
_
0 1 0
0 0 1
4 0 3
_
_
= U
_
_
2 1 0
0 2 0
0 0 1
_
_
U
1
con U =
_
_
a 0 b
2a a b
4a 4a b
_
_
ab = 0
Exemplo 41. Sea T = {A | A es matriz 3 3 con trA = 0}. Entonces T tiene
solo dos clases,
[T]
1
= {
_
_
0 1 0
0 0 1
a b 0
_
_
} y [T]
2
= {
_
_
q 0 0
0 0 1
0 2q
2
q
_
_
}
Ejercicio 51. Demostrar que el conjunto de las matrices 33 sin traza tienen
solo las dos clases anteriores.
Ejercicio 52. Encontrar su respectivas form as can onicas de Jordan.
58 5. FORMAS CANONICAS
Ejercicio 53. Encontrar la forma can onica natural de las matrices
_
_
1 0 0
1
2
0
1
2
1 2 2
_
_
_
_
5
2
3
3
2
1 2 1

5
2
3
3
2
_
_
_
_
1 1 0
1 1 1
1 3 0
_
_
Ejercicio 54. Sea A una matriz con polinomio caracteristico (x 2)
3
(x 1)
2
y polinomio minimo (x 2)
2
(x 1) . Cual es su forma can onica natural?
Ejercicio 55. Encontrar todas las form as can onicas naturales posibles de una
matriz que tiene polinomio caracteristico (x 2)
3
(x 1)
2
.
Ejercicio 56. Sea A =
_
_
4 6 1
6 12 0
2 6 1
_
_
. Encuentre sus valores y vectores
propios. Reduzca la matriz por operaciones elementales (invariantes) hasta su
forma m as elemental. Cual es su Rango? Encuentre P tal que A = PA
d
P
1
,
donde A
d
es la forma diagonal de A.
Ejercicio 57. Sea B =
_
_
6 1 0
12 0 1
6 1 1
_
_
Encuentre sus valores y vectores pro-
pios. Reduzca la matriz por operaciones elementales (invariantes) hasta su forma
m as elemental. Cual es su Rango?
Ejercicio 58. Demuestre de forma sencilla que las matrices A y B anteriores
no son similares.
Ejercicio 59. Encuentre la forma can onica diagonal de las matrices caracter-
isticas de A y B

You might also like