You are on page 1of 151

CUADERNOS DE ALGEBRA

No. 4
Algebra lineal

Oswaldo Lezama

Departamento de Matematicas
Facultad de Ciencias
Universidad Nacional de Colombia
Sede de Bogota

30 de junio de 2014
ii

Cuaderno dedicado a Tonita, mi madre.


Contenido

Prologo v

1. Matrices 1
1.1. Estructuras algebraicas basicas . . . . . . . . . . . . . . . . . . . . . 1
1.2. Matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Inversa de una matriz y cambio de base . . . . . . . . . . . . . . . . . 13
1.4. Matrices y operaciones elementales . . . . . . . . . . . . . . . . . . . 17
1.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2. Determinantes y sistemas de ecuaciones lineales 22


2.1. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2. Determinantes y funciones multilineales . . . . . . . . . . . . . . . . . 27
2.3. Menores y cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Ideales, rango y sistemas de ecuaciones . . . . . . . . . . . . . . . . . 35
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

3. Producto tensorial 50
3.1. Producto tensorial de espacios vectoriales . . . . . . . . . . . . . . . . 50
3.2. Producto tensorial de transformaciones y matrices . . . . . . . . . . . 54
3.3. Funciones multilineales y tensores . . . . . . . . . . . . . . . . . . . . 58
3.4. Tensores simetricos, antisimetricos y alternados . . . . . . . . . . . . 63
3.5. Algebras y producto tensorial . . . . . . . . . . . . . . . . . . . . . . 68
3.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

4. Formas canonicas 77
4.1. Polinomios mnimo y caracterstico . . . . . . . . . . . . . . . . . . . 77
4.2. Forma canonica clasica . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.3. Forma canonica racional . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.4. Forma canonica de Jordan . . . . . . . . . . . . . . . . . . . . . . . . 92
4.5. Forma canonica diagonal: valores y vectores propios . . . . . . . . . . 97
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

iii
iv CONTENIDO

5. Grupos de matrices 109


5.1. Grupos de matrices sobre cuerpos . . . . . . . . . . . . . . . . . . . . 109
5.1.1. El grupo lineal y algunos subgrupos destacados . . . . . . . . 109
5.1.2. Grupos clasicos . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.2. Grupos de matrices sobre anillos . . . . . . . . . . . . . . . . . . . . . 125
5.3. El grupo elemental sobre anillos conmutativos . . . . . . . . . . . . . 127
5.3.1. Teorema de normalizacion de Suslin . . . . . . . . . . . . . . . 127
5.3.2. Teorema de estabilidad de Suslin . . . . . . . . . . . . . . . . 130
5.4. Grupos clasicos sobre anillos . . . . . . . . . . . . . . . . . . . . . . . 135
5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

Bibliografa 144
Prologo

La coleccion Cuadernos de algebra consta de 10 publicaciones sobre los principales


temas de esta rama de las matematicas, y pretende servir de material para preparar
los examenes de admision y de candidatura de los programas colombianos de doc-
torado en matematicas. Los primeros cinco cuadernos cubren el material basico de
los cursos de estructuras algebraicas y algebra lineal de los programas de maestra;
los cinco cuadernos siguientes contienen algunos de los principales temas de los
examenes de candidatura, a saber: anillos y modulos; categoras; algebra homologica;
algebra no conmutativa; algebra conmutativa y geometra algebraica. Cada cuaderno
es fruto de las clases dictadas por el autor en la Universidad Nacional de Colombia
en los ultimos 25 anos, y estan basados en las fuentes bibliograficas consignadas en
cada uno de ellos, como tambien en el libro Anillos, Modulos y Categoras, publicado
por la Facultad de Ciencias de la Universidad Nacional de Colombia, y cuya edicion
esta totalmente agotada (vease [7]). Un material similar, pero mucho mas completo
que el presentado en estas diez publicaciones, es el excelente libro de Serge Lang, Al-
gebra, cuya tercera edicion revisada ha sido publicada por Springer en el 2004 (vease
[8]). Posiblemente el valor de los Cuadernos de algebra sea su presentacion ordenada
y didactica, as como la inclusion de muchas pruebas omitidas en la literatura y
suficientes ejemplos que ilustran la teora. Los cuadernos son:
1. Grupos 6. Anillos y modulos
2. Anillos 7. Categoras
3. Modulos 8. Algebra homologica
4. Algebra lineal 9. Algebra no conmutativa
5. Cuerpos 10. Algebra conmutativa y geometra algebraica
Los cuadernos estan dividido en captulos, los cuales a su vez se dividen en
secciones. Para cada captulo se anade al final una lista de ejercicios que debera ser
complementada por los lectores con las amplias listas de problemas que inluyen las
principales monografas relacionadas con el respectivo tema.
Cuaderno de algebra lineal. El presente cuaderno esta dedicado al estudio
del algebra lineal generalizada, es decir, al estudio de los espacios vectoriales, los
operadores lineales, las matrices y las formas, pero consideradas sobre anillos di-
mensionales arbitratrarios, es decir, anillos para los cuales un espacio libre de bases

v
vi PROLOGO

finitas tiene dimension. El algebra lineal sobre anillos ha sido tratada tambien por
otros autores, veanse por ejemplo las monografas [1] y [9] en las cuales se estudia
en algebra lineal sobre anillos conmutativos.
Para aprovechar mejor el material del presente cuaderno es conveniente que el
lector haya estudiado previamente un curso elemental de algebra lineal clasica, es
decir, de algebra lineal sobre cuerpos, y un curso basico de anillos y modulos (veanse
por ejemplo [5] y [6]).
El autor desea expresar su agradecimiento a Claudia Milena Gallego Joya, dis-
cpula y amiga, por la digitalizacion del material del presente cuaderno.

Oswaldo Lezama
Departamento de Matematicas
Universidad Nacional de Colombia
Bogota, Colombia
jolezamas@unal.edu.co
Captulo 1

Matrices

El estudio de los espacios vectoriales sobre anillos, desde la perspectiva matricial,


tensorial y de las formas canonicas y sesquilineales que estudiaremos en el presente
cuaderno, constituye la denominada algebra lineal generalizada, o tambien llamada
algebra lineal sobre anillos. Esta area por supuesto se puede considerar como una
rama de la teora de modulos (vease [6]). La teora que desarrollaremos se hara sobre
anillos arbitrarios (principalmente conmutativos), sin embargo, los ejemplos estaran
centrados en los siguientes anillos particulares: un cuerpo cualquiera K, el anillo Z
de los numeros enteros, el anillo Zn de los enteros modulo n 2, y el anillo K[x] de
los polinomios en una indeterminada con coeficientes en el cuerpo K.

1.1. Estructuras algebraicas basicas


La primera seccion de este captulo es de caracter introductorio y permite repasar
algunos conceptos de anillos y modulos, sin embargo, invitamos al lector a recordar
la teora basica de los cuadernos 2 y 3, la cual usaremos libremente durante todos
los desarrollos del presente cuaderno (veanse [5] y [6]).

Definicion 1.1.1. Sea G un conjunto no vaco. Una operacion binaria interna


en G es una funcion con dominio el producto cartesiano G G y codominio G

GG G
(a, b) 7 a b.

Si la operacion es asociativa en el sentido que

(a b) c = a (b c)

para cualesquiera elementos a, b, c G, entonces se dice que (G, ) es un semi-


grupo. Si en el conjunto G del semigrupo (G, ) existe un elemento e tal que

1
2 CAPITULO 1. MATRICES

ea=a=ae

para cada a G, se dice que (G, ) es un monoide con elemento neutro e. Si


(G, ) es un monoide y cada elemento a G tiene un inverso, es decir, existe a0 G
tal que

a a0 = e = a0 a

entonces se dice que (G, , e) es un grupo. Si ademas la operacion es conmutativa,


es decir,

ab=ba

para cualesquiera elementos a, b G, entonces se dice que el grupo (G, , e) es


conmutativo (tambien llamado abeliano).

Los semigrupos, monoides y grupos se acostumbran a denotar simplemente por


su conjunto de elementos, de tal manera que por ejemplo el grupo (G, , e) se deno-
tara por G.

Ejemplo 1.1.2. El conjunto N = {0, 1, 2, . . . } de los numeros naturales es un


monoide conmutativo respecto de la adicion usual y tiene como elemento neutro al
natural 0. De igual manera, el conjunto Z = {. . . , 2, 1, 0, 1, 2, . . . } de los numeros
enteros es un grupo abeliano con la adicion usual.

Proposicion 1.1.3. En cualquier grupo el elemento neutro y el inverso de un ele-


mento son unicos.

Demostracion. La prueba es una consecuencia directa de las definiciones.

Notemos que el conjunto Z posee dos operaciones, la adicion y el producto, de tal


forma que respecto de la primera es un grupo abeliano, mientras que con la segunda
es un monoide. Conjuntos con tal condicion conforman los llamados anillos.

Definicion 1.1.4. Un anillo es un conjunto A con dos operaciones + y . llamadas


adicion y producto, tal que

(i) A es un grupo conmutativo respecto de la adicion.

(ii) A es un monoide respecto del producto.

(iii) El producto se distribuye sobre la adicion, es decir,

a (b + c) = a b + a c
(a + b) c = a c + b c.
1.1. ESTRUCTURAS ALGEBRAICAS BASICAS 3

(iv) El anillo A es conmutativo si el producto es conmutativo.


(v) Un elemento a A es invertible si tiene inverso respecto del producto.
Observacion 1.1.5. Todos los anillos tendran elemento neutro respecto del produc-
to, este elemento sera denotado por 1. El neutro respecto de la adicion sera denotado
por 0. Si a A, entonces el inverso de a respecto de la adicion se denominara en
adelante el opuesto de a, y se denotara por a. El producto a b sera simbolizado
simplemente como ab, es decir, omitiremos el punto para el producto de dos elemen-
tos del anillo A. Si a A es invertible, entonces el inverso de a es unico y se denota
por a1 .
Ejemplo 1.1.6. El conjunto Z de los numeros enteros es un anillo conmutativo
respecto de las operaciones usuales de adicion y producto. El neutro aditivo es 0
y el neutro del producto es 1. De igual manera, si restringimos el conjunto de los
enteros a los 8 primeros enteros no negativos, es decir, Z8 = {0, 1, 2, 3, 4, 5, 6, 7}
y realizamos las operaciones tomando resduos respecto de 8 obtenemos el llamado
anillo de enteros modulo 8 (vease [8]). El neutro aditivo es nuevamente el 0 y el neutro
multiplicativo es 1. Este ejemplo por supuesto se puede generalizar a cualquier entero
positivo n 2 (veanse [5] y [7]). De otra parte, el conjunto de todos los polinomios en
la variable x y con coeficientes reales constituyen otro ejemplo de anillo conmutativo,
el cual se acostumbra denotar por R[x]. El neutro aditivo es el polinomio nulo y el
neutro multiplicativo es el polinomio constante 1 (veanse [5], [7] y [8]).
Ejemplo 1.1.7. Es posible que el lector este familiarizado con el conjunto de las
matrices cuadradas reales de tamano 2 2, M2 (R) (veanse [5], [7] y [8]). Estas
matrices conforman un anillo no conmutativo respecto de la adicion y multiplicacion
habituales, el neutro aditivo es la matriz nula y el neutro multiplicativo es la matriz
identica. Notemos que
     
1 0 0 1 0 1 1 0
6= .
0 0 0 0 0 0 0 0
En la definicion de anillo no se exige que cada elemento no nulo tenga inverso
respecto del producto. As por ejemplo, Z es un anillo en el cual no existe entero
x tal que 2x = 1. Sin embargo, existen anillos en los cuales este tipo de ecuaciones
tiene solucion, tal es el caso de anillo de los numeros racionales Q con las operaciones
habituales. Esta observacion permite definir el siguiente tipo de anillo.
Definicion 1.1.8. Un anillo A es de division si cada elemento no nulo es in-
vertible. Si ademas A es conmutativo, entonces se dice que A es un cuerpo.
Proposicion 1.1.9. Sea A un anillo, el conjunto A conformado por los elemen-
tos invertibles de A es un grupo respecto del producto, y se denomina el grupo de
elementos invertibles de A.
4 CAPITULO 1. MATRICES

Demostracion. Ejercicio para el lector.


Segun la proposicion anterior, A es un anillo de division si, y solo si, A = A{0}.
Ejemplo 1.1.10. Los numeros racionales Q, los numeros reales R y los numeros
complejos C, con sus operaciones habituales, son cuerpos. Notemos adicionalmente
que Z = {1, 1} es decir, Z no es un cuerpo. De otra parte, M2 (R) consta de las
matrices invertibles, es decir, aquellas que tienen determinante no nulo. Este grupo
se denomina grupo lineal general de orde 2 sobre R y se denota por GL2 (R).
Sobre estos grupos de matrices invertibles volveremos mas adelante.
Un tipo de estructura mas compleja que las definidas anteriormente la consti-
tuyen los llamados espacios vectoriales, tambien denominados modulos, los cuales
conforman los objetos en se basa el algebra lineal generalizada.
Definicion 1.1.11. Un espacio vectorial es una tripla conformada por
(a) Un grupo abeliano V cuyos elementos llamaremos vectores.
(b) Un anillo A cuyos elementos llamaremos escalares.
(c) Una operacion externa entre escalares y vectores
V AV
(v, a) 7 v a

que satisface las siguientes condiciones:


(i) (v + u) a = v a + u a
(ii) v (a + b) = v a + v b
(iii) v (ab) = (v a) b
(iv) v 1 = v
para cualesquiera elementos a, b A, v, u V .
Si no hay lugar a confusion, el espacio vectorial (V, A, .) sera denotado sim-
plemente por V y se dira que V es un espacio vectorial sobre A, o que V es un
A-espacio. Cuando los escalares operan al lado izquierdo se dice que V es un A-
espacio a izquierda, sin embargo, es necesario aclarar que la teora de algebra lineal
desarrollada a izquierda es completamente equivalente a la desarrollada a derecha. Si
no se advierte lo contrario, todos los espacios vectoriales del presente cuaderno son
espacios vectoriales a derecha. Los espacios vectoriales sobre anillos se les denomina
tambien modulos (vease [6]). As pues, en teora de anillos y modulos se dira que
V es un A-modulo a derecha.
1.1. ESTRUCTURAS ALGEBRAICAS BASICAS 5

Observacion 1.1.12. Es importante senalar que si A es un anillo no conmutativo


y V es un espacio vectorial izquierdo, entonces no basta con cambiar de lado los
escalares, pero manteniendo la asignacion del literal (c) de la defincion anterior,
para obtener un espacio vectorial a derecha. En efecto, si V es un A-espacio a
izquierda y definimos v a := a.v, entonces notemos que (v a) b = b.(a.v) pero
v (ab) = (ab) v = a (b v) y los dos resultados anteriores pueden ser distintos
(veanse [6] y [7]). Claramente para anillos conmutativos los escalares pueden ser
dispuestos indistintamente a derecha o izquierda, segun resulte mas conveniente.
En adelante, salvo que sea necesario algo distinto, los escalares para modulos sobre
anillos conmutativos seran dispuestos por el lado izquierdo.

Ejemplo 1.1.13. Sean A un anillo y n 1 un entero, el conjunto An conformado por


todos los vectores columna de n componentes (a1 , . . . , an )T , ai A, 1 i n, cons-
tituye un espacio vectorial sobre el anillo A respecto de las siguientes operaciones:

[a1 , . . . , an ]T + [b1 , . . . , bn ]T = [a1 + b1 , . . . , an + bn ]T


[a1 , . . . , an ]T c = [a1 c, . . . , an c]T ,

con c A. An se conoce como el n-espacio vectorial canonico sobre el anillo


A. Dos casos particulares destacados son el n-espacio vectorial canonico real Rn y
el n-espacio vectorial canonico entero Zn . Tomando n = 1, es decir, A1 = A, se
obtiene que el anillo A tiene estructura de espacio vectorial sobre si mismo: la suma
de vectores es la suma en el anillo A y el producto entre vectores y escalares es el
producto del anillo A.

Observacion 1.1.14. El conjunto de vectores fila de n componentes se acostumbra


a denotar por A1n y usualmente se le da estructura de A-espacio a izquierda:
c (a1 , . . . , an ) := (ca1 , . . . , can ). Sin embargo, con el proposito de ahorrar espacio y
simplificar la notacion, en adelante, a menudo escribiremos los elementos del espacio
An como vectores fila, siempre y cuando esto no represente confusion.

Como anotamos al principio, toda la teora de espacios vectoriales y transfor-


maciones lineales sobre anillos desarrollada en [6] sera usada en adelante. No sobra
resaltar algunos resultados, definiciones y observaciones.

Teorema 1.1.15. Todo espacio vectorial sobre un anillo de division es libre, es


decir, posee una base. En particular, todo espacio vectorial sobre un cuerpo es libre.

Demostracion. Sea V un espacio vectorial sobre un anillo de division A y sea L la


coleccion de subconjuntos de V que son linealmente independientes (l.i.); L es no
vaco y es ordenado respecto de la inclusion de conjuntos. Sea C un subconjunto no
vaco de L totalemente ordenado y sea C la reunion de los conjuntos que conforman
a C. Vamos a demostrar que C L. Sea {x1 , . . . , xn } un subconjunto finito de C,
6 CAPITULO 1. MATRICES

existen entonces C1 , . . . , Cn C tales que xi Ci , 1 i n. Como C es totalmente


ordenado podemos suponer que xi Cn para cada 1 i n, luego {x1 , . . . , xn }
es l.i ya que Cn es l.i. Esto muestra que C es l.i. C es pues una cota superior
para C en L; aplicamos entonces el lema de Zorn y encontramos en L un elemento
maximal X. Basta entonces demostrar que hXi = V . Sea v V , si v X entonces
v hXi, sea v / X, entonces por la maximalidad de X se tiene que X {v} es l.d.
y existen escalares no todos nulos a, a1 , . . . , an A y vectores x1 , . . . , xn X tales
que v a + x1 a1 + + xn an = 0. No es posible que a = 0, de lo contrario X sera
l.d. Por lo tanto, v = (x1 a1 a1 + + xn an a1 ) hXi.
Definicion 1.1.16. Sean V y W dos espacios vectoriales sobre un anillo A. Una
transformacion lineal (t.l.) de V en W es una funcion f : V W que satisfece
las siguientes condiciones:
(i) f (u + v) = f (u) + f (v)
(ii) f (v a) = f (v) a
para cualesquiera vectores u, v V y cualquier escalar a A. Se dice tambien que
f es un operador lineal o un A-homomorfismo.
Ejemplo 1.1.17. La funcion
An Am
(a1 , . . . , an ) 7 (b1 a1 + c1 an , b2 a1 + c2 an , . . . , bm a1 + cm an )
donde b1 , c1 . . . bm , cm son escalares de A, es una transformacion lineal de An en Am .
Ejemplo 1.1.18. La transformacion lineal nula denotada por 0 se define por
0
V W
v 7 0
De igual manera, la transformacion lineal identica de V se denota por iV y se define
por
Vi
V V
v 7 v
En algebra lineal, como en cualquier rama del algebra, es de vital importancia
el concepto de isomorfismo.
Definicion 1.1.19. Dos espacios vectoriales V y W se dicen isomorfos si existe
una transformacion lineal biyectiva entre ellos, denominada isomorfismo. En tal caso
se escribe V = W . Una transformacion lineal f : V W es invertible si existe una
funcion g : W V tal que f g = iW y gf = iV .
1.1. ESTRUCTURAS ALGEBRAICAS BASICAS 7

Es facil verificar que la funcion g de la definicion anterior es tambien una t.l. y


que f es un isomorfismo si, y solo si, f es invertible.
Pasamos ahora a recordar la estructura algebraica del conjunto de todas las t.l.
de un espacio V en otro W .
Definicion 1.1.20. Sean V y W dos A-espacios. Se definen

HomA (V, W ) := {f : V W |f es una t.l.},


EndA (V ) : = HomA (V, V ).

Proposicion 1.1.21. Sea A un anillo y sean V, W dos A-espacios. Entonces,


(i) HomA (V, W ) es un grupo abeliano.
(ii) EndA (V ) es un anillo.
(iii) Si R es un anillo conmutativo, entonces HomR (V, W ) es un R-espacio.
Demostracion. Vease [6].
Notemos que en general el anillo EndA (V ) no es conmutativo, basta por ejemplo
tener en cuenta el caso particular EndR (R2 ). El grupo de elementos invertibles del
anillo EndA (V ) juega un papel muy importante en el algebra lineal generalizada, en
particular, cuando V es de dimension finita.
Definicion 1.1.22. Sea V un A-espacio. AutA (V ) := EndA (V ) es el grupo lineal
general sobre A.
Notemos tambien que si R es conmutativo, EndR (V ) posee dos estructuras: es
un anillo y es un R-espacio. Este tipo de estructuras se conoce como R-algebras, en
el sentido de la siguiente definicion.
Definicion 1.1.23. Sea R un anillo conmutativo y sea A un conjunto no vaco. Se
dice que A es una R-algebra si
(i) A es un anillo.
(ii) A es un R-espacio respecto de la adicion definida en A.
(iii) (ab) r = a(b r) = (a r)b, para cualesquiera a, b A y cada r R.
A es en algebra conmutativa si A es un anillo conmutativo.
Ejemplo 1.1.24. Si R es un anillo conmutativo y V es un R-espacio, entonces
EndR (V ) es una R-algebra no necesariamente conmutativa.
Ejemplo 1.1.25. Si R es un anillo conmutativo entonces el conjunto R[x] de todos
los polinomios con coeficientes en R es una R-algebra conmutativa.
8 CAPITULO 1. MATRICES

1.2. Matrices sobre anillos


Definicion 1.2.1. Sea A un anillo y sean m, n enteros positivos; una matriz de
tamano m n es una tabla ordenada de m filas y n columnas conformada por
elementos de A en la forma

b11 b1n
B = ... .. .

.
bm1 bmn
Los elementos b11 , . . . , bmn se denominan las componentes o entradas de B. La
entrada que esta en la interseccion de la i-esima fila con la j-esima columna se
denota por bij , y la matriz B tambien se simboliza por B = [bij ]. La i-esima fila de
B se denota por Bi := [bi1 , . . . , bin ], la j-esima columna se denota por

b1j
B (j) := ... .

bmj

La matriz B T = [b0ij ] de tamano n m definida por b0ij := bji , para cada i y cada j,
se denomina la traspuesta de B. La matriz B se dice cuadrada si m = n.
Proposicion 1.2.2. El conjunto Mmn (A) de todas las matrices de tamano m n
con entradas en el anillo A es un A-espacio vectorial respecto de las siguientes
operaciones: si B = [bij ], C = [cij ] Mmn (A) y a A, entonces
B + C := [bij + cij ], B a := [bij a].
Mmn (A) es libre con base canonica {Eij }m,n
i=1,j=1 , donde
..
0 . 0
Eij := 1 , (1.2.1)

.
0 .. 0
es decir, en la matriz Eij la unica entrada no nula corresponde a la interseccion de
la i-esima fila con la j-esima columna en donde esta ubicado el elemento 1. Ademas,
estas matrices satisfacen la siguiente regla para el producto:
(
Eiq , j = p
Eij Epq =
0, j 6= p.
Demostracion. Dejamos los detalles de la prueba al lector. Indiquemos solamente la
notacion para la matriz nula y la representacion de cualquier matriz B de Mmn (A)
en terminos de la base canonica:
1.2. MATRICES SOBRE ANILLOS 9


0 0
0 = ... .. , B = P E b .

. i,j ij ij
0 0

Definicion 1.2.3. Sean B = [bij ] Mmn (A), C = [cij ] Mnp (A), se define el
producto
n
X
BC := D = [dij ], dij := bik ckj , 1 i m, 1 j p.
i=1

Notemos que el producto de matrices se define con la siguiente condicion de


compatibilidad: el numero de columnas del primer factor coincide con el numero de
filas del segundo factor.

Proposicion 1.2.4. Sean B, C, D matrices compatibles para las operaciones indi-


cadas. Entonces

(i) (BC)D = B(CD).

(ii) B(C + D) = BC + BD; (B + C)D = BD + CD.

(iii) Si R es un anillo conmutativo y B, C son matrices con entradas en R, entonces


para cada r R se tiene que (B r)C = (BC) r = B(C r).

(iv) Sean B, C y D matrices como en la definicion 1.2.3. Entonces,

BC = [BC (1) BC (p) ],

BC = [B1 C Bm C]T

(v) Para cada n 1 se define la matriz identica de tamano n n sobre el anillo


A por

1 0 (
.. 1, i = j
E = [eij ] := . , eij :=

6 j
0, i =
0 1

Entonces, para cada matriz B Mmn (A) se tiene que

EB = B, BE = B,
10 CAPITULO 1. MATRICES

donde en la primera identidad E es la identica de tamano m m y en la


segunda E es de tamano n n.

(vi) Para cada n 1, Mn (A) es un anillo. Si R es un anillo conmutativo, entonces


Mn (R) es una R-algebra.
Demostracion. Todas las afirmaciones de esta proposicion son consecuencia directa
de las definiciones; dejamos su prueba la lector.
Las matrices constituyen un lenguaje computacional para el algebra lineal tal
como lo ilustra el siguiente teorema en el cual mostraremos la representacion de
transformaciones lineales por medio de matrices. Para el teorema necesitamos las
siguientes nociones (veanse [4], [5] y [6]).
Definicion 1.2.5. Sean G, H dos grupos, se dice que G es isomorfo a H, lo
cual se denota por G = H, si existe una funcion biyectiva f : G H tal que
f (g g 0 ) = f (g) f (g 0 ) para cualesquiera elementos g, g 0 G. Sean A, B dos anillos,
se dice que A es isomorfo a B, lo cual se denota por A = B, si existe una funcion
biyectiva f : A B tal que f (a + a0 ) = f (a) + f (a0 ), f (aa0 ) = f (a)f (a0 ) para
cualesquiera elementos a, a0 A, y ademas f (1) = 1. Sea R un anillo conmutativo
y sean K, L dos R-algebras, se dice que K es isomorfa a L, lo cual se denota por
K = L, si existe una funcion biyectiva f : K L tal que f (k + k 0 ) = f (k) + f (k 0 ),
f (k r) = f (k) r, f (kk 0 ) = f (k)f (k 0 ) para cualesquiera elementos k, k 0 K, r R,
y ademas f (1) = 1.
Teorema 1.2.6. Sea A un anillo arbitrario.
(i) Si V es un A-espacio libre con una base de n 1 elementos y W es un
A-espacio libre con una base de m elementos, entonces

HomA (V, W )
= Mmn (A) (isomorfismo de grupos).

Si A = R es un anillo conmutativo entonces el isomorfismo anterior es de


espacios vectoriales.

(ii) EndA (V )
= Mn (A) (isomorfismo de anillos).
(iii) Si R es un anillo conmutativo, entonces EndR (V )
= Mn (R) (isomorfismo de
algebras).
Demostracion. La idea central de la prueba del teorema es asignar a cada transfor-
macion lineal una matriz y, recprocamente, definir con cada matriz una transfor-
macion lineal.
Matriz asociada a una transformacion lineal : sea X = {x1 , . . . , xn } una
base de V y sea Y = {y1 , . . . , ym } una base de W ; sea f : V W una t.l., entonces
1.2. MATRICES SOBRE ANILLOS 11

f determina una unica matriz mX,Y (f ) := F := [fij ] Mmn (A), llamada la matriz
de la tranformacion f en las bases X, Y , y definida por
m
X
f (xj ) := yi .fij , 1 j n. (1.2.2)
i=1

Transformacion lineal definida por una matriz : cada matriz F = [fij ]


Mmn (A) determina una unica t.l. f : V W definida como en (1.2.2). Si en
particular V = An y W = Am , entonces f se puede presentar matricialmente en la
siguiente forma:
f : An A m
a := [a1 , . . . , an ]T 7 F a = F [a1 , . . . , an ]T = F (1) a1 + + F (n) an . (1.2.3)
(i) Por lo anterior es claro que la funcion
mX,Y
HomA (V, W ) Mmn (A)
f 7 mX,Y (f )
es un isomorfismo de grupos. Si A = R es un anillo conmutativo, la funcion mX,Y
es un isomorfismo de espacios vectoriales.
(ii) Sea U un A-espacio libre con una base Z = {z1 , . . . , zp } de p elementos y sea
g : W U otra t.l., veamos entonces que
mX,Z (gf ) = mY,Z (g)mX,Y (f ). (1.2.4)
Sean F = mX,Y (f ), G = mY,Z (g) y H = mX,Z (gf ); se tiene que
p
X
(gf )(xj ) = zk hkj
k=1
Xm
= g(f (xj )) = g( yl flj )
l=1
m X p
X
= ( zk gkl ) flj
l=1 k=1
p m
X X
= zk ( gkl flj ),
k=1 l=1
Pm
luego hkj = l=1 gkl flj , es decir, H = GF .
Tomando V = W = U y X = Y = Z en (1.2.4) y considerando lo probado en (i)
se obtiene que EndA (V ) y Mn (A) son anillos isomorfos. Notemos que mX,X (iV ) :=
mX (iV ) = E.
(iii) Esto es consecuencia directa de (i) y (ii).
12 CAPITULO 1. MATRICES

Observacion 1.2.7. (i) Al considerar espacios vectoriales a izquierda algunos au-


tores acostumbran a disponer por filas los coeficientes de la expansion a traves
de una base. En forma mas precisa, sea X = {x1 , . . . , xn } una base de V y sea
Y = {y1 , . . . , ym } una base de W ; sea f : V W una t.l., entonces f determina
una unica matriz mX,Y (f ) := [fij ] Mnm (A), denominada tambien la matriz de
la tranformacion f en las bases X, Y , y definida por
m
X
f (xi ) := fij yj , 1 i n. (1.2.5)
j=1

La identidad (1.2.4) se convierte en

mX,Z (gf ) = mX,Y (f )mY,Z (g). (1.2.6)

En efecto,
P usando la notacion de la demostracion del toerema 1.2.6 tenemos que
g(yj ) = pk=1 gjk zk , 1 j m, mY,Z (g) := [gij ] Mmp (A), luego
m p
m X
X X
(gf )(xi ) = fij g(yj ) = fij gjk zk .
j=1 j=1 k=1

Si utilizaramos tambien notacion izquierda para funciones, es decir, en lugar de


f g
f (x) escribieramos xf , entonces la compuesta V W U debera denotarse f g,
en cuyo caso se tendra la relacion mX,Z (f g) = mX,Y (f )mY,Z (g). Con esta notacion
tendramos en particular el isomorfismo de anillos EndA (A V ) = Mn (A). Sin em-
bargo, la notacion a izquierda para funciones es muy poco usada, esto trae como
consecuencia que en el teorema 1.2.6 los anillos EndA (A V ) y Mn (A) sean anti-
isomorfos. Pero si consideramos el anillo opuesto de Mn (A) (vease [6]), entonces
tendremos el isomorfismo de anillos EndA (A V ) = Mn (A)op . Notemos adicionalmente
que una matriz F := [fij ] Mnm (A) define una t.l. dada por

f
A1n A1m
(a1 , . . . , an ) 7 (a1 , . . . , an )F (1.2.7)

y la matriz de f en las bases canonicas coincide con F .


(ii) Otra alternativa para los espacios a izquierda es disponer nuevamente los
coeficientes de la expansion por columnas y mantener la notacion usual de funciones
a derecha, en tal caso resulta
m p
m X
X X
(gf )(xj ) = g( fij yi ) = fij gki zk ;
i=1 i=1 k=1
1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 13

si cambiamos el anillo A por su anillo opuesto Aop , entonces tendramos mX,Z (gf ) =
mY,Z (g)mX,Y (f ), y en consecuencia el isomorfismo EndA (A V ) = Mn (Aop ). Otra
variante de esta alternativa es no usar el anillo opuesto, pero entonces la identidad
anterior dice que
mX,Z (gf ) = (mX,Y (f )T mY,Z (g)T )T . (1.2.8)
La matriz F Mrs (S) define un homomorfismo
f
Ss
Sr
a 7 (aT F T )T (1.2.9)
y su matriz en las bases canonicas coincide con F . As pues, f : S r S r es un
isomorfismo si, y solo si, F T GLr (S). Finalmente, sea C Mr (S); las columnas
de C constituyen una base de S r si, y solo si, C T GLr (S) (vease el corolario 1.3.5
mas adelante).
(iii) Notemos de todos modos que los valores asignados por la funcion f en
cada una de las dos opciones anteriores coinciden ya que la matriz F en (1.2.7) es
precisamente F T en (1.2.9).
(iv) Finalmente, si A es un anillo conmutativo entonces la relacion (1.2.8) coincide
con (1.2.4) y tambien se tiene que (aT F T )T = F a.

1.3. Inversa de una matriz y cambio de base


Definicion 1.3.1. Sea B Mnm (A) una matriz; se dice que B es semi-invertible
si existe otra matriz B 0 Mmn (A) tal que BB 0 = E y B 0 B = E. En tal caso se
dice que B 0 es la semi-inversa de B. Si n = m se dice que B es invertible y
B 1 := B 0 es la inversa de B. El grupo de elementos invertibles del anillo Mn (A)
se denota por GLn (A) y se denomina el grupo lineal general de orden n sobre el
anillo A.
Notemos que la semi-inversa de una matriz es unica. Ademas, si C Mmp (A)
es semi-invertible, entonces BC es semi-invertible con semi-inversa C 0 B 0 .
Corolario 1.3.2. Sea V un A-espacio libre con una base de n 1 elementos.
Entonces,
AutA (V )
= GLn (A) (isomorfismo de grupos).
Demostracion. Esto es consecuencia del teorema anterior y los detalles de la prueba
los dejamos al lector.
El grupo GLn (A) y varios de sus subgrupos mas destacados seran estudiados
en forma detallada en el ultimo captulo del presente cuaderno. Pasamos ahora a
estudiar los cambios de bases en los espacios libres y a entender su efecto en las
representaciones matriciales de las transformaciones lineales.
14 CAPITULO 1. MATRICES

Proposicion 1.3.3. Sea V un espacio libre con base X = {x1 , . . . , xn } y sea B =


[bij ] Mnm (A). Entonces el conjunto
n
X
Y := {yj = xi .bij |1 j m} (1.3.1)
i=1

es una base de V si, y solo si, B es semi-invertible.

Demostracion. Para simplificar la prueba utilizaremos notacion matricial de tal for-


ma que la igualdad (1.3.1) la escribiremos como
[Y ] = [X]B
con [Y ] := [y1 , . . . , ym ].
) Si Y es una base de V cada elemento de X es combinacion lineal de los
elementos de Y , resulta entonces una matriz B 0 Mmn (A) tal que [X] = [Y ]B 0 .
Por lo tanto , [Y ] = [X]B = [Y ]B 0 B, y por la independencia lineal de Y se tiene
que B 0 B = E. Por la simetra del problema, BB 0 = E.
) [X] = [X]E = [X]BB 0 = [Y ]B 0 , luego V = hXi hY i y entonces V = hY i.
Sean a1 , . . . , am A tales que y1 a1 + + ym am = 0; se tiene entonces que
[Y ]F = 0, donde F Mm (A) es una matriz en la cual cada columna es el vector
[a1 , . . . , am ]T . Resulta entonces [X]BF = 0, pero como X es l.i. entonces BF = 0,
luego B 0 BF = 0, es decir, F = 0, con lo cual a1 = = am = 0.

Definicion 1.3.4. La matriz B de la proposicion 1.3.3 es la matriz de cambio


de la base X a la base Y .

La matriz B 0 es la matriz de cambio de Y a X; notemos que B 0 es semi-invertible.


Esta situacion se presenta solamente en los anillos no dimensionales (vease [5] y la
observacion 1.3.10 mas adelante). Para anillos dimensionales n = m y la matriz de
cambio B es invertible.

Corolario 1.3.5. Sea B Mnm (A); B es semi-invertible si, y solo si, las columnas
de B constituyen una base de Am . Si m = n, B es invertible si, y solo si, las columnas
de B constituyen una base de An .

Demostracion. Basta tomar V = An y X la base canonica de An en la prueba de la


proposicion 1.3.3.

Ejemplo 1.3.6. La sola independencia la columnas de una matriz no garantiza que


sea semi-invertible. Consideremos por ejemplo la matriz cuadrada
 
1 2
B= M2 (Z),
3 4
1.3. INVERSA DE UNA MATRIZ Y CAMBIO DE BASE 15

notemos que B no es invertible como matriz entera ya que su inversa como matriz
real es
 
2 1
B 1 = 3 M2 (Z);
2
12
notemos ademas que las columnas de B son l.i.

Definicion 1.3.7. Dos matrices P Mpq (A) y Q Mmn (A) son semi-equi-
valentes si existen matrices semi-invertibles D Mpm (A) y C Mqn (A) tales
que

Q = D0 P C.

Si p = m y q = n se dice que P y Q son equivalentes si existen matrices invertibles


D GLm (A) y C GLn (A) tales que Q = D1 P C, lo cual denotaremos por P Q.
Si p = m = q = n se dice que P y Q son similares si existe una matriz invertible
C GLn (A) tal que Q = C 1 P C, lo cual se denota por P Q.

Todas las relaciones de la definicion anterior son de equivalencia.

Proposicion 1.3.8. Sea f : V W una t.l, donde V es libre con bases X =


{x1 , . . . , xn }, X 0 = {x01 , . . . , x0q } y W es libre con bases Y = {y1 , . . . , ym }, Y 0 =
{y10 , . . . , yp0 }. Sean P = mX,Y (f ), Q = mX 0 ,Y 0 (f ), C la matriz de cambio de X a X 0
y D la matriz de cambio de Y a Y 0 . Entonces,

Q = D0 P C.

Si q = n y p = m entonces Q = D1 P C. Si V = W , Y = X, Y 0 = X 0 , entonces
Q = C 1 P C.

Demostracion. Tenemos que


m
X
f (xj ) = yk .pkj , 1 j n
k=1
p
X
f (x0t ) = yr0 .qrt , 1 t q
r=1
n
X
x0t = xj .cjt
j=1
Xm
yr0 = yk .dkr , 1 r p,
k=1

luego
16 CAPITULO 1. MATRICES

Pn
f (xj ).cjt = nj=1 ( m
Pm Pn
f (x0t ) =
P P
j=1 k=1 yk .pkj ).cjt = k=1 yk .( j=1 pkj cjt );

f (x0t ) = pr=1 ( m
P P Pm Pp
k=1 yk .dkr ).qrt = k=1 yk .( r=1 dkr qrt ),

y puesto que Y es l.i, entonces P C = DQ, es decir, Q = D0 P C.

Proposicion 1.3.9. Dos matrices P Mpq (A) y Q Mmn (A) son semiequi-
valentes si, y solo si, representan la misma transformacion lineal. Si q = n y p =
m, entonces P, Q Mmn (A) son equivalentes si, y solo si, representan la misma
transformacion lineal. Si q = n = p = m, entonces P, Q Mn (A) son similares si,
y solo si, representan la misma transformacion lineal.

Demostracion. ): sea Q = D0 P C con D Mpm (A) y C Mqn (A) semi-


f
invertibles; P representa una t.l. Aq Ap en las bases canonicas X de Aq y Y
de A . Sea [Y ] := [Y ]D; como D es semi-invertible, entonces Y 0 es tambien una
p 0

base de Ap (notemos que Y 0 esta conformada por las m columnas de D, luego


Ap = Am ). De igual manera, sea [X 0 ] := [X]C, y X 0 es tambien una base de Aq (X 0
esta conformada por las n columnas de C, luego Aq = An ). De otra parte, Q tambien
g
representa una t.l. Aq Ap en las bases X 0 , Y 0 ; se tiene entonces que mX,Y (f ) = P
y mX 0 ,Y 0 (g) = Q, de donde mX 0 ,Y 0 (f ) = D0 mX,Y (f )C = D0 P C = Q = mX 0 ,Y 0 (g), y
por lo tanto, f = g.
): esta parte corresponde la la proposicion 1.3.8.

Observacion 1.3.10. (i) Un punto donde el algebra lineal sobre anillos se aparta del
algebra lineal clasica es en la existencia y tamano de las bases. En [6] se demuestra
que el Z-espacio de los numeros racionales Q no es libre. En cuanto a la unicidad
de las bases, en general, podemos afirmar que en un espacio vectorial libre existen
infinitas bases. Por ejemplo, en Rn el conjunto Xa = {e1 .a, . . . , en }, con a R {0},
es una base. En Z2 se tienen las siguientes bases,

{(1, 0), (0, 1)}, {(1, 0), (0, 1)}, {(1, 0), (0, 1)}, {(1, 0), (0, 1)}, {(1, 1), (1, 2)}.

En el siguiente captulo veremos que {(a, b), (c, d)} es una base de Z2 si, y solo si,
ad bc = 1. El problema de la unicidad entonces es mejor plantearlo en terminos
del tamano de las bases. En [6] se prueba que todo espacio vectorial libre finitamente
generado (f.g.) posee una base finita, y tambien que, en un espacio vectorial libre
todas las bases son finitas o bien todas son infinitas. Ademas, para espacios de bases
infinitas no hay problema con el tamano de las bases, todas tinen la misma cantidad
de elementos. Sin embargo, existen anillos A para los cuales se tiene la siguiente
propiedad: si V es un A-espacio de bases finitas, no necesariamente todas las bases
de V tienen el mismo numero de elementos. Un ejemplo puede ser consultado en [6].
(ii) Sea V un A-espacio libre. Se dice que V es dimensional si todas las bases de
V tienen el mismo numero de elementos. Este numero se denomina la dimension
1.4. MATRICES Y OPERACIONES ELEMENTALES 17

de V y se denota por dimA (V ). Se dice que A es un anillo dimensional si todos


sus A-espacios libres son dimensionales (en ingles IBN , invariant basis number). La
mayora de los anillos estudiados en algebra son dimensionales (vease [2] y [4]). Por
ejemplo, los anillos de division son dimensionales: en efecto, sean X y X 0 dos bases de
tamanos n y n0 , respectivamente, de un espacio vectorial V sobre un anillo de division
A; si n > n0 , entonces, tal como se prueba en espacios vectoriales sobre cuerpos (sin
usar conmutatividad), n0 + 1 vectores de X son linealmente dependientes, lo cual es
falso ya que X es l.i. Los anillos conmutativos tambien son dimensionales (esto lo
probaremos mas adelante).
(iii) Notemos que un anillo A es dimensional si, y solo si, las unicas matrices
semi-invertibles sobre A son las matrices cuadradas (en cuyo caso son invertibles).
Esto hace que si A es un anillo dimensional, entonces todos los A-espacios vectoriales
libres izquierdos son dimensionales, es decir, A es dimensional a derecha si, y solo
si, A es dimensional a izquierda (vease [4]). Ademas, en anillos dimensionales, semi-
invertible = invertible y semi-equivalente = equivalente.
(iv) En adelante en el presente cuaderno asumiremos que A es un anillo dimen-
sional.

1.4. Matrices y operaciones elementales


En el grupo GLn (A) se tienen tres tipos importantes de matrices que permiten
realizar cambios sobre las filas y/o columnas de una matriz. Definimos en esta seccion
estas matrices invertibles especiales.

Definicion 1.4.1. Sea n 2. Se definen los siguientes tipos de matrices elemen-


tales.

(i) Matrices propiamente elementales:



1
..
. a



Tij (a) := E + Eij a = . ..

, a A, i 6= j.

..
.
1

(ii) Permutaciones:

Pij := E Eii Ejj + Eij + Eji .

(iii) Diagonales:
18 CAPITULO 1. MATRICES

Di (a) := E + Eii (a 1), a A .

Proposicion 1.4.2. Las matrices elementales son invertibles,

Tij (a)1 = Tij (a), Pij1 = Pij , Di (a)1 = Di (a1 ).

Demostracion. Ejercicio para el lector.

Definicion 1.4.3. El subgrupo de GLn (A) generado por todas las matrices propia-
mente elementales se denomina grupo elemental, y se denota por En (A).

Las matrices elementales inducen las llamadas operaciones elementales sobre


las filas y columnas de una matriz F Mmn (A), m, n 2:

(i) El efecto de multiplicar F a la derecha por Tij (a) GLn (A) es sumar a la
j-esima columna de F la i-esima columna multiplicada a derecha por a. El
efecto de multiplicar F a la izquierda por Tij (a) GLm (A) es sumar a la
i-esima fila la j-esima multiplicada a izquierda por a.

(ii) El producto F Pij , con Pij GLn (A) intercambia las columnas i-esima y j-
esima de F . Pij F , con Pij GLm (A), efectua el correspondiente intercambio
de filas.

(iii) La matriz F Di (a), con Di (a) GLn (A), se obtiene de F multiplicando la


i-esima columna de F a la derecha por a. Di (a)F , con Di (a) GLm (A), se
obtiene de F multiplicando la i-esima fila de F por a a la izquierda.

Teniendo en cuenta que el producto de matrices invertibles es invertible, obtenemos


inmediatamente el siguiente resultado.

Corolario 1.4.4. Si la matriz G Mmn (A) se obtuvo de F Mmn (A) por


medio de operaciones elementales sobre las fila y/o columnas de F , entonces G es
equivalente a F .

1.5. Ejercicios
1. Determine 10 bases diferentes en Z2 distintas de la base canonica.

2. Determine 10 conjuntos diferentes en Z2 cada uno de 2 elementos y l.d.

3. Sea K un cuerpo y sea V un K-espacio. Si x1 , . . . , xn son vectores l.i. de V ,


demuestre que cada conjunto de n + 1 vectores de hx1 , . . . , xn i es l.d.

4. Demuestre que todo cuerpo K es un anillo dimensional.


1.5. EJERCICIOS 19

5. Sea n 1 entero y sea Rn [x] el conjunto de polinomios reales de grado menor


o igual a n. Demuestre que Rn [x] es un R-espacio de dimension n + 1.

6. Con la notacion del ejercicio anterior, sea X un subconjunto de Rn [x] que


contiene para cada k = 0, 1, . . . , n un unico polinomio de grado k. Demuestre
que X es una base de Rn [x].

7. Demuestre la afirmacion del ejemplo 1.1.17.

8. Sea f : V W una t.l. para la cual existe una funcion g : W V tal que
f g = iW y gf = iV . Demuestre que g es una t.l.

9. Compruebe que EndR (R2 ) no es un anillo conmutativo.

10. Demuestre que M2 (R) es una R-algebra no conmutativa.

11. Sea R un anillo conmutativo y R[x1 , . . . , xn ] el conjunto de polinomios en


n indeterminadas con coeficientes en R. Demuestre que R[x1 , . . . , xn ] es una
R-algebra conmutativa.

12. Demuestre el corolario 1.3.2.

13. Demuestre que las columnas de la matriz B del ejemplo 1.3.6 son l.i.

14. Demuestre que las relaciones de la definicion 1.3.7 son de equivalencia.

15. (vease [1], pag. 17) Sea A un anillo; un subconjunto no vaco I de A es un


ideal derecho de A si x + y I y xa I para cada x I y cada a A.
De manera similar se definen los ideales izquierdos de A. Demuestre que para
cada 1 r n 1, el conjunto
 
0
I=
A

conformado por todas las matrices en las cuales las primeras r filas son nulas
es un ideal derecho de Mn (A). De igual manera, demuestre que el conjunto
de matrices de Mn (A) conformado por todas las matrices en las cuales las
primeras r columnas son nulas es un ideal izquierdo de Mn (A).

16. Sea V un A-espacio y sea v V ; se define

AnnA (v) := {a A|v.a = 0}.

Demuestre que AnnA (v) es un ideal derecho de A. Ademas, si


20 CAPITULO 1. MATRICES

AnnA (V ) := {a A|v.a = 0 para cada v V },

entonces AnnA (V ) es un ideal bilatero de A, es decir, AnnA (V ) es un ideal


izquierdo y derecho de A que cumple
T
AnnA (V ) = vV AnnA (v).

17. Sean V1 , V2 dos subespacios de un A-espacio V . Demuestre que

V1 + V2 := {vi + v2 |v1 V1 , v2 V2 }

es un subespacio de V y que AnnA (V1 + V2 ) = AnnA (V1 ) AnnA (V2 ).

18. Sea V un A-espacio libre con una base de n elementos. Sea f : V V una
t.l. Muestre con un ejemplo que la sobreyectividad de f y la inyectividad no
son condiciones equivalentes.

19. Demuestre la proposicion 1.4.2.

20. Sea A un anillo y sea B Mn (A); se dice que B es simetrica si B T = B,


y antisimetrica si B T = B. Demuestre que B + B T es simetrica y que
B B T es antisimetrica. Ademas, si 2 := 1 + 1 A , entonces demuestre que
B es suma de una matriz simetrica y una matriz antisimetrica.

21. Sean P, Q matrices rectangulares o cuadradas, segun corresponda, sobre un


anillo conmutativo R. Demuestre que (P + Q)T = P T + QT ; (P Q)T = QT P T ;
(P 1 )T = (P T )1 .

22. Sean A1 , . . . , An anillos; demuestre que el producto cartesiano

A1 An := {(a1 , . . . , an )|ai Ai , 1 i n}

bajo las operaciones definidas por componenetes tiene estructura de anillo.


Demuestre ademas los siguientes isomorfismos de anillo y grupo, respectiva-
mente:

Mn (A1 An )
= Mn (A1 ) Mn (An ),

GLn (A1 An ) = GLn (A1 ) GLn (An ).

23. Sea R un anillo conmutativo y sea B = [bij ] Mn (R). Se define la traza de B


por T r(B) := b11 + + bnn . Demuestre las siguientes propiedades:

(i) T r(BC) = T r(CB).


1.5. EJERCICIOS 21

(ii) T r(B + C) = T r(B) + T r(C).


(iii) T r(B.r) = T r(B)r, r R.
(iv) La traza es una t.l. sobreyectiva de Mn (R) en R.
(v) ker(T r) = hXi, donde X = {Eij |i 6= j} {E11 Eii |i 6= 1}.
(vi) T r(B T ) = T r(B).
(vii) T r(P 1 BP ) = T r(B), para cada P GLn (R).
(viii) ker(T r) = hY i, con Y = {BC CB|B, C Mn (R)}.
Captulo 2

Determinantes y sistemas de
ecuaciones lineales

En este captulo presentaremos la teora de determinantes sobre anillos conmutativos


arbitrarios y la usaremos para estudiar sistemas de ecuaciones lineales sobre estos
anillos. Si no se advierte lo contrario R denotara un anillo conmutativo.

2.1. Determinantes
El enfoque que daremos a la funcion determinante utiliza el grupo de permutaciones
de un conjunto finito, el cual trataremos a continuacion.

Definicion 2.1.1. Para cada n 1 sea Sn el conjunto de todas las funciones biyec-
tivas del conjunto In := {1, 2, . . . , n}. Cada una de tales funciones se denomina
permutacion del conjunto In . Bajo la operacion de composicion de funciones , Sn
es claramente un grupo, y se le denomina grupo simetrico de grado n. Una per-
mutacion Sn se llama ciclo de longitud m, 1 m n, si existen m elementos
diferentes 1 , . . . , m In tales que (i ) = i+1 para 1 i m 1, (m ) = 1
y () = para cada In \ {1 , . . . , m }. Un ciclo de longitud 2 se denomina
trasposicion. Dos ciclos = (1 m ) y = (1 r ) se dicen disyuntos, si
{1 m } {1 r } = .

Enunciamos a continuacion algunas de las propiedades mas importantes del


grupo Sn y de sus ciclos. La demostracion de estas puede ser consultada en [8]
y [4].

(i) Los ciclos disjuntos conmutan.

(ii) Cada permutacion de Sn es el producto de ciclos disjuntos. La representacion


es unica salvo el orden.

22
2.1. DETERMINANTES 23

(iii) Cada permutacion en Sn es producto de trasposiciones.

(iv) Si una permutacion Sn tiene dos descomposiciones en productos de r y s


trasposiciones, entonces r es par si, y solo si, s es par.

(v) Una permutacion Sn se denomina par , si se descompone en un numero


par de trasposiciones. El conjunto An de las trasposiciones pares de Sn tiene
las siguientes propiedades: el producto de permutaciones para es par; la per-
mutacion identica es par; la inversa de una permutacion par es par. En otras
palabras, An bajo la composicion es un grupo, llamado el grupo alternante
de grado n.
n!
(vi) Sn tiene n! elementos, mientras que An posee 2
.

Definicion 2.1.2. Sea n 1. Para cada B = [bij ] Mn (R) se define su determi-


nante como el elemento de R dado por
X
det B := (1) b1(1) bn(n) , (2.1.1)
Sn

donde (1) es 1 o 1, dependiendo si es par o impar, respectivamente.

A partir de ((2.1.1)) se pueden demostrar las principales propiedades de la funcion


determinante

det : Mn (R) R
B 7 det B.

Proposicion 2.1.3. Sea B = [bij ] Mn (R). Entonces

det[B1 , . . . , aBi , . . . , Bn ]T = a det B, a R.

Demostracion. Sea C = [cij ] la matriz obtenida de B multiplicando la i-esima fila


por a R. Entonces
X
det C = (1) c1(1) ci(i) cn(n)
Sn
X
= (1) b1(1) abi(i) bn(n)
Sn

= a det B.

Notese la aplicacion de la propiedad conmutativa.


24 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Proposicion 2.1.4. Sea B = [bij ] Mn (R) y (a1 . . . , an ) Rn . Entonces



b11 b1n b11 b1n


det
b i1 + a 1 b in + a n
= det B + det a1 an .


bn1 bnn bn1 bnn
Demostracion. Sea C = [cij ] Mn con
(
brs , r 6= i
crs =
bis + as , r = i.
Entonces,
X
det C = (1) b1(1) (bi(i) + a(i) ) bn(n)
Sn

b11 b1n


= det B + det a1 an

.

bn1 bnn

Proposicion 2.1.5. Si dos filas de una matriz son iguales entonces su determinante
es nulo.
Demostracion. Sea B = [bij ] Mn (R) tal que Br = Bs con r 6= s. Sea =
(rs) Sn y An el grupo de permutaciones pares. Sea An := { | An }.
Notese que |An | = n!2 y que cada permutacion de An es impar. resulta entonces
Sn = An An , con lo cual podemos desarrollar el determinante de B de la siguiente
manera:
X X
det B = (1) b1(1) bn(n) + (1) b1 (1) bn (n)
An An
X
= [(1) b1(1) bn(n) + (1) b1 (1) bn (n) ].
An

Observemos con mayor detalle cada termino de la anterior suma:


(1) b1(1) br(r) bs(s) bn(n) + (1) b1 (1) br (r) bs (s) bn (n)
(2.1.2)
Para i 6= r, s, bi(i) = bi (i) ; br(r) = bs(r) = bs (s) ; bs(s) = br(s) = br (r) ; (1)
y (1) tienen signo diferente. Por lo tanto la suma de 2.1.2 es nula, obteniendose
que det B = 0.
2.1. DETERMINANTES 25

Proposicion 2.1.6. Si en una matriz se intercambian dos filas el determinante


cambia de signo.

Demostracion. Sean B, C Mn (R), donde Cr = Bs , Cs = Br para r 6= s, y Ci = Bi


para i 6= r, s. Considerese la matriz D = [B1 , . . . , Br + Bs , . . . , Bs + Br , . . . , Bn ]T .
De acuerdo a 2.1.5 det D = 0, pero por 2.1.4 se tiene que

0 = det D = det[B1 , . . . , Br , . . . , Bs + Br , . . . , Bn ]T +
det[B1 , . . . , Bs , . . . , Bs + Br , . . . , Bn ]T
= det[B1 , . . . , Br , . . . , Bs , . . . , Bn ]T + det[B1 , . . . , Br , . . . , Br , . . . , Bn ]T +
det[B1 , . . . , Bs , . . . , Bs , . . . , Bn ]T + det[B1 , . . . , Bs , . . . , Br , . . . , Bn ]T
= det B + det C.

Corolario 2.1.7. Si la matriz C Mn (R) se obtuvo de B Mn (R) mediante una


permutacion de filas, entonces det C = (1) det B.

Demostracion. Consecuencia directa de 2.1.6.

Proposicion 2.1.8. Sea B Mn (R). Entonces

det[B1 , . . . , Br + aBs , . . . , Bs , . . . , Bn ]T = det B, con a R, r 6= s.

En consecuencia, si una fila es nula el determinante es nulo.

Demostracion. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.5.

De la definicion y de las propiedades establecidas se obtienen los siguientes re-


sultados:

(i) det E = 1.

(ii) det Di (a) = a, a R.

(iii) det Pij = 1 para i 6= j.

(iv) det Tij (a) = 1, a R.

Teorema 2.1.9. Para B, C Mn (R) se cumple que

det(BC) = (det B)(det C). (2.1.3)


26 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Demostracion. Considerese la matriz D Mn (R) cuyas filas se definen por


Di := bi1 C1 + + bin Cn , 1 i n.
Aplicando 2.1.3 y 2.1.4 a la primera fila de D obtenemos
n
X
det D = bij det[Cj , b21 C1 + + b2n Cn , . . . , bn1 C1 + + bnn Cn ]T
j=1

Procediendo de manera analoga con las demas filas resulta


X
det D = b1j1 b2j2 bnjn det[Cj1 , . . . , Cjn ]T , (2.1.4)
j1 ,...,jn

donde j1 , . . . , jn recorren independientemente los valores de 1 a n. Para valores


iguales de dos ndices el determinante det[Cj1 , . . . , Cjn ] es nulo. As pues, en (2.1.4)
podemos suponer que los subndices j1 , . . . , jn son diferentes. Esto hace que tengamos
una correspondencia biyectiva entre Sn las n-plas (j1 , . . . , jn ) de entradas diferentes
entre s. Resulta entonces
X
det D = b1(1) bn(n) det[C(1) , . . . , C(n) ]T ,
Sn

aplicando el corolario 2.1.7 resulta


X
det D = (1) b1(1) bn(n) det[C1 , . . . , Cn ]T , es decir,
Sn

det D = (det B)(det C).

De este teorema se desprenden algunas conclusiones importantes.


Corolario 2.1.10. (i) Si B GLn (R), entonces det B R y ademas det B 1 =
(det B)1 .
(ii) Matrices similares tienen el mismo determinante.
(iii) Los anillos conmutativos son dimensionales.
Demostracion. Las dos primeras afirmaciones son evidentes.
(iii) Sea V un R-espacio libre con bases X = {x1 , . . . , xn } y Y = {y1 , . . . , ym }.
Supongase que m 6= n; por ejemplo m > n. Sea B Mnm (R) la matriz de cambio
de X a Y . Por 1.3.3, existe B 0 Mmn (R) tal que B 0 B = E (identica de orden m).
Sean B,
e Bf0 Mm (R) las matrices obtenidas de B y B 0 adjuntando columnas y filas
nulas respectivamente. Entonces B f0 B
e = E, pero det E = 1 = det B f0 det B
e = 0 ya
que B tiene filas nulas.
e
2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 27

El punto (ii) del corolario anterior induce la siguiente definicion.

Definicion 2.1.11. Si f : V V es una transformacion lineal de un espacio de


dimension finita, entonces se define el determinante de f como el determinante
de la matriz de f en cualquier base.

La funcion determinante ha sido introducida a traves de las filas de las matrices.


Para mostrar que el tratamiento por columnas es analogo, basta probar que para
cada B Mn (R) se tiene que

det B = det B T . (2.1.5)

En efecto, sea B T = [b0ij ] con b0ij = bij . Notese que Sn es par s, y solo si,
1 Sn lo es; ademas, cuando recorre Sn , 1 tambien lo hace. Por tanto,
X
det B = (1) b1(1) bn(n)
Sn
X
= (1) b0(1)1 b0(n)n .
Sn

Sea (i1 ) = 1, (i2 ) = 2,. . . , (in ) = n, reordenando el producto b0(1)1 b0(n)n se


tiene que
X
det B = (1) b0(i1 )i1 b0(in )in
Sn
X
= (1) b011 (1) b0n1 (n)
Sn
X
= (1) b011 (1) b0n1 (n) .
1 Sn

En total,
X
det B = (1) b01(1) b0n(n)
Sn

= det B T

2.2. Determinantes y funciones multilineales


Consideramos en seguida la caracterizacion de los determinantes a traves de
cuatro propiedades basicas.
28 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Definicion 2.2.1. Sea V un R-espacio y n 1. Una funcion multilineal sobre


V de n argumentos es una aplicacion

D : V V R,

que es lineal en cada uno de sus argumentos, es decir,


(i) D(vi , . . . , vi + vi0 , . . . , vn ) = D(v1 , . . . , vi , . . . , vn ) + D(v1 , . . . , vi0 , . . . , vn ), para
cada 1 i n.

(ii) D(v1 , . . . , vi a, . . . , vn ) = D(v1 , . . . , vi , . . . , vn )a, a R, para cada 1 i n.

La funcion se dice alternada si

(iii) D(v1 , . . . , vi , vi+1 , . . . , vn ) = 0, para vi = vi+1 y cada 1 i n 1;

y antisimetrica, si

(iv) D(v1 , . . . , vi , vi+1 , . . . , vn ) = D(v1 , . . . , vi+1 , vi , . . . , vn ), para cada 1 i n.


Proposicion 2.2.2. Toda funcion multilineal alternada es antisimetrica. Si 2 :=
1 + 1 R , entonces el recproco es valido.
Demostracion.

D(v1 , . . . , vi + vi+1 , vi + vi+1 , . . . , vn ) = 0


=D(v1 , . . . , vi , vi + vi+1 , . . . , vn ) + D(v1 , . . . , vi+1 , vi + vi+1 , . . . , vn )
=D(v1 , . . . , vi , vi , . . . , vn ) + D(v1 , . . . , vi , vi+1 , . . . , vn )+
D(v1 , . . . , vi+1 , vi , . . . , vn ) + D(v1 , . . . , vi+1 , vi+1 , . . . , vn ),

de donde
D(v1 , . . . , vi , vi+1 , . . . , vn ) = D(v1 , . . . , vi+1 , vi , . . . , vn ).
Para el recproco basta considerar

D(v1 , . . . , vi , vi , . . . , vn ) = D(v1 , . . . , vi , vi , . . . , vn ),

de donde 2D(v1 , . . . , vi , vi , . . . , vn ) = 0.
Proposicion 2.2.3. La funcion determinante definida en (2.1.1), es una funcion
multilineal alternada de sus filas (y columnas).
Demostracion. Consecuencia de las proposiciones 2.1.3, 2.1.4 y 2.1.6.
Teorema 2.2.4. Sea D : Mn (R) R es una funcion multilineal y alternada re-
specto de las filas, tal que D(E) = 1. Entonces D = det.
2.2. DETERMINANTES Y FUNCIONES MULTILINEALES 29

Demostracion. Sean B, C Mn (R), tales Cr = Bs , Cs = Br para r 6= s y Ci = Bi


para i 6= r, s. Entonces D(C) = D(B): en efecto, supongase por ejemplo que s > r.
La matriz C es el resultado de intercambiar la r-esima y s-esima filas de B. Notese
que este intercambio se logra aplicando 2(s r) 1 veces la propiedad (iv) de 2.2.1,
la cual podemos usar en virtud de 2.2.2. Puesto que toda permutacion Sn
es producto de transposiciones , entonces de lo demostrado hace un momento se
obtiene: si la matriz C Mn (R) se obtuvo de B Mn (R) mediante una permutacion
de sus filas, entonces D(C) = (1) D(B).
Antes de emprender la prueba propiamente, notese que si la matriz B tiene dos filas
iguales, entonces D(B) = 0: si las filas son consecutivas no hay algo por mostrar.
De no ser as, aplicamos una permutacion adecuada para que lo sean, y entonces
usamos lo probado hace un momento.
Sea B = [bij ] Mn (R) y ei = (0, . . . , 1, . . . , 0) para 1 i n. B Ppuede ser
n n n
considerado Pn como una elemento de R R notando que B = [ j=1 b1j
ej , . . . , j=1 bnj ej ]. De esto se sigue que
n
X n
X
D(B) =D[ b1j ej , . . . , bnj ej ]
j=1 j=1
n
X n
X
= b1j D[ej , . . . , bnj ej ]
j=1 j=1

= =
X
= b1j1 bnjn D[ej1 , . . . , ejn ],
j1 ,...,jn

donde j1 , . . . , jn recorren independientemente valores de 1 a n. El resto de la prueba


es similar a la demostracion del teorema 2.1.9.
La proposicion 2.2.3 y el teorema 2.2.4 garantizan la existencia y unicidad de
una funcion determinante.

Presentaremos a continuacion un resultado antiguo  relativo a determinantes pero


i , . . . , ik
con aplicaciones recientes. Sea A Mmn (R) y A 1 la submatriz de A de
j1 , . . . , j k
orden k k, conformada por las filas i1 , . . . , ik y las columnas j1 , . . . , jk . Se tiene
entonces la siguiente formula.
Proposicion 2.2.5 (Formula de Cauchy-Binet). Sean A Mmn (R), B
Mnp (R) matrices sobre R y C Mmp (R) su producto. Entonces,
  X    
i1 , . . . , i k i1 , . . . , i k r1 , . . . , r k
det C = det A det B ,
j1 , . . . , j k r1 , . . . , r k j1 , . . . , j k
30 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

donde la suma se extiende a todos los subconjuntos {r1 , . . . , rk } de In = {1, 2, . . . , n}


tales que 1 r1 < r2 < < rk n.

Demostracion. Ejercicio para el lector.

2.3. Menores y cofactores


La teora de determinantes puede ser emprendida por medio de los llamados menores
de las matrices. La construccion en este caso la efectuamos por induccion sobre el
tamano n de las matrices. Apoyandonos en el teorema 2.2.4, estableceremos que la
nueva definicion coincide con la dada en ((2.1.1)) de la seccion anterior.

Definicion 2.3.1. Definimos inductivamente una funcion

D : Mn (R) R

de la siguiente manera:

(i)

D1 : M1 (R) R
a 7 D1 (a) := a

(ii)

D2 : M2 (R) R
 
b11 b12
7 b11 D1 (b22 ) b21 D1 (b12 ) = b11 b22 b21 b12
b21 b22

(iii) Se supone definida una funcion

Dn1 : Mn1 (R) R


B 7 Dn1 (B)

(iv) Sea B = [bij ] Mn (R). Se denomina menor del elemento bij a la imagen
mediante Dn1 de la matriz obtenida eliminando la i-esima fila y la j-esima
columna de B. Dicho menor lo denotaremos por Mij . Definimos entonces

D : Mn (R) R
Xn
B 7 (1)i+1 bi1 Mi1 . (2.3.1)
i=1
2.3. MENORES Y COFACTORES 31

Se dice que la funcion D se ha definido por medio de los menores de la primera


columna.
Proposicion 2.3.2. La funcion D de la definicion 2.3.1 es multilineal y alternada
de sus filas. Ademas D(E) = 1.
Demostracion. La prueba de las cuatro propiedades requeridas se hace por induccion
sobre n. Los casos n = 1, 2 se demuestran directamente a partir de las definiciones
de D1 y D2 . Supongase entonces que Dn1 satisface las cuatro propiedades. Sea
E = (eij ) la identica de orden n. Puesto que eij = 0 para i 6= 1, de (2.3.1) resulta
D(E) = e11 M11 . Pero M11 = Dn1 (En1 ) donde En1 denota la identica de tamano
n 1. Por induccion D(E) = 1.
Sea B = [bij ] Mn (R), v = (a1P , . . . , an ) Rn y C = [cij ] = (B1 , . . . , Br +
n
T
v, . . . , Bn ) . Por (2.3.1), D(C) = i=1 (1)
i+1
ci1 Mi10 , donde Mi10 es el menor de
ci1 . Podemos escribir entonces
n
X
D(C) = (1)i+1 ci1 Mi10 + (1)r+1 (br1 + a1 )Mr1
i=1
i6=r
X n
= (1)i+1 bi1 [Mi1 + Dn1 (F )] + (1)r+1 (br1 + a1 )Mr1 ,
i=1
i6=r

donde F es la matriz obtenida de C suprimiendo la primera columna y la i-esima


fila. Resulta entonces
D(C) = D(B) + D[B1 , . . . , v, . . . , Bn ].
Sean ahora B = [bij ] Mn (R) y C = [cij ] = [B1 , . . . , aBr , . . . , Bn ]T , a R. Entonces
n
X
D(C) = (1)i+1 ci1 Mi10
i=1
n
X
= (1)i+1 bi1 aMi1 + (1)r+1 br1 aMr1
i=1
i6=r

=aD(B).
Sean por ultimo B = [bij ] Mn (R) tal que B = [B1 , . . . , Br , Br , . . . , Bn ]T . Entonces
n
X
D(B) = (1)i+1 bi1 Mi1 + (1)r+1 br1 Mr1 + (1)r+2 Mr+1,1
i=1
i6=r,r+1

=0 + (1)r+1 [br1 Mr1 br1 Mr1 ],


dado que Mr1 = Mr+1,r . De esta manera, D(B) = 0.
32 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Del teorema 2.2.4 se desprende inmediatamente que la funcion D en (2.3.1)


coincide con la funcion definida en (2.1.1).
Como habiamos mencionado antes, la funcion D se definio mediante los menores
de la primera columna. Sin embargo, tambien podemos definir la funcion D a traves
de los menores de cualquier columna, y demostrar de manera analoga la proposicion
2.3.2. De esto, y teniendo en cuenta que det(B T ) = det(B), resulta que
n
X
det B = (1)i+j bij Mij , 1jn (2.3.2)
i=1
n
X
det B = (1)j+i bij Mij , 1in (2.3.3)
j=1

Definicion 2.3.3. Sea B = [bij ] Mn (R). El elemento Bij definido mediante

Bij := (1)i+j Mij ,

se denomina el complemento algebraico de bij . La matriz Cof (B) de los com-


plementos algebraicos
Cof (B) = [Bij ],
se denomina matriz cofactor de B. La transpuesta Cof (B)T de la matriz cofactor
de denomina la adjunta de B, y se denota por Adj(B).

Teorema 2.3.4. Sea B Mn (R). Entonces,

(i) B Adj(B) = Adj(B)B = det(B)E.

(ii) B GLn (R) si, y solo si, det(B) R . En tal caso

B 1 = (det B)1 Adj(B).

Demostracion. (i) Probaremos inicialmente las siguientes formulas:


(
0, i 6= j,
bi1 Bj1 + + bin Bjn = (2.3.4)
det B, i = j.
(
0, i 6= j,
b1j B1i + + bnj Bni = (2.3.5)
det B, i = j.

Las pruebas en ambos casos son analogas, por ello solo analizaremos (2.3.4). El caso
i = j corresponde a (2.3.3). Sea pues i 6= j y considerese la matriz C = [cij ] obtenida
2.3. MENORES Y COFACTORES 33

de B reemplazando la j-esima fila de B por la i-esima. Entonces calculando det C


por la j-esima fila tenemos
n
X n
X
k+j
0 = det C = (1) bjk Mjk = bik Bjk .
k=1 k=1

Sea ahora C = [cij ] = B Adj(B). Entonces,


n
(
X 0, i 6= j,
cij = bik Bjk ,
k=1
det B, i=j

de donde B Adj(B) = det(B)E. De (2.3.5) resulta tambien det(B)E = Adj(B)B.


(ii) Es consecuencia de (i) y del corolario 2.1.10
Del teorema anterior se desprenden algunas consecuencias interesantes. Sean
B, C Mn (R) tales que BC = E. entonces det B R , con lo cual B GLn (R) y
CB = E.
La funcion

det : GLn (R) R


B 7 det B

es un homomorfismo sobreyectivo de grupos (o equivalentemente, un isomorfismo


no necesariamente inyectivo).
Definicion 2.3.5. El conjunto de matrices de GLn (R) cuyo determinante es 1,
es decir, el nucleo del homomorfismo det es un subgrupo normal de GLn (R), de-
nominado el grupo especial lineal de dimension n sobre R, y se denota por
SLn (R).
SLn (R) constituye otro de los grupos de matrices que estudiaremos en el ultimo
captulo. Se tienen ademas las siguientes propiedades:

En (R) SLn (R)  GLn (R), GLn (R)/SLn (R)


= R , (2.3.6)

donde En (R) es el grupo elemental generado por todas las transvecciones (vease
la definicion 1.4.3). Se puede probar que para n 3, En (R)  SLn (R). Ademas,
existen clases importantes de anillos conmutativos para los cuales el grupo especial
y el elemental coinciden. Sobre esto volveremos en el ultimo captulo (vease tambien
[12]). Por ahora veamos las siguientes propiedades para cuerpos.
Proposicion 2.3.6. Sea K un cuerpo. Entonces,
(i) GLn (K) = hTij (a), Dn (b), 1 i, j n, i 6= j, a K, b K i.
34 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

(ii) En (K) = SLn (K).

Demostracion.
  (i) Induccion sobre n. Para n = 1 no hay algo por demostrar. Sea
a b
n=2y GLn (K); no es posible que a = 0 = c; sea c 6= 0, entonces
c d
1 b0
 1a     
1 c a b
= , b0 = b + (1a)d
c
,
0 1 c d c d
1 0 1 b0 1 b0
    
= , d0 = b0 c + d,
c 1  c d  0 d0 
1 b0 1 b0

1 0
= ,
0 d0 0 1 0 d0
de donde,
a1
1 0 1 0 1 b0
      
a b 1 c
= ;
c d 0 1 c 1 0 d0 0 1
notese que d0 6= 0, pues de lo contrario d = b0 c = bc+dab
c
c y as bc ad = 0, esto
d d
ultimo implica que b = c a, y como d = c c tenemos que las columnas dela matriz son
d11 d1n
l.d. contradiciendo nuestra hipotesis inicial. Sea D = GLn (K);
dn1 dnn
existe 1 j n tal que dj1 6= 0; entonces

1 d012 d01n

1 d11 d021 d022 d02n
T1j ( )D = ,
dj1
d0n1 d0n2 d0nn

mediante operaciones
  elementales del tipo Tij reducimos esta ultima matriz a una
1 0
de la forma donde D0 GLn1 (K); mediante induccion y despejando como
0 D0
hicimos en el caso n = 2 completamos la prueba (notese que en la factorizacion
de de D solo aparece una matriz diagonal). Por otra parte, si c = 0 pero a 6= 0,
realizamos la siguiente operacion elemental previamente:
    
1 0 a b a b
= con a 6= 0.
1 1 0 d a b+d

(ii) Esto se obtiene de (i) y (2.3.6).

Otras consecuencias de la teora de determinantes son las siguientes.

Teorema 2.3.7. Sea V un R-espacio libre de dimension finita n 1. Tenemos,


2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 35

(i) Si X es un sistema de generadores de V con n elementos, entonces X es una


base de V .
(ii) Un conjunto X de generadores de V con r 1 elementos es minimal si V
no se puede generar con menos de R elementos. Si X es minimal, entonces X
es una base de V y |X| = n. En particular, V no se puede generar con menos
de n elementos, es decir, dim V = minimal de generadores de V .
Demostracion. (i) Vimos en el ejemplo 1.3.6 que aunque X sea l.i. con |X| = n,
no necesariamente X resulta ser una base de V . Veremos ahora que si V = hXi y
|X| = n, entonces X es una base de V . En efecto, sean Y = {y1 , . . . , yn } un base
de V , y r1 . . . , rn R tales que x1 r1 + + xn rn = 0, entonces [X][r]T = 0;
sin embargo, [X] = [Y ]B y [Y ] = [X]C para ciertas matrices B, C Mn (R).
De esta forma, [Y ]B[r]T = 0 de donde B[r]T = 0; ademas, [Y ] = [Y ]BC y en
consecuencia BC = E, con lo que det(B) det(C) = 1, es decir, det(B) R y por
tanto B GLn (R); as, CB = E y CB[r]T = 0, de donde se concluye que [r]T = 0.
(ii) Como r es minimal necesariamente r n. Supongamos que r < n; como en (i),
sea Y = {y1 , . . . , yn } una base de V , entonces [X] = [Y ]B para alguna B Mnr (R)
y [Y ] = [X]C para cierta matriz C Mrn (R); as [Y ] = [Y ]BC, y por tanto,
BC = E. Sean B0 := [B | 0] Mn (R) y C0 := [ C0 ] Mn (R), entonces B0 C0 = E
y, en consecuencia, det(B0 ) det(C0 ) = 1; pero det(C0 ) = 0 lo que es claramente una
contradiccion, y as necesariamente r = n. De (i) se sigue que X es una base.
Teorema 2.3.8. Sea R un anillo conmutativo cualquiera y sea f : Rn Rn un
homomorfismo sobreyectivo. Entonces f es biyectivo.
Demostracion. Sea X = {e1 , . . . , en } la base canonica de Rn ; entonces existen
a1 , . . . , an Rn tales que f (ai ) = ei para 1 i n. Sea g : Rn Rn el homomorfis-
mo dado por g(ei ) = ai para 1 i n, entonces f g = iRn ; as mX (f g) = F G = E,
de modo que det(F ) R y, por tanto, F es invertible. En consecuencia, f es un
homomorfismo biyectivo.
Ejemplo 2.3.9. Aun en DIP s inyectividad no implica sobreyectividad: basta con-
siderar la aplicacion f : Z Z dada por f (a) := 2a; claramente esta aplicacion es
un homomorfimo inyectivo pero no sobre.

2.4. Ideales, rango y sistemas de ecuaciones


Definicion 2.4.1. Sea R un anillo conmutativo. Se denomina sistema lineal de
ecuaciones en n indeterminadas y m ecuaciones, al conjunto de ecuaciones
a11 x1 + + a1n xn = b1
.. .. .. .. (2.4.1)
. . . .
am1 x1 + + amn xn = bm
36 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

con a11 , . . . , amn , b1 , . . . , bm R. Los elementos aij se denominan coeficientes del


sistema, los bi se denominan los terminos independientes del sistema, esto para
1 i m y 1 j n, y x1 , . . . , xn representan elementos de R por determinar. Si
A = [aij ] Mmn (R) es la matriz de coeficientes del sistema, X := [x1 , . . . , xn ]T y
B := [b1 , . . . , bm ]T , el sistema (2.4.1) puede escribirse matricialmente en la forma

AX = B (2.4.2)

El sistema (2.4.2) se dice homogeneo si B = 0. Se denomina solucion del sistema


(2.4.2) a una matriz columna X0 = [x01 , . . . , x0n ], x0i R, tal que AX0 = B. (2.4.2)
se dice compatible (o soluble) si posee al menos una solucion, de los contrario se
denomina incompatible. Un sistema compatible con mas de una solucion se llama
indeterminado. Sea A0 X = B 0 otro sistema de orden m n sobre R; AX = B y
A0 X = B 0 se dicen equivalentes, si ambos son incompatibles, o bien siendo ambos
compatibles, tienen el mismo conjunto de soluciones. Es claro que esta relacion es
de equivalencia. La matriz (A | B) de orden m (n + 1) obtenida de A adjuntando
B como ultima columna, se denomina matriz ampliada del sistema (2.4.2).
El proposito de esta seccion es estudiar la compatibilidad y determinabilidad de
los sistemas lineales de ecuaciones con coeficientes en un anillo conmutativo arbi-
trario

Supongamos inicialmente que el sistema (2.4.2) es cuadrado, es decir, m = n.


Multiplicando (2.4.2) por la adjunta de A resulta

Adj(A)AX = Adj(A)B
Pn
k+1
k=1 (1) Mk1 bk
det(A)[x1 , . . . , xn ]T = ..
.

Pn .
k+n
k=1 (1) Mkn bk
Entonces,
n
X
det(A)xj = (1)k+j Mkj bk ,
k=1
es decir,

a11 a1,j1 b1 a1,j+1 a1n
det(A)xj = det ... .. .. .. .. .. .. (2.4.3)

. . . . . .
an1 an,j1 bn an,j+1 ann

para cada 1 j n, es decir, det(A)xj = det[A1 Aj1 BAj+1 An ]. Notese que


si det(A) R , entonces el sistema cuadrado AX = B es determinado. En tal caso,
(2.4.3) se conoce como la regla de Cramer , con X = A1 B.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 37

Pasamos ahora a considerar el caso general de un sistema rectangular como en


(2.4.2). Comencemos por recordar el concepto de ideal de un anillo conmutativo R.
Definicion 2.4.2. Un subconjunto no vaco I de R se denomina ideal de R si
(i) Para cualesquiera a, b I su suma a + b I.
(ii) Para cada a I y cada r R el producto ar I.
En otras palabras, los ideales de R son los subespacios del R-espacio canonico
1
R . Podemos entonces hablar del ideal generado por un conjunto (finito o infinito)
X de elementos de R. Sea A = [aij ] Mnn (R). Para cada 1 k mn{m, n}, sea
Ik (A) el ideal generado por los determinantes de todas las submatrices de orden kk
de A. Se define ademas Ik (A) := R para k 0 e Ik (A) := 0 para k > mn{m, n}.
Ik (A) se denomina el k-esimo ideal determinante de la matriz A.
Notese que se tiene la cadena
= I1 (A) = R = I0 (A) I1 (A) Imn{m,n} Imn{m,n}+1 = 0 = .
Presentamos enseguida el primer criterio de necesidad para la compatibilidad de un
sistema.
Proposicion 2.4.3. Si el sistema (2.4.2) tiene solucion, entonces los ideales de-
terminantes de A coiniciden con los ideales determinantes de la matriz ampliada
(A | B).
Demostracion. Podemos asumir que m n: en efecto, si m > n, agregando inde-
terminadas xn+1 , . . . , xm con coeficientes nulos y columnas a la matriz A, obten-
emos un nuevo sistema A0 X 0 = B con A0 = (A | 0); notese que X es solucion
X
xn+1
de AX = B si, y solo si, X 0 = .. es solucion de A0 X 0 = B. Ademas,

.
xm
0 0
Ik (A) = Ik (A ) e Ik (A | B) = Ik (A | B), para todo k Z. Por lo tanto, dado
k Z, Ik (A0 ) = Ik (A0 | B) si, y solo si, Ik (A) = Ik (A | B). Supondremos entonces
que m n; para k 0 o k > mn{m, n} = m se tiene que Ik (A) = Ik (A | B). Sea
entonces 1 k mn{m, n}; es claro que Ik (A) Ik (A | B). Sea s el determinante
de una submatriz de (A | B) de tamano k k; si toda la submatriz esta incluida
en A se sigue de inmediato que s Ik (A). Supongamos entonces que la submatriz
incluye la columna B:

ai1 j1 ai1 jk1 bi1
ai j ai j bi2
21 2 k1
s = det .. .. .

.. ..
. . . .
aik j1 aik jk1 bik
38 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Sea X = [x1 , . . . , xn ] una solucion de AX = B, entonces

bi1 = ai1 1 x1 + + ai1 n xn


.. .. .. ..
. . . .
bik = aik 1 x1 + + aik n xn

Aplicando las propiedades de la funcion determinante obtenemos



ai1 j1 ai1 jk1 ai1 1
s =x1 det ... .. .. .. + +

. . .
aik j1 aik jk1 aik 1

ai1 j1 ai1 jk1 ai1 n
xn det ... .. .. .. .

. . .
aik j1 aik jk1 aik n

De esta forma s resulta ser una combinacion lineal de subdeterminantes de A de


tamano k k (algunos de ellos pueden ser nulos). En consecuencia, s Ik (A).

La condicion de la proposicion 2.4.3 no es suficiente para garantizar la solubilidad


del sistema AX = B. Es posible presentar un ejemplo donde los ideales determi-
nantes de A y (A | B) coincidan, sin que el sistema AX = B tenga solucion (vease
[1], pag. 59, ejemplo 5.24).

Definicion 2.4.4. Sea A Mmn (R), con m, n enteros positivos arbitrarios. El


rank(A) de la matriz A se define como el mayor entero no negativo k tal que
Ik (A) 6= 0. Notese que 0 rank(A) mn{m, n}. El rango de A segun McCoy,
denotado por Mrank(A), es el mayor entero no negativo tal que AnnR (Ik (A)) = 0,
donde
AnnR (Ik (A)) := {r R | Ik (A)r = 0},
es decir, AnnR (Ik (A)) es el conjunto de elementos r R que anulan a cada elemento
de Ik (A).

Se tienen las siguientes propiedades del rango.

Proposicion 2.4.5. Sea A Mmn (R). Entonces,

(i) rank(A) = rank(AT ),


M rank(A) = M rank(AT ).

(ii) Para cada Q GLm (R) y P GLn (R),


rank(QAP ) = rank(A),
M rank(QAP ) = M rank(A).
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 39

(iii) 0 M rank(A) rank(A) mn{m, n}.


Demostracion. (i) Veamos primero que Ik (A) = Ik (AT ), para todo k Z. Para
k 0 tenemos que Ik (A) = R e Ik (AT ) = R; para k > mn{m, n} tenemos que
Ik (A) = 0 = Ik (AT ). Supongamos ahora que 1 k mn{m, n} y sea s un
i 1 ik
generador de Ik (A), entonces existe una submatriz A de A tal que s =
j1 j k
i1 ik i1 ik
det A = det AT ; de esto ultimo se sigue que s Ik (AT ).
j1 jk j1 jk
De manera analoga se muestra la otra contenencia, de modo que Ik (A) = Ik (AT );
as rank(A) coincide con el mayor entero positivo k tal que Ik (A) 6= 0, que es
precisamente el mayor entero positivo k para el que Ik (AT ) 6= 0, es decir, es igual al
rank(AT ). De la misma manera tenemos que M rank(A) = M rank(AT ).
(ii) Comenzamos probando la siguiente propiedad general (vease [1], pag. 43, lema
4.5): si B Mmp (R) y C Mpn (R) entonces
Ik (BC) Ik (B) Ik (C), para todo k Z. (2.4.4)
En efecto, para k 0 tenemos que Ik (BC) = R, Ik (B) = R = Ik (C); de forma
similar, si k > mn{m, n} entonces Ik (BC) = 0, pero en este caso k > m o k > n
lo cual implica que k > mn{m, p} o k > mn{p, n}, luego Ik (B) = 0 o Ik (C) = 0.
Por tanto, podemos asumir 1 k mn{m, n}. Para terminar la demostracion de
(2.4.4) probemos tres propiedades preliminares:
Ik (BC) Ik (C): sea C = [C 1 C n ], entonces BC = [BC 1 BC n ]. Sea
s un generador de Ik (BC), es decir, s es el determinante de una submatriz
de BC de orden k k tomando las filas i1 < < ik y las columnas j1 <
< jk de BC, entonces (BC)j1 = BC j1 , . . . , (BC)jk = BC jk , de modo que
s Ik ([(BC)j1 (BC)jk ]) = Ik ([BC j1 BC jk ]) = Ik (B[C j1 C jk ]). Clara-
mente Ik ([C j1 C jk ]) Ik (C), luego basta probar que Ik (B[C j1 C jk ])
Ik ([C j1 C jk ]). As pues, estamos en la situacion inical pero con dos matri-
ces B Mmp (R), F Mpk (R) con 1 k mn{m, k}, esto es, k m.
B1 F
Tenemos BF = ... , luego para cada 1 i m

Bm F

f11 fik
(BF )i =Bi F = [bi1 bip ]
fp1 fpk
=[bi1 f11 + + bip fp1 bi1 f1k + + bip fpk ]
=bi1 F1 + + bip Fp ,
40 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Pp
de donde (BF )i = l=1 bil Fl . Sea u un generador de Ik (BF ), entonces

(BF )i1

i1 ik
.
u = det(BF ) = det ..
1 k (BF )ik

Pp F l
l=1 bi1 l Fl p Pp bi l Fl
= det .
..
X l=1 2
= bi1 l det

..
Pp .
l=1 bik l Fl
l=1 Pp
l=1 bik l Fl

Fl1
X ..
= = bi1 l1 bik lk det . ,
l1 ,...,lk Flk

Fl1 Fl1
.. ..
pero det . = 0 si hay filas repetidas, y en los de mas casos det .
Flk Flk
Ik (F ). Por lo tanto, u Ik (F ).

Ik (BC) Ik (B): por (i) Ik (BC) = Ik ((BC)T ) = Ik (C T B T ) Ik (B T ) =


Ik (B). Con esto hemos completado la prueba de 2.4.4.

De (2.4.4) resulta Ik (P AQ) = Ik (A) para todo k Z, P GLm (R) y Q GLn (R):
en efecto, Ik (P A) Ik (A) = Ik (P 1 (P A)) Ik (P A), entonces Ik (P A) = IA ;
Ik (P AQ) = Ik (AQ) Ik (A) = Ik ((AQ)Q1 ) Ik (AQ) = Ik (P AQ), y as, Ik (P AQ)
= Ik (A). En consecuencia, rank(P AQ) = rank(A) y M rank(P AQ) = M rank(A).
(iii) Es claro que rank(A) mn{m, n}, tambien por definicion M rank(A) 0; sea
l = M rank(A) y supongamos que l > rank(A), entonces Il (A) = 0 y en consecuencia
AnR (Il (A)) = R, lo que claramente es una contradiccion.

Sea ahora A Mmn (R) con m n y supongase que M rank(A) = m. Sea



Im (A| B) el ideal generado por los determinantes de todas las submatrices de orden
m m de (A | B) que no son completamente submatrices de A, es decir, la columna
B va incluida.

Proposicion 2.4.6. Sea A Mmn con m n, y sea M rank(A) = m. Si existe


un ideal J de R y un elemento s R rm(que no sea divisor de cero), tales que

JIm (A | B) hsi JIm (A),

entonces AX = B es soluble.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 41

Demostracion. Antes de probar la proposicion, recordemos algunos hechos elemen-


tales relacionados con divisores de cero e ideales. Un elemento s R se dice que
no es divisor de cero en R si s 6= 0 y para cada a R tal que sa = 0 se tiene
que a = 0. De otra parte, siendo I, J ideales de un anillo R se define su producto
IJ como el ideal generado por el conjunto de todos los productos de la forma ab,
con a I y b J. Notese entonces que cada elemento de IJ es una suma finita
a1 b1 + + at bt , con ai I, bi J, 1 i t.
Como M rank(A) = 0, entonces AnnR (Im (A)) = 0 y por tanto, Im (A) 6= 0. Existe
entonces al menos una submatriz A0 de A de orden mm con determinante no nulo.
Reenumerando las columnas y las indeterminadas x1 , . . . , xn , podemos asumir sin
perdida de generalidad que

a11 a1m
A0 = , r1 := det(A0 ) 6= 0.
am1 amm
Entonces,
det(A0 ) 0 b1 b1
. . .. 0 0 ..
. = A Adj(A ) . ,

.
0
0 det(A ) bm bm
y por tanto,

r1 0 b1 b1

(1)1+1 M11 (1)m+1 Mm1
.. .. 0 ...
. =A

.
1+m m+m
0 r1 bm (1) M 1m (1) M mm bm

(1)1+1 b1 M11 + + (1)m+1 bm Mm1
=A0
1+m m+m
(1) b1 M1m + + (1) bm Mmm

x11
=A0 ... ,

x1m
con x1j Im
(A | B), luego r1 bi = m 1 1
P
j=1 aij xj para 1 i m. Tomando xm+1 =
= x1n = 0 obtenemos
n
X
r1 b i aij x1j , 1 i m.
j=1

Sean r1 , . . . , rk los generadores de Im (A). De manera analoga a como lo hicimos hace


un momento tenemos
n
X
rt b i = aij xtj , 1 i m, 1 t k,
j=1
42 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES


donde xtj Im (A | B). Por hipotesis existen q1 , . . . , qk J tales que

k
X
s= qt r t .
t=1

Entonces
k
X k X
X n
sbi = qt r t b i = qt aij xtj
t=1 t=1 j=1
n
X Xk
= aij ( qt xtj ).
j=1 t=1

Pk t
Pero t=1 qt xj JIm (A | B) hsi. Por lo tanto,
n
X
sbi = aij sxej , xej R, 1 i m,
j=1

y como s no es divisor de cero tenemos que


n
X
bi = aij xej .
j=1

Corolario 2.4.7. Sea A Mmn (R) con m n. Si Im (A) = R, entonces AX = B


es soluble.
Demostracion. Im (A) = R implica que M rank(A) = m. Tomando J = R y s = 1
en la proposicion 2.4.6, el corolario se sigue de inmediato.

Evidentemente el recproco no es siempre cierto, Basta considerar el sistema


homogeneo sobre el anillo Z de enteros
    
1 0 x 0
= .
0 0 y 0

Definicion 2.4.8. Sea A Mmn (R); se dice que A es unimodular si Imn{m,n} (A)
= R.

Corolario 2.4.9. Sea A Mmn (R).

(i) Sea m n. Entonces, A es unimodular si, y solo si, A tiene inversa a derecha.
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 43

(ii) Sea n m. Entonces, A es unimodular si, y solo si, A tiene inversa a izquier-
da.

Demostracion. (i)) Como m n entonces mn{m, n} = m,


as Im (A) = R y
1 0
0 0
por el corolario 2.4.9 tenemos que AX = .. , . . . , AX = .. son solubles, luego

. .
0 1

c11 c1m
.. ..
existen C = . , . . . , C = . Rn tales que A[C 1 C m ] = E, es decir,
1 m

cn1 cnm
1 m
si C = [C C ], entonces C es una inversa derecha de A.
) Si AC = E para alguna C Mnm (R), entonces Im (AC) = Im (E) = R
Im (A) Im (C), y por tanto, Im (A) = R, es decir, A es unimodular dado que
mn{m, n} = m.
(ii) Sea n m; como A Mmn (R) entonces AT Mnm (R); as, AT tiene in-
versa a derecha si, y solo si, In (AT ) = R, es decir, si existe D Mmn (R) tal que
AT D = E. Esto ultimo se tiene si, y solo si In (A) = R dado que In (A) = In (AT ).
Por lo tanto, DT A = E si, y solo si, A es unimodular.

Observacion 2.4.10. (i) Sea A Mmn (R) con m n. Entonces A no puede tener
inversa a izquierda: si existe C Mnm (R) tal que CA = E, entonces [C | 0][ A0 ] = E
y tomando determinantes obtenemos que 0 = 1.
(ii) Sea A Mmn (R) con n m. Entonces A no puede tener inversa a derecha:
si existe C Mmn (R) tal que CA = E, entonces [A | 0][ C0 ] = E y tomando
determinantes obtenemos que 0 = 1.

Estudiaremos ahora los sistemas homogeneos AX = 0 con A Mmn (R). Notese


en primer lugar que tales sistemas son solubles y que el conjunto de soluciones
conforman un subespacio de Mn1 (R) = Rn .
Teorema 2.4.11. Sea A Mmn (R). AX = 0 tiene solucion no trivial X =
[x1 , . . . , xn ]T si, y solo si, M rank(A) < n. En particular si m < n, entonces el
sistema AX = 0 tiene solucion no trivial.
Demostracion. ) Sea X = [x1 . . . , xn ]T una solucion no trivial del sistema AX = 0,
luego xj 6= 0 para algun subndice j, 1 j n. Si m < n, tenemos que M rank(A)
m < n y no hay algo por probar. Sea entonces m n; de este modo

x1

a11 a1n
A0 ... = 0, con A0 = .

xn an1 ann
44 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Multiplicando por Adj(A0 ) obtenemos

det(A0 )xj = 0. (2.4.5)

Notese que si A0 es cualquier submatriz de A de tamano n n, entonces tambien se


tiene 2.4.5; en otras palabras, xj 6= 0 anula a todos los generadores de In (A). Por lo
tanto, AnnR (In (A)) 6= 0, y as M rank(A) < n.
) Supongase ahora que t := M rank(A) < n; entonces AnnR (It+1 (A)) 6= 0,
sea y 6= 0 R tal que It+1 (A)y = 0; si t = 0 entonces X := [y, . . . , y] es una
solucion no trivial del sistema. Supongase entonces que 1 t mn{m, n}; como
AnnR (It (A)) = 0, el producto de y con algun generador de It (A) es no nulo. Este
generador es el determinante de una submatriz de A de orden tt. Permutando filas
y/o columnas de A y reindizando las indeterminadas, podemos asumir sin perdida
de generalidad que tal submatriz es

a11 a1t
A0 , y(det(A0 )) 6= 0.
at1 att

Sea A00 la matriz



a11 a1,t+1
A00 := ,
at+1,1 at+1,t+1

(si t = m, tomamos at+1,1 = = at+1,t+1 = 0). Sea dj el determinante de la


submatriz de A00 obtenida al suprimir la ultima fila y la j-esima columna, 1 j
t + 1; sean ademas

hj :=(1)j+(t+1) dj , 1 j t + 1
xej :=hj y, 1 j t + 1
xej :=0, t + 2 j n
Xe fn ]T .
:=[xe1 , . . . , x

0
Notese que X
e=6 0 dado que xg
t+1 = y det(A ) 6= 0; se tiene entonces que

Pt+1
j=1 a1j xej
AX
e = ..
.

.
Pt+1
j=1 amj x
ej
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 45

Pero para 1 i m,
t+1
X Xt+1
aij xej =( aij hj )y
j=1 j=1

Xt+1
=( aij (1)j+(t+1) dj )y
j=1

Xt+1
=( aij A00t+1,j )y.
j=1

Para i 6= t + 1 la suma en el ultimo parentesis es nula; para i = t + 1 esta suma


corresponde al determinante de una submatriz de A de tamano (t + 1) (t + 1), es
decir, es un generador de It+1 (A). Como y AnnR (It+1 (A)) entonces AX e = 0 y el
sistema tiene una solucion no trivial.
Corolario 2.4.12. Sea A Mn (R). AX = 0 tiene solucion no trivial si, y solo si,
det(A) es un divisor de cero en R.
Demostracion. det(A) es un divisor de cero en R si, y solo si, AnnR (In (A)) 6= 0 si,
y solo si, M rank(A) < n.
Corolario 2.4.13. Sea V un R-espacio libre de dimension m 1. Entonces todo
conjunto de n > m vectores de V es l.d.
Demostracion. Sean Y := {y1 , . . . , ym } una base de V , v1 , . . . , vn V y b1 , . . . , bn
R tales que v1 b1 + + vn bn = 0. Entonces, existen escalares aij R tales que
(a11 y1 + +am1 ym )b1 + +(a1n y1 + +amn ym )bn = 0. De la independencia
lineal de los vectores de Y resulta el sistema AB = 0, con A Mmn (R) y B :=
[b1 , . . . , bn ]T . Segun el teorema 2.4.11, algun bj es no nulo.
Ejemplo 2.4.14. Calculemos rank(A) y M rank(A) para
     
2 2 2 0 1 2
A= ,B= ,C= M2 (Z6 ).
0 2 0 3 3 5
rank(A): I0 (A) = Z6 , I1 (A) = h2i, I2 (A) = hai; as rank(A) = 2.
M rank(A): Ann(I0 (A)) = 0, Ann(I1 (A)) = {0, 3} = h3i, Ann(I2 (A)) = h3i;
as M rank(A) = 0.
rank(B): I0 (B) = Z6 , I1 (B) = h2, 3i = Z6 dado que 3 2 = 1 I1 (B) e
I2 (B) = 0; entonces rank(B) = 1.
M rank(B): Ann(I0 (B)) = 0, Ann(I1 (B)) = 0, Ann(I2 (B)) = Z6 ; por lo tanto
M rank(B) = 1.
rank(C), M rank(C): I0 (C) = Z6 , I1 (C) = h1, 2, 3, 5i = Z6 , I2 (C) = h1i =
h1i = Z6 . Entonces rank(C) = 2 = M rank(C).
46 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

Ejemplo 2.4.15. Sea R = Z4 . Calculemos todas las soluciones de AX = B con



1 1 1 1
A = 2 1 2 y B = 2.
1 0 2 3
Tenemos,
   
1 1 1 1
det(A) =1 det + 2 det
1 2 2 1
=(2 1) + 2(1 2) = 1 = 3,

1 1 1
det 2 1 2 =3 + 2(1) = 1;

3 0 2

entonces 3x1 = 1 de modo que x1 = 3. Analogamente,



1 1 1
det 2 2 2 = 0,
1 3 2
as que 3x2 = 0 implica x2 = 0.
Finalmente,

1 1 1
det 2 1 2 = 1 + 3(1) = 2 = 2,
1 0 3

3
por tanto de 3x3 = 2 se sigue x3 = 2 y en consecuencia X = 2.

2
A continuacion haremos la comparacion de algunos de los resultados de esta
seccion con los correspondientes del algebra lineal clasica sobre cuerpos.
Definicion 2.4.16. Sea K un cuerpo y sea X = {x1 , . . . , xn } un conjunto finito
de vectores de un K-espacio vectorial V . Se define el rango de X, denotado por
Rank(X), como la dimension de su envolvente lineal, es decir,

Rank(X) := dim(hXi).

Recordemos algunas propiedades destacadas del rango:


(i) Rank(X) coincide con el maximo numero de vectores l.i. que posea X. Notese
tambien que Rank(X) concuerda con el numero minimal de generadores de
hXi (vease el teorema 2.3.7).
2.4. IDEALES, RANGO Y SISTEMAS DE ECUACIONES 47

(ii) Si V es un K-espacio de dimension n y X es un sistema de n vectores de V ,


entonces X es una base de V si, y solo si, Rank(X) = n.

(iii) El rango columna de una matriz F Mmn (K) se define como el rango
de sus vectores columna: cada columna de F se puede considerar como un
elemento de K m y de esta forma

rango columna de F := Rank{F (1) , . . . , F (n) }.

(iv) El rango columna de F coincide con la dimension del espacio imagen de la


transformacion f que F representa.

(v) De manera analoga se define el rango fila de la matriz F , el cual coincide


con el rango columna. Este rango comun se denomina rango de la matriz F
y se denota por Rank(F ). En particular se tiene que Rank(F ) = Rank(F T ).

(vi) F Mn (K) es invertible si, y solo si, Rank(F ) = n.

(vii) Sean F Mmn (K), Q GLm (K) y P GLn (K). Entonces,

Rank(QF P ) = Rank(F ).

(viii) Dos matrices son equivalentes si, y solo si, tienen el mismo rango.

Proposicion 2.4.17. Para cada A Mmn (K) se cumple

0 M rank(A) = rank(A) = Rank(A).

Demostracion. Si k = rank(A), Ik (A) 6= 0, Ik+1 = 0, luego AnnK (Ik (A)) = 0 y


AnnK (Ik+1 (A)) = K, con lo cual M rank(A) = k. Sea ahora Rank(A) = r, entonces
A es equivalente a la matriz
 
E 0
B= , E = Identica de orden r r.
0 0

Por la proposicion 2.4.5, rank(A) = rank(B) = r; en consecuencia, r = k.

En relacion con los sistemas de ecuaciones lineales sobre cuerpos se tienen los si-
guientes resultados.

(a) Sea AX = 0 un sistema homogeneo de orden m n. Si Rank(A) = r entonces


la dimension del espacio solucion es n r, y recprocamente.
48 CAPITULO 2. DETERMINANTES Y SISTEMAS DE ECUACIONES LINEALES

(b) Todo sistema lineal AX = B de orden m n, con A 6= 0, es equivalente a uno


con matriz escalonada y de la forma
a01j1 xj1 + a01j2 xj2 + a01j3 xj3 + + a01n xn = b01
a02j2 xj2 + a02j3 xj3 + + a02n xn = b02

a0rjr xjr + + a0rn xn = b0r (2.4.6)
0= b0r+1

0 = b0m ,
donde a01j1 , . . . , a0rjr 6= 0, 1 j1 < j2 < < jr . AX = B es soluble si, y solo
si, en el sistema escalonado anterior no se presentan ecuaciones de la forma
b0t = 0, t r, con b0t un elemento no nulo de K. En tal caso, dando valores ar-
bitrarios de K a las indeterminadas libres xjr +1 , . . . , xn obtenemos valores
determinados para las indeterminadas principales xj1 , . . . , xjr .
(c) Sea AX = B un sistema lineal de orden m n. En el corolario 2.4.7 se
demostro que si m n con Im (A) = K, entonces el sistema AX = B es
soluble. Pero la condicion Im (A) = K es equivalente a que M rank(A) = m =
Rank(A). De este modo, si Rank(A) = m, el sistema AX = B es soluble.
(d) Respecto a los ideales determinantes de A y de la matriz ampliada [A | B] se
tiene que la coincidencia de estos ultimos implica la solubilidad del sistema
AX = B: en efecto, si los ideales determinantes de A y [A | B] coinciden,
entonces sus rangos son iguales. De esta forma la envolvente lineal de las
columnas de [A | B] coincide con la envolvente lineal de las columnas de A, es
decir, B es una combinacion lineal de las columnas de A

b1 a11 a1n
.. .. .
. = . x1 + + .. xn ,
bm am1 amn

de donde B = AX y X = [x1 , . . . , xn ]T es solucion. En resumen tenemos que


AX = B es soluble si, y solo si, Rank(A) = Rank[A | B].

(e) Si A Mmn (K), vimos en el teorema 2.4.11 que AX = 0 tiene solucion no


trivial si, y solo si, Rank(A) < n. En particular, si m < n entonces Rank(A)
m < n y el sistema AX = 0 tiene solucion no trivial. Para el caso cuadrado la
condicion det(A) es divisor de cero (vease el corolario 2.4.12) es equivalente a
que det(A) = 0.
2.5. EJERCICIOS 49

2.5. Ejercicios
1. Sea A0 la coleccion de elementos de A que son divisores de cero. Si K es un
cuerpo demuestre que

Mn (K)0 = {B Mn (K)| det(B) = 0}.

2. Sean B Mmp (R) y C Mpn (R). Demuestre que

(i) M rank(BC) mn{M rank(B), M rank(C)}.


(ii) rank(BC) mn{rank(B), rank(C)}.

3. Sean A Mn (R) y B Rn . Sea X0 una solucion de AX = B. Demuestre que


X0 es la unica solucion si, y solo si, M rank(A) = n.
Captulo 3

Producto tensorial

En este captulo estudiamos el producto tensorial de espacios, transformaciones y


matrices sobre anillos conmutativos. Definiremos los tensores y estableceremos su
relacion con las funciones multilineales. El producto tensorial de tensores tambien
sera considerado. Salvo que se advierta lo contrario, R denotara un anillo conmuta-
tivo arbitrario. Para los espacios vectoriales utilizaremos la notacion por la izquierda
para los escalares de R.

3.1. Producto tensorial de espacios vectoriales


Sea V un R-espacio vectorial libre con base X, recordemos que cada funcion t :
X W , con W un R-espacio arbitrario, se puede extender de manera unica a
una transformacion lineal T : V W de tal forma que T (x) = t(x), para cada
x X. De otra parte, si X es un conjunto no vaco cualquiera, entonces R(X)
denota el R-espacio libre con base canonica X 0 := {x (1)}xX , donde x : R R(X)
es la inyeccion canonica de la suma directa externa (vease [6]) de tal forma que
x (1) := (rz )zX y rz := 0 si z 6= x y rx := 1.
Podemos ya emprender la construccion del producto tensorial de dos espacios
vectoriales arbitrarios.
Sean U, V dos espacios vectoriales sobre R, sea X el producto cartesiano de los
conjuntos U y V , es decir, X := U V . Notemos que en el conjunto X hemos
olvidado las estructuras de R-espacio que tienen U y V , a estos ultimos los estamos
tomando simplemente como conjuntos no vacos. Consideremos entonces el R-espacio
vectorial R(X) con base canonica X 0 = {x (1)}xX . Notemos que los elementos de
X son parejas, es decir, un elemento x X es de la forma x = (u, v). En otras
palabras, x (1) = (u,v) (1) denota el arreglo que tiene solamente una entrada no
nula, la ubicada en la posicion (u, v), en la cual colocamos el escalar 1 R. Un

50
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 51

elemento de R(X) es una combinacion lineal finita en la forma

r1 (u1 ,v1 ) (1) + + rt (ut ,vt ) (1).

Observemos que el elemento anterior es un arreglo finito que tiene ubicados en la


posicion (u1 , v1 ) al escalar r1 , en la posicion (u2 , v2 ) al escalar r2 y, por ultimo, en
la posicion (ut , vt ) al escalar rt , en todas las demas posiciones al escalar cero. Esta
notacion puede ser simplificada de la siguiente manera: representemos el elemento
(u,v) (1) de la base canonica X simplemente por (u, v) de tal forma que veamos a
U V como la base canonica de R(X) y a las parejas (u, v) como los elementos de
esta base. As pues, podemos pensar en R(U V ) y considerar que la base canonica
es U V . Con esta notacion podemos decir que un elemento de R(U V ) es una
combinacion lineal finita en la forma

r1 (u1 , v1 ) + + rt (ut , vt ) ,

donde r1 , . . . , rt R.
Sea S el subespacio de R(U V ) generado por todos los elementos de la siguiente
forma

(u + u0 , v) (u, v) (u0 , v) , (3.1.1)


(u, v + v 0 ) (u, v) (u, v 0 ) , (3.1.2)
r (u, v) (r u, v) , (3.1.3)
r (u, v) (u, r v) , (3.1.4)

con r R. Sea U V el R-espacio vectorial cociente correspondiente, es decir,

U V := R(U V ) /S (3.1.5)

Denotemos por uv la clase de equivalencia (u, v) en el cociente U V = R(U V ) /S.


Entonces en U V se tienen las siguientes propiedades fundamentales.

Proposicion 3.1.1. Para cualesquiera elementos u, u0 U, v, v 0 V y r R se


tiene que:

(i) (u + u0 ) v = u v + u0 v

(ii) u (v + v 0 ) = u v + u v 0

(iii) r (u v) = r u v

(iv) r (u v) = u r v

Demostracion. Esto resulta en forma directa de las relaciones (3.1.1) - (3.1.4).


52 CAPITULO 3. PRODUCTO TENSORIAL

Corolario 3.1.2. La funcion canonica

t:U V U V
(u, v) 7 u v

es bilineal, es decir, satisface las siguientes propiedades:

(i) t (u + u0 , v) = t(u, v) + t(u0 + v)

(ii) t(u, v + v 0 ) = t(u, v) + t(u, v 0 )

(iii) t(r u, v) = r t(u, v)

(iv) t(u, r v) = r t(u, v),

para cualesquiera u, u0 U, v, v 0 V y r R.

Demostracion. Consecuencia directa de la proposicion anterior.

Definicion 3.1.3. El espacio vectorial U V se denomina producto tensorial de


U con V .

Sea z un elemento de U V , con z R(U V ) , entonces z es de la forma z =


r1 (u1 , v1 ) + + rt (ut , vt ), por tanto en el cociente U V = R(U V ) /S se tiene
que
z = (r1 u1 ) v1 + + (rt ut ) vt ,
pero como r1 u1 , . . . , rt ut U , entonces podemos siempre asumir que z es de la
forma
u1 v 1 + + ut v t .
El producto tensorial tiene la siguiente propiedad universal.

Teorema 3.1.4. Sea W un R-espacio y sea f : U V W una funcion bilineal.


Entonces, existe una unica transformacion lineal F : U V W tal que F t = f :
t
U V - U V
p
pp
p pp
f
p ppF
pp
?+
W

La tranformacion lineal F se define por

F (u v) := f (u, v) .
3.1. PRODUCTO TENSORIAL DE ESPACIOS VECTORIALES 53

Demostracion. La funcion f definida sobre la base canonica U V de R(U V ) induce


una unica transformacion lineal F 0 : R(U V ) W dada por F 0 (u, v) := f (u, v).
Definimos entonces la funcion F (z) := F 0 (z), donde z R(U V ) . En particular, si
z = (u, v) es un basico, entonces F (u v) = F 0 (u, v) = f (u, v). Debemos ver que
F esta bien definida. Sean z1 , z2 R(U V ) tales que z1 = z2 , entonces z1 z2 S
y por tanto z1 z2 es una R-combinacion lineal de elementos como en (3.1.1) -
(3.1.4). Como F 0 es R-lineal, basta considerar cada una de las cuatro relaciones por
separado. Si z1 z2 = (u + u0 , v) (u, v) (u0 , v), entonces
F 0 (z1 z2 ) = F 0 [(u + u0 , v) (u, v) (u0 , v)]
= f (u + u0 , v) f (u, v) f (u0 , v)
= 0, ya que f es bilineal.
De igual manera se establecen los otros tres casos. Esto muestra que F 0 (z1 ) = F 0 (z2 ),
y F esta bien definida.
De otra parte, como F 0 es R-lineal, entonces F es una transformacion lineal.
Ademas, F t (u, v) = F (u v) = f (u, v), esto prueba que F t = f .
Para terminar la demostracion, sea G otra transformacion lineal G : U V W
tal que Gt = f ; para probar la igualdad G = F basta considerar el vector u v.
As pues, Gt (u, v) = f (u, v), es decir, G (u v) = f (u, v) = F (u v).
Algunas consecuencias del teorema anterior son las siguientes propiedades evi-
dentes del producto tensorial de espacios. Sean U, V R-espacios, entonces:
(i) (U V ) W = U (V W ). El producto tensorial de estos tres espacios
se puede entonces denotar como U V W . Mas adelante consideraremos el pro-
ducto tensorial de tres o mas espacios y su relacion con las funciones multilineales
introducidas en el captulo 2.
(ii) U V
= V U.
(iii)
RV = V, U R = U, R R = R.
Para probar (iii) basta considerar la funcion bilineal f : RV V , f (r, v) := rv. Se
induce entonces la transformacion lineal F : R V V dada por F (r v) := r.v.
De otra parte, la funcion G : V R V definida por G(v) := 1 v es una
transformacion lineal tal que F G = iV y GF = iRV . El segundo isomorfismo se
establece en forma similar, y el tercero es consecuencia de cualquiera de los dos
anteriores.
Consideremos el caso particular en que U y V son libres de dimension finita.
Teorema 3.1.5. Sean U y V dos espacios vectoriales libres de dimension finita n
y m con bases X = {x1 , . . . , xn } y Y = {y1 , . . . , ym }, respectivamente. Entonces,
X Y := {xi yj | 1 i n, 1 j m} es una base de U V , y en consecuencia,
dimR (U V ) = nm.
54 CAPITULO 3. PRODUCTO TENSORIAL

Demostracion. Notemos en primer lugar que si U = 0 o V = 0, entonces el teorema


se tiene en forma trivial con bases vacas. Sean pues n, m 1. Consideremos el
R-espacio de matrices rectangulares Mnm (R) con componentes en R. Definimos
entonces la transformacion lineal
T : Mnm (R) U V
Eij 7 xi yj , 1 i n, 1 j m.
De otra parte, consideremos la funcion
f : U V Mnm (R)
f (u, v) = a1 b1 E11 + + a1 bm E1m + + an b1 En1 + + an bm Enm ,
donde u = a1 x1 + + an xn y v = b1 y1 + + bm ym . Es facil ver que f es bilineal.
Por el teorema 3.1.4 existe una transformacion lineal F : U V Mnm (R) definida
por F (u v) = f (u, v) = a1 b1 E11 + + a1 bm E1m + + an b1 En1 + + an bm Enm .
Pero notemos que F T = iMnm (R) y tambien T F = iU V . Esto demuestra que T es
un isomorfismo de espacios vectoriales, con lo cual X Y es una base de U V y
dimR (U V ) = nm.
Corolario 3.1.6. Sea R un dominio de integridad y sean U, V, X, Y como en el
teorema 3.1.5. Para cualesquiera elementos u U y v V se tiene que
u v = 0 u = 0 o v = 0.
Demostracion. La condicion suficiente se tiene en forma trivial. Sean pues u =
a1 x1 + + an xn y v = b1 y1 + + bmP
ym no nulos, entonces existen i0 , j0 tales que
ai0 6= 0 y bj0 6= 0; puesto que u v = n,m i=1,j=1 ai bj (xi yj ), entonces del teorema
3.1.5 resulta u v 6= 0 ya que ai0 bj0 6= 0.

3.2. Producto tensorial de transformaciones y ma-


trices
Sean T : U U 0 y F : V V 0 dos transformaciones lineales, entonces la funcion
T F : U V U0 V 0
(u, v) 7 T (u) F (v)
es bilineal y por tanto induce una transformacion lineal
T F : U V U0 V 0
u v 7 T (u) F (v) .
La transformacion T F se conoce como el producto tensorial de T con F . Se
tiene entonces la siguiente propiedad.
3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 55

Teorema 3.2.1. Sean X = {x1 , . . . , xn } una base de U , X 0 = {x01 , . . . , x0p } una


base de U 0 , Y = {y1 , . . . , ym } una base de V y Y 0 = {y10 , . . . , yq0 } una base de V 0 .
Entonces,
a11 B a1n B
mXY,X 0 Y 0 (T F ) = ... .. ,

.
ap1 B apn B
donde A = [aij ] := mX,X 0 (T ) y B = [bij ] := mY,Y 0 (F ). La matriz de T F se
conoce como el producto tensorial de las matrices A y B, y se denota por A B.
As pues,
a11 B a1n B
A B := ... .. .

.
ap1 B apn B
A B es de orden pq nm.
Demostracion. Basta aplicar T F a los vectores de la base X Y y expresar los
resultados a traves de la base X 0 Y 0 .
Ejemplo 3.2.2. Sean T : R3 R2 y F : R2 R4 las transformaciones lineales
definidas por
T (x, y, z) = (2x + 3y, 3x + 4z) ,
F (x, y) = (x, x + y, y, y x) .
Determinemos la matriz de T F en las bases canonicas: Basta calcular las matrices
A y B de las transformaciones T y F en las bases canonicas:
 
2 3 0
A = m (T ) = ,
3 0 4

1 0
1 1
B = m (F ) = 0 1 ,

1 1
 
2B 3B 0B
m (T F ) = A B = ,
3B 0B 4B

2 0 3 0 0 0
2 2 3 3 0 0

0 2 0 3 0 0

2 2 3 3 0 0
m (T F ) =
.
3 0 0 0 4 0

3 3 0 0 4 4

0 3 0 0 0 4
3 3 0 0 4 4
56 CAPITULO 3. PRODUCTO TENSORIAL

Mostraremos a continuacion otras propiedades interesantes del producto tensorial


de transformaciones y matrices.
(i) Sean T : U U 0 y F : V V 0 transformaciones lineales sobreyectivas.
Entonces, T F es sobreyectiva. En efecto, si u0 v 0 U 0 V 0 , entonces existe
u U y v V tales que T (u) = u0 , F (v) = v 0 . Por lo tanto, (T F ) (u v) =
T (u) F (v) = u0 v 0 .
(ii) Sean T : U U 0 y F : V V 0 transformaciones lineales sobreyectivas,
entonces ker (T F ) = ker (T )V +U ker (F ). Veamos la demostracion: denotemos
por W := ker (T ) V + U ker (F ), este es un subespacio de U V . Es claro que
W ker (T F ), probemos entonces la otra inclusion. Consideremos el espacio
cociente (U V ) /W y la transformacion lineal canonica

J : U V (U V ) /W
z 7 z

Para el producto tensorial U 0 V 0 consideremos el siguiente diagrama:


t
U0 V 0 - U0 V 0
pp
p pp
p p
h
pp
pp
? +
H

(U V ) /W

donde h (T (u) , F (v)) := J (u v). Veamos que h esta bien definida. Sean T (u1 ) =
T (u) y F (v1 ) = F (v), entonces u1 u := u2 ker (T ) y v1 v := v2 ker (F ),
luego

u1 v1 = (u + u2 ) (v + v2 )
= u v + u v 2 + u 2 v + u2 v 2
= u v + (u v2 + u2 v + u2 v2 ) ,

donde u v2 + u2 v + u2 v2 U ker (F ) + ker (T ) V = W , esto muestra que

u1 v1 u v W,

luego J (u v) = J (u1 v1 ). Notemos que h es bilineal, por tanto induce la trans-


formacion lineal H dada por

H (T (u) F (v)) := h (T (u) , F (v)) = J (u v) ,

de donde H (T F ) = J. Sea z ker (T F ), entonces H (T F ) (z) = H (0) =


0 = J (z) = z, lo cual indica que z W .
3.2. PRODUCTO TENSORIAL DE TRANSFORMACIONES Y MATRICES 57

(iii) Sean T1 : U U 0 , T2 : U 0 U 00 y F1 : V V 0 , F2 : V 0 V 00 transforma-


ciones lineales, entonces

(T2 T1 ) (F2 F1 ) = (T2 F2 ) (T1 F1 ) .

En forma matricial,

A2 A1 B2 B1 = (A2 B2 ) (A1 B1 ) .

(iv) Si iU : U U es la identica de U e iV : V V , es la identica de V , entonces

iU iV = iU V .

En forma matricial,
En Em = Enm .
(v) Sean T : U U 0 y F : V V 0 transformaciones lineales biyectivas, entonces

(T F )1 = T 1 F 1 .

Matricialmente,
(A B)1 = A1 B 1 .
(vi) Sean T y F1 , F2 transformaciones lineales compatibles para las operaciones
indicadas, entonces
T (F1 + F2 ) = T F1 + T F2 .
En forma matricial,

A (B1 + B2 ) = A B1 + A B2 .

En forma similar se tienen las distributivas por el lado derecho.


(vii) Sean T : U U 0 y F : V V 0 transformaciones lineales y sea a R,
entonces
(a.T ) F = T (a.F ) = a. (T F ) .
En forma matricial,

(a A) B = A (a B) = a (A B).

(viii) Sean A Mn (R) , B Mm (R), entonces

tr (A B) = tr (A) tr (B) ,
det (A B) = det (A)m det (B)n .

(ix) Sean A, A0 Mn (K) y B, B 0 Mm (K), entonces

A A0 , B B 0 A B A 0 B 0 ; A A 0 , B B 0 A B A 0 B 0 .
58 CAPITULO 3. PRODUCTO TENSORIAL

3.3. Funciones multilineales y tensores


En el captulo 2 consideramos funciones multilineales sobre un mismo espacio V
para establecer la teora de determinantes (vease la definicion 2.2.1). Estudiaremos
ahora la nocion general de funcion multilineal y su relacion con el producto tensorial
de tres o mas espacios vectoriales. Comezamos con el dual de un espacio vectorial.
Sea V un R-espacio, el conjunto de transformaciones lineales HomR (V, R) es un
R-espacio y se denomina el espacio dual de V , denotado V . Para cuando V es
libre de dimension finita se tiene la siguiente propiedad.

Proposicion 3.3.1. Sea V un R-espacio de dimension finita n 1 con base X :=


{x1 , . . . , xn }. Entonces, X := {x1 , . . . , xn } es una base de V , denominada la base
dual de X, con xi (xj ) := ij , donde ij es el Psmbolo de Kronecker. P Ademas, para
cada f V y cada v V se tiene que f = nk=1 f (xk ) xk y v = nk=1 xk (v) xk .

Demostracion. Este es un sencillo ejercicio para el lector.

Definicion 3.3.2. Sean V1 , . . . , Vn , W espacios vectoriales sobre el anillo conmuta-


tivo R; una funcion
f
V1 Vn
W

es multilineal si es lineal en cada argumento, es decir, para 1 i n y r R

f (x1 , . . . , xi + x0i , . . . , xn ) = f (x1 , . . . , xi , . . . , xn ) + f (x1 , . . . , x0i , . . . , xn ),


f (x1 , . . . , r xi , . . . , xn ) = r f (x1 , . . . , xi , . . . , xn ).

Proposicion 3.3.3. La coleccion M(V1 , . . . , Vn ; W ) de todas las funciones multi-


lineales de V1 Vn en W es un R-espacio vectorial respecto de las siguientes
operaciones:

(f + g)(x1 , . . . , xn ) := f (x1 , . . . , xn ) + g(x1 , . . . , xn ),


(r f )(x1 , . . . , xn ) := r f (x1 , . . . , xn ).

Demostracion. Ejercicio para el lector.

El producto tensorial de tres o mas espacios V1 , . . . , Vn se puede construir en forma


inductiva definiendo V1 Vn := (V1 Vn1 ) Vn , o tambien, mediante
las funciones multilineales, como veremos a continuacion: consideremos el cociente
del R-espacio libre R(V1 Vn ) por el subespacio S generado por todos los vectores
de la forma

(x1 , . . . , xi + x0i , . . . , xn ) (x1 , . . . , xi , . . . , xn ) (x1 , . . . , x0i , . . . , xn ),


r (x1 , . . . , xi , . . . , xn ) (x1 , . . . , r xi , . . . , xn ),
3.3. FUNCIONES MULTILINEALES Y TENSORES 59

con 1 i n y r R. Este espacio cociente se denota por V1 Vn y se


denomina producto tensorial de V1 , . . . , Vn . La clase del vector (x1 , . . . , xn ) se
denota por x1 xn , y cada elemento de V1 Vn es una suma finita de
elementos de esta forma. La funcion canonica definida por

t : V1 Vn V1 Vn
(x1 , . . . , xn ) 7 x1 xn

es multilineal. Esto en particular quiere decir que x1 (xi + x0i ) xn =


x1 xi xn +x1 x0i xn y r(x1 xi xn ) = x1 r
xi xn . El producto tensorial V1 Vn tiene la siguiente propiedad universal
(vease el teorema 3.1.4): sea W un R-espacio y sea f : V1 Vn W una funcion
multilineal. Entonces, existe una unica transformacion lineal F : V1 Vn W
tal que F t = f :
t
V1 Vn - V V
1 n
p p ppp
pp
f p p ppp
ppp F
ppp
?
W

La tranformacion lineal F se define por

F (x1 xn ) := f (x1 , . . . , xn ) .

El teorema 3.1.5 tiene tambien lugar en este caso general, es decir, el producto
tensorial de espacios libres de dimension finita es libre y la dimension es el producto
de las dimensiones. De manera mas precisa, si Xj es una base de Vj entonces

X := X1 Xn := {xj1 xjn |xji Xi , 1 i n}

es una base de V1 Vn . Utilizando la notacion precedente tenemos el siguiente


resultado general valido para espacios arbitrarios.

Teorema 3.3.4. M(V1 , . . . , Vn ; W )


= HomR (V1 Vn , W ).

Demostracion. Segun acabamos de ver, dada f M(V1 , . . . , Vn ; W ) existe una


unica F HomR (V1 Vn , W ) tal que F t = f , definimos entonces :
M(V1 , . . . , Vn ; W ) HomR (V1 Vn , W ) por (f ) := F . Observemos que
es una transformacion lineal inyectiva. Ademas, dada F HomR (V1 Vn , W )
definimos f M(V1 , . . . , Vn ; W ) por f (x1 , . . . , xn ) := F (x1 xn ); es claro
entonces que f M(V1 , . . . , Vn ; W ) y (f ) = F .
60 CAPITULO 3. PRODUCTO TENSORIAL

Corolario 3.3.5. M(V1 , . . . , Vn ; R) = HomR (V1 Vn , R) := (V1 Vn ) .


Si V1 , . . . , Vn son libres de dimension finita, entonces

(V1 Vn )
= V1 Vn . (3.3.1)

Demostracion. La primera afirmacion es consecuencia directa del teorema anterior


tomando W := R.
Sea fi Vi , 1 i n. Definimos la funcion

f : V1 Vn R
f (v1 , . . . , vn ) := f1 (v1 ) fn (vn ) .

Notemos que f es multilineal, luego induce una unica transformacion lineal

F : V1 Vn R
F (v1 vn ) := f (v1 , . . . , vn ) = f1 (v1 ) fn (vn ) .

Esto indica que F (V1 Vn ) ; se define entonces la funcion

fe : V1 Vn (V1 V )
(f1 , . . . , fn ) 7 fe(f1 , . . . , fn ) := F.

Notemos que fe es multilineal, y por lo tanto, induce una transformacion lineal

Fe : V1 Vn (V1 Vn )
Fe (f1 fn ) := fe(f1 , . . . , fn ) = F
Fe (f1 fn ) (v1 vn ) = F (v1 vn ) = f1 (v1 ) fn (vn ) .

Sea Xi := {xi1 , . . . , xiki } un base de Vi y sea Xi = {xi1 , . . . , xiki } la base dual.


Entonces,

Fe x1j1 xnjn (x1r1 xnrn ) = x1j1 (x1r1 ) xnjn (xnrn )




= 1 si (j1 , . . . , jn ) = (r1 , . . . , rn )
= 0, en otro caso.

Sabemos que {x1j1 xnjn | 1 ji ki , 1 i n} es una base de V1 Vn ,


y por lo anterior, Fe x1j1 xnjn = (x1j1 xnjn ) , 1 ji ki , 1 i n.


Es decir, Fe es una transformacion lineal que enva una base en una base, por tanto,
Fe es biyectiva.
3.3. FUNCIONES MULTILINEALES Y TENSORES 61

Sea V un R-espacio arbitrario y denotemos por


Mn (V ; R) := M(V, . . . , V ; R) V})
| {z
= (V (3.3.2)
| {z }
n-veces n-veces

el R-espacio de funciones multilineales sobre V de n argumentos (vease la definicion


2.2.1). Para el caso particular en el cual V es de dimension finita se tiene la siguiente
nocion de tensor.
Definicion 3.3.6. Sea V un R-espacio vectorial libre de dimension finita k 1.
Los elementos del R-espacio
Tn (V ) := Mn (V ; R) V})
| {z
= (V =V
V }
| {z
n-veces n-veces
se denominan n-tensores sobre V .
Notemos que V es el espacio de los 1-tensores y que las funciones bilineales sobre
V son los 2-tensores. Las funciones multilineales considerdas en el captulo 2 para
definir la funcion determinante son un ejemplo de n-tensores. Segun la defincion
anterior, un n-tensor es una suma finita del producto tensorial de n 1-tensores.
Corolario 3.3.7. Sea V un R-espacio vectorial libre de dimension finita k 1.
Entonces, Tn (V ) es libre con dim(Tn (V )) = k n . Si X := {x1 , . . . , xk } es una base de
V , entonces {xj1 xjn | 1 ji k, 1 i n} es una base de Tn (V ). Ademas,
si f Tn (V ), entonces
k
X
f= f (xj1 , . . . , xjn ) (xj1 xjn ). (3.3.3)
j1 ,...,jn

Demostracion. Las primeras dos afirmaciones son consecuencia directa de la prueba


del corolario 3.3.5. Veamos la prueba de la tercera afirmacion: sea (v1 , . . . , vn )
V n = V V ; si vi = ai1 x1 + + aik xk , entonces
k
X
f (v1 , . . . , vn ) = a1j1 a2j2 anjn f (xj1 , . . . , xjn ),
j1 ,...,jn

y por otro lado


k
X
[ f (xj1 , . . . , xjn ) (xj1 xjn )](v1 , . . . , vn )
j1 ,...,jn
k
X
= f (xj1 , . . . , xjn )xj1 (v1 ) xjn (vn )
j1 ,...,jn
k
X
= f (xj1 , . . . , xjn )a1j1 a2j2 anjn .
j1 ,...,jn
62 CAPITULO 3. PRODUCTO TENSORIAL

Los escalares f (xj1 , . . . , xjn ) se denominan las coordenadas del tensor f en la


base X := {x1 , . . . , xk }. Veamos como cambian las coordenadas de f al cambiar
la base X: sea Y := {y1 , . . . , yk } otra base de V y Y = {y1 , . . . , yk } la base dual
correspondiente. Entonces,

k
X
f= f (yi1 , . . . , yin ) (yi1 yin ). (3.3.4)
i1 ,...,in

Puesto que {yi1 yin | 1 ji k} es una base de Tn (V ) y xj1 xjn Tn (V ),


entonces
k
X
xj1 xjn = (xj1 xjn )(yi1 , . . . , yin ) (yi1 yin )
i1 ,...,in
k
X
= xj1 (yi1 ) xjn (yin ) (yi1 yin )
i1 ,...,in
k
X Xk Xk
= xj1 ( cvi1 xv ) xjn ( cvin xv ) (yi1 yin )
i1 ,...,in v=1 v=1
k
X
= cj1 i1 cjn in (yi1 yin ).
i1 ,...,in

Reemplazando en (3.3.3) resulta

k
X k
X
f= cj1 i1 cjn in f (xj1 , . . . , xjn ) (yi1 yin ).
j1 ,...,jn i1 ,...,in

De (3.3.4) se obtiene entonces que

k
X
f (yi1 , . . . , yin ) = cj1 i1 cjn in f (xj1 , . . . , xjn ), (3.3.5)
j1 ,...,jn

donde C := [crs ] es la matriz de cambio de la base X a la base Y .


Concluimos esta seccion con la definicion del producto tensorial de tensores. Para
esto comencemos con una construccion un poco mas general. Existe una transfor-
macion lineal
F
Mn (V ; R) Mm (V ; R)
Mn+m (V ; R).
3.4. TENSORES SIMETRICOS, ANTISIMETRICOS Y ALTERNADOS 63

En efecto, consideremos el siguiente diagrama


t
Mn (V ; R) Mm (V ; R) - Mn (V ; R) Mm (V ; R)
ppp
p p ppp
p
ppp
pp ppp
ppp F
f
p p p
ppp
? ppp

Mn+m (V ; R)

donde t(h, g) := h g y f (h, g) := fh,g , con

fh,g (v1 , . . . , vn ; vn+1 , . . . , vn+m ) := h(v1 , . . . , vn )g(vn+1 , . . . , vn+m ).

Observemos que efectivamente fh,g Mn+m (V ; R) y f es bilineal, luego F existe y


es una transformacion lineal definida por F (h g) := fh,g , es decir,

F (h g)(v1 , . . . , vn ; vn+1 , . . . , vn+m ) := h(v1 , . . . , vn )g(vn+1 , . . . , vn+m ). (3.3.6)

As pues, dadas dos funciones multilineales h Mn (V ; R) y g Mm (V ; R) se define


su producto tensorial por

(h g)(v1 , . . . , vn ; vn+1 , . . . , vn+m ) := h(v1 , . . . , vn )g(vn+1 , . . . , vn+m ). (3.3.7)

En particular, si V es de dimension finita, entonces h Tn (V ), g Tm (V ) y la


relacion anterior define el producto tensorial de tensores.

Proposicion 3.3.8. Sea V un R-espacio vectorial libre de dimension finita k 1.


Entonces, Tn (V ) Tm (V )
= Tn+m (V ).

Demostracion. Basta observar que la transformacion lineal F definida en (3.3.6)


envia una base de Tn (V )Tm (V ) en una base de Tn+m (V ), luego F es un isomorfismo.

3.4. Tensores simetricos, antisimetricos y alterna-


dos
En el captulo 2 definimos las funciones multilineales antisimetricas y alternadas
de n argumentos sobre un R-espacio arbitrario V . Demostramos que que si 2
R , entonces las funciones multilineales alternadas y las antisimetricas coinciden.
Retomamos ahora el tema para el caso particular de los tensores. En esta seccion,
salvo que advierta lo contrario, V es un R-espacio libre de dimension finita k 1.
64 CAPITULO 3. PRODUCTO TENSORIAL

Definicion 3.4.1. Un tensor f Tn (V ) es simetrico si para cada permutacion


Sn y cualquier elemento (v1 , . . . , vn ) V V se cumple

f (v(1) , . . . , v(n) ) = f (v1 , . . . , vn ).

Se dice que F es antisimetrico si

f (v(1) , . . . , v(n) ) = (1) f (v1 , . . . , vn ).

F es alternado si f (v1 , . . . , vn ) = 0, cuando vi = vj con i 6= j.

De esta definicion se obtienen de manera directa los siguientes resultados.

Proposicion 3.4.2. Sean Sn (V ), An (V ) y ALn (V ) las colecciones de n-tensores


simetricos, antismetricos y alternados, respectivamente, sobre el espacio V . En-
tonces, Sn (V ), An (V ) y ALn (V ) son R-espacios. Ademas, ALn (V ) An (V ) y
si 2 R , entonces An (V ) = ALn (V ).

Demostracion. Ejercicio para el lector.


Para los tensores alternados se tienen ademas las siguientes propiedades.

Proposicion 3.4.3. Sean v1 , . . . , vn V vectores tales que para algun i, vi


hv1 , . . . , vi1 , vi+1 , . . . , vn i. Entonces, para cada f ALn (V ), f (v1 , . . . , vn ) = 0.
Ademas, si R es un DI y v1 , . . . , vn V son linealmente dependientes, entonces
para cada f ALn (V ), f (v1 , . . . , vn ) = 0.

Demostracion. Sea vi = r1 v1 + + ri1 vi1 + ri+1 vi+1 + + rn vn , entonces


f (v1 , . . . , vi1 , r1 v1 + + ri1 vi1 + ri+1 vi+1 + + rn vn , vi+1 , . . . , vn ) =
r1 f (v1 , . . . , vi1 , v1 , vi+1 , . . . , vn ) + + ri1 f (v1 , . . . , vi1 , vi1 , vi+1 , . . . , vn ) +
ri+1 f (v1 , . . . , vi1 , vi+1 , vi+1 , . . . , vn ) + + rn f (v1 , . . . , vi1 , vn , vi+1 , . . . , vn ) = 0.
Para la segunda afirmacion, existen r1 , . . . , rn R no todos nulos, digamos ri 6= 0,
tales que r1 v1 + + ri vi + + rn vn = 0. Resulta,
0 = f (v1 , . . . , vi1 , 0, vi+1 , . . . , vn ) = ri f (v1 , . . . , vi1 , vi , vi+1 , . . . , vn ),
pero como R es un DI y ri 6= 0, entonces f (v1 , . . . , vn ) = 0.

Corolario 3.4.4. Sea R un DI y sea V un R-espacio libre de dimension finita


k 1. Entonces, para cada n > k, ALn (V ) = 0.

Demostracion. Consecuencia directa del corolario 2.4.13 y de la proposicion anterior.

Si R = K es un cuerpo de caractersitica cero, a cada tensor f Tn (V ) se pueden


asociar un tensor simetrico y uno alternado ( = antisimetrico). En efecto, definimos
3.4. TENSORES SIMETRICOS, ANTISIMETRICOS Y ALTERNADOS 65

1
P
Sf (v1 , . . . , vn ) := n! Sn f (v(1) , . . . , v(n) ),
1
P
Alf (v1 , . . . , vn ) := n! Sn (1) f (v(1) , . . . , v(n) ).

Sea Sn , entonces := recorre tambien el grupo Sn y se obtiene


1 X
Sf (v (1) , . . . , v (n) ) := f (v (1) , . . . , v (n) )
n! S
n

1 X
= f (v(1) , . . . , v(n) )
n! S
n

= Sf (v1 , . . . , vn ).
1
As pues, Sf Sn (V ). De manera similar, = 1 y (1) = (1) (1) , pero
1
(1) = (1) , luego
1 X
Alf ( (v1 ), . . . , (vn )) := (1) f (v (1) , . . . , v (n) )
n! S
n

1 X
= (1) (1) f (v(1) , . . . , v(n) )
n! S
n

= (1) Alf (v1 , . . . , vn ).

Proposicion 3.4.5. Sean K un cuerpo, con char(K) = 0, y V un K-espacio de


dimension k 1. Entonces, las funciones S : Tn (V ) Sn (V ) y Al : Tn (V )
ALn (V ) definidas por S(f ) := Sf y Al(f ) := Alf son transformaciones lineales.
Ademas, si f es simetrico (alternado), entonces Sf = f (Alf = f ).

Demostracion. Ejercicio para el lector.

Proposicion 3.4.6. Sea K un cuerpo, con char(K) = 0, y sea V un K-espacio de


dimension finita k 1. Entonces,

T2 (V ) = S2 (V ) AL2 (V ).

Demostracion. Considerando que un 2-tensor sobre V es una funcion bilineal sobre


V , entonces el resultado es inmediato si se tiene en cuenta que toda forma bili-
neal se puede expresar en forma unica como suma de una forma simetrica y una
antisimetrica:
f (u, v) = 12 [f (u, v) + f (v, u)] + 12 [f (u, v) f (v, u)].

Concluimos esta seccion definiendo el producto exterior entre tensores.


66 CAPITULO 3. PRODUCTO TENSORIAL

Definicion 3.4.7. Sea K un cuerpo, con char(K) = 0. Sea V un K-espacio de


dimension k 1 y sean f Tn (V ), g Tm (V ). El producto exterior de f y g se
define por
(n + m)!
f g := Alf g . (3.4.1)
n!m!
Segun la proposicion 3.3.8, f g Tn+m (V ), luego Alf g ALn+m (V ) y se tiene
que
(n + m)! 1 X
(f g)(v1 , . . . , vn+m ) = (1) (f g)(v(1) , . . . , v(n+m) )
n!m! (n + m)!
Sn+m
1 X
= (1) f (v(1) , . . . , v(n) )g(v(n+1) , . . . , v(n+m) ).
n!m!
Sn+m

Algunas propiedades del producto exterior se resumen en la siguiente proposicion.

Proposicion 3.4.8. Sean, K, V , k, V , f y g como en la defincion anterior. En-


tonces,

(i) Si f, g T1 (V ), entonces f g = f g g f .

(ii) f 0 = 0.

(iii) Si h Tm (V ), entonces f (g + h) = f g + f h. La distributiva por el lado


izquierdo tambien se cumple.

(iv) Si h Tp (V ), entonces (f g) h = f (g h).

(v) Si a K, entonces, (a f ) g = f (a g) = a (f g).

(vi) g f = (1)nm (f g).

(vii) f f = 0 si n es impar.
1
Demostracion. (i) (f g)(u, v) = 1!1! [f (u)g(v) f (v)g(u)] = f (u)g(v) g(u)f (v) =
(f g)(u, v) (g f )(u, v).
(ii) Evidente ya que f 0 = 0.
(iii) Tambien evidente ya que f (g + h) = f g + f h.
(iv) Esta propiedad asociativa se interpreta de la siguiente manera:

(n + m + p)!
(f g) h = Al(f g)h
n!m!p!

(n + m + p)!
f (g h) = Alf (gh)
n!m!p!
3.4. TENSORES SIMETRICOS, ANTISIMETRICOS Y ALTERNADOS 67

pero
1 X
Al(f g)h = (1) ((f g) h)(v1 , . . . , vn+m+p )
(n + m + p)! S
n+m+p
1 X
= (1) (f (v1 , . . . , vn )g(vn+1 , . . . , vn+m ))h(vn+m+1 , . . . , vn+m+p )
(n + m + p)! S
n+m+p
1 X
= (1) f (v1 , . . . , vn )(g(vn+1 , . . . , vn+m )h(vn+m+1 , . . . , vn+m+p ))
(n + m + p)! S
n+m+p
1 X
= (1) (f (g h))(v1 , . . . , vn+m+p )
(n + m + p)! S
n+m+p

=Alf (gh) .

Esto completa la prueba de la identidad asociativa.


(v) Se obtiene de

(a f ) g = f (a g) = a (f g).

(vi) Sabemos que


1 X
(f g)(v1 , . . . , vn+m ) = (1) f (v(1) , . . . , v(n) )g(v(n+1) , . . . , v(n+m) );
n!m!
Sn+m

consideremos la permutacion Sn+m definida por

(1) := n + 1, . . . , (m) := n + m, (m + 1) := 1, . . . , (m + n) := n,

entonces
1 X
(g f )(v(1) , . . . , v(m+n) ) = (1) g(v(1) , . . . , v(m) )f (v(m+1) , . . . , v(m+n) )
m!n!
Sn+m

=(f g)(v1 , . . . , vn+m ).

Pero como g f es alternada, entonces es antisimetrica, luego

(g f )(v(1) , . . . , v(m+n) ) =(g f )(vn+1 , . . . , vn+m , v1 , . . . , vn )


=(1)m (g f )(v1 , vn+1 . . . , vn+m , v2 , . . . , vn )
=(1)m (1)m (g f )(v1 , v2 , vn+1 . . . , vn+m , v3 , . . . , vn )
..
.
=(1)nm (g f )(v1 , . . . , vn+m ).

As pues, (f g) = (1)nm (g f ), lo cual es equivalente a lo requerido.


(vii) El resultado se tiene de (vi) ya que char(K) = 0.
68 CAPITULO 3. PRODUCTO TENSORIAL

3.5. Algebras y producto tensorial


En esta ultima seccion vamos es definir el producto tensorial de algebras, el algebra
tensorial y el algebra exterior de un R-espacio.
Sean A y B dos R-algebras, entonces podemos construir el producto tensorial
A B de los R-espacios A y B. Este espacio puede ser dotado de estructura de R-
algebra con el producto definido de la siguiente manera: consideremos el diagrama
t
ABAB - ABAB
ppp
p p ppp
ppp
f
p p ppp F
p
ppp
? 
AB

donde t es la funcion multilineal canonica, t(a, b, a0 , b0 ) := aba0 b0 y f es definida


por f (a, b, a0 , b0 ) := aa0 bb0 . Notese que f es multilineal, por tanto, f induce la
transformacion lineal F definida por F (aa0 bb0 ) := aa0 bb0 . Puesto que se tiene
el isomorfismo de R-espacios A B A B = (A B) (A B), entonces podemos
F
suponer que F es la transformacion lineal definida por (A B) (A B) A B,
F ((a b) (a0 b0 )) := aa0 bb0 . Por el teorema 3.3.4, F induce una funcion bilineal
fb
(A B) (A B)
A B,

la cual permite definir la multiplicacion en A B:

fb(a b, a0 b0 ) := F ((a b) (a0 b0 )) = aa0 bb0 ;

as pues, como fb es bilineal, entonces el producto queda bien definido por

(a b)(a0 b0 ) := fb(a b, a0 b0 ) = aa0 bb0 . (3.5.1)

La bilinealidad de fb garantiza que este produto es distributivo. La asociatividad


es consecuencia asociatividad en A y B. El uno de esta algebra es 1 1. A B se
conoce como el producto tensorial de A y B. Si A y B son algebras conmutativas,
entonces A B es conmutativa.
Consideremos ahora un R-espacio V , definimos
M
T (V ) := T i (V ), T 0 (V ) := R, T i (V ) := V
| {z
V}, i 1. (3.5.2)
i0 iveces

Notemos que cada elemento z T (V ) es de la forma z = (zi )i0 , con zi T i (V )


y zi = 0 para casi todo i. En otras palabras, si i : T i (V ) T (V ) es la inyeccion
3.5. ALGEBRAS Y PRODUCTO TENSORIAL 69

canonica dePla suma directa externa (vease [6]), entonces z se puede escribir en la
forma z = iCz i (zi ), donde Cz := {i|zi 6= 0} es el soporte de z (finito). T (V ) es
pues un R-espacio. Si identificamos a T i (V ) con su imagen a traves de la inyeccion
canonica i , es decir, si consideramos a T i (V ) como subespacio del R-espacio T (V ),
entonces T (V ) es suma directa interna de los subespacios T i (V ):
X
T (V ) = T i (V ) = R V (V V )
i0

As pues, cada elemento z T (V ) tiene una representacion unica en la forma z =


z0 + z1 + + zi , con zj T j (V ), 0 j i. T (V ) tiene estructura de R-algebra
con el producto definido mediante distributividad y el R-isomorfismo

T i (V ) T j (V )
= T i+j (V ). (3.5.3)

En T (V ) tenemos entonces que

(v1 vi )(vi+1 vi+j ) := v1 vi+j , (3.5.4)


r(v1 vi ) := r (v1 vi ) =: (v1 vi )r. (3.5.5)

El producto anterior esta bien definido si se tiene en cuenta (3.5.3) y que la repre-
sentacion de cada elemento de T (V ) a traves de la suma directa interna es unica.
Como estamos considerando que T i (V ) T (V ), entonces el isomorfismo ((3.5.3))
se puede interpretar como

T i (V )T j (V ) T i+j (V ).

Notemos que el elemento v1 vi T i (V ) corresponde al producto v1 vi de


tal forma que la relacion (3.5.4) se puede escribir en el forma

(v1 vi )(vi+1 vi+j ) = (v1 vi )(vi+1 vi+j ) = v1 vi+j .

T (V ) se conoce como el algebra tensorial del R-espacio V . Notemos que la in-


clusion

: V T (V )
v 7 v

es una transformacion lineal. El cero de T (V ) es el cero de R, lo mismo ocurre con


el uno. Observemos que T (V ) es un algebra no conmutativa: para v, v 0 V se tiene
que vv 0 = v v 0 6= v 0 v = v 0 v.
El algebra tensorial tiene la siguiente propiedad universal.
70 CAPITULO 3. PRODUCTO TENSORIAL

Teorema 3.5.1. Para cada R-algebra B y cada transformacion lineal f : V B,


existe un unico homomorfismo de R-algebras F : T (V ) B tal que F = f :

V - T (V )
p pp
p
f
p pp
pp
F
?
B

F se define por

F (v) := f (v), v V, F (r) := r 1, r R. (3.5.6)

Demostracion. Para i 2, sea fi es la transformacion lineal inducida por la funcion


multilineal
fi0 : V V B, fi0 (v1 , . . . , vi ) := f (v1 ) f (vi ),
fi (v1 vi ) = f (v1 ) f (vi );
ademas, sean f1 := f , f0 (r) = r 1. Definimos F por
F (z0 + z1 + + zi ) := f0 (z0 ) + f1 (z1 ) + + fi (zi ), con zj T j (V ), 0 j i.
As, F es una transformacion lineal bien definida y satisface F (v1 vi ) =
fi (v1 vi ) = f (v1 ) f (vi ) para i 2, F (v) = f1 (v) = f (v) para cada v V y
F (r) = f0 (r) = r 1 para cada r R. Notemos que F = f . F es un homomorfismo
de R-algebras ya que
F (v1 vi )F (vi+1 vi+j ) = F (v1 vi )F (vi+1 vi+j ) =
f (v1 ) f (vi )f (vi+1 ) f (vi+j ) = F (v1 vi+j ) = F (v1 vi+j ) =
F ((v1 vi )(vi+1 vi+j )),
y ademas F (1) = 1. Si G es otro homomorfismo de R-algebras tal que G = f ,
entonces para cada v V , G(v) = G(v) = f (v) = F (v), ademas, G(r) = G(r 1) =
r G(1) = r 1 = F (r) para cada r R, es decir, G = F .

Pasamos ahora a construir el algebra exterior de V . En T (V ) consideremos el


ideal bilatero J (vease [5]) generado por los elementos de la forma v 2 , v V , es
decir,

J := hv 2 |v V i;

ademas, definimos

J0 := 0 =: J1 , Ji := J T i (V ) para i 2.
3.5. ALGEBRAS Y PRODUCTO TENSORIAL 71

Notese que Ji coincide con el R-subespacio Si de T i (V ) generado por los elementos


de la forma v1 vi , con vr = vs para algun par de ndices 1 r 6= s i. En efecto,
es claro que Ji Si ; para la inclusion recproca basta observar que cada elemen-
to v1 vr vs vi , con vr = vs , pertenece a Ji . Ilustremos con dos situaciones
particulares la prueba inductiva requerida: consideremos v1 v2 v1 ,

(v1 + v2 )(v1 + v2 )v1 = v1 (v1 + v2 )v1 + v2 (v1 + v2 )v1 = v1 v1 v1 + v1 v2 v1 + v2 v1 v1 + v2 v2 v1 ,

luego v1 v2 v1 J3 . Consideremos tambien el caso v1 v2 v3 v1 :

(v1 + v2 )(v1 + v2 )v3 v1 = v1 v1 v3 v1 + v1 v2 v3 v1 + v2 v1 v3 v1 + v2 v2 v3 v1 ,

notemos que los sumandos v1 v2 v3 v1 , v2 v1 v3 v1 estan en J4 tal como vimos en el caso


particular anteriormente analizado. Por lo tanto, v1 v2 v3 v1 J4 . Los dos casos ante-
riores muestran que la prueba en el caso general v1 vr vs vi , con vr = vs , se
establece por induccion sobre s r.
Notemos que
X
J= Ji .
i0
P
En efecto, es claro que Ji J para cada i 0, luego i0 Ji J; ademas, la
suma es directa ya que Ji T i (V ). Veamos que J i0 Ji . Sea z J, entonces
P
existen zj , zj0 T (V ) y vj V , 1 j t, tales que z = z1 v12 z10 + P
+ zt vt2 zt0 , pero
0
si expresamos cada zj y cada zj a traves de su expansion en T (V ) = i0 T i (V ),
encontramos que cada uno de los sumandos de zj vj2 zj0 pertenece a algun Ji , luego la
inclusion senalada es cierta.
Se define entonces el algebra cociente

(V ) := T (V )/J, (3.5.7)

y se conoce como el algebra exterior de V .

Proposicion 3.5.2. Sea V un R-espacio. Entonces, se tiene el R-isomorfismo de


espacios
(V )
M
= i (V ), (3.5.8)
i0

donde

0 (V ) := T 0 (V )/J0 = R, 1 (V ) := T 1 (V )/J1 = V , i (V ) := T i (V )/Ji , i 2.


72 CAPITULO 3. PRODUCTO TENSORIAL

Demostracion. La propiedad universal de i0 i (V ) permite definir una transfor-


L
macion lineal F segun el siguiente diagrama:

(V )
pp
 pp
6
i pp
pp F
pp
pp
M
i
(V ) - i (V )
i
i0

donde i es la inyeccion canonica y i viene dada por


i
T i (V )/Ji = i (V )
(V ) = T (V )/J, i (zi ) := zei ,
con zi := zi + Ji , zi T i (V ), zei := zi + J. Notese que i es una transformacion lineal
bien definida: en efecto, si zi = ziP 0
, entonces zi P zi0 Ji J, luego zei = zei0 .
F se define por F ((zi )) := iC i (zi ) = ei , donde C es el soporte de
iC z
(zi ) 6= 0 y F (0) := 0. Notemos que existe k de tal forma que completando con
sumandos nulos podemos escribir
F ((zi )) = iC zei = ze0 + + zek , con zj T j (V ), 1 j k.
P

Por otro lado, sea G0 : T (V ) i 0


L
i0 (V ) definida por G (z0 + + zi ) :=
0 (z0 ) + + i (zi ), con zj T j (V ), 0 j i. G0 es L obviamente una transformacion
lineal bien definida. Hacemos entonces G : (V ) i0 i (V ), G(e z ) := G0 (z), con
z T (V ). G esta bien definida ya que si ze = ze0 , entonces z z 0 J = i0 Ji ,
P
de donde z z 0 = z0 + + zi , con zj Jj , luego G0 (z z 0 ) = 0. G es claramente
una transformacion lineal. Finalmente, GF ((zi )) = G(ze0 ) + + G(zek ) = G0 (z0 ) +
+ G0 (zk ) =LG0 (z0 + + zk ) = 0 (z0 ) + + i (zk ) = (zi ), es decir, GF es
la identica de i0 i (V ). Tambien, si z := z0 + + zi T (V ), con zi T j (V ),
1 j i, entonces F G(e z ) = F G0 (z) = F G0 (z0 + +zi ) = F 0 (z0 )+ +F i (zi ) =
0 (z0 ) + + i (zi ) = ze0 + + zei = ze. Esto muestra que F G = i(V ) .
Si identificamos a i (V ) con su imagen a traves de la inyeccion canonica i , es
decir, si consideramos a i (V ) como subespacio del R-espacio (V ), entonces (V )
es suma directa interna de los subespacios i (V ):
X
(V ) = i (V ) = R V 2 (V )
i0

Cada elemento z (V ) tiene una representacion unica en la forma z = z0 + z1 +


+ zi , con zj j (V ), 0 j i. Para los elementos de i (V ) se usa la siguiente
notacion:
v1 vi := v1 vi + Ji i (V ), (3.5.9)
3.5. ALGEBRAS Y PRODUCTO TENSORIAL 73

El isomorfismo (3.5.8) permite reinterpretar el producto en el anillo (V ) ya que


a traves del isomorfismo F se tiene que

(v1 vi )(vi+1 vi+j ) = v1 vi+j . (3.5.10)

Lo anterior demuestra que en (V ) se cumple la siguiente propiedad:

i (V )j (V ) i+j (V ). (3.5.11)

La transformacion lineal canonica de inclusion

: V (V )

satisface (v)2 = 0 para cada v V . En efecto, en (V ) tiene lugar la identidad

v v = v 2 + J2 = 0. (3.5.12)

El algebra exterior esta caracterizada con la siguiente propiedad universal.

Teorema 3.5.3. Para cada R-algebra B y cada transformacion lineal f : V B


tal que f (v)2 = 0, con v V , existe un unico homomorfismo de R-algebras F :
(M ) B tal que F = f :

- (V )
V
p
p pp
f
p pp
pp
F
?
B

F se define por

F (v) := f (v), v V, F (r) := r 1, r R. (3.5.13)

Demostracion. Segun el teorema 3.5.1, existe un homomorfismo de R-algebras F 0 :


T (V ) B tal que F 0 = f . Definimos F (e z ) := F 0 (z), con z T (V ); F esta bien
definido ya que si ze = ze0 , entonces z z 0 J y existen zj , zj0 T (V ) y vj V , 1
j t, tales que z z 0 = z1 v12 z10 + +zt vt2 zt0 , luego F 0 (z z 0 ) = F 0 (z1 )F 0 (v1 )2 F 0 (z10 )+
+ F 0 (zt )F 0 (vt )2 F 0 (zt0 ) = F 0 (z1 )f (v1 )2 F 0 (z10 ) + + F 0 (zt )f (vt )2 F 0 (zt0 ) = 0. F es
un homomorfismo de R-algebras ya que F 0 los es; ademas, para cada v V se tiene
que F (v) = F (e v ) = F 0 (v) = F 0 (v) = f (v). Es claro que F (r) = r 1. Sea G otro
homomorfismo de R-algebras tal que G = f , entonces G (v) = G(v) = f (v) =
F (v) y G(r) = G(r 1) = r G(1) = r 1 = F (r), para cada r R.
74 CAPITULO 3. PRODUCTO TENSORIAL

Algunas propiedades interesantes realcionadas con el algebra exterior son las


siguientes:
(i) Para cada v V , v v = 0. En notacion multiplicativa usual, v 2 = 0.
(ii) Para u, v V , u v = (v v). En notacion multiplicativa, uv = vu. En
efecto, (u + v)(u + v) = 0 = u2 + uv + vu + v 2 = uv + vu.
(iii) Para cada z i (V ) y w j (V ), z w = (1)ij (w z). Mediante
notacion multiplicativa se tiene que zw = (1)ij wz. En efecto, si z = z1 zi y
w = w1 wj , entonces zw = (z1 zi )(w1 wj ) = (1)i w1 (z1 zi )(w2 wj )
= = (1)i (1)i (w1 wj )(z1 zi ) = (1)ij wz.
| {z }
jveces
(iv) Si V es generado por n elementos, entonces para i > n, i (V ) = 0. En
efecto, en cada sumando de la expansion de v1 vi := v1 vi + Ji i (V ) a
traves de los generadores de V hay elementos repetidos.
f
(v) Sea V U una transformacion lineal. Entonces f induce un unico homo-
(f )
morfismo de R-algebras (V ) (U ) tal que (f )|V = f . Este homomorfismo
envia elementos de i (V ) en i (U ) para cada i 0. La restriccion de (f ) a i (V )
se denota por i (f ) y es tal que i (f )(v1 vi ) = f (v1 ) f (vi ). Ademas,
(f ) es sobreyectivo si, y solo si, para cada i 0, i (f L) esi sobreyectivo. En efecto,
basta aplicar el teorema 3.5.3 y observar que (f ) = (f ).
f
(vi) Sea R
T un homomorfismo de anillos. Entonces,

(V ) T
= (V T ) (isomorfismo de T -algebras).

(vii) Sea V = V1 V2 , entonces

(V )
= (V1 ) (V2 ) (isomorfismo de R-algebras),

donde el producto en (V1 )(V2 ) es definido mediante distributividad y la siguiente


regla:
(zi zj )(zp zq ) := (1)jp (zi zp ) (zj zq ), (3.5.14)
con zi i (V1 ), zj j (V2 ), zp p (V1 ), zq q (V2 ).
Veamos la demostracion: notemos inicialmente que el producto (3.5.14) dota al
R-espacio (V1 ) (V2 ) de una estructura de R-algebra, distinta de la que vimos
para el producto tensorial de algebras al principio de la presente seccion. Por ejemplo,
se puede verificar facilmente la propiedad asociativa de este producto y que 1 1 es
nuevamente el neutro multiplicativo.
La funcion definida por f : V (V1 ) (V2 ), f (v1 + v2 ) := v1 1 + 1 v2 , es
un R-homomorfismo. Ademas safistace la identidad f (v1 + v2 )2 = 0. En efecto,

(v1 1+1v2 )2 = (v1 1)(v1 1)+(v1 1)(1v2 )+(1v2 )(v1 1)+(1v2 )(1v2 ) =
(1)01 (v12 1) + (1)00 (v1 v2 ) + (1)11 (v1 v2 ) + (1)10 (1 v22 ) = 0.
3.6. EJERCICIOS 75

Se induce entonces un homomorfismo de R-algebras (f ) : (V ) (V1 ) (V2 )


definido por (f )(v1 + v2 ) := v1 1 + 1 v2 , (f )(r) = r (1 1).
De otra parte, segun (v), las inclusiones canonicas i : Vi V1 V2 , i = 1, 2,
inducen homomorfismos de R-algebras (i ) : (Vi ) (V ) de tal forma que
(i )(vi ) = vi , (i )(r) = r 1(V ) . Definimos entonces f : (V1 ) (V2 ) (V )
por f (z1 , z2 ) := (1 )(z1 )(2 )(z2 ), con zi (Vi ). Notemos que f es bilineal, por lo
tanto, se induce un R-homomorfismo F : (V1 )(V2 ) (V ) para el cual se tiene
que F (z1 z2 ) = (1 )(z1 )(2 )(z2 ) (teorema 3.1.4). Notese que F (1 1) = 1(V ) .
Probemos que F (f ) = i(V ) y que (f )F = i(V1 )(V2 ) : sea v1 + v2 V , se
tiene entonces que F (f )(v1 + v2 ) = F (v1 1 + 1 v2 ) = v1 + v2 ; F (f )(r) =
F (r (1 1)) = r F (1 1) = r 1(V ) = r 1R = r1R = r. De otra parte,

(f )F (v1 v2 ) = (f )((1 )(v1 )(2 )(v2 )) = (f )(v1 v2 ) = (f )(v1 )(f )(v2 ) =


(v1 1)(1 v2 ) = (1)00 (v1 v2 ) = v1 v2 ;

ademas,

(f )F (r v2 ) = (f )((1 )(r)(2 )(v2 )) = (f )(r 1(V ) )(f )(v2 ) =


(r(f )(1(V ) ))(1v2 ) = (r(11))(1v2 ) = (r1)(1v2 ) = (1)00 (rv2 ) = rv2 .

De manera similar se prueba que (f )F (v1 r) = v1 r. Todo lo anterior demuestra


que (f ) es un isomorfismo de R-algebras.
(viii) Si V es libre con base X := {x1 , . . . , xn }, entonces para 1 i n, i (V )
es libre con base {xj1 xji |1 j1 < < ji n}. Ademas, dim i (V ) = ni
y dim (V ) = 2n .
(ix) Si V es un espacio proyectivo finitamente geenerado , es decir, V es suman-
do directo de un espacio libre de dimension finita, entonces (V ) y i (V ) son espacios
proyectivos finitamente generados, para cada i 0.

3.6. Ejercicios
1. Demuestre la proposicion 3.3.3.

2. Sean U, V, W R-espacios. Demuestre que (U V ) W


= U (V W ) y

U V = V U.

3. Demuestre las propiedades (iii)-(ix) y (xi) de la seccion 3.2.

4. Demuestre que el producto tensorial de dos matrices cuadradas simetricas es


una matriz simetrica.

5. Sean V1 , . . . , Vn R-espacios y sea Sn una permutacion. Demuestre que


V1 Vn = V(1) V(n) .
76 CAPITULO 3. PRODUCTO TENSORIAL

6. Determine en cada caso si f T2 (R2 ), donde


a) f : R2 R2 R, f ((c1 , c2 ), (d1 , d2 )) := c1 d2 + c2 d1 .
b) f : R2 R2 R, f ((c1 , c2 ), (d1 , d2 )) := c1 d2 c2 d1 .
c) f : R2 R2 R, f ((c1 , c2 ), (d1 , d2 )) := c1 + d2 .
7. Para los tensores f del ejercicio anterior calcule Sf y Alf .
8. Sean T : R3 R2 y F : R2 R4 transformaciones lineales definidas por
T (x, y, z) = (2x + 3y, 3x + 4z) ,
F (x, y) = (x, x + y, y, y x) .
Entonces, dim(ker(T F )) = 2 ?.
9. Demuestre la proposicion 3.4.2.
10. Sean V un R-espacio de dimension finita k 1 y f Tn (V ). Demuestre que
f An (V ) si, y solo si, para cada trasposicion Sn y cada (v1 , . . . , vn )
V V , f ( (v1 ), . . . , (vn )) = f (v1 , . . . , vn ).
11. Demuestre la proposicion 3.4.5.
12. Demuestre la proposicion 3.4.8.
13. Determine si se tienen los siguientes isomorfismos de R-algebras:

Mn (R) Mm (R)
= Mnmnm (R).
R[x] R[y]
= R[x, y].

14. Demuestre el teorema 3.5.1.


15. Sea K un cuerpo y sean A Mn (K), B Mm (K) matrices diagonalizables,
entonces A B es diagonalizable ?.
16. La funcion f definida por

f : R2 R2 R, f ((c1 , c2 ), (d1 , d2 )) := c1 d2 c2 d1

es un tensor?.
17. Sean f, g AL2 (R2 ) dos tensores antisimetricos. Entonces, f g es anti-
simetrico ?.
18. Demuestre las propiedades (v)-(ix) de la seccion 3.5.
Captulo 4

Formas canonicas

Aplicamos en este captulo la teora de los modulos finitamente generados sobre


dominios de ideales principales (vease [6]) para el estudio de las formas canonicas
clasica, racional y de Jordan de una transformacion lineal T : V V , con V un K-
espacio no nulo de dimension finita y K un cuerpo. En la ultima seccion estudiaremos
la forma canonica diagonal y la diagonalizacion de matrices mediante similaridad.

4.1. Polinomios mnimo y caracterstico


Sea EndK (V ) la K-algebra de transformaciones lineales de V , T : V V un elemen-
to que fijamos en EndK (V ), y sea K[x] la K-algebra de polinomios con coeficientes
en K.
Proposicion 4.1.1. La funcion

f : K[x] EndK (V )
(4.1.1)
a(x) = a0 + a1 x + + an xn 7 a0 iV + a1 T + + an T n =: a(T )

es un homomorfismo de K-algebras, donde iV es la funcion identica de V .


Demostracion. Sean a(x) = a0 + a1 x + + an xn , b(x) = b0 + b1 x + + bm xm
K[x], k K. Sin perdidad de generalidad podemos suponer que n = m. Entonces
f [a(x) + b(x)] = f [(a0 + b0 ) + (a1 + b1 )x + + (an + bn )xn ] = (a0 + b0 ) iV + (a1 + b1 )
T + +(an +bn )T n = (a0 iV +a1 T + +an T n )+(b0 iV +b1 T + +bn T n ) =
f (a(x)) + f (b(x)).
f [a(x)b(x)] = f (c(x)) = c0 iV +c1 T + +c2n T 2n , donde ci = i=j+l aj bl , 1
P
i 2n, pero utilizando la distributividad del anillo EndK (V ) se verifica facilmente
que (a0 iV +a1 T + +an T n )(b0 iV +b1 T + +bn T n ) = c0 I +c1 T + +c2n T 2n ,
es decir, f (c(x)) = f (a(x))f (b(x)). Finalmente resulta evidente que f (k a(x)) =
k f (a(x)) y f (1) = iV .

77
78 CAPITULO 4. FORMAS CANONICAS

Corolario 4.1.2. Sea a(x) como en la proposicion 4.1.1 y v V . El producto

a(x) v :=(a0 iV + a1 T + + an T n )(v)


=a0 v + a1 T (v) + + an T n (v) = a(T )(v)

dota a V una estructura de K[x]-espacio izquierdo. Esta estructura se denota por


VT .

Demostracion. Notese que V tiene estructura de EndK (V )-modulo izquierdo con el


producto H v := H(v), H EndK (V ), v V . La afirmacion es ahora evidente ya
que f en (4.1.1) es un homomorfismo de anillos.

Proposicion 4.1.3. VT es un K[x]-espacio finitamente generado y de torsion.

Demostracion. Sea X = {x1 , . . . , xt } una base de VK . De la inclusion natural

l : K K[x]
k 7 k

concluimos que VT =K[x] hx1 , . . . , xt i. De otra parte se tiene el isomorfismo de K-


algebras EndK (V ) = Mt (K). Por lo tanto, dimK (EndK (V )) = t2 , esto ultimo im-
plica que f en (4.1.1) no puede ser inyectiva ya que de lo contrario f (1), f (x),
f (x2 ), . . . sera un subconjunto infinito linealmente independiente de EndK (V ), en
contradiccion con lo ya establecido. As, ker(f ) 6= 0; dado que K[x] es un DIP se
tiene

ker(f ) = hqT (x)i, (4.1.2)

con 0 6= qT (x) K[x]. Sin perdida de generalidad podemos tomar qT (x) monico.
Resulta entonces que qT (x) v = 0 para cada v VT , con lo cual VT es de torsion.
Notese finalmente que
AnnK[x] (VT ) = hqT (x)i. (4.1.3)

De acuerdo con este resultado podemos aplicar a VT la teora de los espacios


finitamente generados de torsion sobre un DIP .

Definicion 4.1.4. El polinomio qT (x) definido en (4.1.3) se denomina polinomio


mnimo de T .

Segun (4.1.3), qT (x) no depende de la base X elegida en V .

Proposicion 4.1.5. Se tienen las siguientes propiedades para el polinomio mnimo


qT (x):
4.1. POLINOMIOS MINIMO Y CARACTERISTICO 79

(i) Si q(x) K[x] es tal que

q(x) v = 0 para cada v VT , (4.1.4)

es decir, si q(T ) = 0, entonces qT (x) | q(x).

(ii) qT (x) es el polinomio monico de menor grado tal que satisface (4.1.4) y es
unico para T .

Demostracion. (i) Sea q(x) K[x] como en (4.1.4). Entonces q(x) AnnK[x] (VT ) =
hqT (x)i, con lo que qT (x) | q(x).
(ii) Sea p(x) monico de K[x] que satisface (4.1.4). Por (i), gr(qT (x)) gr(p(x)).
Ahora, si p(x) es de grado mnimo entre los que cumplen (4.1.4), tenemos que
gr(qT (x)) = gr(p(x)), por (i) y como qT (x) y p(x) son monicos, necesariamente
qT (x) = p(x).

Sea A Mt (K) una matriz, A define una unica transformacion lineal T : V V


en la base X. Notemos que qT (A) = 0. En efecto, qT (mX (T )) = mX (qT (T )) =
mX (0) = 0. Tenemos pues que existe al menos un polinomio monico que se anula en
A; consideremos la coleccion I de todos los polinomios de K[x] que se anulan en A,
este conjunto es claramente un ideal de K[x], luego I = hqA (x)i y el polinomio qA (x)
se puede tomar monico. Notese que qA (x) es el polinomio monico de menor grado tal
que qA (A) = 0. En efecto, sea p(x) un polinomio monico de grado mnimo tal que
p(A) = 0, entonces p(x) I, luego qA (x)|p(x), pero como p(x) es monico y de grado
mnimo, entonces p(x) = qA (x). Se define el polinomio mnimo de la matriz A
por qA (x). Notese que qA (x) = qT (x). En efecto, ya sabemos que qT (A) = 0, luego
qA (x)|qT (x); pero tambien qA (T ) = 0 ya que mX (qA (T )) = qA (mX (T )) = qA (A) = 0
y mX es inyectiva. Resulta, qT (x)|qA (x), con lo cual qT (x) = qA (x).

Definicion 4.1.6. (i) Sea A = [aij ] Mt (K) una matriz cuadrada; se denomina
polinomio caracterstico de A al determinante de la matriz caracterstica

x a11 a12 a1t
a21 x a22 a2t
xE A := .. (4.1.5)

.. .. ..
. . . .
at1 at2 x att

y se denota por pA (x).


(ii) Sean K, V , T , X, t como en el corolario 4.1.3. Sea A = [aij ] = mX (T )
la matriz de T en la base X. Se define el polinomio caracterstico de T por
pT (x) := pA (x).
80 CAPITULO 4. FORMAS CANONICAS

Notese que gr(pT (x)) = t = dimK (V ); ademas, pT (x) es monico y no depende de


la base X elegida en V . En efecto, si Y es otra base de V y B := mY (T ), entonces
det(xE B) = det(xE C 1 AC) = det(C 1 (xE A)C) = det(xE A), donde C
es la matriz de cambio de la base X a la base Y .
Observemos que matrices similares tienen el mismo polinomio mnimo ya que
representan la misma transformacion lineal. Lo mismo se tiene para el polinomio
caracterstico. Las afirmaciones recprocas no son siempre ciertas, tal como lo ilustran
las matrices
   
1 1 1 0
y .
0 1 0 1

Proposicion 4.1.7. Sea V = V1 Vr una descomposicion de V en suma de


subespacios T -invariantes no triviales, es decir, T (Vj ) Vj . Sea Tj la restriccion
de T a Vj , 1 j r. Entonces

(i) Existe una base X en V tal que la matriz de T en la base X es diagonal por
bloques.

(ii) det(T ) = det(T1 ) det(Tr ).

(iii) pT (x) = pT1 (x) pTr (x).

(iv) qT (x) = m.c.m.{qT1 (x), . . . , qTr (x)}

Demostracion. (i) Si juntamos las bases de V1 , . . . , Vr obtenemos una base de V y


en esta base la matriz de T es diagonal por bloques.
Teniendo en cuenta que el determinante, el polinomio caracterstico y el poli-
nomio mnimo de una transformacion lineal coinciden con los de su matriz en
cualquier base, entonces basta probar las afirmaciones en el caso matricial. Pero
el determinante de una matriz diagonal en bloques es el producto de los determi-
nantes de sus bloques, luego las partes (ii)-(iii) ya estan probadas.
Resta demostrar la parte (iv). Sea

A1 0
A := ... . . . ...

0 Ar

y qA (x) el polinomio mnimo de A. Hagamos m(x) := m.c.m{qA1 (x), . . . , qAr (x)}.


Existen polinomios mi (x), 1 i r, tales que m(x) = qAi (x)mi (x). Se debe entonces
demostrar que qA (x) = m(x). Teniendo en cuenta que tanto qA (x) como m(x) son
monicos, entonces basta demostrar que qA (x) | m(x) y m(x) | qA (x). Sea m(x) =
m0 + m1 x + + ml xl , entonces
4.1. POLINOMIOS MINIMO Y CARACTERISTICO 81

m(A) = m0 E + m1 A + + ml Al =
m0 E + m1 A1 + + ml Al1 0
.. .. ..
. . .
l
0 m 0 E + m 1 A r + + m l Ar

m(A1 ) 0 qA1 (A1 )m1 (A1 ) 0
= .. .. .. .. .. ..
= = 0.

. . . . . .
0 m(Ar ) 0 qAr (Ar )mr (Ar )
Esto garantiza que qA (x) | m(x).
Para demostrar la segunda parte basta mostrar que qA (x) es multiplo de cada
qAi (x). Sea qA (x) = q0 + q1 x + + qt xt , entonces qA (A) = 0 luego q0 E + q1 A + +
q t At = 0 y

q 1 A1 0 qt At1 0
q0 I + ... ... .. + + .. ... ..

. . .
0 q 1 Ar 0 qt Atr

qA (A1 ) 0
= .. .. ..
= 0,

. . .
0 qA (Ar )
luego qA (Ai ) = 0 para cada i, y esto indica que qA (x) es multiplo de cada qAi (x).
Proposicion 4.1.8. Sea VT un K[x]-espacio cclico con generador v0 . Sean qT (x) =
q0 + q1 x + + qn1 xn1 + xn el polinomio mnimo de T y pT (x) su polinomio
caracterstico. Entonces,
(i) X := {v0 , T (v0 ), . . . , T n1 (v0 )} es una K-base de V .

0 0 0 q0
1 0 0 q1

0 1 0 q2
(ii) mX (T ) = ,
.. .. .. .. ..
. . . . .
0 0 1 qn1
denominada la matriz companera del polinomio qT (x).
(iii) pT (x) = qT (x).
Demostracion. (i) Dado que VT es cclico, tenemos

VT
= K[x]/AnnK[x] (V ) (K[x]-isomorfismo).
De acuerdo con (4.1.3), AnnK[x] (VT ) = hqT (x)i (notese que qT (x) 6= 0 pues de lo
contrario V no sera de dimension finita sobre K). La inclusion natural K , K[x]
82 CAPITULO 4. FORMAS CANONICAS

convierte a K[x]/hqT (x)i en un K-espacio vectorial con base {1, x, . . . , xn1 }, xi =


xi + hqT (x)i.
Sea v VT , entonces v = q(x) v0 , q(x) K[x]; dado que K[x] es un dominio
euclideano, v = qT (x)t(x) v0 + r(x) v0 , con r(x) = 0 o gr(r(x)) < n; resulta
entonces v = r(x) v0 hv0 , T (v0 ), . . . , T n1 (v0 )i, es decir, V = hXi. Sean ahora
a0 , . . . , an1 K tales que

a0 v0 + a1 T (v0 ) + + an1 T n1 (v0 ) = 0,

entonces
(a0 + a1 x + + an1 xn1 ) v0 = 0,
y as
a0 + a1 x + + an1 xn1 AnnK[x] (V ) = hqT (x)i.
Por lo tanto, a0 + a1 x + + an1 xn1 = 0, de donde a0 = a1 = = an1 = 0.
(ii) La afirmacion de esta parte se sigue de (i) y del hecho que

qT (x) v0 = 0 = q0 v0 + q1 T (v0 ) + + qn1 T n1 (v0 ) + T n (v0 ).

(iii) Dado que al mutilplicar una matriz por una propiamente elemental su determi-
nante no vara, se tiene

x 0 0 q0 0 x 2 0 q0 + q1 x
1 x 0 q1 1 x 0 q1

0 1 0 q2 = det 0 1 0 q2
pT (x) = det


.. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
0 0 1 x + qn1 0 0 1 x + qn1

0 0 0 q0 + q1 x + q2 x 2
1 0 0 q1 + q2 x

0 1 0 q
= det = =
2

.. .. .. .. ..
. . . . .
0 0 1 x + qn1

0 0 0 q0 + q1 x + + qn1 xn1 + xn
1 0 0
q1 + q2 x + + xn1

0 1 0 n2
q 2 + q 3 x + + n
= det ..

.. .. .. ..
. . . . .
2

0 0 0 qn2 + qn1 x + x
0 0 1 x + qn1
=qT (x).
4.1. POLINOMIOS MINIMO Y CARACTERISTICO 83

Regresamos al estudio de las componentes primarias de VT .

Proposicion 4.1.9. Sea p(x) un polinomio monico irreducible de K[x]. La compo-


nente p(x)-primaria de VT es no nula si, y solo si, p(x) | qT (x).
(p(x)) (p(x))
Demostracion. ) Supongase que VT 6= 0 y sea 0 6= v VT . Entonces,
AnnK[x] (v) = hp(x) i, l 1 (vease [6]). Puesto que qT (x) v = 0 entonces p(x)l |
l

qT (x), y por lo tanto p(x) | qT (x).


) Sea qT (x) = p(x)q(x) con q(x) K[x] monico. Notese que gr(q(x)) <
gr(qT (x)), as que por la proposicion 4.1.5, existe v 6= 0 en VT tal que q(x) v 6= 0,
(p(x))
pero entonces p(x) (q(x) v) = qT (x) v = 0, es decir , VT 6= 0.
De la afirmacion anterior resulta inmediatamente la siguiente descomposicion de
VT en suma directa de sus componentes primarias.

Corolario 4.1.10. Sea

qT (x) = q1 (x)k1 qr (x)kr (4.1.6)

la descomposicion del polinomio mnimo de T en producto de monicos irreducibles.


Entonces la descomposicion de VT en suma de sus componentes primarias esta dada
por

VT = (VT )(q1 (x)) (VT )(qr (x)) . (4.1.7)

Se puede ahora descomponer cada componente primaria en suma directa de


K[x]-espacios cclicos (vease [6]). Para simplificar un poco la notacion escribimos

(VT )(qj (x)) =: Vj , (4.1.8)

para 1 j r.

Lema 4.1.11. Con la notacion anterior se tiene que:

(i) Vj es un K-subespacio T -invariante de V y entonces Tj := T |Vj es un K-


endomorfismo de Vj .

(ii) Sea qTj (x) el polinomio mnimo de Tj . Entonces

qTj (x) = qj (x)kj y Vj = ker(qj (T )kj ).

(iii) Si sj1 sjlj 1 son los divisores elementales de Vj , escritos en orden


decreciente, entonces
sj1 = kj .
84 CAPITULO 4. FORMAS CANONICAS

(iv) Sea pTj (x) el polinomio caracterstico de Tj . Entonces,

pTj (x) = qj (x)sj1 ++sjlj .

(v) qTj (x)|pTj (x).

(vi) dimK (Vj ) = (sj1 + + sjlj )gr(qj (x)).


Demostracion. (i) Dado que Vj en un K[x]-subespacio de VT , este tambien resulta
ser K-subespacio de V . Ademas, Vj es T -invariante. En efecto, T (Vj ) = x Vj Vj .
(ii) Por (4.1.6), qT (x) = qj (x)kj zj (x), con
k k
zj (x) := q1k1 (x) qj1
j1 j+1
(x)qj+1 (x) qrkr (x).
Sea vj Vj , entonces existe n 1 tal que qjn (x) vj = 0. Como m.c.d.(qjn (x), zj (x))
= 1, existen w(x), l(x) K[x] tales que 1 = w(x)qjn (x) + l(x)zj (x), luego vj =
k
w(x)qjn (x) vj + l(x)zj (x) vj = l(x)zj (x) vj , de donde qj j (x) vj = l(x)qT (x) vj = 0.
k
Entonces, hemos demostrado que para cada j, qTj (x) | qj j (x).
Por otra parte, de acuerdo con (4.1.7), cada elemento v V se puede expresar
en la forma
v = v1 + + vj + + vr , vj Vj .
Entonces,
k k +1
qTj (x)zj (x) v = qTj (x)q1k1 (x) qj1
j1 j
(x)qj+1 (x) qrkr (x) v = 0.
k
Resulta qT (x) | qTj (x)zj (x), con lo que qj j (x) | qTj (x).
Notemos que si v Vj , entonces qj (Tj )kj (v) = 0, es decir, qj (T )kj (v) = 0, luego
v ker(qj (T )kj ). Recprocamente, si v ker(qj (T )kj ), entonces qj (T )kj (v) = 0, luego
qj (x)kj v = 0, es decir, v Vj .
(iii) Se tiene el K[x]-isomorfismo
sjl
Vj
s
= K[x]/hqj j1 (x)i K[x]/hqj j (x)i, (4.1.9)
s
y AnnK[x] (Vj ) = hqj j1 (x)i = hqTj (x)i, vease (4.1.3), de modo que segun (ii), sj1 = kj .
(iv) En (4.1.9) cada sumando es un K[x]-subespacio, luego tambien un K-
subespacio de Vj ; notemos que cada uno estos sumandos es Tj -invariante: en efecto,
sea Wi := K[x]/hqj ji (x)i, 1 i lj , entonces Vj
s
= W1 Wlj ; sea w Wi ,
luego x w Wi , es decir, T (w) Wi , luego Tj (Wi ) Wi .
Tenemos entonces que cada Wi es un K[x]- espacio cclico Tj -invariante, podemos
entonces aplicar las proposiciones 4.1.8 y 4.1.7 para obtener (iv).
(v) Consecuancia directa de (ii), (iii) y (iv).
(vi) Como el grado del polinomio caracterstico pTj (x) de Tj coincide con la
dimension de Vj , entonces (v) es consecuencia de (iv).
4.2. FORMA CANONICA CLASICA 85

Definicion 4.1.12. Sea VT descompuesto como en (4.1.7). Los divisores elementales


de VT se denominan divisores elementales de T .

De los resultados obtenidos podemos deducir uno de los teoremas basicos y mas
importantes del algebra lineal.

Teorema 4.1.13 (Hamilton-Cayley). Sea V un K-espacio de dimension finita y


T : V V una transformacion lineal de V . Entonces

qT (x) | pT (x).

Demostracion. Por la parte (v) del lema 4.1.11, para cada 1 j r se tiene
que qTj (x) | pTj (x), pero de la proposicion 4.1.7 y la descomposicion (4.1.7) resulta
qT1 (x) qTr (x) = q1k1 (x) qrkr (x) = qT (x) | pT (x).

4.2. Forma canonica clasica


Aplicamos ahora los resultados anteriores al estudio de las llamadas formas canonicas
de una transformacion lineal, o equivalentemente, de una matriz. Comenzamos con
la forma canonica clasica.
Sr Segun (4.1.7), podemos elegir en cada Vj una base Xj de tal manera que X :=
j=1 Xj es una base de V y la matriz de T en dicha base toma la forma


mX1 (T1 ) 0
mX (T ) = .. ... ..
. (4.2.1)

. .
0 mXr (Tr )

Pero de acuerdo con (4.1.9), podemos elegir la base Xj de Vj de tal manera que la
matriz de Tj en dicha base es diagonal en bloques:

Aj1 0
mXj (Tj ) = ... .. .. . (4.2.2)

. .
0 Ajlj

Por la proposicion 4.1.8, el bloque Aji es la matriz companera del polinomio qj (x)sji
de (4.1.9). Queremos ahora descomponer cada bloque de (4.2.2) de tal manera que
aparezca la matriz companera de qj (x).

Proposicion 4.2.1. Sea V un K[x]-espacio cclico con generador v0 y supongase


que el polinomio mnimo de T (vease la proposicion 4.1.8) es de la forma q(x)s ,
86 CAPITULO 4. FORMAS CANONICAS

donde q(x) := q0 + q1 x + + qn1 xn1 + xn es irreducible, s 1. Entonces existe


una base X en V tal que la matriz T en dicha base es de la forma

C 0 0
1 C 0

mX (T ) = 0 1 0 , (4.2.3)

.. ..
. .
0 1 C

con s bloques C, donde C es la matriz companera de q(x) y los 1 van dispuestos en


las entradas (n + 1, n), (2n + 1, 2n) . . . , ((s 1)n + 1, (s 1)n).

Demostracion. Segun la proposicion 4.1.8, una K-base de V es


X 0 = {v0 , T v0 , T 2 v0 , . . . , T ns1 v0 }.
Notese que
X := {v0 , T v0 , . . . , T n1 v0 ;
q(T )v0 , T q(T )v0 , . . . , T n1 q(T )v0 ;
q(T )2 v0 , T q(T )2 v0 , . . . , T n1 q(T )2 v0 ;
. . . ; q(T )s1 v0 , T q(T )s1 v0 , . . . , T n1 q(T )s1 v0 }
tiene ns elementos y satisface hX 0 i = hXi = V : en efecto, basta mostrar que cada
elemento de X 0 esta en hXi. Es claro que v0 , T v0 , . . . , T n1 v0 hXi; como
q(T )v0 = q0 v0 + q1 T v0 + + qn1 T n1 v0 + T n v0 ,
entonces

T n v0 = q(T )v0 q0 v0 q1 T v0 qn1 T n1 v0 hXi


T n+1 v0 = T q(T )v0 q0 T v0 qn1 T n v0 hXi
..
.
n+n1
T v0 = T n1 q(T )v0 q0 T n1 v0 qn1 T 2n2 v0 hXi
T 2n v0 = T n q(T )v0 q0 T n v0 qn1 T 2n1 v0
= q(T )2 v0 q0 q(T )v0 q1 T q(T )v0 qn1 T n1 q(T )v0
q0 T n v0 qn1 T 2n1 v0 hXi,

continuando de esta manera, y por recurrencia, obtenemos lo anunciado.


As pues, X es una base de V y es facil ver que mX (T ) es como en (4.2.3).
Reemplazando (4.2.3) en (4.2.2), y luego en (4.2.1), obtenemos la denominada
matriz canonica clasica de T . Notese que esta matriz canonica clasica consta
solamente de unos, ceros y los coeficientes de los factores irreducibles q1 (x), . . . , qr (x)
4.2. FORMA CANONICA CLASICA 87

del polinomio mnimo qT (x). Para calcular la matriz canonica clasica de T es nece-
sario conocer el sistema de divisores elementales de T , es decir, de VT . Si A es una
matriz cuadrada, entonces A determina una unica transformacion lineal T , y se de-
finen los divisores elementales de A como el sistema de divisores elementales de
T.
Corolario 4.2.2. (i) Sea T : V V una transformacion lineal de un K-espacio
V de dimension finita. Entonces, existe una base X en V tal que la matriz de
T en la base X es una matriz canonica clasica.

(ii) Toda matriz A Mn (K) es similar a una unica matriz canonica clasica.

(iii) Dos matrices cuadradas son similares si, y solo si, tienen el mismo sistema de
divisores elementales.
Demostracion. Las dos primeras afirmaciones fueron probadas en el desarrollo de
la presente seccion. La tercera se tiene ya que matrices similares representan la
misma transformacion lineal y, si dos matrices tienen el mismo sistema de divisores
elementales, entonces son similares a la misma matriz canonica clasica, y por lo
tanto son similares.
Ejemplo 4.2.3. Ilustramos a continuacion el calculo de las componentes primarias
del VT , donde T es una transformacion lineal definida por medio de una matriz.
Tambien calcularemos la base X que permite obtener la forma diagonal en bloques
dada en (4.2.1). Consideremos la transformacion lineal T : R4 R4 definida por la
matriz

1 1 0 1
0 3 1 0
A= .
2 1 2 1
3 2 0 4
Mediante calculo manual o usando algun paquete de computo (por ejemplo el SWP,
Scientific WorkPlace) encontramos que
pA (x) = qA (x) = 36 60x + 37x2 10x3 + x4 = (x 2)2 (x 3)2 ;
debemos entonces calcular las componentes primarias de V := R4 inducidas por A,
V1 = ker((A 2E)2 ), V2 = ker((A 3E)2 ). Tenemos

2 2 1 1 1 0 1 1
2 2 1 1 , (A 3E)2 = 2 1 1 1
(A 2E)2 =


1 1 1 0 3 1 2 2
3 3 2 1 3 1 2 2
y calculamos las bases de sus nucleos:
88 CAPITULO 4. FORMAS CANONICAS



1 1
1 1

0 1 1 1

ker(A 2E)2 = , , ker(A 3E)2 = , .


1 0


1 0

1 0 0 1

La base buscada X es la union de los cuatro vectores anteriores. Construimos la


matriz de cambio

1 1 1 1 0 1 1 1
0 1 1 1 , C 1 = 1
1 0 0
C= 1
,
0 1 0 1 1 1 0
1 0 0 1 1 1 0 1

y finalmente encontramos que



0 1 1 1 1 1 0 1 1 1 1 1
1
1 0 0
0
3 1 0
0
1 1 1
=
1 1 1 0 2 1 2 1 1 0 1 0
1 1 0 1 3 2 0 4 1 0 0 1

3 1 0 0
1 1 0 0
.
0 0 3 0
0 0 1 3

Ejemplo 4.2.4. Para la matriz A del ejemplo anterior podemos calcular su forma
canonica clasica: tenemos pA (x) = qA (x) = q1 (x)2 q2 (x)2 , con q1 (x) = x 2 y q2 (x) =
x 3, luego la forma buscada es

2 0 0 0
1 2 0 0
.
0 0 3 0
0 0 1 3

4.3. Forma canonica racional


La segunda forma canonica destacada es la racional, tambien denominada forma
canonica de Frobenius, en la cual intervienen los factores invariantes de VT . Del
corolario 4.1.10 y del teorema de estructura de los modulos f.g. sobre DIP s (vease
[6]) resulta

VT
= K[x]/hq1 (x)i K[x]/hqm (x)i, (4.3.1)
4.3. FORMA CANONICA RACIONAL 89

donde qi (x) | qj (x) para i j (cada qi (x) se puede tomar monico). Existe entonces
una base X en V tal que

C1 0
R := mX (T ) = ... . . . .. , (4.3.2)

.
0 Cm

donde Cj es la matriz companera de qj (x). Notese que


pT (x) = q1 (x) qm (x),
(4.3.3)
hqm (x)i = AnnK[x] (VT ), qT (x) = qm (x),
resultando otra demostracion del teorema 4.1.13. Esta forma canonica consta de
ceros, unos y los coeficientes de los factores invariantes.
Definicion 4.3.1. La matriz R en (4.3.2) se denomina racional o de Frobenius.
Los polinomios q1 (x), . . . , qm (x) en (4.3.1) se denominan los factores invariantes
de la matriz R. Una transformacion lineal T : V V es racionalizable si existe
una base X en V tal que mX (T ) es racional. Los factores invariantes de mX (T )
se denominan factores invariantes de T . Una matriz A Mn (K) es racio-
nalizable si A es similar a una matriz racional R, y los factores invariantes R se
conocen como los factores invariantes de A.
Corolario 4.3.2. Sea T : V V una transformacion lineal sobre un K-espacio V
de dimension finita. Entonces, para cada base Y de V se cumple: T es racionalizable
si, y solo si, mY (T ) es racionalizable.
Demostracion. Esto es consecuencia del hecho que matrices similares representan la
misma transformacion lineal.
Corolario 4.3.3. (i) Toda transformacion lineal T : V V de un K-espacio V de
dimension finita es racionalizable.
(ii) Toda matriz A Mn (K) es similar a una unica matriz racional R.
(iii) Dos matrices cuadradas son similares si, y solo si, tienen los mismos factores
invariantes.
Demostracion. La primera afirmacion se tiene tal como vimos en (4.3.2); la segunda
en consecuencia de que una matriz representa una transformacion lineal, la unicidad
se obtiene de la unicidad de los factores invariantes de VT . La tercera resulta de
que matrices similares representan la misma transformacion lineal y, si dos matrices
tienen los mismos facores invariantes, entonces son similares a la misma matriz
racional, y por lo tanto son similares.
En la proposicion 4.1.8 vimos que si VT es un K[x]-espacio cclico, entonces
pT (x) = qT (x). Veamos ahora la afirmacion recproca.
90 CAPITULO 4. FORMAS CANONICAS

Corolario 4.3.4. Sea T : V V una transformacion lineal de un K-espacio de


dimension finita. VT es cclico si, y solo si, pT (x) = qT (x).

Demostracion. La condicion necesaria la vimos en la proposicion 4.1.8. Supongamos


entonces que pT (x) = qT (x). Segun (4.3.3), VT tiene un solo factor invariante, luego
por (4.3.1) VT es cclico.

Ejemplo 4.3.5. En este ejemplo mostramos un procedimiento manual sencillo para


calcular los factores invariantes de una matriz, y en consecuencia, su forma canonica
racional. El metodo sin embargo no es eficiente para matrices de dimensiones supe-
riores. Calculemos entonces los factores invariantes de la matriz

3 4 4
A = 1 3 2 .
2 4 3

Notemos en primer lugar que si q(x) = q0 + q1 x + + qn1 xn1 + xn y A es la


matriz companera de p(x) entonces

q(x) 0
1
(xE A) .

. ..
0 1

En efecto, vimos en la prueba de la proposicion 4.1.8 que



0 0 0 q0 + q1 x + + qn1 xn1 + xn
1 0 0
q1 + q2 x + + xn1

0 1 0 n2
q 2 + q 3 x + + n
(xE A) .. ,

.. .. .. ..
. . . . .
2

0 0 0 qn2 + qn1 x + x
0 0 1 x + qn1

luego

0 0 0 q(x) q(x) 0
1 0 0 0 1
(xE A) .. .. .

.. .. .. . .
. . . . . .
0 0 1 0 0 1
4.3. FORMA CANONICA RACIONAL 91

Por otra parte, si q1 (x), . . . , qm (x) son los factores invariantes de A, entonces


q1 (x) 0
...

qm (x)

(xE A) .

1

. ..

0 1

En efecto, dado que toda matriz es racionalizable, existe una matrix invertible C tal
que

A1 0
C 1 AC =
... ,

0 Am

donde Ai es la companera de qi (x), 1 i m. Entonces,


xE A1 0
C 1 (xE A)C =
... ,

0 xE Am


qi (x) 0
1
pero por lo que acabamos de ver, (xE Ai ) , de modo que

. . .
0 1


q1 (x) 0
..

.

qm (x)

(xE A) .

1

. ..

0 1
92 CAPITULO 4. FORMAS CANONICAS

Con el soporte teorico anterior podemos resolver el ejercicio planteado:



x3 4 4 1 x 3 2
(xE A) = 1 x 3 2 x 3 4 4
2 4 x+3 2 4 x+3

1 x3 2 1 0 0
0 (x 5)(x 1) 2(x 1) 0 (x 5)(x 1) 2(x 1)
0 2(x 1) x1 0 2(x 1) x1

1 0 0 1 0 0
0 (x 1)2 0 0 (x 1)2 0
0 2(x 1) x 1 0 0 x1

x1 0 0
0 (x 1)2 0 ,
0 0 1

entonces pA (x) = (x 1)3 , qA (x) = (x 1)2 y los factores invariantes de A son


x 1,(x 1)2 . Finalmente podemos calcular la forma racional de A:

1 0 0
0 0 1.
0 1 2

4.4. Forma canonica de Jordan


Presentamos en esta seccion otra forma canonica importante para transformaciones
lineales y matrices.
Definicion 4.4.1. Sea a K, la matriz cuadrada de orden k 1

a 0 0 0
1 a 0 0
Ja,k := .. .. .. ..

..
. . . . .
0 0 1 a

se denomina bloque elemental de Jordan de orden k perteneciente a a. La


matriz diagonal de m 1 bloques

J1 0
Ja :=
.. ,

.
0 Jm

donde cada Jj es un bloque elemental de Jordan perteneciente a a y tal que


4.4. FORMA CANONICA DE JORDAN 93

orden J1 orden J2 orden Jm

se denomina bloque de Jordan perteneciente a a.


Sean a1 , . . . , ar elementos diferentes de K. La matriz diagonal de r bloques de Jor-
dan, r 1,

Ja1 0
J :=
... ,

0 Jar

con Jai perteneciente a ai se denomina matriz diagonal en bloques de Jordan


pertenecientes a a1 , . . . , ar . Una transformacion lineal T : V V de un K-
espacio de dimension finita se dice diagonalizable en bloques de Jordan si
existe una base X en V tal que mX (T ) es una matriz diagonal en bloques de Jordan.
Una matriz cuadrada se dice diagonalizable en bloques de Jordan si es similar
a una matriz diagonal en bloques de Jordan.

Corolario 4.4.2. Sea T : V V una transformacion lineal sobre un K-espacio V


de dimension finita. Entonces, para cada base X de V se cumple: T es diagonalizable
en bloques de Jordan si, y solo si, mX (T ) es diagonalizable en bloques de Jordan.

Demostracion. Dado que matrices similares representan la misma transformacion


lineal se tiene entonces la afirmacion de la proposicion.

Ya se demostro que toda transformacion T de un espacio vectorial finito dimen-


sional es reducible a la forma canonica clasica, o equivalentemente, que toda matriz
cuadrada es similar a una matriz canonica clasica. Se probaron resultados analogos
para la forma canonica racional. Mostraremos en seguida que para cuerpos alge-
braicamente cerrados, toda transformacion lineal (= toda matriz cuadrada) sobre
un espacio finito dimensional es diagonalizable en bloques de Jordan.

Definicion 4.4.3. Una transformacion lineal T es nilpotente si existe s 1 tal


que T s = 0. El menor natural s con esta propiedad se llama ndice de nilpotencia
de T .

Proposicion 4.4.4. Sea T : V V una transformacion nilpotente de un K-espacio


V de dimension finita n 1 con ndice de nilpotencia s 1. Entonces existe una
base Y en V tal que

C1 0
mY (T ) =
.. ,

.
0 Cm
94 CAPITULO 4. FORMAS CANONICAS

con

0 0 0 0
1 0 0 0
Cj := .. .. .. .. .. , de tamano sj sj , (4.4.1)

. . . . .
0 0 1 0

s1 + + sm = n, 1 s1 s2 sm , sm = s, qT (x) = xs , m = numero de
factores invariantes de T y ademas m = dim(ker(T )).

Demostracion. Sean q1 (x), . . . , qm (x) los factores invariantes de T . Segun (4.3.3),


qT (x) = qm (x); sea s := ndice de nilpotencia de T , entonces qm (x) = xs , de donde
qj (x) = xsj con 1 s1 s2 sm = s. Notese que la matriz companera
de qj (x) es efectivamente (4.4.1). Segun (4.3.3), n = gr(pT (x)) = s1 + + sm .
Aplicamos entonces (4.3.2).
Veamos la prueba de la ultima afirmacion de la proposicion, es decir,

m = dim(ker(T ).
Segun (4.3.1), VT tiene la descomposicion en suma de K[x]-subespacios cclicos

VT = hw1 i hwm i, con hwj i


= K[x]/hxsj i.
La idea es probar que {T s1 1 (w1 ), . . . , T sm 1 (wm )} es una base de ker(T ). Si w
ker(T ), entonces w = u1 + + um , donde uj es un elemento de hwj i, 1 j m.
Entonces,

w = g1 (T )(w1 ) + + gm (T )(wm ),
donde el grado de gj (x) se puede tomar inferior a sj . Se tiene que T (w) = 0, pero
como la suma directa, se concluye que gj (T )T (wj ) = 0. Esto implica que xsj divide a
gj (x)x, pero por la escogencia del grado de gj (x) se tiene que gj (x)x = bj xsj , bj K.
Por lo tanto, gj (x) = bj xsj 1 , y en consecuencia,

w = b1 T s1 1 (w1 ) + + bt T st 1 (wm ).
La independencia lineal se obtiene de la suma directa y de que hxsj i = AnnK[x] (wj ).

Teorema 4.4.5. Sea T : V V una transformacion lineal de un K-espacio de


dimension finita n 1. Supongase que pT (x) se descompone completamente en K[x]
en producto de factores lineales (esto ocurre por ejemplo si K es algebraicamente
cerrado). Entonces, T es diagonalizable en bloques de Jordan de manera unica, salvo
el orden de disposicion de los bloques.
4.4. FORMA CANONICA DE JORDAN 95

Demostracion. Sea
pT (x) := (x a1 )n1 (x ar )nr ,
con a1 , . . . , ar elementos diferentes de K, 1 nj n, 1 j r. Segun (4.3.3),
pT (x) y qT (x) tienen los mismos factores irreducibles (aunque no necesariamente con
la misma multiplicidad). Entonces
qT (x) = (x a1 )k1 (x ar )kr , 1 kj n j .
Sean Vj y Tj como se definieron en (4.1.8) y en el lema 4.1.11. Para cada 1 j r
consideremos la transformacion lineal
Tj0 := Tj aj iVj : Vj Vj .
Por el lema 4.1.11, el polinomio mnimo de Tj es (x aj )kj , luego Tj0 es nilpotente
de ndice kj . De acuerdo con la proposicion 4.4.4, para cada 1 j r existe una
base Yj en Vj tal que
Cj1 0
mYj (Tj0 ) =
.. ,

.
0 Cjmj
con cada bloque como en (4.4.1) y de orden sji . Notese que sjmj = kj , mj = numero
de factores invariantes de Tj0 , y tal como vimos en la la proposicion 4.4.4,
mj = dim(ker(Tj0 )) = dim(ker(Tj aj iVj )) = dim(ker(T aj iV )). (4.4.2)
En efecto, la ultima igualdad se tiene ya que ker(Tj aj iVj ) = ker(T aj iV ) (vease
S Ademas, 1 sj1 sj2 sjmj , sj1 + + sjmj = nj .
el lema 4.1.11, parte (ii)).
Segun (4.1.7), si Y := Yj entonces

mY1 (T1 ) 0
mY (T ) =
.. .

.
0 mYr (Tr )

Pero mYj (Tj ) = mYj (Tj0 ) + mYj (aj iVj ) y as mYj (Tj ) es un bloque de Jordan perte-
neciente a aj :

aj
1 . . . bloque elemental de orden sj1




1 aj

mYj (Tj ) =
. . .

.


aj

bloque elemental de orden sjmj 1
. .
.


1 aj
96 CAPITULO 4. FORMAS CANONICAS

Notese que en la forma canonica de Jordan aparecen solo ceros, unos y las races del
polinomio caracterstico. La unicidad de estas ultimas, la unicidad de las compo-
nentes primarias en (4.1.7) y la unicidad de los factores invariantes, determinan la
unicidad de la estructura de los bloques de Jordan, salvo el orden de disposicion.
Corolario 4.4.6. Sea K un cuerpo algebraicamente cerrado. Dos matrices cuadra-
das son similares si, y solo si, tienen la misma forma canonica de Jordan.
Demostracion. Sean A, B Mn (K) similares, A J1 y B J2 con J1 y J2
matrices diagonales en bloques de Jordan. Por transitividad J1 J2 . Puesto que
matrices similares representan la misma transformacion lineal, se sigue, por la uni-
cidad expuesta en el teorema 4.4.5 que J1 = J2 (salvo el orden de los bloques).
Recprocamente, si A J B entonces A B.
Ejemplo 4.4.7. En este ejemplo mostramos una matriz invertible C tal que C 1 AC
es una matriz de Jordan, con

4 1 1 1
1 2 1 1
A= .
6 1 1 1
6 1 4 2

Consideramos a la matriz A como una transformacion lineal de R4 en R4 en la


base canonica. Determinemos en primer lugar el polinomio caracterstico y el poli-
nomio mnimo de A : pA (x) = (x + 2)(x 3)3 , qA (x) = (x + 2)(x 3)2 . De
acuerdo con la prueba del teorema 4.4.5, el numero de bloques de Jordan es 2,
uno correspondiente al valor 2 y otro correspondiente a 3 Ademas se tiene que
R4 = V1 V2 , con V1 = ker(A + 2E) = h(0, 0, 1, 1)i y V2 = ker[(A 3E)2 ] =
h(1, 0, 1, 0) , (0, 1, 0, 0) , (0, 0, 0, 1)i. Segun la proposicion 4.4.4, el numero de bloques
elementales de Jordan correspondiente a 2 viene dado por dim(ker(A + 2E)) y el
numero correspondiente a 3 es dim(ker(A3E)). Pero ker(A+2E) = h(0, 0, 1, 1)i y
ker(A3E) = h(0, 1, 0, 1) , (1, 2, 1, 0)i, luego dim(ker(A+2E)) = 1 y dim(ker(A
3E)) = 2. Para el valor 3 se tiene que el tamano del segundo bloque elemental de
Jordan viene dado por la multiplicidad de 3 en el polinomio mnimo, que en este
caso es 2. Ya podemos entonces mostrar la forma de Jordan de la matriz A:

2 0 0 0
0 3 0 0
J = 0 0 3 0 .

0 0 1 3
Para calcular la matriz C debemos encontrar bases X1 en V1 y X2 en V2 de tal
forma que C es la matriz de cambio de la base canonica de R4 a la base X =
X1 X2 . Consideremos las transformaciones A01 := A + 2E : V1 V1 y A02 :=
4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 97

A 3E : V2 V2 . Notese que A01 es nilpotente de ndice 1 y A02 es nilpotente


de ndice 2. Segun la prueba de la proposicion 4.4.4, debemos descomponer V1 y
V2 en suma directa de subespacios cclicos. Tal como vimos arriba, el numero de
sumandos cclicos de V1 es 1 = dim(ker(A + 2E)) y coincide con el numero de
factores invariantes de A01 ; de igual manera, el numero de sumandos cclicos de V2 es
2 = dim(ker(A 3E)) y coincide con el numero de factores invariantes de A02 . Pero
V1 = h(0, 0, 1, 1)i, entonces la descomposicion cclica de V1 es trivial: V1 = hv1 i
con v1 := (0, 0, 1, 1), y en consecuencia, X1 = {(0, 0, 1, 1)}. Para V2 los factores
invariantes de A02 son x y x2 . Necesitamos dos vectores v2 , v3 V2 de tal forma que
V2 = hv2 i hv3 i, donde el polinomio anulador de v2 es x y el polinomio anulador
de v2 sea x2 . La base buscada en V2 es pues X2 = {v2 , v3 , A02 v3 }. Resulta entonces
que x v2 = 0, es decir, A02 v2 = 0, con lo cual v2 ker(A02 ) = ker(A 3E), luego
podemos tomar por ejemplo v2 = (0, 1, 0, 1). Notese que en calidad de v3 podemos
tomar a (0, 0, 0, 1) de tal forma que A02 (v3 ) = (1, 1, 1, 1). Se tiene entonces que
X2 := {(0, 1, 0, 1) , (0, 0, 0, 1) , (1, 1, 1, 1)} es una base de V2 . La matriz C es
pues

0 0 0 1 1 0 1 0
0 1 0 1 1 1 1 0 0
C=
1
,C = ,
0 0 1 1 1 1 1
1 1 1 1 1 0 0 0

2 0 0 0
0 3 0 0
C 1 AC =
0
.
0 3 0
0 0 1 3

4.5. Forma canonica diagonal: valores y vectores


propios
Estudiaremos ahora la forma canonica mas sencilla, pero a su vez muy exigente,
para una transformacion lineal o matriz: la forma diagonal. Al igual que en la for-
ma canonica de Jordan, la diagonalizacion requiere que el polinomio mnimo tenga
un aspecto especial, razon por la cual no todo operador lineal (matriz) ha de ser
diagonalizable.

Definicion 4.5.1. Sea T : V V una transformacion lineal de un espacio V de


dimension finita n 1. Se dice que T es diagonalizable si existe una base X en
V tal que mX (T ) es una matriz diagonal. Una matriz A de orden n 1 se dice que
es diagonalizable si A es similar a una matriz diagonal.
98 CAPITULO 4. FORMAS CANONICAS

Corolario 4.5.2. Sea T : V V una transformacion lineal de un espacio V de


dimension finita n 1 y sea X una base cualquiera de V . Entonces, T es diagona-
lizable si, y solo si, mX (T ) es diagonalizable.
Demostracion. Teniendo en cuenta que matrices que representen la misma transfor-
macion lineal son similares, se tiene el resultado.
Teorema 4.5.3. Sea T : V V una transformacion lineal de un espacio V de
dimension finita n 1. T es diagonalizable si, y solo si, el polinomio mnimo de T
es de la forma
qT (x) = (x a1 ) (x ar ), aj K, 1 j r. (4.5.1)
Demostracion. ): sea X una base de V tal que la matriz de T es diagonal, digamos,

a1 0
mX (T ) = ... . . . ... .

0 an
Notese que mX (T ) es la forma canonica de Jordan de T ; ademas, el polinomio
caracterstico de T es pT (x) = (x a1 )n1 (x ar )nr , con a1 , . . . , ar los diferentes
escalares en la diagonal de mX (T ) y nj la multiplicidad de aj , 1 j r. Luego el
polinomio mnimo de T es de la forma qT (x) = (xa1 )k1 (xar )kr , con kj 1. Si
para lagun j, kj 2, entonces en la forma de Jordan de T apareceran unos debajo
de la diagonal, por lo tanto kj = 1 para cada j.
): si qT (x) es como en (4.5.1), entonces la notacion y demostracion del teorema
4.4.5 indican que cada sjmj = 1, pero esto significa que la matriz de Jordan de T es
diagonal, es decir, T es diaginalizable.
En la seccion anterior nos encontramos con el calculo del nucleo de operadores
de la forma T a iV , con T : V V una transformacion lineal y a K un escalar,
as pues, los elementos de este nucleo son vectores v V tales que T (v) = a v.
Tales vectores ocupan un lugar destacado en algebra lineal clasica y los definiremos a
continuacion. A traves de los valores y vectores propios podemos tambien presentar
otros criterios de diagonalizacion de operadores lineales.
Definicion 4.5.4. Sea T : V V una transformacion de un K-espacio V ; un
escalar a K se dice que es un valor propio de T si existe un vector no nulo
v V tal que T (v) = a v. En tal caso se dice que v es un vector propio de T
perteneciente al valor propio a.
Notese que un vector propio solo puede pertenecer a un solo valor propio.
Ejemplo 4.5.5. Para la transformacion lineal T : R2 R2 definida por T [x, y]T :=
[2x, 3y]T , a = 2 es un valor propio con vector propio [6, 0]T ; a = 3 es tambien un
valor propio de T con vector propio [0, 2]T .
4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 99

Sea a K, el conjunto

E(a) := {v V |T (v) = a v}

es un subespacio de V ; notese que E(a) 6= 0 si, y solo si, a es un valor propio de T .

Definicion 4.5.6. E(a) se denomina el espacio propio de T correspondiente al


valor propio a.

Las definiciones de vector propio, valor propio y espacio propio aplican para
espacios vectoriales arbitrarios, no necesariamente de dimension finita.

Ejemplo 4.5.7. Sea D el operador derivacion definido sobre el espacio de funciones


reales cuyas derivadas de cualquier orden existen, y sea a R, entonces E(a) =
{ceax |c R}.

Ejemplo 4.5.8. Existen transformaciones lineales sin valores propios, es decir,


E(a) = 0, para cada a K. En efecto, la transformacion T : R2 R2 definida
por

T [x, y]T = [y, x]T

no tiene valores propios.

Proposicion 4.5.9. Sea T : V V una transformacion lineal de un espacio V .


Sean a1 , . . . , ar valores propios diferentes con vectores propios v1 , . . . , vr , respectiva-
mente. Entonces v1 , . . . , vr son l.i. En particular, si V es de dimension finita n 1,
entonces T tiene a lo sumo n valores propios diferentes. Si T tiene exactamente n
valores propios diferentes, entonces {v1 , . . . , vn } es una base de V .

Demostracion. La prueba de la primera afirmacion la se realiza por induccion. Las


otras dos afirmaciones son consecuencia directa de la primera.
n = 1: si a es un valor propio y v 6= 0 es un vector propio asociado al valor a,
entonces {v} es l.i. Supongase que la afirmacion ha sido probada para n 1 valores
propios diferentes. Sean a1 , . . . , an valores propios diferentes para T con vectores
propios v1 , . . . , vn . Sean b1 , . . . , bn escalares tales que b1 v1 + + bn vn = 0.
Aplicando T y multiplicando por an se pueden restar las dos relaciones y obtener
que
(b1 a1 b1 an ) v1 + + (bn1 an1 bn1 an ) vn1 = 0
Aplicando induccion resulta entonces que b1 = = bn1 = 0, de donde bn = 0.
Esto prueba que los vectores v1 , . . . , vn son l.i.
El recproco de la proposicion anterior no es siempre cierto, por ejemplo, si T = iV
cualquier base de V pertenece a 1 que es el unico valor propio de iV .
100 CAPITULO 4. FORMAS CANONICAS

Ejemplo 4.5.10. Sea K[x] el conjunto de polinomios con coeficientes en el cuerpo


K, y sea T : V V una transformacion lineal. Entonces para cada polinomio p(x)
K[x] se tiene que si a K es un valor propio de T con vector propio v, entonces
p(a) es un valor propio de p(T ) con vector propio v. En tal caso, E(a) ker(p(T ))
si a es raz de p(x), y E(a) Im(p(T )) si a no es raz de p(x).

El polinomio caracterstico es un instrumento para determinar los valores propios


de una transformacion lineal.

Proposicion 4.5.11. Sea T : V V una transformacion lineal de un espacio V


de dimension finita n 1 y sea a K. Entonces, a es un valor propio de T si, y
solo si, pT (a) = 0.

Demostracion. ) Sea v un vector propio de a, entonces, T (v) = a v, luego (T


a iV )(v) = 0, es decir, T a iV no es una transformacion inyectiva. Esto implica
que si X es una base cualquiera que fijamos en V , entonces mX (T a iV ) tiene
determinante igual a cero, es decir, det(A aE) = 0, donde A es la matriz de T en
la base X. Por lo tanto, pA (a) = 0, es decir, a es raz del polinomio caracterstico
de A, o sea del polinomio caracterstico de T .

) Si a es raz de pT (x), entonces a es raz de pA (x). Por lo tanto, det(A


aE) = 0, luego mX (T a iV ) no es invertible. Esto garantiza que T a iV no es
invertible, y en consencuencia no es inyectiva, es decir, existe v no nulo en V tal que
(T a iV )(v) = 0, es decir, T (v) = a v. Esto quiere decir que v es vector propio
con valor propia a.

Este resultado es valido para valores a K, podra ocurrir que las races del
polinomio caracterstico no pertenezcan al cuerpo K, por ejemplo, en el caso en
que K sea el cuerpo de numeros reales y todas las races de pT (x) sean complejas,
entonces no tendramos valores propios. Esta situacion no se presenta por supuesto
en cuerpos algebraicamente cerrados.

Corolario 4.5.12. Sea K un cuerpo algebraicamente cerrado y sea T : V V


una transformacion lineal de un K-espacio V de dimension finita n 1, Entonces,
T tiene n valores propios (no necesariamente diferentes) correspondientes a las n
races de su polinomio caracterstico.

No sobra reformular las nociones de valores y vectores propios para matrices. Sea
A una matriz cuadrada de orden n 1, un elemento a K se dice que es un valor
propio de A si existe una matriz columna no nula u = (u1 , . . . , un )T K n tal que
Au = a.u . La teora de valores y vectores propios para matrices esta relacionada de
manera obvia con la correspondiente teora para transformaciones lineales.
4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 101

Definicion 4.5.13. Sea A Mn (K) una matriz cuadrada de orden n 1, un


elemento a K se dice que es un valor propio de A si existe vector no nulo
u := [u1 , . . . , un ]T K n tal que Au = a u. Se dice u es un vector propio de A
correspondiente al valor propio a.
La teora de valores y vectores propios para matrices esta relacionada de manera
obvia con la correspondiente teora para transformaciones lineales.
Corolario 4.5.14. Sea T : V V una transformacion lineal de un K-espacio V
de dimension finita n 1. Sean X := {v1 , . . . , vn } una base de V , A := mX (T ) y
a K. Entonces, a es un valor propio de T si, y solo si, a es un valor propio de A.
Mas exactamente, v = u1 v1 + + un vn es un vector propio de T perteneciente
al valor propio a si, y solo si, [u1 , . . . , un ]T es un vector propio de A perteneciente
al valor propio a.
Teorema 4.5.15. Sea T : V V una transformacion lineal de un espacio V de
dimension finita n 1. T es diagonalizable si, y solo si, V tiene una base constituida
por vectores propios.
Demostracion. ) Existe una base X := {x1 , . . . , xn } en V tal que mX (T ) es dia-
gonal, digamos

d1 0
mX (T ) =
...

0 dn
Esto indica que T (x1 ) = d1 x1 , . . . , T (xn ) = dn xn . Puesto que los vectores x1 , . . . , xn
son no nulos, entonces estos vectores son propios.
) Sea X = {x1 , . . . , xn } una base de vectores propios. Entonces, existen es-
calares d1 , . . . , dn en K tales que T (x1 ) = d1 x1 , . . . , T (xn ) = dn xn . Notese que
entonces la matriz de T es la base X es diagonal, y sus elementos diagonales son
precisamente d1 , . . . , dn .
Sea A Mn (K) una matriz diagonalizable. Entonces existe una matriz invertible
C tal que C 1 AC = D, donde D es una matriz diagonal. La demostracion del
teorema anterior nos da una manera de encontrar la matriz diagonalizante C. En
efecto, sea Y la base canonica de K n , entonces sabemos que A es la matriz de una
transformacion T : K n K n , A = mY (T ). Como A es diagonalizable entonces
T es diagonalizable. Segun la demostracion del teorema anterior, existe una base
X = {x1 , . . . , xn } en K n de vectores propios de T de tal forma que mX (T ) = D,
donde D es una matriz diagonal. Entonces, D = mX (T ) = C 1 mY (T )C, donde C
es la matriz de cambio de la base Y a la base X. Es decir, la i-esima columna de C
son los coeficientes de la expansion del i-esimo vector xi a traves de la base canonica
Y , es decir, las coordenadas del vector columna xi . En otras palabras, las columnas
102 CAPITULO 4. FORMAS CANONICAS

de C son los vectores columna x1 , . . . , xn (notese que segun el corolario 4.5.14, cada
vector columna xi es un vector propio de A).

Corolario 4.5.16. Sea A una matriz cuadrada de orden n 1. Entonces,

(i) A es diagonalizable si y solo si, A tiene n vectores propios l.i.

(ii) Si A tiene n valores propios diferentes, entonces A es diagonalizable.

Demostracion. Consecuencia inmediata de los resultados precedentes.

Proposicion 4.5.17. Sea T : V V una transformacion lineal de un espacio V


de dimension finita n 1. Sean a1 , . . . , ar los valores propios diferentes para T ,
1 r n, y E(a1 ), . . . , E(ar ) los subespacios propios correspondientes. Entonces,
la suma E(a1 ) + + E(ar ) es directa. En consecuencia,

dim(E(a1 ) E(ar )) = dim(E(a1 )) + + dim(E(ar )).

Demostracion. Sean u1 E(a1 ), . . . , ur E(ar ) tales que u1 + + ur = 0,


supongase que alguno de estos sumandos es no nulo, y entre ellos sean u1 , . . . , us , 1
s r los no nulos. Como u1 , . . . , us son vectores propios correspondientes a valores
propios diferentes, entonces son l.i, pero esto contradice la condicion u1 + +us = 0.
Por lo tanto, ui = 0, para cada 1 i r.

Podemos probar ahora un criterio de diagonalizacion en terminos del polinomio


caracterstico y de los espacios propios.

Teorema 4.5.18. Sea T : V V una transformacion lineal de un espacio V


de dimension finita n 1. Sean a1 , . . . , ar los valores propios diferentes para T ,
1 r n, y E(a1 ), . . . , E(ar ) los subespacios propios correspondientes. Entonces,
las siguientes condiciones son equivalentes:

(i) T es diagonalizable.

(ii) El polinomio caracterstico de T es de la forma

pT (x) = (x a1 )n1 . . . (x ar )nr ,

donde ni = dim(E(ai )), 1 i r.

(iii) dim(V ) = dim(E(a1 )) + . . . + dim(E(ar )).

(iv) V = E(a1 ) . . . E(ar ).


4.5. FORMA CANONICA DIAGONAL: VALORES Y VECTORES PROPIOS 103

Demostracion. (i) (ii): por el teorema 4.5.15, V tiene una base X = {v1 , . . . , vn }
constituida por vectores propios. Se ordena esta base de tal manera que los primeros
n1 vectores correspondan al valor propio a1 , los siguientes n2 vectores correspondan
al valor a2 y as sucesivamente. Entonces claramente la matriz de T en esta base
toma la forma

a1 E 0
mX (T ) = ... ... .. ,

.
0 ar E
donde ai E es una matriz diagonal de orden ni ,

ai 0
.. . . .. ,
ai E = . . .
0 ai

1 i r. El polinomio caracterstico de T es pT (x) = (x a1 )n1 (x ar )nr .


Se vera ahora que ni = dim(E(ai )). Puesto que gr(pT (x)) = n, entonces n =
n1 + + nr . Por la forma como se ha organizado la base X, se tiene que V = hXi
E(a1 ) + + E(ar ), es decir, V = E(a1 ) + + E(ar ), luego por la proposicion
4.5.17, n = dim(E(a1 )) + + dim(E(ar )). Se sabe que ni dim(E(ai )), para cada
1 i r, supongase que existe i tal que ni < dim(E(ai )), entonces
n = n1 + + nr < dim(E(a1 )) + + dim(E(ar )) = n.
Esto indica que ni = dim(E(ai )) para cada 1 i r.
(ii) (iii): dim(V ) = n = n1 + + nr = dim(E(a1 )) + + dim(E(ar )).
(iii) (iv): dim(V ) = dim(E(a1 ))+ +dim(E(ar )) = dim(E(a1 )+ +E(ar )),
de donde , V = E(a1 ) + + (E(ar ), ademas, por la proposicion 4.5.17, la suma es
directa, es decir, V = E(a1 ) E(ar ).
d) a) Al reunir las bases de E(a1 ), . . . , E(ar ) se obtiene una base de V
constituida por vectores propios, lo cual, de acuerdo con el teorema 4.5.15, garantiza
que T es diagonalizable.

Ejemplo 4.5.19. (i) Sea K un cuerpo y sean T : U U , F : V V transforma-


ciones lineales de espacios vectoriales no nulos de dimension finita. Sea a un valor
propio de T con vector propio u y sea b un valor propio de F con vector propio
v. Entonces, ab es un valor propio de T F con vector propio u v. En efecto,
(T F )(u v) = T (u) F (v) = (a u) (b v) = ab (u v). Segun el corolario
3.1.6, u v es no nulo.
En forma matricial, sean A Mn (K), B Mm (K) matrices, a un valor propio
de A con vector columna propio u y b un valor propio de B con vector columna
propio v. Entonces, u v es un vector propio de A B con valor propio ab.
104 CAPITULO 4. FORMAS CANONICAS

(ii) Sean A Mn (K), B Mm (K) matrices diagonalizables, entonces A B es


diagonalizable.

Ejemplo 4.5.20. En este ejemplo mostraremos una aplicacion del producto tenso-
rial de matrices y de la forma canonica de Jordan. Sean A, B y C matrices complejas
de tamanos n n, m m y n m respectivamente. Supongase que para cada valor
propio de A y cada valor propio de B se cumple que + 6= 0. Demostremos
entonces que la ecuacion matricial AX + XB = C tiene solucion unica.
Solucion. Consideremos el C-espacio de matrices rectangulares Mnm (C), defi-
namos la funcion T por

T : Mnm (C) Mnm (C)


X 7 AX + XB.

Notemos que T es una transformacion lineal. Para resolver el problema mostraremos


que T es biyectiva, con esto, dada C Mnm (C) existe una unica X Mnm (C)
tal que AX + XB = C.
La prueba de la biyectividad de T la haremos a traves de su matriz en la base
canonica X := {E11 , . . . , E1m ; . . . ; En1 , . . . , Enm } de Mnm (C), es decir, probaremos
que mX (T ) es invertible. Notemos entonces que

a11 Em a1n Em BT 0
mX (T ) = .. .. .. .. .. ..
+ .

. . . . .
an1 Em ann Em 0 BT

donde Em es la identica de orden m y B T es la transpuesta de B. Pero,


a11 Em a1n Em
.. .. ..
= A Em ,

. . .
an1 Em ann Em

BT 0
.. ... .. = E B T .
. . n
0 BT

De esta forma
mX (T ) = A Em + En B T .
Puesto que C es algebraicamente cerrado, existen matrices invertibles F y G de
tamanos n n y m m, respectivamente, tales que F 1 AF = J1 y G1 B T G = J2
son matrices de Jordan. Notemos que en la diagonal de J1 y J2 estan localizados
4.6. EJERCICIOS 105

los valores propios de A y de B T , respectivamente (observemos que los valores


propios de B T son los mismos de B). Tenemos

J1 Em = F 1 AF Em = F 1 Em (A Em ) (F Em ) ,
 

En J2 = En G1 B T G = En G1 En B T (En G) ,
  

donde ademas

F 1 Em = (F Em )1


En G1 = (En G)1 .


De esta forma se tiene que

J1 Em = (F Em )1 (A Em ) (F Em ) ,
En J2 = (En G)1 En B T (En G) .


Resulta entonces que


(F Em )1 mX (T ) (F  Em ) = (F Em )1 (A Em ) (F Em )
+ (F Em )1 En B T (F Em )=
(J1 Em ) + (F 1 Em ) En B T (F Em ) =
(J1 Em ) + En B T .
Ahora, (En G)1 (F Em )1 mX (T ) (F Em ) (En G) =
1 1 T
(En G) (J1 Em ) (En G) + (En G) En B (En G) =
(J1 Em ) + (En J2 ). En total,

(En G)1 (F Em )1 mX (T ) (F Em ) (En G) = (J1 Em ) + (En J2 ) ,

es decir,
(F G)1 mX (T ) (F G) = (J1 Em ) + (En J2 ) .
Notemos que la matriz (J1 Em ) + (En J2 ) es triangular inferior y en su diagonal
estan las sumas de la forma + , las cuales por hipotesis son no nulas, es decir,
esta matriz es invertible, o sea que, mX (T ) es tambien invertible, y la prueba ha
terminado.

4.6. Ejercicios
1. Sea T : V V una transformacion lineal de un espacio K-espacio V de
dimension finita n 1. Demuestre que T es invertible si, y solo si, el termino
independiente q0 del polinomio mnimo qT (x) es no nulo.

2. Determine la forma canonica de Jordan de la matriz:


106 CAPITULO 4. FORMAS CANONICAS


0 0 1 0
0
0 0 1
.
1 0 0 0
0 1 0 0

3. Calcule la forma de Jordan de la matriz



5 10 10 5 1
1 0 0 0 0

0 1 0 0 0 .

0 0 1 0 0
0 0 0 1 0

4. Sean T1 , T2 : V V transformaciones diagonalizables de un espacio V de


dimension finita n 1 tales que T1 T2 = T2 T1 . Demuestre que existe una base
X en V tal que mX (T1 ) y mX (T2 ) son diagonales.

5. Sea T : V V una transformacion lineal de un espacio K-espacio V de


dimension finita n 1 tal que T tiene n valores propios diferentes. Calcule el
numero de subespacios invariantes de T .

6. Sea A = [aij ] una matriz cuadrada de orden n 1 tal que su numero de


entradas nulas es superior a n2 n. Demuestre que el determinante de A es
igual a cero.

7. Sea A = [aij ] una matriz cuadrada invertible de orden n 1. Demuestre que

pA1 (x) = (x)n (det(A))1 pA (x1 ),

donde pA (x) denota el polinomio caracterstico de la matriz A.

8. Sea T : V V una transformacion lineal de un K-espacio de dimension


finita n. Suponga que T es diagonalizable y que 1 , . . . k son los distintos
valores propios de T , 1 k n. Demuestre que existen transformaciones
lineales T1 , . . . , Tk de V tales que:

(i) T = 1 T1 + + k Tk
(ii) IV = T1 + + Tk
(iii) Ti Tj = 0, para i 6= j
(iv) Ti2 = Ti
(v) Ti (V ) = E(i ), 1 i k.
4.6. EJERCICIOS 107

Demuestre tambien el recproco de esta afirmacion, es decir, si existen k es-


calares distintos 1 , . . . k y k transformaciones lineales T1 , . . . , Tk de V , con
k n, que satisfacen (i)-(iii), entonces T es diagonalizable, 1 , . . . k son los
valores propios distintos de T y (iv)-(v) tambien se cumplen.

9. Demuestre que cada matriz cuadrada compleja A es similar a su transpuesta


AT .

10. Sea A una matriz cuadrada compleja de orden n 1 tal que existe un numero
natural m para el cual se tiene que Am = E. Demuestre que A es diagonalizable
(E denota la matriz identica de tamano n).

11. Sean S, T : V V transformaciones tales que ST = T S. Demuestre que


ker(S) e Im(S) son subespacios T -invariantes.

12. Sea T : V V una transformacion lineal de un espacio V de dimension finita.


Demuestre que existe un entero k tal que:
(a) Para j k se cumple que Im(T j ) = Im(T k ) y ker(T j ) = ker(T k ).
(b) Im(T k ) y ker(T k ) son subespacios T -invariantes y ademas V = Im(T k )
N (T k ).

13. Calcule, usando los resultados del presente captulo, una matriz invertible C
tal que C 1 BC sea una matriz de Jordan, donde

7 1 2 2
1 4 1 1
.
2 1 5 1
1 1 2 8

14. Sea T : C2 C2 una transformacion lineal con un solo valor propio . De-
muestre que T I es nilpotente.

15. Sea T : V V una transformacion lineal invertible en un espacio V complejo


de dimension finita. Demuestre que existe una transformacion S : V V tal
que S 2 = T (sugerencia: use la forma canonica de Jordan). Se dice que S es la
raz cuadradade T .

16. Encuentre la raz cuadrada de la siguiente matriz


2 1 1
1 2 1 .
1 1 2
108 CAPITULO 4. FORMAS CANONICAS

17. Calcule la forma canonica racional de la transformacion T : R3 R3 definida


por T (x, y, z) = (4z, y x + 2z, 3x z).

18. Para la matriz real


1 1 0 8
1 1 0 4
A=
0 1 0 5
0 0 1 4
determine:
(a) A es diagonalizable?. En caso afirmativo, calcule una matriz diagonalizante.
(b) A es diagonalizable en bloques?. En caso afirmativo calcule una matriz que
la convierta en matriz diagonal en bloques.
(c) La forma racional de A y una matriz racionalizante.
(d) A es diagonalizable en bloques de Jordan?. En caso afirmativo calcule una
matriz que la diagonalice en bloques de Jordan.
(f) Resuelva (a)-(e) pero considerando A como matriz compleja.

19. Sea A Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que la forma racional de A es la companera del polinomio mnimo
de A (en consecuencia, la forma racional de A tiene un solo bloque racional).

20. Sea A Mn (K) una matriz tal que su forma de Jordan es una celda de Jordan.
Demuestre que A no es diagonalizable en bloques.

21. Determine si las siguientes matrices son diagonalizables. En caso afirmativo


calcule una matriz que diagonalice:

1 1 2 3
0 1 0 0 2 2 4
A= 0 0 1 , B= .
0 0 1 2
1 3 3
0 0 0 2

22. Determine los valores y vectores propios del operador derivacion sobre el es-
pacio Rn [x]. Es este operador diagonalizable?

23. Sea A una matriz de orden n 1 y p(x) un polinomio cualquiera. Demuestre


que si A es diagonalizable, entonces p(A) es diagonalizable.

24. Sea A = [aij ] una matriz de orden n 1 tal que nj=1 aij = 1 para cada
P
1 i n. Demuestre que 1 es un valor propio de A.
Captulo 5

Grupos de matrices

Este captulo esta dedicado a estudiar grupos de matrices sobre anillos. Se asume
que el lector conoce la teora clasica de formas bilineales y formas cuadraticas so-
bre cuerpos ya que aqu construiremos los llamados grupos clasicos sobre anillos,
generalizando dichas formas para anillos no conmutativos con involucion. Ademas,
estudiaremos dos teoremas de Suslin relativos al grupo elemental sobre anillos con-
mutativos.

5.1. Grupos de matrices sobre cuerpos


En esta seccion se enuncian las definiciones y algunas propiedades relativas a grupos
de matrices sobre cuerpos. Aunque algunos de estos grupos y resultados ya haban
sido presentados en captulos anteriores los repertiremos para darle completez al
tema (vease tambien [4]).

5.1.1. El grupo lineal y algunos subgrupos destacados


Si V es un espacio vectorial sobre un cuerpo K, el conjunto de transformaciones
lineales biyectivas de V es un grupo con la composicion de funciones, denominado
grupo lineal general , y se denota por GL(V ). Cuando la dimension del espacio
es finita, dim(V ) = n 2, V se puede identificar con K n y el grupo lineal depende
unicamente del cuerpo y la dimension; en este caso GL(V ) = GLn (K). As pues,
GLn (K) := Mn (K) es el grupo de elementos invertibles del anillo Mn (K) y se
conoce como el grupo lineal general de orden n sobre K
Una matriz F es invertible si, y solo si, det(F ) 6= 0. Por lo tanto, el homomorfismo
de grupos det : GLn (K) K es sobreyectivo y K es isomorfo al grupo cociente de
GLn (K) con nucleo constituido por las matrices de determinante uno. Este subgrupo
se denota SLn (K) y se denomina grupo especial lineal de orden n sobre K. En
general, podemos destacar en GLn (K) los siguientes subgrupos:

109
110 CAPITULO 5. GRUPOS DE MATRICES

(i) SLn (K) es el subconjunto de GLn (K) constituido por las matrices de deter-
minante 1, es decir,

SLn (K) := {F GLn (K) | det(F ) = 1},

y ademas SLn (K)  GLn (K).


(ii) Sea


d 1 0

Dn (K) := D(d1 , . . . , dn ) :=
. ..
M (K) | d d 6
= 0 .
n 1 n

0 dn

Entonces, Dn (K) GLn (K) y se conoce como el grupo de matrices dia-


gonales de orden n sobre K.
(iii) Sea

f
11
f1n

. . .
.
Tn (K) := . Mn (K) | f11 fnn 6= 0, fij = 0 si i > j .

.

0 fnn

Entonces, Tn (K) GLn (K) y se denomina el grupo de matrices triangu-


lares superiores de orden n sobre K. Ademas, Dn (K) Tn (K).
(iv) Sea

U Tn (K) := {F Tn (K) | fii = 1, 1 i n}.

Entonces, U Tn (K) Tn (K) SLn (K) y se denomina el grupo de matrices


unitriangulares superiores de orden n sobre K.
(iv) Para 1 m n sea U Tnm (K) el conjunto de matrices unitriangulares F =
[fij ] U Tn (K) tales que fij = 0 para i < j < i + m, es decir, las primeras
m 1 diagonales consecutivas por encima de la diagonal principal de F son
nulas. Entonces, U Tnm (K) U Tn (K), y ademas

U Tn (K) = U Tn1 (K) U Tn2 (K) U Tnn (K) = U Tnn+1 (K) =


U Tnn+2 (K) = = {E}.

Usando la notacion de la seccion 1.4 se tienen las siguientes propiedades, donde


En (K) representa el grupo elemental de orden n sobre K definido como el sub-
grupo de GLn (K) generado por todas las matrices propiamente elementales, es decir,
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 111

En (K) := hTij (a)|1 i, j n, i 6= j, a Ki.

Proposicion 5.1.1. Sea K un cuerpo. Entonces,

(i) GLn (K) se puede generar por matrices propiamente elementales y matrices
diagonales. En forma mas precisa,

GLn (K) = hTij (a), Di (d)|1 i, j n, i 6= j, a K, 0 6= d Ki,


GLn (K) = SLn (K)Dn (K).

(ii) SLn (K) = En (K).

(iii) Dn (K) = hDi (di )|0 6= di K, 1 i ni.

(iv) Tn (K) = hTij (a), Di (d)|j > i, a K, 0 6= di K, 1 i, j ni.

(v) U Tn (K) = hTij (a)|j > i, a K, 1 i, j ni.

(vi) U Tnm (K) = hTij (a)|j i m, a K, 1 i, j ni.

(vii)

Z(GLn (K)) = {a E | a K },
Z(SLn (K)) = {a E | a K, an = 1},
Z(Dn (K)) = Dn (K).

(viii)

Z(GLn (K)), si |K| 3,
Z(Tn (K)) = CGLn (K) (Tn (K)) =
{E, T1n (1)}
= Z2 , si |K| = 2.

(ix) Si K es finito con |K| := q, entonces


Qn1 n 1
Qn1
|GLn (K)| = j=0 (q q j ), |SLn (K)| = q1 j=0 (q
n
q j ).

(x)

[GLn (K), GLn (K)] = SLn (K) si n 3 o n = 2 y |K| 3,


[GL2 (Z2 ), GL2 (Z2 )]
= Z3 .
112 CAPITULO 5. GRUPOS DE MATRICES

[SLn (K), SLn (K)] = SLn (K) si n 3 o n = 2 y |K| 4,


[SL2 (Z3 ), SL2 (Z3 )]
= Q8 , [SL2 (Z2 ), SL2 (Z2 )]
= Z3 .

(xi) Para 1 m n, U Tnm (K)  Tn (K) y ademas,

{E} = U Tnn (K)  U Tnn1 (K)  U Tn1 (K) = U Tn (K)  Tn (K).

(xii) Si |K| 3, Dn (K) 5 GLn (K) y Dn (K) 5 Tn (K).

(xiii) Tn (K), U Tn (K) 5 GLn (K); U Tn (K) 5 SLn (K).

(xiv) Para 1 m n 1, U Tnm (K) 5 GLn (K).

(xv)

[Dn (K), Dn (K)] = {E}


[Tn (K), Tn (K)] = U Tn (K) si |K| 3,
[Tn (Z2 ), Tn (Z2 )] = U Tn2 (Z2 ),
[U Tnr (K), U Tns (K)] = U Tnr+s (K), 1 r, s n.

(xvi) Tn (K)/U Tn (K)


= Dn (K)
=K
K} .
| {z
n-veces

(xvii) U T m (K)/U T m+1 (K)


= |K {z
K}, 1 m n 1.
n m-veces

(xviii) Para n 3, SLn (K) y GLn (K) no son solubles. Para n = 2 y |K| 4,
SL2 (K) y GL2 (K) no son solubles.

(xix) SL2 (Z3 ), SL2 (Z2 ), GL2 (Z3 ) y GL2 (Z2 ) son solubles.

(xx) Dn (K), Tn (K) y U Tnm (K) son solubles, 1 m n.

Demostracion. (i) (a) La prueba acerca del sistema de generadores de GLn (K) se
puede realizar por induccion sobre n.
n = 2: sea
 
a11 a12
A=
a21 a22
una matriz invertible. a11 y a12 no pueden ser simultaneamente nulos debido a que
el rango de A es dos. Considerense pues dos casos. Si a11 6= 0, entonces
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 113

 
1 b12
AD1 (a1
11 ) = = B,
b21 b22
y
 
1 c12
T21 (b21 )B = = C.
0 c22
Tambien,
 
1 0
CT12 (c12 ) = = F.
0 f22
En total, F = T21 (b21 )AD1 (a1
11 )T12 (c12 ), y A se puede despejar como un producto
de matrices elementales y diagonales. Notese que F = D2 (f22 ) es invertible ya que
es producto de invertibles. Si a12 6= 0 entonces se puede reducir esta situacion a la
anterior multiplicando la matriz A a la derecha por la permutacion P12 , y entonces A
nuevamente se puede expresar como un producto de propiamente elementales y dia-
gonales. Para completar la prueba del caso n = 2 veremos al final de la demostracion
de esta parte (a) que cada permutacion Pij se pueden expresar como producto de
propiamente elementales y diagonales.
Supongase que el teorema ha sido probado para matrices de tamano n n y sea
A una matriz de tamano (n + 1) (n + 1). No es posible que todos los elementos de
la primera fila de A sean nulos; al igual que en el caso n = 2, multiplicando por una
matriz de permutacion, se puede asumir que a11 6= 0. La matriz

B = AD1 (a1
11 )

es tal que b11 = 1 y se puede multiplicar a derecha e izquierda por matrices propia-
mente elementales adecuadas hasta obtener una matriz invertible C de la forma
 
1 0
C= ,
0 A0

donde A0 es una matriz de orden n. Puesto que C es invertible, entonces el rango


de A0 es n, es decir, A0 es invertible. Por induccion, A0 se puede factorizar en
un producto de matrices propiamente elementales y diagonales de orden n: A0 =
F1 Ft . La matriz C se puede entonces escribir en la forma:
     
1 0 1 0 1 0
C= = .
0 F1 Ft 0 F1 0 Ft

C queda entonces factorizada en un producto de matrices propiamente elementales


y diagonales de orden n + 1, de donde, A se expresa como un producto finito de
matrices propiamente elementales y diagonales de orden n + 1.
114 CAPITULO 5. GRUPOS DE MATRICES

Para concluir la demostracion veamos que cada permutacion Pij se puede facto-
rizar como producto de propiamente elementales y diagonales. Es suficiente consi-
derar el caso i < j ya que Pji = Pij :
Pij = Tij (1)Di (1)Tji (1)Tij (1).
(b) Es claro que SLn (K)Dn (K) GLn (K); para la otra inclusion, sabemos por
(a) que cada elemento de GLn (K) es producto de matrices propiamente elementales,
es decir, matrices de SLn (K), y matrices diagonales, pero como SLn (K)  GL( K),
entonces podemos disponer a la izquierda todas las propiamente elementales y a la
derecha las diagonales: en efecto, en un grupo arbitrario G, si tenemos dos subgrupos
S y D tales que S  G, entonces DS = SD: ds = dsd1 d = s0 d, con d D, s, s0 S.
(ii) Veamos que el sistema de generadores de GLn (K) encontrado en (i) se puede
simplificar y considerar solo matrices diagonales de la forma Dn (c), con c K . En
efecto, sea i 6= n y c K , entonces
Di (c) = Pin Dn (c)Pin = Tin (1)Di (1)Tni (1)Tin (1)Dn (c)Tin (1)Di (1)Tni (1)Tin (1)
pero como vimos en la parte (b) de (i), podemos permutar Di (1) con las matrices
propiamente elementales, y ademas con Dn (c), de tal forma que Di (1)Di (1) = E,
y as, en la factorizacion de Di (c) solo hay propiamente elementales y la matriz Dn (c).
De lo anterior se obtiene que SLn (K) = En (K): en efecto, es claro que En (K)
SLn (K); si F SLn (K) GLn (K), entonces F es producto de matrices propia-
mente elementales y una matriz de la forma Dn (c), c K , pero como det(F ) = 1,
entonces c = 1 y de esta manera F En (K).
(iii) Evidente.
(iv) Sea F Tn (K); con los elementos diagonales de F podemos eliminar, por
medio de matrices propiamente elementales, todos los elementos no diagonales su-
periores de F .
(v) Consecuencia directa de (iv).
(vi) La prueba es como en (iv).
(vii) Sea F Z(GLn (K)), entonces F conmuta con cualquier matriz propiamente
elemental. Veamos que esto implica que A conmuta con cualquier matriz del anillo
Pnn(K). Puesto que cada matriz G Mn (K) se puede escribir en la forma G =
M
i,j gij Ei,j , basta probar que F conmuta con cualquier matriz gij Eij . Si i 6= j,
entonces gij Eij = Tij (gij ) E; si i = j, entonces gii Eii = Tir (gii )Tri (1) Tri (1)
Tir (gii ), con i 6= r. As pues, F Z(Mn (K)) y F es invertible, pero el centro del
anillo Mn (K) consta de las matrics diagonales para las cuales todas las entradas
diagonales son iguales (vease [5]). Esto completa la demostracion del calculo del
centro del grupo GLn (K).
Veamos ahora la prueba para SLn (K). Sea F Z(SLn (K)), entonces F conmuta
con cada matriz propiamente elemental, luego por lo probado anteriomente, F
Z(Mn (K)) SLn (K), es decir, F es de la forma F = a E, con an = 1.
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 115

La ultima identidad se tiene ya que Dn (K) es abeliano.


(viii) (a) En primer lugar notemos que Z(Tn (K)) = CGLn (K) (Tn (K)): en efecto,
para cualquier grupo G y H G, se tiene que Z(G), Z(H) CG (H), donde CG (H)
es el centralizador de H en G definido por CG (H) := {g G|gh = hg, para cada h
H} (vease [4]). As pues, Z(Tn (K)) CGLn (K) (Tn (K)). SeaP ahora F CGLn (K) (Tn (K));
entonces paraP cada j 2, F Tij (1) P = Tij (1)F , luegoP ( r,s frs Ers )(E + E1j ) =
(E + E1j )( r,s frs Ers ), y resulta F + r fr1 Erj = F + s fjs E1s , es decir,

0 0 f11 0 0 fj1 fj,j1 fjj fj,j+1 fjn
.. ..
= .

. .
0 0 fn1 0 0 0 0 0 0 0
Para j 2 y cada t 6= j se tiene que fjt = 0 y fjj = f11 . Por lo tanto

f11 f12 f1n
0 f11 0
F = Tn (K), (5.1.1)

..
.
0 0 f11

luego F Z(Tn (K)).


(b) Veamos ahora que para |K| 3 se tiene que CGLn (K) (Tn (K)) = Z(GLn (K)):
ya vimos que Z(GLn (K)) CGLn (K) (Tn (K)); sea F CGLn (K) (Tn (K)), entonces
F es como en (5.1.1); F debe conmutar con cada matriz de Dn (K), luego F
CGLn (K) (Dn (K)), pero veamos que para |K| 3, CGLn (K) (Dn (K)) = Dn (K). En
efecto, como Dn (K) es abeliano, entonces Dn (K) CGLn (K) (Dn (K)); sea G
CGLn (K) (Dn (K)), entonces GD(1, . . . , z, . . . , 1) = D(1, . . . , z, . . . , 1)G, con z en la
posicion j y z 6= 0, 1. Resulta gij z = gij para cada i 6= j, de donde gij (z 1) = 0,
es decir, gij = 0 para cada i 6= j. Esto dice que G Dn (K), y en consecuencia,
F Dn (K), es decir, F = D(f11 , . . . , f11 ), con f11 6= 0. Segun (vii), F Z(GLn (K)).
(c) Supongamos ahora que |K| = 2. Sea F F CGLn (K) (Tn (K)); tal como
vimos en (a),

1 f12 f1n
0 1 0
F = ,

...
0 0 1
ademas para cada 2 k n 1 se tiene que F Tk,k+1 (1) = Tk,k+1 (1)F , con lo cual
(E + f12 E12 + + f1k E1k + + f1n E1n )(E + Ek,k+1 ) =
| {z }
S
(E + Ek,k+1 )(E + f12 E12 + + f1k E1k + + f1n E1n ),
| {z }
S
116 CAPITULO 5. GRUPOS DE MATRICES

E + Ek,k+1 + S + f1k E1,k+1 = E + S + Ek,k+1 ,


de donde f1k = 0 para 2Q k n 1. Esto dice que F = E o F = T1n (1).
(ix) (a) |GLn (K)| = n1 n j
j=0 (q q ): sea F GLn (K), entonces la primera fila de
F es no nula y el numero de posibilidades para esta primera fila son q n 1 = q n q 0 ;
una vez definida la primera fila, la segunda no puede ser multiplo de la primera, por
lo tanto, el numero de opciones para la segunda fila son q n q; una vez definidas
la primera y segunda filas, la tercera no puede ser combinacion lineal de las dos
primeras, por lo tanto, el numero de posiblidades para la tercera fila son q n q 2 .
Continuando de esta manera encontramos que el numero de posiblidades para la
ultima fila son q n q n1Q
. Esto completa la demostracion.
(b) |SLn (K)| = q1 n1
1 n j
j=0 (q q ): tal como vimos al principio de esta seccion,
GLn (K)/SLn (K) |GLn (K)| Qn1 n
= K , luego |SLn (K)| =
|K |
= 1 q1
(q q j ).
j=0
(x) Comencemos probando las afirmaciones relativas al grupo SLn (K).
(a) Sea n 3. Para cualquier grupo G se tiene que [G, G] G; sea Tij (a) un
generador de SLn (K), se tiene la siguiente identidad

Tij (ab) = [Tik (a), Tkj (b)], con i, j, k diferentes y a, b K. (5.1.2)

Tomando b = 1 obtenemos que SLn (K) [SLn (K), SLn (K)].


(b) Sea n = 2 y |K| 4. Como vimos en (a), la inclusion [SL2 (K), SL2 (K)]
SL2 (K) se tiene trivialmente; para la otra inclusion se tiene la identidad general

[Tij (a), D(b1 , . . . , bn )] = Tij (a(b1


i bj 1)). (5.1.3)

Existe a0 K tal que a20 1 6= 0, de lo contrario a20 = 1, de donde a0 = 1


y entonces K = {0, 1, 1}. En la identidad anterior tomemos entonces b1 := a1 0 ,
b2 := a0 , con lo cual b1
1 b 2 1 = a 2
0 1 := c 6
= 0. As pues, dado a K se tiene

[T12 (a), D(a1 1 1


0 , a0 )] = T12 (ac), luego [T12 (ac ), D(a0 , a0 )] = T12 (a),

lo cual demuestra que T12 (a) [SL2 (K), SL2 (K)]. De manera similar se prueba que
T21 (a) [SL2 (K), SL2 (K)]. En consecuencia, SL2 (K) [SL2 (K), SL2 (K)].
(c) Sea n = 2 y |K| = 3. Probemos que en este caso

[SL2 (Z3 ), SL2 (Z3 )]


= Q8 := ha, b|a4 = 1, b2 = a2 , ba = a1 bi.

Q8 se conoce como el grupo de quaterniones (vease [4]). Segun (ix), |SL2 (Z3 )| =
1
31
(32 30 )(32 31 ) = 24, y como [SL2 (Z3 ), SL2 (Z3 )] SL2 (Z3 ), entonces
|[SL2 (Z3 ), SL2 (Z3 )]| = 1, 2, 3, 4, 6, 8, 12 o 24.
Notese que las siguiente matrices estan en SL2 (Z3 ):
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 117

           
0 1 2 2 1 1 1 0 2 1 2 2
A := , B := , C := , D := , F := , G :=
2 0 2 1 0 1 1 1 1 1 1 0
ademas, A = [C, D], B = [F, G], es decir, A, B [SL2 (Z3 ), SL2 (Z3 )], y estas matri-
ces cumplen
A4 = E, B 2 = A2 , BA = A1 B,
por lo tanto, Q8 = hA, Bi [SL2 (Z3 ), SL2 (Z3 )], luego [SL2 (Z3 ), SL2 (Z3 )] = 8 o 24.
Pero existe una matriz propiamente elemental que no pertenece a [SL2 (Z3 ), SL2 (Z3 )]
(vease la seccion de ejercicios al final del captulo), por lo tanto [SL2 (Z3 ), SL2 (Z3 )] =
8 y [SL2 (Z3 ), SL2 (Z3 )] = Q8 .
(d) Sea n = 2 y |K| = 2. Veamos que [SL2 (Z2 ), SL2 (Z2 )] = Z3 : notemos que
|SL2 (Z2 )| = |GL2 (Z2 )| = 21 (2 2 )(2 2 ) = 6, de donde SL2 (Z2 ) = GL2 (Z2 )
1 2 0 2 1
=

S3 = D3 (los grupos de orden 6 son dos: Z6 y S3 = D3 , vease [4]; pero GL2 (Z2 ) no es
abeliano: T12 (1)T21 (1) 6= T21 (1)T12 (1)). Se tiene entonces que [SL2 (Z2 ), SL2 (Z2 )] =

[D3 , D3 ] = [S3 , S3 ] = A3 = Z3 (A3 es el grupo alternante de orden 3).
Pasamos ahora a considerar el grupo GLn (K). Tenemos entonces tres casos.
(e) Sea n 3. Segun (a), SLn (K) = [SLn (K), SLn (K)] [GLn (K), GLn (K)];
ademas, como SLn (K)  GLn (K) y GLn (K)/SLn (K) = K es abeliano, entonces
[GLn (K), GLn (K)] SLn (K) (vease [4]). Otra forma de justificar esta ultima afir-
macion es: det[F, G] = 1 para cualesquiera F, G GLn (K) (esta afirmacion es valida
tambien para n = 2).
(f) Sea n = 2 y |K| 3. Tal como acabamos de ver en (e), [GL2 (K), GL2 (K)]
SL2 (K). Para la otra inclusion, sea a0 6= 0, 1; se tienen las siguientes identidades:
T12 (a) = [T12 (ab), D(1, a0 )], b := (a0 1)1 , a K,

T21 (a) = [T21 (ab), D(a1 1


0 , 1)], b := (a0 1) , a K.

(g) [GL2 (Z2 ), GL2 (Z2 )]


= Z3 : este isomorfismo es consecuencia directa de (d) ya
que GL2 (Z2 ) = SL2 (Z2 ).
(xi) Basta probar la primera afirmacion, U Tnm (K)Tn (K): sean F U Tnm K), G
Tn (K), entonces F = T10 Ts0 , con cada T 0 una matriz propiamente elemental de la
forma Tij (a), j i m, y G = D(b1 , . . . , bn )T1 , Tr , donde cada T es una matriz
propiamente elemental de la forma Tij (a), j > i (esta ultima afirmacion resulta de
la identidad general (5.1.3)). Entonces,
G1 F G = Tr1 T11 D(b1 1 0 0
1 , . . . , bn )T1 Ts D(b1 , . . . , bn )T1 , Tr ,

pero se tiene la identidad general


D(b1 , . . . , bn )Tij (a) = Tij (bi ab1
j )D(b1 , . . . , bn ),

luego
G1 F G = Tr1 T21 (T11 T100 Ts00 T1 )T2 Tr ,
118 CAPITULO 5. GRUPOS DE MATRICES

donde cada T 00 es nuevamente una matriz de la forma Tij (a), con j i m. Note-
mos que T11 T100 Ts00 T1 = (T11 T100 T1 )T11 T200 T1 (T11 Ts00 T1 ). Para concluir la de-
mostracion basta probar que cada factor T11 Tl00 T1 U Tnm (K), 1 l s, y luego
repetir el procedimiento para T21 , T2 ; . . . ; Tr1 , Tr .
Consideremos pues un producto de la forma P := Tij (a)1 Trs (b)Tij (a), con j > i,
s r m, a, b K. Expandiendo y simplificnado, encontramos que
P = E + bErs + baErs Eij abEij Ers a2 bEij Ers Eij .
Se presentan las siguientes posiblilidades: (a) j 6= r, s 6= i, entonces P = E + bErs
U Tnm (K); (b) j 6= r, i = s, entonces P = E + bErs + baErj , pero como j > i y
s r m, entonces j > s y s r + m, luego j > r + m, es decir, j r > m, de
donde P U Tnm (K); (c) j = r, i 6= s, entonces P = E + bErs abEis , pero como
j > i y sr m, entonces r > i y s r +m, de donde s > i+m, es decir, si > m
y nuevamente P U Tnm (K); (d) j = r, i = s, pero esta situacion es imposible ya
que j > i, s r m, de donde r > i, i r m, es decir, r i > 0 y i r m > 0,
contradiccion.
(xii) Notemos en primer lugar que si |K| = 2, entonces Dn (K) = {E}GLn (K).
Sea |K| 3, entonces existen al menos dos elementos no nulos diferentes 1 , 2
K. Sea cualquier elemento no nulo de K, entonces (1 2 ) 6= 0 y se tiene la
siguiente identidad:
 1        
1 1 0 1 1 1 1 1 1 2
= =
/ D2 (K).
0 1 0 2 0 1 0 1 0 2 0 2

Esta prueba para el caso n = 2 se extiende al caso general n agregando bloques


nulos y la matriz identica En2 en la identidad anterior. Este mismo razonamiento
tambien establece que Dn (K) 5 Tn (K).
(xiii) Notemos que T1n (1) U Tn (K) Tn (K) y Tn1 (a) SLn (K) GLn (K)
pero Tn1 (a)1 T1n (1)Tn1 (a)
/ Tn (K) si a 6= 0. En efecto,
Tn1 (a)1 T1n (1)Tn1 (a) = (E aEn1)(E + E1n )(E + aEn1 ) =
1 + a 0 0 1
0
1 0 0
2
E + aE11 + E1n aEnn a En1 =
. . . .


1 0
a2 0 0 1 a
(xiv) El mismo ejemplo del numeral anterior.
(xv) (a) La primera identidad es evidente ya que Dn (K) es abeliano.
(b) El producto de dos elementos de Tn (K) tiene como elementos en la diago-
nal principal el producto de los elementos de las diagonales principales de los dos
factores, ademas, los elementos diagonales de la inversa de una matriz F de Tn (K)
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 119

son los inversos de los elementos diagonales de F , por lo tanto, [Tn (K), Tn (K)]
U Tn (K). Para la otra inclusion notemos que si |K| 3, entonces existe a0 6= 0, 1 en
K y para cada generador Tij (a) de U Tn (K) se tiene la siguiente identidad general,
la cual generaliza las identidades que vimos en (f) de (x):

Tij (a) = [Tij (ab), D(1, . . . , a0 , . . . , 1)], con b := (a0 1)1 y a0 en la posicion j.

(c) Si |K| = 2, entonces Tn (Z2 ) = U Tn (Z2 ), con lo cual [Tn (Z2 ), Tn (Z2 )] =
[U Tn (Z2 ), U Tn (Z2 )] = U Tn2 (Z2 ) (vease la parte (d) a continuacion).
(d) Consideremos primero el caso trivial n = 2: U T2 (K) = {T12 (a)|a K}
y U T22 (K) = {E}, pero como estos dos grupos son abelianos, entonces la afirma-
cion en este caso se cumple trivialmente: [U T2 (K), U T2 (K)] = {E} = U T22 (K);
[U T2 (K), U T22 (K)] = {E} = U T23 (K) = [U T22 (K), U T2 (K]; [U T22 (K), U T22 (K)] =
{E} = U T24 (K).
Sea n 3. Veamos primero que [U Tnr (K), U Tns (K)] U Tnr+s (K): basta probar
que si T es un generador de U Tnr (K) y T 0 es un generador de U Tns (K), entonces
[T, T 0 ] U Tnr+s (K). En efecto, cada generador de [U Tnr (K), U Tns (K)] es de la forma
[F, G] con F U Tnr (K) y G U Tns (K); F es producto de generadores e inversos de
generadores de U Tnr (K), lo mismo ocurre para U Tns (K); pero si T es un generador
de U Tnr (K), entonces T 1 es tambien un generador; lo mismo ocurre para U Tns (K);
as pues, cada generador de [U Tnr (K), U Tns (K)] es de la forma [T1 Tp , T1 Tq0 ]; se
tiene la siguiente identidad en cualquier grupo, [ab, c] = b1 [a, c]b[b, c]; pero segun
(xi), U Tnr+s (K)  U Tnr (K), U Tns (K), por lo tanto, basta probar lo anunciado arriba.
Sean Tik (a) U Tnr (K), Tje (b) U Tns (K) y consideremos el conmutador

C := [Tik (a), Tje (b)];

segun (5.1.2), si k = j, entonces C = Tie (ab), pero como k i r y e j s,


entonces ei r +s, es decir, C U Tnr+s (K); si k 6= j, entonces C = E abEje Eik ,
si e 6= i encontramos que C = E U Tnr+s (K), pero si e = i, entonces C = Tjk (ab),
donde k i r, i j s, luego k j r + s, y nuevamente C U Tnr+s (K). Esto
completa la prueba de la primera inclusion.
Veamos ahora la otra inclusion, U Tnr+s (K) [U Tnr (K), U Tns (K)]: basta probar
que cada generador Tij (a) de U Tnr+s (K) pertenece a [U Tnr (K), U Tns (K)]; puesto que
j i r + s > s, entonces j s > i > 0; sea k := j s, entonces k i = j i s
r + s s = r; j k = s, con lo cual Tij (a) = [Tik (a), Tkj (1)] [U Tnr (K), U Tns (K)].
(xvi) Es suficiente considerar el homomorfismo sobreyectivo de grupos
: Tn (K) Dn (K)
=K
K} , F := [fij ] 7 D(f11 , . . . , fnn ),
| {z
n-veces

cuyo nucleo es U Tn (K).


(xvii) Notese que la funcion
120 CAPITULO 5. GRUPOS DE MATRICES

: U Tnm (K) |K {z
K}, F := [fij ] 7 (f1,m+1 , f2,m+2 . . . , fnm,n ),
n m-veces

es un homomorfismo sobreyectivo de grupos con nucleo es U Tnm+1 (K). En efecto,


es claro que es sobreyectiva con el nucleo indicado. Veamos que es un ho-
momorfismo de grupos: sean F, G U Tnm (K) y sea H := F G, entonces Pn (H) =
(h1,m+1 , h2,m+2 . . . , hnm,n ), pero para cada 1 k n m, hk,m+k = i=1 fki gi,m+k .
Si 1 i < k, entonces fki = 0; si i = k, entonces fki gi,m+k = gk,m+k ; si k < i < m+k,
entonces 0 < i k < m, con lo cual fki = 0; si i = m + k, entonces fki gi,m+k =
fk,m+k gm+k,m+k = fk,m+k ; si m + k < i n, entonces gi,m+k=0 . De todo lo anterior
se tiene que hk,m+k = fk,m+k + gk,m+k , luego (F G) = (F ) + (G).
(xviii) (a) Segun (x), para n 3, GLn (K) y SLn (K) son no solubles.
(b) Para n = 2 y |K| 4, tambien seguun (x), GLn (K) y SLn (K) son no
solubles.
(xix) (a) Segun (x), SL2 (Z3 ) es soluble ya que Q8 es soluble: [Q8 , Q8 ] = Z2 ,
[Z2 , Z2 ] = {0}.
(b) SL2 (Z2 ) = GL2 (Z2 ) es soluble ya que Z3 es abeliano (vease (x)).
(c) GL2 (Z3 ) es soluble ya que segun (x), [GL2 (Z3 ), GL2 (Z3 )] = SL2 (Z3 ), y como
vimos en (a), este ultimo es soluble.
(xx) Consecuencia directa de (xi).

5.1.2. Grupos clasicos


Los llamados grupos clasicos surgen al estudiar formas bilineales y sesquilineales
sobre un espacio vectorial. Nos ocuparemos en esta seccion de estos grupos. Se asume
que el lector conoce la teora clasica de formas bilineales y formas cuadraticas sobre
cuerpos, sin embargo, algunas definiciones y resultados basicos seran recordados.
Si V es un espacio vectorial sobre un cuerpo K, una forma bilineal sobre
V es una funcion f : V V K lineal en ambos argumentos, es decir, f (u1 +
u2 , v) = f (u1 , v) + f (u2 , v), f (a u, v) = af (u, v), f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 ),
f (u, a v) = af (u, v), para cualesquiera u1 , u2 , u, v1 , v2 , v V , a K. Una forma
bilineal f permite definir la ortogonalidad: si u, v V , u es ortogonal a v (u
v) si, y solo si, f (u, v) = 0. La forma f es simetrica si f (u, v) = f (v, u) para
cualesquiera vectores u, v V ; f se dice antisimetrica si f (u, v) = f (v, u), y f
es alternada si f (u, u) = 0 para cada u V . Notemos que toda forma alternada
es antisimetrica y si char(K) 6= 2, entonces toda forma antisimetrica es alternada.
Si dim(V ) = n y X = {x1 , . . . , xn } es una base del espacio V , la matriz de la forma
f en la base X es la matriz B := [bij ], donde bij := f (xi , xj ); si u y v se expresan
como u = u1 x1 + + un xn y v = v1 x1 + + vn xn , entonces

f (u, v) = [u1 un ]B[v1 vn ]T .


5.1. GRUPOS DE MATRICES SOBRE CUERPOS 121

Una forma bilineal f es no degenerada si para 0 6= u V , existe v V tal


que f (u, v) 6= 0, es decir, ningun vector no nulo es ortogonal a todo el espacio.
Equivalentemente, f es no degenarada si, y solo si, det(B) 6= 0, con B la matriz de
f en cualquier base. Una transformacion T de V preserva f si para cada u, v V ,
f (T (u), T (v)) = f (u, v).

Proposicion 5.1.2. Si dim(V ) = n y f es no degenerada, el conjunto de las trans-


formaciones lineales que preservan f es un grupo con la composicion.

Demostracion. Si S, T preservan f , para cada u, v V se tiene f (ST (u), ST (v)) =


f (T (u), T (v)) = f (u, v) y ST preserva f ; obviamente el producto es asociativo y
la transformacion identica preserva cualquier forma. Finalmente, si T preserva f y
u V es tal que T (u) = 0, entonces para cada v V f (u, v) = f (T (u), T (v)) =
f (0, T (v)) = 0 y en consecuencia u = 0 por ser f no degenerada. Por lo tanto, T es
inyectiva, y como la dimension de V es finita, T es invertible y f (T 1 (u), T 1 (v)) =
f (T T 1 (u), T T 1 (v)) = f (u, v), es decir, T 1 tambien preserva f .

La afirmacion anterior se puede traducir tambien en terminos de matrices, pues


si F es la matriz de T en la base de X, entonces

[u1 un ]B[v1 vn ]T = f (u, v) = f (T (u), T (v)) = [u1 un ]F T BF [v1 vn ]T ;

consecuentemente T preserva f si, y solo si, B = F T BF , donde F := mX (T ).


Si f es no degenerada, det(B) 6= 0 de manera que det(F ) = 1 y as, F (y T )
es invertible. De este modo, asociado a cada forma bilineal no degenerada f hay
un subgrupo de GLn (K) a saber, el grupo de matrices F correspondientes a las
transformaciones T que preservan f . Los llamados grupos clasicos sobre K son
algunos de los subgrupos de GLn (K) definidos por medio de estas formas bilineales
no degeneradas. Por cada forma no degenerada f , o lo que es equivalente, por cada
matriz invertible B tendramos uno de tales grupos.

Observacion 5.1.3. (i) Notemos sin embargo que si B Mn (K) es una matriz
cualquiera, no necesariamente invertible, entonces tambien se pueden definir sub-
grupos de GLn (K) de la siguiente manera:

O(B) := {F GLn (K)|F T BF = B}.

(ii) De todos los posibles grupos clasicos que se pudieran definir con formas no
degeneradas se destacan aquellos para los cuales la relacion de ortogonalidad entre
vectores es simetrica, es decir, u v si, y solo si, v u.

Proposicion 5.1.4. Sea dim(V ) = n y f una forma bilineal sobre V . La relacion


ser ortogonal a es simetrica si, y solo si, f es simetrica o f es alternada.
122 CAPITULO 5. GRUPOS DE MATRICES

Demostracion. ): sean u, v, w V y u e := f (u, v) w f (u, w) v. Entonces


e) = f (u, f (u, v) w f (u, w) v) = f (u, v)f (u, w) f (u, w)f (u, v) = 0, es
f (u, u
decir, u u
e; por hipotesis ue u, esto es,
u, u) = f (u, v)f (w, u) f (u, w)f (v, u),
0 = f (e (5.1.4)
y haciendo w = u resulta
f (u, u)[f (u, v) f (v, u)] = 0 (5.1.5)
para cada u, v V . Supongase ahora que existen x, y V tales que f (x, y) 6= f (y, x)
y que existe z V tal que f (z, z) 6= 0. Por (5.1.5),
f (x, x) = f (y, y) = 0 y f (z, x) = f (x, z), f (z, y) = f (y, z),
y por (5.1.4), 0 = f (x, z)[f (y, x) f (x, y)], 0 = f (y, z)[f (x, y) f (y, x)], luego
f (x, z) = 0 = f (z, x) y f (y, z) = 0 = f (z, y).
Ahora f (x, y+z) = f (x, y) y f (y+z, x) = f (y, x), luego f (x, y+z) 6= f (y+z, x) y por
(5.1.5) f (y + z, y + z) = 0. Pero f (y + z, y + z) = f (y, y) + f (y, z) + f (z, y) + f (z, z) =
f (z, z) lo que contradice la hipotesis f (z, z) 6= 0. As, f (x, y) = f (y, x) para cada
x, y V , es decir, f simetrica, o bien f (z, z) = 0 para cada z V es decir, f
alternada.
): si f es simetrica y u v, entonces f (v, u) = f (u, v) = 0, de manera que
tambien v u. Si f es alternada, tambien es antisimetrica, por lo tanto, si u v,
entonces f (v, u) = f (u, v) = 0 y v u.
De este modo, el estudio de los grupos clasicos se reduce a dos casos: grupos
obtenidos de formas simetricas y grupos obtenidos de formas alternadas.
Sea f una forma bilineal simetrica no degenerada sobre V ; una transformacion
T que preserva f se denomina transformacion ortogonal , y el grupo clasico
correspondiente se denomina grupo ortogonal denotado O(V, f ). Esta notacion
resulta adecuada pues el grupo ortogonal definido de esta manera depende de V (y
por lo tanto de K y de n) y de f , o de manera equivalente, de la matriz B. Segun
vimos atras, el grupo ortogonal se puede caracterizar en lenguaje matricial de la
siguiente manera:
O(V, f ) = {F GLn (K)|F T BF = B},
donde B es la matriz de f en una base X de V que se fija (recordemos que B es
simetrica e invertible). Como se anoto antes, si F O(V, f ) entonces det(F ) =
1; las transformaciones ortogonales de determinante 1 se denominan rotaciones
y constituyen un subgrupo normal de O(V, f ), notado O+ (V, f ), de manera que
O+ (V, f )  SLn (K).
Si en particular B = E, entonces se tiene el grupo ortogonal de orden n sobre
K, denotado On (K), conformado por las matrices ortogonales, es decir,
5.1. GRUPOS DE MATRICES SOBRE CUERPOS 123

On (K) := {F GLn (K)|F T F = E}.

Observacion 5.1.5. El centro de On (K) es {E, E} y, salvo algunos casos parti-


culares, el cociente del grupo conmutante de On (K) y su centro es un grupo simple;
estos resultados fueron probados por Dickson y Dieudonne, pero la prueba no esta en
el contexto del presente cuaderno.

Sea f una forma bilineal alternada no degenerada sobre V . Una transformacion lineal
que preserva f se denomina transformacion simplicial , el grupo correspondiente
se denomina grupo simplicial y se nota Spn (K). Se puede probar que si char(K) 6=
2, entonces se puede encontrar una base de V tal que la matriz Be de f en dicha base
tenga la siguiente presentacion
 
0 1
1 0 0
 
0 1
1 0

B
e := .
..

.
 
0 1
0
1 0

Notese que la dimension n de V es entonces siempre par. Se tiene pues que

Spn (K) := {F GLn (K)|F T BF


e = B}.
e

Observacion 5.1.6. El grupo simplectico tiene las siguientes propiedades: Spn (K)
SLn (K), el centro de Spn (K) es {E, E}, y si K posee mas de tres elementos en-
tonces el grupo simplicial es igual a su grupo conmutante. El cociente del grupo
conmutante de Spn (K) con su centro es un grupo simple. Finalmente, si K es un
cuerpo finito con q elementos (q 3), entonces el orden del grupo simplicial es

|Spn (K)| = (q n 1)q n1 (q n2 1)q n3 q 3 (q 2 1)q.

La prueba de estas afirmaciones esta fuera del alcance del presente cuaderno.

A partir de formas sesquilineales que se definen en cuerpos que presenten una in-
volucion analoga a la conjugacion en C aparece otro tipo de grupo clasico de ma-
trices, tal como veremos a continuacion. Una forma sesquilineal en un espa-
cio vectorial sobre C es una funcion f : V V C lineal en un argumento
y semilineal en el otro; mas precisamente: f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 ),
f (u, a v) = af (u, v), f (u1 + u2 , v) = f (u1 , v + f (u2 , v) y f (a u, v) = af (u, v)
para todo u, v, u1 , u2 , v1 , v2 V y a C. Habitualmente la semilinealidad se es-
tablece para el segundo argumento, pero para definir los grupos clasicos el cambio
al primer argumento resulta conveniente. Se tiene entonces que si dim(V ) = n y
124 CAPITULO 5. GRUPOS DE MATRICES

X = {x1 , . . . , xn } es una base del espacio V , la matriz de la forma sesquilineal f en


la base X es la matriz B := [bij ], donde bij := f (xi , xj ); si u y v se expresan como
u = u1 x1 + + un xn y v = v1 x1 + + vn xn , entonces

f (u, v) = [u1 un ]B[v1 vn ]T .

Notemos que si f es una forma sesquilineal no degenerada, entonces el conjunto


de transformaciones lineales del espacio V que preservan f es un grupo, es decir, la
proposicion 5.1.2 tambien se tiene en este caso. El estudio de los grupos clasicos aso-
ciados a formas no degeneradas sesquilineales complejas generalmente se limita a las
formas hermitianas, es decir, tales que f (u, v) = f (v, u). Observemos que la matriz
B := [bij ] de f satisface B = B, con B := (B)T := [bij ]T , denominada la trasju-
gada de B (la trasjugada de una matriz tambien se conoce en la literatura como
la adjunta, pero ya utilizamos esta denominacion de manera difente en el contexto
de la teora de determinates del captulo 2) Las matrices complejas que coinciden
con su trasjugada se denominan hermitianas. El grupo de transformaciones que
preservan f se denomina grupo unitario y se denota por U (V, f ). Al igual que en
el caso ortogonal, este grupos se pueden tambien describir matricialmente: si F es
la matriz de T U (V, f ) en la base de X, entonces

[u1 un ]B[v1 vn ]T = f (u, v) = f (T (u), T (v)) = [u1 un ]F BF [v1 vn ]T ;

consecuentemente T preserva f si, y solo si, B = F BF . As pues,

U (V, f ) = {F GLn (K)|F BF = B}.

Adicionalmente, notemos que como f es no degenerada, det(B) 6= 0 de manera que


det(F ) = 1, i.
Si en particular B = E, entonces se tiene el grupo unitario de orden n sobre
C, denotado Un (C), y conformado por las matrices unitarias, es decir,

Un (C) := {F GLn (C)|F F = E}.

Observemos que On (R) = Un (R).

Observacion 5.1.7. Notemos que si B Mn (C) es una matriz cualquiera, no


necesariamente invertible, entonces tambien se pueden definir subgrupos de GLn (C)
de la siguiente manera:

U (B) := {F GLn (C)|F BF = B}.


5.2. GRUPOS DE MATRICES SOBRE ANILLOS 125

5.2. Grupos de matrices sobre anillos


Sea A un anillo arbitrario, el grupo lineal general de orden n sobre A fue presentado
en la definicion 1.3.1 y esta constituido por las matrices invertibles del anillo Mn (A),
es decir, recordemos que
GLn (A) := {F Mn (A)|A es invertible} = Mn (A) .
Los subgrupos En (A), Dn (A), Tn (A), U Tn (A) y U Tnm (A) se definen en forma analoga
a como vimos antes para cuerpos; en los casos de Dn (A) y Tn (A) se debe asumir
que d1 , . . . , dn , f11 , . . . , fnn A . El grupo especial lineal sobre anilllos arbitrarios
en general carece de sentido ya que la teora de determinantes para anillos no con-
mutativos no esta siempre definida; por supuesto que si R es un anillo conmutativo
entonces SLn (R) esta definido y consta de las matrices con determinante 1.
Las propiedades estructurales de GLn (A) y sus subgrupos fueron objeto de in-
tenso estudio en las decadas de los 70 y 80. Mostraremos a continuacion solo un par
de estas propiedades.
Proposicion 5.2.1.
Z(GLn (A)) = {a E | a Z(A) } = Z(A) E.
Demostracion. Es evidente que aE con a Z(A) es invertible (con inversa a1 E)
y que conmuta con cualquier matriz de Mn (A), luego a E Z(GLn (A)). Sea ahora
F Z(GLn (A)), entonces para r, s, con 1 r 6= s n, F (E + Ers ) = (E + Ers )F ,
luego F Ers = Ers F . Ahora bien, F Ers tiene la r-esima columna de F en la columna
s, y cero en las demas entradas, y Ers F tiene la s-esima fila de F en la fila r y
cero en las demas entradas. Por lo tanto, F Ers = Ers F implica que si F := [fij ]
entonces frr = fss , fir = 0 para i 6= r y fsj = 0 para j 6= s. Pero F Z(GLn (A))
conmuta con todas las matrices Ers (r 6= s), luego todas las entradas de la diagonal
son iguales y las demas entradas son cero, es decir, F = a E para algun a A. Pero
F GLn (A), luego necesariamente a es invertible, y como F conmuta con todas las
matrices de GLn (A), a Z(A).
Proposicion 5.2.2. Para cada a, b A y cualesquiera u, v A :
(i) Tij (a)Tij (b) = Tij (a + b).
(ii) Para i 6= l y k 6= j, Tij (a)Tkl (b) = Tkl (b)Tij (a).
(iii) [Tik (a), Tkj (b)] = Tij (ab). Ademas, si i 6= l y k 6= j, [Tij (a), Tkl (b)] = E.
(iv) Di (u)Dj (v) = Dj (v)Di (u) si i 6= j, y Di (u)Di (v) = Di (uv).
(v) Di (u)Tij (a) = Tij (ua)Di (u), Di (u)Tji (a) = Tji (au1 )Di (u). Ademas, para j 6=
i y k 6= i, Di (u)Tjk (a) = Tjk (a)Di (u).
126 CAPITULO 5. GRUPOS DE MATRICES

Demostracion. (i) Tij (a)Tij (b) = (E + a Eij )(E + b Eij ) = E + a Eij + b Eij =
E + (a + b) Eij = Tij (a + b).
(ii) Tij (a)Tkl (b) = (E + a Eij )(E + b Ekl ) = E + a Eij + b Ekl y Tkl (b)Tij (a) =
(E + b Ekl )(E + a Eij ) = E + b Ekl + a Eij .
(iii) [Tik (a), Tkj (b)] = (E + a Eik )(E + b Ekj )(E a Eik )(E b Ekj ) =
(E + a Eik + b Ekj + ab Eij )(E a Eik b Ekj + ab Eij ) = E a Eik b
Ekj + ab Eij + a Eik ab Eij + b Ekj + ab Eij = E + ab Eij = Tij (ab).
Usando (ii) y (i) se tiene que

[Tij (a), Tkl (b)] = Tij (a)Tkl (b)Tij (a)Tkl (b) = Tkl (b)Tij (a)Tij (a)Tkl (b) =
Tkl (b)Tkl (b) = E.

(iv) Di (u)Dj (v) = (E + (u 1) Eii )(E + (v 1) Ejj ) = E + (u 1) Eii + (v 1) Ejj


y Dj (v)Di (u) = (E + (v 1) Ejj )(E + (u 1) Eii ) = E + (v 1) Ejj + (u 1) Eii .

Di (u)Di (v) = (E + (u 1) Eii )(E + (v 1) Eii ) =


E + (u 1 + v 1 + uv v u + 1) Eii = E + (uv 1) Eii = Di (uv).

(v) Di (u)Tij (a) = (E + (u 1) Eii )(E + a Eij ) = E + a Eij + (u 1) Eii +


(u 1)a Eij = E + (u 1) Eii + ua Eij y

Tij (ua)Di (u) = (E + ua Eij )(E + (u 1) Eii ) = E + (u 1) Eii + ua Eij .

Di (u)Tji (a) = (E + (u 1) Eii )(E + a Eji ) = E + (u 1) Eii + a Eji y


Tji (au1 )Di (u) = (E + au1 Eji )(E + (u 1) Eii ) = E + (u 1) Eii + au1 Eji +
(a au1 ) Eji = E + (u 1) Eii + a Eji .
Di (u)Tjk (a) = (E + (u 1) Eii )(E + a Ejk ) = E + (u 1) Eii + a Ejk , y

Tjk (a)Di (u) = (E + a Ejk )(E + (u 1) Eii ) = E + (u 1) Eii + a Ejk .

Corolario 5.2.3. Si n 3,

[En (A), En (A)] = En (A).

Demostracion. [En (A), En (A)] En (A); recprocamente, si Tij (a) En (A), como
n 3, sea k 6= i, k 6= j entonces Tij (a) = Tij (a1) = [Tik (a), Tkj (1)] [En (A), En (A)].

Corolario 5.2.4. Si n 3, En (A) no es soluble.

Demostracion. Consecuencia directa del corolario anterior.


5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 127

5.3. El grupo elemental sobre anillos conmuta-


tivos
Sea R un anillo conmutativo, vimos en (2.3.6) que En (R) SLn (R)  GLn (R).
Surgen entonces dos preguntas de manera natural: En (R)  GLn (R)? y En (R) =
SLn (R)? En esta seccion vamos a estudiar estas dos preguntas.

5.3.1. Teorema de normalizacion de Suslin


Para n 3 la primera pregunta planteada anteriormente tiene respuesta positiva y
el resultado fue demostrado por A. A. Suslin, el cual es conocido como el teorema
de normalizacion de Suslin (vease [12]). La prueba constructiva de este teorema
presentada a continuacion ha sido adaptada de [10], vease tambien [11].
Definicion 5.3.1. Sean R un anillo conmutativo y n 2. Una matriz de Cohn
es una matriz de la forma
E + av(vj ei vi ej ),
donde i < j, i, j {1, . . . , n}, a R y
v := [v1 vn ]T Rn .
Proposicion 5.3.2 (Mennicke). Para n 3, cualquier matriz de Cohn se puede
factorizar en un producto finito de matrices elementales.
Demostracion. Primero consideremos el caso i = 1, j = 2, entonces

v1
..  
B = E + a . v2 , v1 , 0, . . . , 0
vn

1 + av1 v2 av12 0 0
av 2 1 av1 v2 0 0
2
= av3 v2
av3 v1

.. ..
. . En2
avn v2 avn v1
av12

1 + av1 v2 0 0
av22 1 av1 v2 0 0


0 0 n
Y
= . .
Tl1 (avl v2 )Tl2 (avl v1 ).

. . En2
l=3
. .
0 0
128 CAPITULO 5. GRUPOS DE MATRICES

Entonces, es suficiente mostrar que


1 + av1 v2 av12 0
A := av22 1 av1 v2 0
0 0 1

se puede factorizar como un producto de matrices elementales, para cualesqueira


a, v1 , v2 R. Para esto aplicamos operaciones elementales sobre filas y columnas:


1 + av1 v2 av12 0 F1 F1 +v1 F3 1 + av1 v2 av12 v1
F2 F2 +v2 F3
A = av22 1 av1 v2 0 av22 1 av1 v2 v2
0 0 1 0 0 1


1 av12 v1 1 0 v1
C1 C1 av2 C3 C2 C2 +av1 C3
0 1 av1 v2 v2 0 1 v2
av2 0 1 av2 av1 1


1 0 v1 1 0 0
F3 F3 +av2 F1 C3 C3 v1 C1
0 1 v2 0 1 v2
0 av1 1 + av1 v2 0 av1 1 + av1 v2


1 0 0 1 0 0
F3 F3 av1 F2 F2 F2 v2 F3
0 1 v2 0 1 0
0 0 1 0 0 1

Escribiendo las operaciones elementales anteriores, tenemos

A = T13 (v1 )T23 (v2 )T31 (av2 )T32 (av1 )T13 (v1 )T23 (v2 )T31 (av2 )T32 (av1 ).

En general, para i < j arbitrarios


v1
..  
B = E + a . 0, . . . , vj , 0, . . . , vi , 0, . . . , 0
vn
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 129

donde vj ocurre en la i-esima posicion y vi en la j-esima posicion. Entonces,



1 ... av1 vj . . . av1 vi . . . 0
.. .. ..
. . . 0


1 + avi vj avi2


B=
.
. .
.

. .


avj2 1 avi vj


.
.. .
..


avn vj avn vi 1

1 ... 0 ... 0 ... 0
.. .. ..
. . . 0


1 + avi vj avi2



= .
. .
.
Y
Tli (avl vj )Tlj (avl vi )
. .

2

avj 1 avi vj 1ln
l6=i,j

.
.. .
..


0 0 1
= Tit (vi )Tjt (vj )Tti (avj )Ttj (avi )Tit (vi )Tjt (vj )Tti (avj )Ttj (avi )
Y
Tli (avl vj )Tlj (avl vi ),
1ln
l6=i,j

donde t es cualquier ndice que cumpla t {1, . . . , n} {i, j}.

Definicion 5.3.3. Sean R un anillo conmutativo y n 1; v = [v1 , , vn ]T Rn


es un vector columna unimodular si sus componentes generan a R, es decir,
existen u1 , . . . , un tales que v1 u1 + + vn un = 1. Un vector fila unimodular se
define de manera similar.

Lema 5.3.4. Sean R un anillo conmutativo y A GLn (R), con n 3. Supongase


que A se puede escribir en la forma A = E+vw, con v un vector columna unimodular
y w un vector fila sobre R tales que wv = 0. Entonces, A En (R).

Demostracion. Sea v := [v1 vn ]T unimodular, existen g1 , . . . , gn R tales que


v1 g1 + + vn gn = 1; esto combinado con wv = w1 v1 + + wn vn = 0 proporciona
una nueva expresion para w,
X
w= aij (vj ei vi ej ),
i<j
130 CAPITULO 5. GRUPOS DE MATRICES

donde aij := wi gj wj gi . Luego,


X
A := E + vw = E + v( aij (vj ei vi ej ))
i<j
X
=E+ vaij (vj ei vi ej )
i<j
Y
= (E + vaij (vj ei vi ej )).
i<j

Cada factor del lado derecho de la ultima ecuacion en una matriz de Cohn, luego se
pueden escribir como un producto de matrices elementales, con lo cual A tambien
es un producto de matrices elementales.
Lema 5.3.5. Sean R un anillo conmutativo y n 3. BTij (a)B 1 En (R), para
cada a R y B GLn (R).
Demostracion. Para una matriz A, denotemos por A(i) su fila i y por A(j) su columna
j, entonces

BTij (a)B 1 = E + B (i) a(B 1 )(j) .

Sea v := B (i) y w := a(B 1 )(j) , entonces (B 1 )(i) v = 1, luego v es unimodular,


ademas wv = 0 ya que i 6= j. Por lo tanto, BTij (a)B 1 = E + vw satisface la
condicion del lema 5.3.4, as que se puede escribir como un producto de matrices
elementales.
Teorema 5.3.6 (Suslin). Sea R un anillo conmutativo. Para n 3, En (R) 
GLn (R). En particular, En (R)  SLn (R).
Demostracion. Sea A GLn (R) y F En (R). Entonces el lemma 5.3.5 da un
procedimiento para encontrar matrices propiamente elementales T1 , . . . , Tt tales que
AF A1 = T1 Tt .

5.3.2. Teorema de estabilidad de Suslin


Estudiaremos ahora la segunda pregunta planteada al inicio de la presente seccion.
Desafortunadamente existen anillos conmutativos en los que En (R) 6= SLn (R). En
[10] se prueba que si K un cuerpo, la matriz
 
1 + xy x2
A := SL2 (K[x, y])
y 2 1 xy

no se puede factorizar como un producto de matrices elementales (vease tambien


[11]). No obstante, existen diversos anillos conmutativos en los que la igualdad se
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 131

tiene, por ejemplo en el anillo de polinomios con m indeterminadas K[x1 , . . . , xm ]


sobre el cuerpo K; en el anillo de funciones reales continuas; en los dominios eucli-
dianos (por ejemplo Z y los polinomios K[x] sobre un cuerpo K); en los anillos con
rango estable uno (anillos locales y semilocales).
A continuacion se presenta detalladamente la demostracion de la igualdad en los
dos ultimos casos mencionados. Cabe anotar que dichas demostraciones son cons-
tructivas. Iniciamos con la siguiente proposicion de caracter general.

Proposicion 5.3.7. Sea A un anillo arbitrario y n 2. Si toda matriz de GLn (A)


se puede expresar como producto de matrices elementales y diagonales, entonces
GLn (A) = En (A)GLn1 (A). Si ademas A = R es conmutativo, entonces En (R) =
SLn (R).

Observacion 5.3.8. Aqu se considera


 GL n1 (A) como un subgrupo de GLn (A)
1 0
mediante la inclusion natural M 7 .
0 M

Demostracion. (i) Claramente En (A)GLn1 (A) GLn (A). Sea pues M GLn (A);
por hipotesis M se puede expresar como producto de matrices elementales Tij (a),
i 6= j, a A, y diagonales Di (u), u A . En virtud de 5.2.2 (v), las matrices
diagonales se pueden conmutar hacia la derecha obteniendo M = T 1 D, donde T1 es
d1 0
un producto de elementales y D de diagonales. Pero entonces D =
. . . =

0 dn

diag(d1 , . . . , dn ), donde cada di A , 1 i n. Sea u A y consideremos las
siguientes operaciones sobre filas y columnas:
T21 (1)  u1 0  T12 (1) 0 u T21 (1) 0 u
u1 0
     
0 u u1 u
u1 u
u1 0

T12 (u)  1 u
 T12 (u)  1 0

u1 0
u1 1 .
u1 0 = T21 (1)T12 (1)T21 (1)T12 (u)T21 (u1 )T12 (u) y, por lo tanto,
 
As, 0 u

diag(d1
1 , d1 , 1, . . . , 1) = T2

es producto de elementales. Pero diag(d1 1 , d1 , 1, . . . , 1)D = diag(1, d1 d2 , d3 . . . , dn ),


1
luego D = T2 diag(1, d1 d2 , d3 , . . . , dn ); en consecuencia,

M = T1 D = T1 T21 diag(1, d1 d2 , d3 , . . . , dn ) = T3 diag(1, d1 d2 , . . . , dn )

con T3 = T1 T21 En (A) y diag(1, d1 d2 , d3 , . . . , dn ) GLn1 (A) (con inversa


diag(1, d1 1 1 1
2 d1 , d3 , . . . , dn )). Tenemos entonces que GLn (A) En (A)GLn1 (A).
132 CAPITULO 5. GRUPOS DE MATRICES

(ii) Sea ahora R un anillo conmutativo; tenemos que GLn (R) = En (R)GLn1 (R)
(explcitamente, notemos que diag(1, (d1 d2 )1 , d1 d2 , 1, . . . , 1) es producto de elemen-
tales hasta obtener M = T 0 diag(1, 1, . . . , 1, d1 d2 dn )). Sea N SLn (R), entonces
N GLn (R) = En (R)GLn1 (R), es decir, N = T diag(1, 1, . . . , 1, u) = T Dn (u) con
u R y T En (R). De este modo det(N ) = u, y como N SLn (R), necesari-
amente u = 1, Dn (u) = E y N = T es producto de elementales. Por lo tanto,
En (R) = SLn (R).
Lema 5.3.9. Sea R un dominio
 euclidiano con funcion euclidiana y sea n
n
2. Si := a1 a2 an R , entonces existe T En (R) tal que T =
a 0 0 para cierto a R.
Demostracion. Si = 0, basta tomar a = 0 y T = E. Supongase 6= 0; entonces
{(ak ) | ak 6= 0} es un subconjunto no vaco de N. Sea m() := mn{(ak ) | ak 6= 0}
y sea i el menor de los ndices tales que m() = (ai ). Si j 6= i es tal que aj 6= 0, exis-
ten qj , rj R tales que aj = ai qj +rj ,donde
 rj = 0 o (rj ) < (ai ). As, T
 ij (qj ) =
a1 ai aj ai qj an = a1 ai rj an . Repitien-
do esta operacion para cada j 6= i con aj 6= 0 se obtiene 0 := T1 = a01 a0n
donde a0i = ai , y para j 6= i, a0j = aj si aj = 0 y a0j = rj si aj 6= 0. Si a0j = 0 para
1, T1 = 0 = a01 0 0 ; si
 
cada j 6= i, hemos terminado: en efecto, si i =
i 6= 1 tenemos 0 Ti1 (1)T1i (1) = a0i 0 0 = T1 Ti1 (1)T1i (1). Ahora, si para


algun j 6= i se tiene a0j 6= 0, entonces m(0 ) (a0j ) = (rj ) < (ai ), de donde resulta
m(0 ) < m(). En consecuencia, si el proceso se repite con 0 , en un numero finito
de pasos obtenemos que todos los residuos son nulos, y por lo tanto el resultado
buscado.
Proposicion 5.3.10. Si R es un dominio euclidiano y n 2, toda matriz de
GLn (R) se puede expresar como producto de matrices elementales y diagonales.
Demostracion. (i) Sea M GLn (R), n 2. Por el lema 5.3.9, existe T En (R) tal
que
m 0 0
m2
M T = .. ,

. M
f
mn
f Mn1 (R). Pero M es invertible, luego det(M ) R y como det(M ) =
donde M
det(M T ) = m det(M f) R y por tanto, M
f), se tiene que m, det(M f GLn1 (R).
As,
1 0 0
m2
M T D1 (m1 ) = ..


. M
f
mn
5.3. EL GRUPO ELEMENTAL SOBRE ANILLOS CONMUTATIVOS 133

y,

1 0 0
0
Tn1 (mn ) T21 (m2 )M T D1 (m1 ) = .. .

. Mf
0

(ii) Probaremos ahora la afirmacion por induccion sobre n.


 
1 1 0
(a) Si n = 2, por (i) se tiene T21 (m2 )M T D1 (m ) = = D2 (m),
e dado que
0 me
m
e = det(M f) R , y entonces M = T21 (m2 )D2 (m)D
e 1 (m)T 1 es un producto
de matrices elementales y diagonales.

(b) Supongase que la afirmacion es valida para n = k 1, k 3, y sea M


GLk (R). Nuevamente por (i),
 
1 0 1
M = T21 (m2 ) Tk1,1 (mk1 ) f D1 (m)T ,
0 M

con Mf GLk1 (R). Por hipotesis de induccion, M


f se puede expresar como
producto de matrices elementales y diagonales de orden k 1; pero dichas
matrices pueden considerarse como elementales y diagonales de orden k y de
ello se sigue la afirmacion.

Corolario 5.3.11. Si R es un dominio euclidiano y n 2, entonces En (R) =


SLn (R).

Demostracion. Consecuencia directa de las proposiciones 5.3.10 y 5.3.7.

Definicion 5.3.12. Sea A un anillo. Se dice que A tiene rango estable uno si
para cada a, b A tales que ha, bi = A existe c A tal que a + cb A .

Proposicion 5.3.13. Si A es un anillo con rango estable uno, toda matriz de


GLn (A), n 2, se puede expresar como producto de matrices elementales y dia-
gonales.

Demostracion. (i) Sea M := [mij ] GLn (A), n 2. Como M 1 M = E, existen


r1 , . . . , rn A tales que r1 m11 + + rn mn1 = 1; as, para cada a A tenemos
a = (ar1 )m11 + a(r2 m21 + + rn mn1 ), es decir, A = hm11 , r2 m21 + + rn mn1 i.
134 CAPITULO 5. GRUPOS DE MATRICES

Dado que A tiene rango estable uno , existe c A tal que u := m11 + c(r2 m21 +
+ rn mn1 ) A . Ahora,

u m012 m01n
m21 m22 m2n
M1 := T12 (cr2 )T13 (cr3 ) T1n (crn )M = .. .. ;

..
. . .
mn1 mn2 mnn
pero u A , luego

u m012 m01n
0 m0 m0
22 2n
M2 := Tn1 (mn1 u1 ) T31 (m31 u1 )T21 (m21 u1 )M1 = .. .. ,

..
. . .
0 mn2 m0nn
0

y,
M3 : = M2 T12 (m012 u1 )T13 (m013 u1 ) T1n (m01n u1 )M

u 0 0
0 m0 m0 1 0 
22 2n
= .. .. = f D1 (u),

..
. . . 0 M
0 m0n2 m0nn
 
1 0
donde M Mn1 (A). De este modo obtenemos M = T1
f
f D1 (u)T2 con
0 M
T1 := T1n (crn ) T12 (cr2 )T21 (m21 u1 ) Tn1 (mn1 u1 ) En (A)
y,
T2 := T1n (m01n u1 ) T12 (m012 u1 ) En (A).
 
1 0
Como M, T1 , D1 (u) y T2 son elementos de GLn (A), necesariamente f es in-
0 M
vertible y por lo tanto Mf GLn1 (A).
(ii) Demostraremos ahora la afirmacion haciendo induccion sobre n.
 0
(a) Si n = 2, por (i) se tiene M = T1 10 m
e D1 (u)T2 = T1 D2 (m)D
e 1 (u)T2 , dado que

me A .
(b) Supongase el resultado
 valido
 para n = k 1, k 3, y sea M GLk (A).
1 0
Por (i), M = T1 f D1 (u)T2 , donde M GLk1 (A); por hipotesis de
f
0 M
f es producto de matrices elementales y diagonales de orden k
induccion, M
1 que pueden considerarse de orden k; en consecuencia, M es producto de
matrices elementales y diagonales.
5.4. GRUPOS CLASICOS SOBRE ANILLOS 135

Corolario 5.3.14. Si R es un anillo conmutativo con rango estable uno y n 2,


entonces En (R) = SLn (R).

Demostracion. Consecuencia directa de las proposiciones 5.3.13 y 5.3.7.

5.4. Grupos clasicos sobre anillos


A continuacion se definen los anillos con involucion, insumo importante para intro-
ducir los grupos clasicos sobre anillos.

Definicion 5.4.1. Sea A un anillo. Una involucion en A es una funcion : A A


que satisface

(i) (a + b) = a + b

(ii) (ab) = b a

(iii) (a ) = a

para cada a, b A.

Los ejemplos mas conocidos de involuciones son la trasposicion en Mn (A) y la


conjugacion en C.

Proposicion 5.4.2. La funcion identidad es una involucion en A si, y solo si, A


es un anillo conmutativo.

Demostracion. La identidad siempre satisface (i) y (iii), y satisface (ii) si, y solo si,
A es conmutativo.

Proposicion 5.4.3. Sea una involucion en el anillo A.

(i) 0 = 0 y 1 = 1.

(ii) Para cada a A, (a) = a ; y si a A , (a1 ) = (a )1 .

(iii) Si a = a, entonces (a) = a; y si a A , (a1 ) = a1 .

(iv) Si a Z(A), tambien a Z(A).


136 CAPITULO 5. GRUPOS DE MATRICES

Demostracion. (i) 0 = (0 + 0) = 0 + 0 , luego 0 = 0. Por otro lado, 1 1 =


1 (1 ) = (1 1) = (1 ) = 1 de donde 1 = 1.
(ii) (a) + a = (a + a) = 0 = 0, luego (a) = a . Analogamente,
(a1 ) a = (aa1 ) = 1 = 1 y a (a1 ) = (a1 a) = 1 = 1, de manera que a A
con inverso (a1 ) .
(iii) Segun (ii), (a) = a y (a1 ) = (a )1 .
(iv) Sea b A; entonces a b = a (b ) = (b a) = (ab ) = (b ) a = ba , luego

a Z(A).

Definicion 5.4.4. Sean A un anillo y una involucion en A. Dada una matriz


F := [fij ] Mmn (A), la matriz trasjugada de F respecto a es F := [fji ]
Mnm (A).

Es decir, F se obtiene de F trasponiendo la matriz de imagenes por . Notese


que si es la identidad (A conmutativo), se tiene F = F T .

Proposicion 5.4.5. Sea una involucion en el anillo A. Si F := [fij ] Mlm (A),


G := [gij ] Mnp (A) y a A, entonces

(i) (F + G) = F + G siempre que l = n y m = p.

(ii) (GF ) = G F siempre que m = n.

(iii) (F ) = F .

(iv) (a F ) = F a .

(v) (F 1 ) = (F )1 siempre que l = m y F sea invertible

Demostracion. (i) Evidente. Pn


(ii) Sea FP G := [bij ], entonces b ij = k=1 fik gkj , y la entrada (i, j) de (F G) es
(bji ) = ( nk=1 fjk gki ) = nk=1 gki
fjk . Por otro lado, si G = [cij ] yP F = dij (de
P
manera
Pn

que cij = gji y dij = fji ), entonces la entrada (i, j) de G F es nk=1 cik dkj =

k=1 gki fjk y as (F G) = G F .
(iii) Evidente.
(iv) La entrada (i, j) de (a F ) es (afji ) = fji a que es la entrada (i, j) de
F a .

(v) F (F 1 ) = (F 1 F ) = E = E. Analogamente, (F 1 ) F = (F F 1 ) =
E = E, de modo que F es invertible con inversa (F )1 = (F 1 ) .

Definicion 5.4.6. Sea A un anillo con unidad, una involucion en A y Z(A)


tal que = 1.

(i) F Mn (A) es alternada si existe F1 Mn (A) tal que F = F1 F1


5.4. GRUPOS CLASICOS SOBRE ANILLOS 137

(ii) F Mn (A) es hermitiana si F = F .

(iii) F Mn (A) es antihermitiana si F = F .

La alternancia depende de y de la involucion; notese que por lo menos = 1 y


= 1 satisfacen = 1. Por otra parte, si es la identidad (A conmutativo), las
matrices hermitianas se denominan simetricas y las antihermitianas, antisimetricas.

Proposicion 5.4.7. Si F es alternada, entonces F es antihermitiana.

Demostracion. Como F alternada, sea F = F1 F1 ; entonces F = (F1


F1 ) = (F1 F1 ) = (F1 F1 ) = F1 + F1 = F1 F1 = F .
As, F = F y F es antihermitiana.

Proposicion 5.4.8. Sea A un anillo tal que 2A = A.

(i) F Mn (A) es alternada si, y solo si, es antihermitiana.

(ii) Si F Mn (A) es hermitiana y antihermitiana, entonces F = 0.

Demostracion. 2A = A significa que 1 + 1 A , es decir, que si a A es tal que


a + a = 0 entonces a = 0.
(i) Si F es alternada, es antihermitiana por la proposicion anterior. Supongase
que F es antihermitiana, entonces (1 + 1) F = F + F = F F . Si 2 = 1 + 1,
2 = (1 + 1) = 1 + 1 = 1 + 1 = 2; por hipotesis 2 A , luego (21 ) = 21
y as F = 21 [(1 + 1) F ] = 21 (F F ) = (21 F ) (21 F ) =
(21 F ) (F 21 ) = (21 F ) (21 F ) ya que 21 Z(A). Como
F = (21 F ) (21 F ) , entonces F es alternada.
(ii) Dado que F es antihermitiana, F = F ; pero tambien es hermitiana,
luego F = F , de donde F = F , F +F = 0, y de 2A = A se sigue que F = 0.

Proposicion 5.4.9. Si es la identidad (A conmutativo) y = 1, F es alternada


si, y solo si, XF X T = 0 para cada matriz fila X M1n (A).

Demostracion. ): sea F alternada con F = F1 F1T ; entonces, XF X T = X(F1


F1T )X T = XF1 X T XF1T X T = XF1 X T (XF1 X T )T , pero XF1 X T M1 (A) es
igual a su traspuesta luego XF X T = 0.
): sea F := [fij ] Mn (A) tal que XF X T = 0 para cada X M1n (A). Sea Xi
la matriz fila con 1 en la entrada i-esima y 0 en las demas; entonces Xi F XiT = fii = 0
para 1 i n. Para i 6= j, sea Xij la matriz fila con 1 en las entradas i, j y 0
en las restantes; tenemos Xij F XijT = fij + fii + fji + fjj = fij + fji y fji = fij
(1 i 6= j n), de manera que F es antisimetrica. Finalmente, F1 := [bij ] se define
de la siguiente forma: bij := 0 para i j y bij := fij para i > j; as, F = F1 F1T
ya que F1 es la mitad inferior de F , y de esta manera F es alternada.
138 CAPITULO 5. GRUPOS DE MATRICES

Proposicion 5.4.10. Sean una involucion en A y F Mn (A), entonces


(i) {M GLn (A) | M F M = F } es un subgrupo de GLn (A).

(ii) {M GLn (A) | rM Z(A) , M F M = rM F } es un subgrupo de GLn (A).


Demostracion. (i) Como E = E GLn (A) y E F E = EF E = E, el conjunto no
es vaco. Si M, N satisfacen M F M = F y N F N = F entonces
(M N ) F (M N ) = N (M F M )N = N F N = F ,
(M 1 ) F M 1 = (M 1 ) (M F M )M 1 = (M M 1 ) F (M M 1 ) = E F E = F ,
por lo tanto el conjunto resulta ser un subgrupo de GLn (A).
(ii) E pertenece al conjunto, considerando en este caso rE = 1. Si M, N son
tales que M F M = rM F y N F N = rN F con rM , rN elementos invertibles
del centro de A, entonces (M N ) F (M N ) = N (M F M )N = N (rM F )N =
rM N F N = rM (rN F ) = rM rN F con rM rN Z(A) , y (M 1 ) F M 1 =
1 1 1 1
(M 1 ) [rM M F M ]M 1 = rM (M 1 ) M F M M 1 = rM F con rM Z(A) .
Definicion 5.4.11. Sean una involucion en A y F Mn (A).
(i) El grupo unitario correspondiente a F es

U (F ) := {M GLn (A) | M F M = F }.

(ii) El grupo de similitudes correspondiente a F es

GU (F ) := {M GLn (A) | (rM Z(A) , M F M = rM F };

rM se denomina multiplicador de M GU (F ).
Por consiguiente, U (F ) es el subgrupo de GU (F ) constituido por las matrices de
multiplicador 1.
Proposicion 5.4.12. Sea una involucion en A, Z(A) tal que = 1 y
Q Mn (A). Entonces X := {M GLn (A) | M QM Q es alternada } es un
subgrupo de GLn (A).
Demostracion. Como la matriz nula es alternada (0 = 0 0 ) E X y X 6= .
Si M, N X, entonces M QM Q = M1 M1 y N QN Q = N1 N1
para ciertas M1 , N1 Mn (A). Ahora, (M N ) Q(M N ) Q = N (M QM )N Q =
N (Q + M1 M1 )N Q = N QN Q + N (M1 M1 )N = N1
N1 + N M1 N N M1 N = (N1 + N M1 N ) (N1 + N M1 N ) es alternada, de
modo que M N X. Por otro lado, QM (M 1 ) Q = (M 1 ) M1 (M 1 ) M1 ,
luego Q (M 1 ) QM 1 = (M 1 ) M1 M 1 (M 1 ) M1 M 1 , y en consecuencia
(M 1 ) QM 1 Q = [(M 1 ) M1 M 1 ][(M 1 ) M1 M 1 ] , luego M 1 X.
5.4. GRUPOS CLASICOS SOBRE ANILLOS 139

Definicion 5.4.13. Sea una involucion en A, Z(A) tal que = 1. Si


Q Mn (A), el grupo ortogonal correspondiente a Q es
O(Q) := {M GLn (A) | M QM Q es alternada }.
En el caso particular de los anillos conmutativos se tienen otros dos grupos
clasicos.
Definicion 5.4.14. Sean R un anillo conmutativo y una involucion en R.
(i) Sea F Mn (R). El grupo unitario especial correspondiente a F es

SU (F ) := U (F ) SLn (R).

(ii) Sea Q Mn (R). El grupo ortogonal especial correspondiente a Q es

SO(Q) := O(Q) SLn (R).

Proposicion 5.4.15. En las condiciones de la anterior definicion se tiene:


(i) SU (F )  U (F ).
(ii) SO(Q)  O(Q).
Demostracion. Sean M SU (F ) (respectivamente SO(Q)) y N U (F ) (respecti-
vamente O(Q)); entonces det(N 1 M N ) = det(M ) = 1.
Para terminar veamos que los grupos clasicos introducidos en esta seccion corres-
ponden a aquellos que vimos para cuerpos en la subseccion 5.1.2. Sea K un cuerpo,
para los grupos ortogonales se toma la identidad como involucion y Q simetrica,
de manera que para cada matriz M se tiene que M = M T y si M O(Q),
entonces (M T QM Q)T = M T QT M QT = M T QM Q, es decir, M T QM Q
es simetrica, pero por definicion de O(Q) esta matriz tambien es alternada, por
lo tanto antisimetrica. En consecuencia, si 1 + 1 6= 0 en K, se tiene M T QM
Q = 0 (proposicion 5.4.8) luego O(Q) = {M GLn (K)|M T QM = Q} = U (Q),
y este grupo coincide con el grupo ortogonal definido en la subseccion 5.1.2. Si
ademas se toma Q invertible, det(M ) = 1 y SU (Q) es el subgrupo de matrices
de determinante positivo, de ah que en algunas ocasiones se utilice la notacion
U + (Q). Si F es antihermitiana (antisimetrica), entonces el grupo U (F ) es el grupo
grupo simplicial. El grupo de similitudes es entonces
GU (F ) = {M GLn (K) | rM K, M F M = rM F }.
En el caso particular K = R, tomando la identidad como involucion, y dado que E
es simetrica, tenemos que O(E) = U (E) = {M Mn (R) | M T M = E} = On (R)
que es el grupo ortogonal tradicional; el grupo unitario tradicional resulta al
tomar K = C, F = E y la conjugacion como involucion, pues entonces U (E) =
{M Mn (C)|M M = E} = Un (C).
140 CAPITULO 5. GRUPOS DE MATRICES

5.5. Ejercicios
1. Demuestre que existe al menos una matriz propiamente elemental de SL2 (Z3 )
que no pertenece a [SL2 (Z3 ), SL2 (Z3 )].

2. Calcule el numero de formas bilineales simetricas no degeneradas sobre el


espacio vectorial Z22 .

3. Sea dimV = n y sea K un cuerpo tal que char(K) 6= 2. Sea f una forma
bilineal simetrica sobre V . Demuestre que existe una base X en V tal que
mX (f ) es diagonal.

4. Si dimC V = n y f es una forma bilineal simetrica sobre V con rank(f ) = r,


entonces existe una base ordenada X = {v1 , . . . vn } en V tal que
(a) mX (f ) es diagonal.
(b) f (vi , vi ) = 1 para 1 i r, f (vi , vi ) = 0 para i > r.

5. Si dimR V = n y f una forma bilineal simetrica sobre V con rank(f ) = r.


Entonces, existe una base ordenada X = {v1 , v2 , ..., vn } en V tal que
(a) mX (f ) es diagonal.
(b) f (vi , vi ) = 1 para 1 i r, y f (vi , vi ) = 0 para i > r.
(c) El numero de vectores de la base X para los cuales en (b) se da el signo
positivo es independiente de dicha base.

6. Sea dimK V = n y f una forma bilineal antisimetrica sobre el cuerpo K,


donde char(K) 6= 2. Demuestre que existe una base ordenada X en V tal que
la matriz de f es suma directa de la matriz nula de orden (n 2k) y k matrices
22 de la forma  
0 1
.
1 0

7. Formas sobre espacios no necesariamente libres. Sean A un anillo y


V un A-espacio (A-modulo, vease [6]); sea una involucion en A y Z(A)
es tal que = 1.

a) Una forma sesquilineal en V es una funcion F : V V A que


satisface:
(i) F (u1 + u2 , v) = F (u1 , v) + F (u2 , v), F (u a, v) = a F (u, v);
(ii) F (u, v1 + v2 ) = F (u, v1 ) + F (u, v2 ), F (u, v a) = F (u, v)a,
5.5. EJERCICIOS 141

para cada u, u1 , u2 , v, v1 , v2 V y cada a A.


Demuestre que si F y G son formas sesquilineales en V , la funcion F + G
definida por (F + G)(u, v) = F (u, v) + G(u, v), para todo u, v V , es
una forma sesquilineal en V .
b) Demuestre que el conjunto de las formas sesquilineales en V es un grupo
abeliano con la adicion definida como antes.
c) Si A es conmutativo, el conjunto de las formas sesquilineales en V es una
A-espacio.
d ) Sea es un subgrupo aditivo del anillo A que satisface:
(i) Para cada y a A, se tiene a a .
(ii) := {a a | a A} esta contenido en : .
(iii) := {a A | a = a } contiene a : .
Demuestre que y son subgrupos aditivos de A que a su vez satisfacen
(i), (ii) y (iii).
e) Sea como antes. Demuestre que:
(i) Si = 0 entonces A es conmutativo, es la identidad y = 1.
(ii) Si 2A = A es conmutativo, es la identidad y = 1, entonces
= = 0.
(iii) Si = A entonces A es conmutativo, es la identidad y = 1.
(iv) Si 2A = A entonces = = .
f ) Sea F una forma sesquilineal en V .
(i) F es hermitiana si F (u, v) = F (v, u) para cada u, v V .
(ii) F es antihermitiana si F (u, v) = F (v, u) para cada u, v V .
(iii) F es -alternada si satisface:
(i) F (v, v) para cada v V .
(ii) F es antihermitiana.
Si = , demuestre que una forma sesquilineal es -alternada si, y
solo si, es antihermitiana. Ademas, pruebe que esto ocurre en particular
cuando 2A = A, pues en tal caso el unico subgrupo es = .
g) F una forma sesquilineal en V . Demuestre que:
(i) Si F se puede expresar como F (u, v) = F1 (u, v) + F1 (v, u), para
cada u, v V , siendo F1 una forma sesquilineal en V , entonces F es
-alternada.
(ii) Cuando 2A = A, el recproco de (i) es cierto.
h) Demuestre que el conjunto F de las formas -alternadas es un subgrupo
normal del grupo de formas sesquilineales.
142 CAPITULO 5. GRUPOS DE MATRICES

8. Formas cuadraticas sobre espacios no necesariamente libres. Sean


A un anillo y V un A-espacio (A-modulo, vease [6]); sea una involucion en
A y Z(A) es tal que = 1. Dada una forma sesquilineal F en V , la
forma cuadratica correspondiente a F es la clase q := F + F . Es decir, si
Q es una forma sesquilineal, entonces Q q si, y solo si, Q F es una forma
-alternada. Notese que q depende de A, , , y F .
Sea q una forma cuadratica y Q q.

(i) La distancia segun q es la funcion

| |q : V A/
v 7 |v|q := Q(v, v) + .

(ii) El producto escalar segun q es la funcion

(, )q : V V A
(u, v) 7 (u, v)q := Q(u, v) + Q (v, u).

a) Demuestre que la distancia y el producto escalar no dependen de la forma


Q q elegida.
b) Sea q una forma cuadratica. Demuestre que:
(i) El producto escalar segun q es una forma sesquilineal hermitiana.
(ii) Para cada v V , (v, v)q = a + a con a |v|q arbitrario.
(iii) Para cada u, v V , |u + v|q = |u|q + |v|q + (u, v)q .
(iv) Para cada b A, v V se tiene |v b|q = b ab + , con a |v|q
arbitrario.
c) Sea q una forma cuadratica. Demuestre que:
(i) La distancia y el producto escalar determinan unvocamente a q.
(ii) Si = , el producto escalar determina unvocamente a q.
(iii) Si no contiene ideales bilateros no nulos de A, la distancia deter-
mina unvocamente a q.
( Siempre que se pueda tomar = , y cuando 2A = A, esta es la unica
opcion que se tiene. Por otro lado, la condicion en (iii) significa que si I
es un ideal bilatero de A e I , entonces I = 0. Un ejemplo se tiene
cuando = 0).

9. Grupos clasicos sobre espacios no necesariamente libres. Sean A un


anillo y V un A-espacio (A-modulo, vease [6]); sea una involucion en A y
Z(A) es tal que = 1.
5.5. EJERCICIOS 143

a) Sea F una forma sesquilineal hermitiana o antihermitiana en V . De-


muestre que el conjunto

X := { AutA (V ) | F ((u), (v)) = F (u, v) para cada u, v V }

es un subgrupo de AutA (V ).
b) Si F es una forma sesquilineal hermitiana o antihermitiana en V , el grupo
unitario correspondiente a F es

U (F ) := { AutA (V ) | F ((u), (v)) = F (u, v) para cada u, v V }.

Si Q es una forma sesquilineal en V y AutA (V ), demuestre que la


funcion RQ definida como RQ (u, v) = Q((u), (v)), para cada u, v V ,
es una forma sesquilineal en V .
c) Sea q una forma cuadratica.
(i) AutA (V ) preserva q, si para cada Q q, la forma sesquilineal
RQ Q es -alternada.
(ii) AutA (V ) preserva la distancia | |q si |(v)|q = |v|q para cada
v V.
(iii) AutA (V ) preserva el producto escalar (, )q si ((u), (v))q =
(u, v)q para cada u, v V .
As pues, preserva q si la forma sesquilineal definida por Q((u), (v))
Q(u, v) es -alternada. Como la distancia y el producto escalar determi-
nan q y recprocamente, demuestre que: AutA (V ) preserva q si, y solo
si, preserva la distancia | |q y el prodcuto escalar (, )q .
d ) Sea q una forma cuadratica. Demuestre que el conjunto O(q) := {
AutA (V ) | preserva q} es un subgrupo de AutA (V ) y se denomina el
grupo ortogonal correspondiente a q.
e) Sea q una forma cuadratica y F la forma sesquilineal hermitiana F = (, )q .
Demuestre que
(i) O(q) U (F ).
(ii) Cuando = , O(q) = U (F ).
f ) Cuando = A, o cuando = 0 y 2A = A, demuestre qu O(q) = U (F ).
Bibliografa

[1] Brown, W., Matrices over Commutative Rings, Marcel Dekker, 1993. vi, 19,
38, 39

[2] Cohn, P., Free Rings and their Relations, Academic Press, 1985. 17

[3] Lezama, O., Anillos dimensionales, Bol. de Mat., Vol. XIX, No. 3, 1985, 194-
220.

[4] Lezama, O., Cuadernos de Algebra, No. 1: Grupos, Departamento


de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
www.matematicas.unal.edu.co/sac2 10, 17, 22, 109, 115, 116, 117

[5] Lezama, O., Cuadernos de Algebra, No. 2: Anillos, SAC2 , Departamen-


to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
www.matematicas.unal.edu.co/sac2 vi, 1, 3, 10, 14, 70, 114

[6] Lezama, O., Cuadernos de Algebra, No. 3: Modulos, SAC2 , Departamen-


to de Matematicas, Universidad Nacional de Colombia, sede de Bogota,
www.matematicas.unal.edu.co/sac2 vi, 1, 4, 5, 7, 10, 12, 16, 50, 69, 77, 83,
88, 140, 142

[7] Lezama, O & Villamarn G., Anillos, Modulos y Categoras, Universidad


Nacional de Colombia, 1994. v, 3, 5

[8] Lang S., Algebra, Springer, 2002. v, 3, 22

[9] MacDonald, B., Linear Algebra over Commutative Rings, Marcel Dekker, 1984.
vi

[10] Park, H. and Woodburn, C., An algorithmic proof of Suslins stability the-
orem for polynomial rings, J. Algebra, 178, 1995, 277-298. 127, 130

[11] Pinto, M., Una Prueba Algortmica para el Teorema de Estabilidad de Suslin
sobre Dominios de Dedekind, Tesis de Maestra, Universidad Nacional de Colom-
bia, Bogota, 2009. 127, 130

144
BIBLIOGRAFIA 145

[12] Suslin. A, On the structure of the special linear group over polynomial rings,
Math. USSR Izv., 11, 1977, 221 238. 33, 127

You might also like