You are on page 1of 122

Notas para el curso de

Algebra Lineal II
Centro de Matem atica
Facultad de Ciencias
Universidad de la Rep ublica
Andres Abella
5 de febrero de 2014
Introducci on
Estas son las notas y ejercicios del curso de

Algebra Lineal II, en la forma en que fue dictado en 2011.
Buena parte del material esta tomado del libro Linear Algebra, de S. M. Friedberg, A. J. Insel y L. E. Spence,
de la editorial Prentice Hall.
En el Captulo 1 se estudian los operadores diagonalizables. Al nal se incluye la descomposicion espec-
tral, preparando el terreno para el teorema espectral que se ve en el captulo siguiente.
En el Captulo 2 se estudian los espacios reales o complejos con producto interno y sus operadores. Las
demostraciones en general estan hechas para el caso complejo mientras que el caso real se deduce como
un caso particular del anterior. La idea es que si alguien quiere podra dar el tema de espacios reales con
producto interno sin hacer referencia a los n umeros complejos. Para lograr esto se dan dos pruebas de que
un operador real autoadjunto es diagonalizable sobre una base ortonormal, una utiliza n umeros complejos
y la otra no. Para hacer esta ultima prueba utilizando solo n umeros reales hay que mirar la primera parte
de la Seccion 5.4.
En el Captulo 3 se estudian las formas bilineales simetricas, poniendo enfasis en el caso real. En este
captulo se introducen las matrices elementales, cuyo estudio es interesante en s mismo.
En el Captulo 4 se estudian el polinomio minimal y la forma de Jordan. La forma de Jordan se ve
primero para operadores nilpotentes y luego se deduce el caso general. Este enfoque es un poco mas largo
que el estudio directo de la forma de Jordan, pero simplica su estudio. Ademas tiene la virtud que la forma
de Jordan para operadores nilpotentes vale con los coecientes en cualquier cuerpo mientras que para el
caso general se necesita imponer condiciones sobre el cuerpo o el polinomio caracterstico.
En el Captulo 5 se ven algunos temas que son necesarios para seguir estas notas y otros que las profun-
dizan o extienden. Veamos una breve descripcion de los temas de cada una de sus secciones.
Seccion 5.1. Polinomios de Lagrange y algunas propiedades del maximo com un divisor.
Seccion 5.2. Rango por determinantes.
Seccion 5.3. Movimientos del plano y del espacio.
Seccion 5.4. Matrices simetricas reales: valores propios y relacion de congruencia.
Seccion 5.5. Supercies cuadricas. En esta seccion aparecen las unicas guras del texto, tomadas de la
revista digital costarricense Matematica, ver http://www.tec-digital.itcr.ac.cr/revistamatematica/cursos-
linea/SUPERIOR/index.htm.
Seccion 5.6. Un algoritmo para hallar la forma de Jordan. Para matrices de tama no no muy grande
normalmente alcanza con las tecnicas vistas en el Captulo 4, pero esta seccion puede ser necesaria en el
estudio de casos mas complejos. Tambien se prueba la unicidad de la forma de Jordan y se ven aplicaciones
a la semejanza de matrices.
Seccion 5.7. Formas multilineales alternadas.
Dependiendo de los objetivos del curso, algunas o todas de las secciones de este captulo podran omitirse,
aunque es necesario conocer los resultados y deniciones de las secciones 5.1 y 5.2.
En el Captulo 6 estan los ejercicios del curso. En el practico 0 se repasa el concepto de suma directa y
su relacion con las proyecciones, lo cual es basico para el teorema espectral del Captulo 2.
1
Contenidos
1. Diagonalizacion 4
1.1. Operadores diagonalizables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3. Polinomio caracterstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4. Multiplicidad geometrica y algebraica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5. Descomposicion espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2. Espacios con producto interno 16
2.1. Espacios con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2. Operadores en espacios con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3. El teorema espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.4. Isometras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3. Formas bilineales simetricas 36
3.1. Formas multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3. Formas bilineales simetricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.4. Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.5. Formas bilineales simetricas reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4. Polinomio minimal y forma de Jordan 53
4.1. Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2. Polinomios y transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.3. Polinomio minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.4. Forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.1. Operadores nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.4.2. Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.4.3. Forma de Jordan y polinomio minimal . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5. Apendice 76
5.1. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.2. Rango por determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.3. Movimientos rgidos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.4. Matrices simetricas reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
5.5. Supercies cuadricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
5.6. Unicidad de la forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.7. Formas multilineales alternadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
2
6. Ejercicios 104
6.1. Practico 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
6.2. Practico 1 (diagonalizacion) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.3. Practico 2 (diagonalizacion) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.4. Practico 3 (espacios con producto interno) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
6.5. Practico 4 (operadores en espacios con producto interno) . . . . . . . . . . . . . . . . . . . . . 111
6.6. Practico 5 (operadores en espacios con producto interno) . . . . . . . . . . . . . . . . . . . . . 113
6.7. Practico 6 (formas bilineales simetricas y supercies cuadricas) . . . . . . . . . . . . . . . . . 115
6.8. Practico 7 (subespacios invariantes y polinomio minimal) . . . . . . . . . . . . . . . . . . . . 117
6.9. Practico 8 (forma de Jordan) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.10. Practico 9 (formas multilineales alternadas) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
3
Captulo 1
Diagonalizaci on
En este tema k es un cuerpo y V es un k-espacio vectorial no nulo de dimension nita n. Si B es una
base de V , supondremos siempre que B es una base ordenada es decir una base en la cual hemos elegido un
orden para sus elementos. Al subespacio de V generado por el conjunto de vectores v
1
, v
2
, , v
n
V lo
denotaremos por [v
1
, v
2
, , v
n
].
A las transformaciones lineales de V en V les llamaremos tambien operadores. Al espacio de las trans-
formaciones lineales de V en V lo denotaremos por /(V ) y a la transformacion lineal identidad por Id o
Id
V
. Al espacio de las matrices cuadradas de orden n con coecientes en k lo denotaremos por M
n
(k) y a la
matriz identidad por I o I
n
.
1.1. Operadores diagonalizables
Si T /(V ) y B y ( son bases de V , escribiremos
(
[T]
B
a la matriz asociada a T de la base B en la
base ( y [T]
B
para
B
[T]
B
. Si A M
n
(k), escribiremos L
A
a la transformacion lineal de k
n
en k
n
denida
por L
A
(v) = Av, v k
n
. Observar que si ( = e
1
, . . . , e
n
es la base canonica de k
n
y A M
n
(k), es
[L
A
]
(
= A.
Si v
1
, . . . , v
n
k
n
, el smbolo [v
1
[ [v
n
] denotara a la matriz cuadrada de orden n cuyas columnas son
v
1
, . . . , v
n
.
Denicion 1.1.1. Diremos que dos matrices A, B M
n
(k) son semejantes y lo escribiremos A B, si
existe una matriz invertible Q M
n
(k) tal que A = QBQ
1
.
Es un ejercicio el vericar que la relacion de semejanza es de equivalencia en M
n
(k).
Proposicion 1.1.2. Sean T /(V ) y B una base de V .
1. Si B
t
es otra base de V , entonces [T]
B
[T]
B
. Explcitamente, [T]
B
= P [T]
B
P
1
, siendo P =
B
[Id]
B
.
2. Si A M
n
(k) es tal que A [T]
B
, entonces existe una base B
t
de V tal que A = [T]
B
.
Dem.
1. Si P =
B
[Id]
B
, es [T]
B
=
B
[Id]
B
[T]
B B
[Id]
B
= P [T]
B
P
1
.
4
2. Si A = Q[T]
B
Q
1
, siendo Q
1
= (q
ij
) y B = v
1
, . . . , v
n
, denimos
w
j
:=
n

i=1
q
ij
v
i
, j = 1 . . . , n.
Como la matriz Q
1
es invertible, el conjunto B
tt
= w
1
, . . . , w
n
es una base de V y
B
[Id]
B
= Q
1
.
Luego
A = Q[T]
B
Q
1
=
B
[Id]
B
[T]
B B
[Id]
B
= [T]
B
.
Corolario 1.1.3. Dos matrices son semejantes si y solo si representan a la misma transformacion lineal.
Dem. Sean A y B en M
n
(k) tales que A B. Si consideramos T = L
A
/(k
n
), es A = [T]
(
siendo (
la base canonica de k
n
. Luego B [T]
(
y la parte 2 de la Proposicion 1.1.2 implica que existe B base de k
n
tal que B = [T]
B
. El recproco es la parte 1 de la Proposicion 1.1.2.
Recordar que una matriz cuadrada A = (a
ij
) se dice diagonal si a
ij
= 0, i ,= j.
Denicion 1.1.4. Una matriz A M
n
(k) es diagonalizable si es semejante a una matriz diagonal. Un
operador T /(V ) es diagonalizable si existe una base B de V en la cual [T]
B
es diagonal.
Ejemplo 1.1.5. Sea T a la simetra axial del plano R
2
respecto a una recta r que pasa por el origen. Sean
0 ,= u r y 0 ,= v R
2
tales que u y v son ortogonales. Luego B = u, v es una base de R
2
y la matriz
asociada a T en la base B es
_
1 0
0 1
_
. Luego la simetra axial de eje r es diagonalizable.
Proposicion 1.1.6. Sea T /(V ).
1. Si T es diagonalizable y B es una base cualquiera de V , entonces [T]
B
es diagonalizable.
2. Si existe una base B de V tal que [T]
B
es diagonalizable, entonces T es diagonalizable.
Dem. Si T es diagonalizable, entonces existe una base ( de V en la cual [T]
(
es diagonal. Si B es una
base cualquiera de V , la parte 1 de la Proposicion 1.1.2 implica que [T]
B
es semejante a [T]
(
, luego [T]
B
es
diagonalizable.
Si existe una base B de V tal que [T]
B
es diagonalizable, entonces [T]
B
es semejante a una matriz diagonal
D. La parte 2 de la Proposicion 1.1.2 implica que existe una base

B de V tal que [T]

B
= D, luego T es
diagonalizable.
Corolario 1.1.7. Una matriz A es diagonalizable si y solo si la transformacion lineal L
A
/(k
n
) es
diagonalizable.
1.2. Valores y vectores propios
Denicion 1.2.1. Dado T /(V ), un escalar k se dice un valor propio de T si existe 0 ,= v V tal
que T(v) = v, el vector v se dice que es un vector propio de T asociado a .
Dada A M
n
(k), un escalar k se dice un valor propio de A si existe 0 ,= v k
n
tal que Av = v, el
vector v se dice que es un vector propio de A asociado a . Es claro que los valores y vectores propios de la
matriz A coinciden con los del operador L
A
.
Ejemplo 1.2.2. En el caso en que T : R
2
R
2
es la simetra axial del ejemplo 1.1.5, nosotros vimos que
existan vectores no nulos u y v tales que T(u) = u y T(v) = v; luego u y v son vectores propios de T con
valores propios 1 y 1, respectivamente.
5
Notar que para la denicion de valor y vector propio de T /(V ) no se necesita la hipotesis dim
k
V < .
Ejemplo 1.2.3. Sea C

(R) = f : R R [ f tiene derivada de todos los ordenes. Denimos T


/(C

(R)) por T(f) = f


t
. Entonces R es un valor propio de T si y solo si existe f ,= 0 tal que
f
t
= f, es decir si y solo si f es una soluci on no nula de la ecuacion diferencial x
t
= x; luego todo R
es un valor propio de T y los vectores propios correspondientes a son las funciones de la forma f(t) = c e
t
,
c ,= 0.
Proposicion 1.2.4. Un operador T /(V ) es diagonalizable si y solo si existe una base B de V formada
por vectores propios de T.
Dem. Si B = v
1
, . . . , v
n
es una base de V formada por vectores propios de T con valores propios
correspondientes
1
, . . . ,
n
, entonces es T (v
i
) =
i
v
i
, i = 1, . . . , n y
[T]
B
=
_
_
_

1
0
.
.
.
.
.
.
.
.
.
0
n
_
_
_. (1.1)
Recprocamente, si B = v
1
, . . . , v
n
es una base de V tal que [T]
B
es como en (1.1), entonces es T (v
i
) =
i
v
i
,
i = 1, . . . , n y por lo tanto los elementos de B son vectores propios de T.
Ejemplo 1.2.5. Considerar el caso de la simetra axial vista en los ejemplos 1.1.5 y 1.2.2.
Corolario 1.2.6. Una matriz A M
n
(k) es diagonalizable si y solo si existe una base B de k
n
formada por
vectores propios de A. En este caso, si B = v
1
, . . . , v
n
y
1
, . . . ,
n
son los valores propios correspondientes,
es
A = QDQ
1
, siendo D =
_
_
_

1
0
.
.
.
.
.
.
.
.
.
0
n
_
_
_ y Q = [v
1
[ [v
n
] .
Dem. La primera armacion se deduce de la proposicion anterior aplicada al operador L
A
: k
n
k
n
.
Para la segunda, si ( es la base canonica de k
n
, es A = [L
A
]
(
=
(
[Id]
B
[L
A
]
B

B
[Id]
(
= QDQ
1
.
Ejemplo 1.2.7. Sea A = (
1 3
4 2
) M
2
(R). Consideremos v
1
= (1, 1) y v
2
= (3, 4). Observar que B = v
1
, v
2

es una base de R
2
y que Av
1
= 2 v
1
y Av
2
= 5 v
2
, luego A es diagonalizable y
_
1 3
4 2
_
=
_
1 3
1 4
__
2 0
0 5
__
1 3
1 4
_
1
.
1.3. Polinomio caracterstico
Proposicion 1.3.1. Si T /(V ) y B, ( son dos bases de V , entonces vale det ([T]
B
) = det ([T]
(
) .
Dem. Es [T]
B
= Q
1
[T]
(
Q, siendo Q =
(
[Id]
B
, luego
det ([T]
B
) = det
_
Q
1
[T]
(
Q
_
= (det Q)
1
det ([T]
(
) det Q = det ([T]
(
) .
Vista la proposicion anterior tiene sentido la denicion siguiente:
Denicion 1.3.2. Si T /(V ), denimos su determinante por det T := det ([T]
B
) siendo B una base
cualquiera de V .
6
Ejemplo 1.3.3. Sea V = R
2
[x] y T /(V ) denida por T(p(x)) = p
t
(x). Si B =
_
1, x, x
2
_
, es
[T]
B
=
_
_
0 1 0
0 0 2
0 0 0
_
_
det T = 0.
Proposicion 1.3.4. Sean T, S /(V ).
1. Vale det (T S) = det T det S.
2. El operador T es invertible si y solo si det T ,= 0 y en ese caso vale det
_
T
1
_
= (det T)
1
.
3. Para todo en k y toda base B de V vale det (T Id) = det(AI), siendo A = [T]
B
.
Dem. Sea B una base de V .
(1): det (T S) = det ([T S]
B
) = det ([T]
B
[S]
B
) = det ([T]
B
) det ([S]
B
) = det T det S.
(2): La primera armacion se deduce de lo siguiente
det T ,= 0 det ([T]
B
) ,= 0 [T]
B
es invertible T es invertible.
Si T es invertible, es T T
1
= Id, luego 1 = det(Id) = det
_
T T
1
_
= det T det
_
T
1
_
. Esto implica
det
_
T
1
_
= (det T)
1
.
(3): Si k, es det (T Id) = det ([T Id]
B
) = det ([T]
B
[Id]
B
) = det(AI).
Denicion 1.3.5. Si A M
n
(k), denimos su polinomio caracterstico por

A
(t) := det(At I) k[t].
Si T /(V ), denimos su polinomio caracterstico por

T
(t) := det(T t Id) k[t].
Observacion 1.3.6. De la Proposicion 1.3.4 se deduce que si A M
n
(k), T /(V ) y B es una base de V ,
entonces

T
(t) =

[T]
B
(t),

A
(t) =

L
A
(t).
Notar que si
A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_
_
_, es

A
(t) =

a
11
t a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
t

.
Es un ejercicio del practico el probar que vale la formula siguiente

A
(t) = (1)
n
t
n
+ (1)
n1
tr (A) t
n1
+ + det(A).
Luego gr

A
(t) = n si A M
n
(k) y gr

T
(t) = n si T /(V ) y dimV = n.
Ejemplo 1.3.7. Si A =
_
1 1
4 1
_
, es

A
(t) =

1 t 1
4 1 t

= t
2
2t 3.
7
Ejemplo 1.3.8. Si T /(R
2
[x]) esta denida por T(p(x)) = p
t
(x), (ejemplo 1.3.3) entonces

T
(t) =

t 1 0
0 t 2
0 0 t

= t
3
.
Proposicion 1.3.9. Sea T /(V ) y k. Son equivalentes:
1. El escalar es un valor propio de T.
2. Ker(T Id) ,= 0.
3. El operador T Id no es invertible.
4. El escalar es raz de

T
(t).
Dem.
es valor propio de T v ,= 0 : T(v) = v
v ,= 0 : v Ker (T Id)
Ker (T Id) ,= 0
T Id : V V no es inyectiva
T Id : V V no es invertible (dim
k
V < )
det (T Id) = 0


T
() = 0.
Observacion 1.3.10. Notar que de la prueba anterior se deduce que si es un valor propio de T /(V ),
entonces v V es un vector propio de T correspondiente al valor propio si y solo si v ,= 0 y v
Ker(T Id).
Corolario 1.3.11. Si T /(V ) y dimV = n, entonces T tiene a lo mas n valores propios.
Dem. Los valores propios de T son las races de

T
(t), como este polinomio tiene grado n, entonces
tiene a lo mas n races.
Ejemplo 1.3.12. Rotacion. La rotacion de angulo (0 < 2) es la transformacion lineal R

: R
2
R
2
denida por R

(x, y) = (x cos +y sen , x sen y cos ). Es


R

_
x
y
_
=
_
cos sen
sen cos
__
x
y
_
,

R

(t) = t
2
(2 cos )t + 1.
El discriminante de la ecuacion t
2
(2 cos )t + 1 = 0 es
= 4 cos
2
4 = 4
_
cos
2
1
_
0.
Observar que = 0 si y solo si = 0, . Si = 0, es R

= Id y todos los vectores no nulos de R


2
son
vectores propios de R

con valor propio 1. Si = , es R

= Id (simetra central de centro en el origen)


y todos los vectores no nulos de R
2
son vectores propios de R

con valor propio 1. Si ,= 0, , es < 0 y


R

no tiene valores propios por lo cual no es diagonalizable.


8
Ejemplo 1.3.13. Consideremos la matriz A =
_
1 1
4 1
_
del ejemplo 1.3.7. Es

A
(t) = t
2
2t 3 =
(t 3)(t + 1), luego A tiene valores propios
1
= 3 y
2
= 1. Observar que Ker (L
A
3 Id) = [(1, 2)] y
Ker (L
A
+ Id) = [(1, 2)]. El conjunto B = (1, 2), (1, 2) es una base de R
2
formada por vectores propios
de L
A
, luego L
A
es diagonalizable. En particular tenemos
[L
A
]
B
=
_
3 0
0 1
_
y [L
A
]
B
= Q
1
AQ, siendo Q =
_
1 1
2 2
_
.
Ejemplo 1.3.14. Sea T /(R
2
[x]) denida por T(p(x)) = p
t
(x) (Ejemplo 1.3.8). Es

T
(t) = t
3
, luego
0 es el unico valor propio de T. Los vectores propios de T son los polinomios constantes no nulos, luego no
existe una base de R
2
[x] formada por vectores propios de T y T no es diagonalizable.
Si B = v
1
, . . . , v
n
es una base de V , denimos el mapa coordenadas coord
B
: V k
n
por
coord
B
(v) = (x
1
, . . . , x
n
) si v = x
1
v
1
+ +x
n
v
n
.
En el curso de algebra lineal I se probo que coord
B
es un isomorsmo lineal.
Proposicion 1.3.15. Sea T /(V ), B una base de V , A = [T]
B
y un valor propio de T. Entonces
v V es un vector propio de T correspondiente a si y solo si coord
B
(v) k
n
es un vector propio de A
correspondiente a .
Dem. Utilizando que coord
B
: V k
n
es un isomorsmo, tenemos que dado v V , es v ,= 0 si y solo si
coord
B
(v) ,= 0 y
T(v) = v coord
B
(T(v)) = coord
B
(v) [T]
B
coord
B
(v) = coord
B
(v) Acoord
B
(v) = coord
B
(v).
Ejemplo 1.3.16. Sea T /(R
2
[x]) denida por T(p(x)) = p(x) + xp
t
(x) + p
t
(x). Considerando la base
( = 1, x, x
2
de R
2
[x], es
A = [T]
(
=
_
_
1 1 0
0 2 2
0 0 3
_
_


T
(t) = (t 1)(t 2)(t 3),
luego los valores propios de T son 1, 2 y 3. Operando obtenemos:
Ker(L
A
Id) = [(1, 0, 0)], Ker(L
A
2 Id) = [(1, 1, 0)], Ker(L
A
3 Id) = [(1, 2, 1)].
Luego
Ker(T Id) = [1], Ker(T 2 Id) = [1 +x], Ker(T 3 Id) =
_
1 + 2x +x
2

.
El conjunto B = 1, 1 +x, 1 + 2x +x
2
es LI y por lo tanto es una base de R
2
[x]; en la base B obtenemos
[T]
B
=
_
_
1 0 0
0 2 0
0 0 3
_
_
.
Proposicion 1.3.17. Sea T /(V ),
1
, . . . ,
k
valores propios distintos de T y v
1
, . . . , v
k
vectores propios
correspondientes. Entonces v
1
, . . . , v
k
es LI.
Dem. La prueba la haremos por induccion en k.
9
Si k = 1, entonces v
1
es LI porque como v
1
es un vector propio, es v
1
,= 0.
Supongamos que el resultado es cierto para k 1 1 y sean
1
, . . . ,
k
valores propios distintos de T y
v
1
, . . . , v
k
vectores propios correspondientes. Sean a
1
, . . . , a
k
k tales que
a
1
v
1
+ +a
k1
v
k1
+a
k
v
k
= 0. (1.2)
Aplicando T en ambos lados de la ecuacion (1.2) y teniendo en cuenta que v
1
, . . . , v
k
son vectores propios
obtenemos
a
1

1
v
1
+ +a
k1

k1
v
k1
+a
k

k
v
k
= 0. (1.3)
Multiplicando la ecuacion (1.2) por
k
obtenemos
a
1

k
v
1
a
k1

k
v
k1
a
k

k
v
k
= 0. (1.4)
Sumando la ecuacion (1.3) y la (1.4) obtenemos
a
1
(
1

k
)v
1
+ +a
k1
(
k1

k
)v
k1
= 0.
Por la hipotesis de induccion el conjunto v
1
, . . . , v
k1
es LI, luego
a
1
(
1

k
) = = a
k1
(
k1

k
) = 0.
Como
i
,=
k
para todo i = 1, . . . , k 1, es
a
1
= = a
k1
= 0.
Substituyendo a
1
, . . . , a
k1
por 0 en la ecuacion (1.2) obtenemos a
k
v
k
= 0 y como v
k
,= 0, es a
k
= 0; esto
completa la prueba de que v
1
, . . . , v
k
es LI.
Corolario 1.3.18. Si la dimension de V es n y T /(V ) tiene n valores propios distintos, entonces T es
diagonalizable.
Ejemplo 1.3.19. Si A =
_
1 1
1 1
_
, es

A
(t) = t(t 2). Luego A es diagonalizable y es semejante a
_
0 0
0 2
_
.
Observacion 1.3.20. La matriz identidad y la matriz nula son ejemplos de matrices diagonales -luego
diagonalizables- que tienen un solo valor propio, 1 y 0 respectivamente. Estos ejemplos nos muestran que el
corolario anterior nos da una condicion suciente pero no necesaria para que un operador sea diagonalizable.
Denicion 1.3.21. Un polinomio no constante f(x) k[x] se dice que escinde (en k) si existen escalares
a, a
1
, . . . , a
n
tales que f(x) = a(x a
1
) (x a
n
) (pueden haber elementos repetidos en a
1
, . . . , a
n
).
Observar que si f(x) escinde, agrupando los terminos repetidos queda f(x) = a(x b
1
)
n
1
(x b
r
)
nr
,
con b
i
,= b
j
si i ,= j y n
i
Z
+
, i = 1, . . . , r.
Ejemplo 1.3.22. 1. x
2
1 = (x + 1)(x 1) escinde en Q.
2. x
2
2 no escinde en Q.
3. x
2
2 =
_
x +

2
_ _
x

2
_
escinde en R.
4. x
2
+ 1 y
_
x
2
+ 1
_
(x 2) no escinden en R.
10
5. x
2
+ 1 = (x +i)(x i) escinde en C.
Observacion 1.3.23. En C[x] todo polinomio no constante escinde, este es el llamado teorema fundamental
del algebra que sera demostrado en cursos posteriores.
Proposicion 1.3.24. Sea T /(V ). Si T es diagonalizable, entonces

T
escinde.
Dem. Sea B una base de V en la cual [T]
B
es diagonal.
[T]
B
=
_
_
_
a
1
.
.
.
a
n
_
_
_

T
(t) = (a
1
t) (a
n
t) = (1)
n
(t a
1
) (t a
n
).
Corolario 1.3.25. Sea T /(V ). Si

T
no escinde, entonces T no es diagonalizable.
Ejemplo 1.3.26. Si A =
_
0 1
1 0
_
M
2
(R), es

A
(t) = t
2
+ 1 que no escinde en R, luego A no es
diagonalizable en M
2
(R). Observar que si consideramos A M
2
(C), es

A
(t) = t
2
+ 1 = (t i)(t + i) que
escinde en C, luego A es diagonalizable en M
2
(C) y es semejante a
_
i 0
0 i
_
.
Observacion 1.3.27. Que el polinomio caracterstico escinda es una condicion necesaria pero no suciente
para que un operador sea diagonalizable (ver mas adelante el ejemplo 1.4.3).
1.4. Multiplicidad geometrica y algebraica
Denicion 1.4.1. Sea T /(V ) y un valor propio de T.
1. El subespacio propio asociado al valor propio es E

:= Ker(T Id).
2. La multiplicidad geometrica de es MG() := dimE

.
3. La multiplicidad algebraica de es MA() := max
_
h : (t )
h
divide a

T
(t)
_
.
Si A M
n
(k) y es un valor propio de A, entonces se dene la multiplicidad algebraica y geometrica de
como las correspondientes al operador L
A
/(k
n
).
Observacion 1.4.2. 1. Si T /(V ), entonces 0 es un valor propio de T si y solo si Ker(T) ,= 0, en
este caso es E
0
= Ker(T).
2. El subespacio propio asociado a un valor propio consiste en el vector nulo y los vectores propios
correspondientes a .
3. Si T /(V ) y un valor propio de T es
MG() = dimKer(T Id) = dimV dimIm(T Id) = dimV rango(T Id).
En particular si A M
n
(k) y es un valor propio de A, entonces MG() = n rango(AI).
4. Si es un valor propio de T, es MA() = m si y solo si

T
(t) = (t )
m
p(t) con p() ,= 0.
11
Ejemplo 1.4.3. Un ejemplo de un operador que no es diagonalizable pero su polinomio caracterstico
escinde. Sea T /(R
2
[x]) denida por T(p(x)) = p
t
(x). En el ejemplo 1.3.14 probamos que

T
(t) = t
3
,
luego 0 es el unico valor propio de T y E
0
= Ker(T) = R R
2
[x]. Entonces MA(0) = 3 y MG(0) = 1.
Observar que si fuese T diagonalizable, al ser 0 su unico valor propio, la matriz en la cual se diagonalizara
sera la matriz nula, por lo cual T sera el operado nulo. Como T ,= 0, deducimos que no es diagonalizable.
Ejemplo 1.4.4. Sea
A =
_
_
_
_
3 0 0 0
0 3 0 0
0 0 0 1
0 0 1 0
_
_
_
_
M
4
(R).
Es

A
(t) = (t 3)
2
_
t
2
+ 1
_
, luego 3 es el unico valor propio de A y MA(3) = MG(3) = 2.
Teorema 1.4.5. Sea T /(V ) y un valor propio de T, entonces
1 MG() MA().
Dem. Como es un valor propio de T, es E

,= 0 y luego MG() 1.
Sean B
1
una base de E

y B
2
un conjunto LI de V disjunto con B
1
tales que B = B
1
B
2
es una base de
V . Observar que T(v) = v para todo v B
1
, luego la matriz asociada a T en la base B es una matriz en
bloques de la forma
[T]
B
=
_
I
m
B
0 C
_
siendo m = #B
1
= dimE

= MG(). Luego

T
(t) = ( t)
m
g(t), siendo g(t) =

C
(t). Como puede ser
g() = 0, deducimos MA() m = MG().
Corolario 1.4.6. Sea T /(V ) y un valor propio de T, entonces MA() = 1 implica MG() = 1.
Denicion 1.4.7. Una familia de subespacios W
1
, . . . , W
k
de V se dice independiente si
w
1
+ +w
k
= 0, con w
i
W
i
, i = 1, . . . , k w
1
= = w
k
= 0.
Si los subespacios W
1
, . . . , W
k
son independientes, entonces la suma

k
i=1
W
i
se dice directa y se escribe

k
i=1
W
i
=

k
i=1
W
i
. En el curso de

Algebra Lineal I se prueba dim

k
i=1
W
i
=

k
i=1
dim(W
i
).
Proposicion 1.4.8. Sea T /(V ) y
1
, . . . ,
k
valores propios distintos de T. Entonces E

1
, . . . , E

k
son
subespacios independientes.
Dem. Sean v
1
E

1
, . . . , v
k
E

k
tales que v
1
+ + v
k
= 0. Si existiese alg un i 1, . . . , k tal que
v
i
,= 0, eventualmente reordenando los subndices existira alg un l, 1 l k tal que v
i
,= 0, i = 1, . . . , l y
v
l+1
= = v
k
= 0. Luego es
v
1
+ +v
l
= 0 con v
i
,= 0, i = 1, . . . , l. (1.5)
Si i 1, . . . , l es 0 ,= v
i
E

i
, luego v
i
es un vector propio de T correpondiente al valor propio
i
. Entonces
la Proposicion 1.3.17 implica que v
1
, . . . , v
l
es LI y esto contradice (1.5). Luego es v
1
= = v
k
= 0 y
E

1
, . . . , E

k
son subespacios independientes.
12
El siguiente teorema da condiciones necesarias y sucientes para que un operador sea diagonalizable.
Teorema 1.4.9. Sea T /(V ). Son equivalentes:
1. T es diagonalizable.
2.

T
escinde y MG() = MA() para todo valor propio de T.
3. V =

h
i=1
E

i
, siendo
1
, . . . ,
h
los valores propios de T.
Dem. 1 2: Como T es diagonalizable, nosotros ya sabemos que

T
escinde y ademas podemos suponer
que existe una base B =
_
v
1
1
, . . . , v
1
n
1
, . . . , v
h
1
, . . . , v
h
n
h
_
de V tal que
[T]
B
=
_
_
_
_
_
_
_
_
_
_
_
_
_

1
.
.
.

1
.
.
.

h
.
.
.

h
_
_
_
_
_
_
_
_
_
_
_
_
_
siendo
1
, . . . ,
h
los valores propios de T con
i
,=
j
si i ,= j. Es decir que el valor propio
i
aparece
exactamente n
i
veces en [T]
B
para todo i = 1, . . . , h. Luego es

T
(t) = (
1
t)
n
1
(
h
t)
n
h
= (1)
n
(t
1
)
n
1
(t
h
)
n
h
.
Observar que por la forma de la matriz [T]
B
es
_
v
i
1
, . . . , v
i
n
i
_
E

i
, luego MG(
i
) n
i
= MA(
i
). Pero
siempre vale MG(
i
) MA(
i
), luego MG(
i
) = MA(
i
), para todo i = 1, . . . , h.
2 3: Sea

T
(t) = (1)
n
(t
1
)
n
1
(t
h
)
n
h
con
i
,=
j
si i ,= j. La Proposicion 1.4.8 nos dice que

h
i=1
E

i
=

h
i=1
E

i
, luego
dim
_
h

i=1
E

i
_
=
h

i=1
dimE

i
=
h

i=1
MG(
i
) =
h

i=1
MA(
i
) =
h

i=1
n
i
= gr

T
(t) = dimV,
luego

h
i=1
E

i
= V .
3 1: Si B
i
es una base de E

i
para todo i = 1, . . . , h, entonces B = B
1
B
h
es una base de V
formada por vectores propios de T.
Observacion 1.4.10. Notar que los ejemplos 1.4.3 y 1.4.4 muestran que, por separado, el que

T
escinda
o que MG() = MA() para todo valor propio de T, no implican que T sea diagonalizable.
1.5. Descomposicion espectral
Teorema 1.5.1. Sea T /(V ). Si el operador T es diagonalizable, entonces existen unicos escalares
distintos
1
, . . . ,
h
y operadores no nulos P
1
, . . . , P
h
tales que
1. P
2
i
= P
i
, i = 1, . . . , h (los operadores P
i
son proyecciones).
13
2. P
i
P
j
= 0 si i ,= j.
3. Id = P
1
+ +P
h
.
4. T =
1
P
1
+ +
h
P
h
.
La descomposicion T =
1
P
1
+ +
h
P
h
se llama la descomposicion espectral de T.
Dem. Existencia: Como T es diagonalizable, entonces es V =

h
i=1
E

i
, siendo
1
, . . . ,
h
los distintos
valores propios de T. Para cada i 1, . . . , h, denimos P
i
: V V por P
i
(v) = v
i
si v = v
1
+ + v
h
,
con v
i
E

i
, i = 1, . . . , h. Por las relaciones que conocemos entre proyecciones y sumas directas, sabemos
que P
1
, . . . , P
h
verican las condiciones 1, 2 y 3. Ademas como E

i
,= 0, es P
i
,= 0 i = 1, . . . , n.
Si v V , es v = P
1
(v) + +P
h
(v) con P
i
(v) E

i
, i = 1, . . . , h, luego
T(v) = T (P
1
(v) + +P
h
(v)) = T (P
1
(v)) + +T (P
h
(v)) =
1
P
1
(v) + +
h
P
h
(v)
= (
1
P
1
+ +
h
P
h
) (v) T =
1
P
1
+ +
h
P
h
.
Unicidad: Sea T /(V ) tal que existen escalares distintos
1
, . . . ,
h
y operadores no nulos P
1
, . . . , P
h
que verican las condiciones 1, 2, 3 y 4. Probaremos que T es diagonalizable, que
1
, . . . ,
h
son los distintos
valores propios de T y que P
1
, . . . , P
h
son las proyecciones asociadas a la descomposicion V =

h
i=1
E

i
.
Sea W
i
= Im(P
i
), i = 1, . . . , h. Las condiciones 1, 2 y 3 implican que V =

h
i=1
W
i
y que si v =
w
1
+ + w
h
, con w
i
W
i
, entonces P
i
(v) = w
i
, i = 1, . . . h. Ademas como P
i
,= 0, es W
i
,= 0
i = 1, . . . , h.
Si v W
i
, es P
i
(v) = v, luego
T(v) =
_
_
h

j=1

j
P
j
_
_
(v) =
h

j=1

j
P
j
(v) =
h

j=1

j
P
j
(P
i
(v)) =
h

j=1

j
(P
j
P
i
) (v) =
i
P
2
i
(v) =
i
P
i
(v) =
i
v.
Como W
i
,= 0, la relacion anterior implica que
i
es un valor propio de T y que W
i
E

i
, para todo
i = 1, . . . , h. Ademas tenemos
V =
h

i=1
W
i
=
h

i=1
W
i

h

i=1
E

i
=
h

i=1
E

i
V. (1.6)
Luego V =

h
i=1
E

i
. Esto implica que T es diagonalizable y que
1
, . . . ,
h
son los distintos valores
propios de T. Observar que tomando dimensiones en la relacion (1.6) obtenemos dimV =

h
i=1
dimW
i
=

h
i=1
dimE

i
. Por otro lado de W
i
E

i
se deduce que dimW
i
dimE

i
para todo i = 1, . . . , h. De estas
dos ultimas relaciones se tiene que dimW
i
= dimE

i
y como W
i
E

i
, es W
i
= E

i
para todo i = 1, . . . , h.
Esto implica que P
1
, . . . , P
h
son las proyecciones asociadas a la descomposicion V =

h
i=1
E

i
.
Ejemplo 1.5.2. Sea T /
_
R
3
_
denida por T(x, y, z) = (4x +z, 2x + 3y + 2z, x + 4z). Observar que es
T
_
_
x
y
z
_
_
=
_
_
4 0 1
2 3 2
1 0 4
_
_
_
_
x
y
z
_
_
y

T
(t) = (t 3)
2
(t 5).
Operando obtenemos
E
3
= [(1, 0, 1), (0, 1, 0)], E
5
= [(1, 2, 1)].
14
Luego

T
escinde, MG(3) = MA(3) = 2 y MG(5) = MA(5) = 1, esto implica que T es diagonalizable
y que B = (1, 0, 1), (0, 1, 0), (1, 2, 1) es una base de R
3
. Escribiendo un vector ge nerico de R
3
como
combinacion lineal de B obtenemos
(x, y, z) =
x z
2
(1, 0, 1) + (y x z)(0, 1, 0) +
x +z
2
(1, 2, 1).
Luego si denimos P
1
y P
2
en /
_
R
3
_
mediante
P
1
(x, y, z) =
x z
2
(1, 0, 1) + (y x z)(0, 1, 0) =
_
x z
2
, y x z,
z x
2
_
,
P
2
(x, y, z) =
x +z
2
(1, 2, 1) =
_
x +z
2
, x +z,
z +x
2
_
entonces la descomposicion espectral de T es T = 3P
1
+ 5P
2
. Ademas sabemos que P
1
y P
2
verican:
P
1
+P
2
= Id, P
2
1
= P
1
, P
2
2
= P
2
y P
1
P
2
= P
2
P
1
= 0.
Denicion 1.5.3. Sea T /(V ). Si p(x) = a
n
x
n
+a
n1
x
n1
+ +a
1
x +a
0
k[x], denimos
p(T) := a
n
T
n
+a
n1
T
n1
+ +a
1
T +a
0
Id /(V ),
siendo T
n
= T T
. .
n
, n = 1, 2, . . .. Si denimos T
0
= Id, podemos escribir p(T) =

n
i=0
a
i
T
i
siendo
p(x) =

n
i=0
a
i
x
i
.
Observacion 1.5.4. Es un ejercicio del pr actico el probar que si T =

k
i=1

i
P
i
es la descomposicion
espectral de un operador diagonalizable y q(x) k[x], entonces q (T) =

k
j=1
q(
j
) P
j
.
Proposicion 1.5.5. Sea T /(V ) un operador diagonalizable y consideremos su descomposicion espectral
T =

k
i=1

i
P
i
. Entonces cada P
i
es un polinomio en T.
Dem. Dado que
1
, . . . ,
k
son escalares distintos, en el Apendice se prueba que existen polinomios
q
1
(x), . . . , q
k
(x) llamados polinomios de Lagrange que verican q
i
(
j
) =
ij
, para todo i, j = 1, . . . , k; luego
q
i
(T) =
k

j=1
q
i
(
j
) P
j
=
k

j=1

ij
P
j
= P
i
P
i
= q
i
(T), i = 1, . . . , k.
15
Captulo 2
Espacios con producto interno
En este tema el cuerpo de base k sera R o C. Diremos que un k-espacio vectorial es un espacio real si
k = R y que es un espacio complejo si k = C.
2.1. Espacios con producto interno
Denicion 2.1.1. Sea V un espacio vectorial. Un producto interno en V es una funcion , : V V k
que verica:
1. u +v, w = u, w +v, w, u, v, w V .
2. a u, v = au, v, a k, u, v V .
3. u, v = v, u, u, v V .
4. v, v > 0, v ,= 0.
Un espacio con producto interno es un par (V, , ) en el cual V es un espacio vectorial y , : V V k
es un producto interno en V .
Observacion 2.1.2. 1. Si k = R, la condicion (3) queda en u, v = v, u, u, v V .
2. Las dos primeras condiciones nos dicen que todo producto interno es lineal en la primera componente.
Notar que si el espacio es real entonces tambien es lineal en la segunda componente, pero si el espacio
es complejo esto deja de ser cierto.
Ejemplo 2.1.3. En k
n
el producto interno usual es
(x
1
, . . . , x
n
) , (y
1
, . . . , y
n
) = x
1
y
1
+x
2
y
2
+ +x
n
y
n
=
n

i=1
x
i
y
i
.
Cuando consideremos a k
n
como espacio vectorial con producto interno nos estaremos reriendo siempre al
producto interno usual, a menos que explicitemos lo contrario. En el caso k = R al producto interno usual
tambien se le suele llamar producto escalar y su formula es
(x
1
, . . . , x
n
) , (y
1
, . . . , y
n
) = x
1
y
1
+x
2
y
2
+ +x
n
y
n
=
n

i=1
x
i
y
i
.
16
Ejemplo 2.1.4. Si A M
n
(k), denimos A

:= A
t
, es decir si A = (a
ij
) y A

= (b
ij
), es b
ij
= a
ji
(si k = R
es A

= A
t
). Denimos , : M
n
(k) M
n
(k) k por A, B := tr (AB

) =

n
i,j=1
a
ij
b
ij
.
Ejemplo 2.1.5. Sea C[0, 1] := f : [0, 1] R : f es continua, denimos , : C[0, 1] C[0, 1] R por
f, g =
_
1
0
f(t) g(t) dt.
Observacion 2.1.6. Observar que si , : V V k es un producto interno en V y r R
+
, entonces
,
r
: V V k denido por u, v
r
:= ru, v es otro producto interno en V .
De ahora en adelante (V, , ) es un espacio con producto interno.
Proposicion 2.1.7. Vale:
1. u, v +w = u, v +u, w, para todo u, v, w V .
2. u, a v = au, v, para todo u, v V y a k.
3. v, v = 0 si y solo si v = 0.
4. Si v, u = 0 para todo v V , entonces u = 0.
5. Si v, u = v, w para todo v V , entonces u = w.
Dem.
1. u, v +w = v +w, u = v, u +w, u = v, u +w, u = u, v +u, w.
2. u, a v = a v, u = a v, u = a v, u = a u, v.
3. Si v ,= 0, entonces es v, v > 0 y por lo tanto v, v , = 0; luego v, v = 0 implica v = 0.
Recprocamente, si v = 0 es 0, 0 = 0 + 0, 0 = 0, 0 +0, 0 k, luego v, v = 0, 0 = 0.
4. Si v, u = 0 para todo v V , entonces tomando v = u es u, u = 0 y luego u = 0.
5. Si v, u = v, w para todo v V , entonces es 0 = v, u v, w = v, u w para todo v V , luego
es u w = 0 y resulta u = w.
Observacion 2.1.8. De la condicion 4 de la denicion de producto interno y de la armacion 3 de la
proposicion anterior se deduce lo siguiente:
v, v 0, v V y v, v = 0 v = 0.
Denicion 2.1.9. Si v V , denimos su norma por [[v[[ :=
_
v, v. La norma dene una funcion [[ [[ :
V R.
Ejemplo 2.1.10. Si V = k
n
es [[ (x
1
, . . . , x
n
) [[ =
_
[x
1
[
2
+[x
2
[
2
+ +[x
n
[
2
=
_

n
i=1
[x
i
[
2
.
Si z C, z = a + ib con a, b R, escribimos Re(z) = a y Im(z) = b. Observar que es [ Re(z)[ [z[,
[ Im(z)[ [z[, z +z = 2 Re(z), z z = 2i Im(z) y zz = [z[
2
.
Proposicion 2.1.11. Vale la siguiente igualdad:
[[u +v[[
2
= [[u[[
2
+ 2 Re (u, v) +[[v[[
2
, u, v V. (2.1)
17
Dem.
[[u +v[[
2
= u +v, u +v = u, u +u, v +v, u +v, v = [[u[[
2
+u, v +u, v +[[v[[
2
= [[u[[
2
+ 2 Re (u, v) +[[v[[
2
.
Observar que si k = R, la relacion (2.1) queda en
[[u +v[[
2
= [[u[[
2
+ 2 u, v +[[v[[
2
, u, v V. (2.2)
Proposicion 2.1.12. Vale:
1. [[a v[[ = [a[ [[v[[, para todo v V y a k.
2. [[v[[ 0 para todo v V y [[v[[ = 0 si y solo si v = 0.
3. Desigualdad de Cauchy-Schwarz: para todo u, v V es [u, v[ [[u[[ [[v[[ y vale el smbolo de igual si
y solo si u, v es LD.
4. Desigualdad triangular: para todo u, v V es [[u +v[[ [[u[[ +[[v[[.
Dem. Las dos primeras armaciones se deducen inmediatamente de la denicion de norma. Para la
desigualdad de Cauchy-Schwarz, si v = 0 es [u, v[ = [u, 0[ = 0 = [[u[[ [[0[[ = [[u[[ [[v[[ y el conjunto
u, v = u, 0 es LD.
Supongamos hora que v ,= 0.
_
_
_
_
u
u, v
[[v[[
2
v
_
_
_
_
2
= [[u[[
2
2 Re
__
u,
u, v
[[v[[
2
v
__
+
_
_
_
_
u, v
[[v[[
2
v
_
_
_
_
2
= [[u[[
2
2 Re
_
u, v
[[v[[
2
u, v
_
+
[u, v[
2
[[v[[
4
[[v[[
2
= [[u[[
2
2
[u, v[
2
[[v[[
2
+
[u, v[
2
[[v[[
2
= [[u[[
2

[u, v[
2
[[v[[
2
.
Luego
0
_
_
_
_
u
u, v
[[v[[
2
v
_
_
_
_
2
= [[u[[
2

[u, v[
2
[[v[[
2
. (2.3)
De (2.3) se obtiene inmediatamente la desigualdad de Cauchy-Schwarz.
Si u, v es LD, como v ,= 0 entonces existe a k tal que u = a v, luego
[u, v[ = [a v, v[ = [a v, v[ = [a[ [[v[[
2
= [a[ [[v[[ [[v[[ = [[a v[[ [[v[[ = [[u[[ [[v[[.
Recprocamente si [u, v[ = [[u[[ [[v[[ y v ,= 0 entonces (2.3) implica
_
_
_
_
u
u, v
[[v[[
2
v
_
_
_
_
2
= 0,
luego u = u, v/[[v[[
2
v.
La desigualdad triangular se deduce de:
[[u +v[[
2
= [[u[[
2
+ 2 Re (u, v) +[[v[[
2
[[u[[
2
+ 2[ u, v [ +[[v[[
2
[[u[[
2
+ 2[[u[[ [[v[[ +[[v[[
2
= ([[u[[ +[[v[[)
2
.
18
Aplicacion 2.1.1. En el caso particular de V = k
n
la desigualdad de Cauchy-Schwarz y la desigualdad
triangular nos dan las siguientes relaciones:

i=1
x
i
y
i

_
n

i=1
[x
i
[
2
_
1/2
_
n

i=1
[y
i
[
2
_
1/2
,
_
n

i=1
[x
i
+y
i
[
2
_
1/2

_
n

i=1
[x
i
[
2
_
1/2
+
_
n

i=1
[y
i
[
2
_
1/2
.
Denicion 2.1.13. Dos vectores u y v se dicen ortogonales si u, v = 0, en esta situacion escribimos
u v. Un subconjunto S de V se dice un conjunto ortogonal si para todo u, v en S, u ,= v, es u v. Un
subconjunto S de V se dice un conjunto ortonormal si es ortogonal y [[v[[ = 1 para todo v en S. Observar que
si S = v
1
, . . . , v
n
, entonces S es ortonormal si y solo si v
i
, v
j
=
ij
para todo i, j. Una base ortonormal
es una base que ademas es un conjunto ortonormal.
Ejemplo 2.1.14. La base canonica de k
n
es una base ortonormal.
Ejemplo 2.1.15. El conjunto S = (1, 1, 0), (1, 1, 1), (1, 1, 2) es un subconjunto ortogonal de R
3
que
no es ortonormal.
Proposicion 2.1.16. Sea S = v
1
, . . . , v
n
un conjunto ortogonal de vectores no nulos y u [v
1
, . . . , v
n
].
Si u =
n

i=1
a
i
v
i
, entonces a
i
=
u, v
i

[[v
i
[[
2
, i = 1, . . . , n.
Dem.
u =
n

j=1
a
j
v
j
u, v
i
=
_
n

j=1
a
j
v
j
, v
i
_
=
n

j=1
a
j
v
j
, v
i
= a
i
[[v
i
[[
2
a
i
=
u, v
i

[[v
i
[[
2
.
Corolario 2.1.17. Si S es un subconjunto ortogonal (nito o innito) de V formado por vectores no nulos,
entonces S es LI.
Dem. Si v
1
, . . . , v
n
S y a
1
, . . . , a
n
k son tales que

n
i=1
a
i
v
i
= 0 entonces a
i
=
0,v
i
)
[[v
i
[[
2
= 0 para todo
i = 1, . . . , n.
Corolario 2.1.18. Si V tiene dimension nita y B = v
1
, . . . , v
n
es una base ortonormal de V , entonces
u =
n

i=1
u, v
i
v
i
, u V. (2.4)
Denicion 2.1.19. Sea B un conjunto (posiblemente innito) ortonormal en V . Si w V , llamamos
coecientes de Fourier de w respecto a B a los escalares w, v con v B.
19
Teorema 2.1.20 (Metodo de Gram-Schmidt). Sea S = v
1
, . . . , v
n
un conjunto LI. Denimos S
t
=
w
1
, . . . , w
n
mediante:
w
1
= v
1
w
2
= v
2

v
2
, w
1

[[w
1
[[
2
w
1
w
3
= v
3

v
3
, w
1

[[w
1
[[
2
w
1

v
3
, w
2

[[w
2
[[
2
w
2
.
.
.
w
n
= v
n

v
n
, w
1

[[w
1
[[
2
w
1

v
n
, w
n1

[[w
n1
[[
2
w
n1
.
Entonces S
t
es un conjunto ortogonal de vectores no nulos que verica [S
t
] = [S].
Dem. Demostraremos por induccion en m, siendo S
m
= v
1
, . . . , v
m
y S
t
m
= w
1
, . . . , w
m
con 1
m n, que si S
m
es un conjunto LI, entonces S
t
m
es un conjunto ortogonal de vectores no nulos que verica
[S
t
m
] = [S
m
].
Para m = 1 es S
1
= S
t
1
= v
1
y se cumple la tesis. Supongamos que vale para m 1. Si S
m
es un
conjunto LI, entonces S
m1
es un conjunto LI y se aplica la hipotesis de induccion, por lo cual S
t
m1
es un
conjunto ortogonal de vectores no nulos que verica
_
S
t
m1

= [S
m1
].
Consideremos w
m
. Si fuese w
m
= 0 entonces sera v
m
[S
t
m1
] = [S
m1
] y S
m
= S
m1
v
m
resultara
LD contradiciendo que S es LI. Luego es w
m
,= 0.
El conjunto S
t
m1
= w
1
, . . . , w
m1
es ortogonal. Armamos que w
m
es ortogonal a w
1
, . . . , w
m1
:
w
m
, w
i
= v
m
, w
i

v
m
, w
1

[[w
1
[[
2
w
1
, w
i

v
m
, w
m1

[[w
m1
[[
2
w
m1
, w
i

= v
m
, w
i

v
m
, w
i

[[w
i
[[
2
w
i
, w
i
= 0, i = 1, . . . , m1.
Luego S
t
m
= w
1
, . . . , w
m1
, w
m
es ortogonal.
De
_
S
t
m1

= [S
m1
] se deduce que w
1
, . . . , w
m1
[S
m1
] [S
m
]. Por otro lado tenemos que w
m

[w
1
, . . . , w
m1
, v
m
] S
m
, luego [S
t
m
] [S
m
]. Como S
t
m
es un conjunto ortogonal de vectores no nulos, es LI
y S
m
tambien es LI, luego dim[S
t
m
] = dim[S
m
] = m lo cual termina la prueba de [S
t
m
] = [S
m
].
Observacion 2.1.21. Observar que si aplicamos el metodo de Gram-Schmidt a un conjunto LI de la
forma S = v
1
, . . . , v
l
, v
l+1
, . . . , v
n
con v
1
, . . . , v
l
un conjunto ortonormal entonces es w
i
= v
i
para todo
i = 1, . . . , l.
Corolario 2.1.22. Si la dimension de V es nita, entonces V admite una base ortonormal.
Dem. Sea ( = v
1
, . . . , v
n
una base cualquiera de V . Aplicando el metodo de Gram-Schmidt obtenemos
una base ortogonal (
t
= u
1
, . . . , u
n
. Si denimos w
i
= u
i
/[[u
i
[[, i = 1 . . . , n, entonces B = w
1
, . . . , w
n
es
una base ortonormal de V .
Observacion 2.1.23. Sea V de dimension nita y B = v
1
, . . . , v
n
una base ortonormal de V . Sean
v =

n
i=1
x
i
v
i
y w =

n
i=1
y
i
v
i
, entonces vale:
v, w =
n

i=1
x
i
y
i
, |v|
2
=
n

i=1
[x
i
[
2
.
20
En efecto,
v, w =
_
n

i=1
x
i
v
i
,
n

j=1
y
j
v
j
_
=
n

i,j=1
x
i
y
j
v
i
, v
j
=
n

i,j=1
x
i
y
j

ij
=
n

i=1
x
i
y
i
.
De la observacion anterior y la formula (2.4) se obtiene:
Proposicion 2.1.24 (Identidad de Parseval). Sea V de dimension nita y B = v
1
, . . . , v
n
una base
ortonormal de V . Entonces
v, w =
n

i=1
v, v
i
w, v
i
, v, w V.
En particular, |v|
2
=

n
i=1
[v, v
i
[
2
.
Aplicando (2.1) se obtiene imediatamente el siguiente.
Proposicion 2.1.25 (Teorema de Pitagoras). Si u y v son ortogonales, es [[u +v[[
2
= [[u[[
2
+[[v[[
2
.
Corolario 2.1.26. Si v
1
, . . . , v
n
es un conjunto ortogonal en V , es [[

n
i=1
v
i
[[
2
=

n
i=1
[[v
i
[[
2
.
Dem. Lo demostramos por induccion en n. Si n = 2 es el teorema de Pitagoras. Supongamos que
vale para n y consideremos un conjunto ortogonal v
1
, . . . , v
n
, v
n+1
. Como v
n+1
es ortogonal a v
1
, . . . , v
n
entonces resulta ortogonal a

n
i=1
v
i
. Luego aplicando Pitagoras y la hipotesis de induccion obtenemos:

n+1

i=1
v
i

2
=

_
n

i=1
v
i
_
+v
n+1

2
=

i=1
v
i

2
+[[v
n+1
[[
2
=
n

i=1
[[v
i
[[
2
+[[v
n+1
[[
2
=
n+1

i=1
[[v
i
[[
2
.
Denicion 2.1.27. Si S es un subconjunto cualquiera de V , el conjunto
S

:= v V : v w, w S
se llama el complemento ortogonal de S.
Observacion 2.1.28. Observar que S

es un subespacio de V (aunque S no lo sea) y que S

= [S]

. En
particular, si W es un subespacio de V y S es un generador de W, entonces v W

si y solo si v w para
todo w en S.
Ejemplo 2.1.29. 0

= V y V

= 0.
Teorema 2.1.30. Sea W un subespacio de dimension nita de V , entonces V = W W

.
Dem. Sea B = w
1
, . . . , w
n
una base ortonormal de W, si v V es
v =
n

i=1
v, w
i
w
i
+v
n

i=1
v, w
i
w
i
.
Observar que v

n
i=1
v, w
i
w
i
, w
j
= v, w
j

n
i=1
v, w
i
w
i
, w
j
= 0 para todo j = 1, . . . , n, luego
por la observacion anterior es v

n
i=1
v, w
i
w
i
W

y claramente

n
i=1
v, w
i
w
i
W, de donde
V = W +W

. Por otro lado si w WW

es w w y luego w = 0 lo cual prueba que WW

= 0.
Corolario 2.1.31. Si la dimension de V es nita y W es un subespacio de V es dimW + dimW

=
dimV .
21
Observacion 2.1.32. Si la dimension de V es nita y S = v
1
, . . . , v
m
es un subconjunto ortonormal de
V , entonces completando S a una base cualquiera de V y aplicandole a esta el metodo de Gram-Schmidt
obtenemos:
1. Existen vectores v
m+1
, . . . , v
n
en V tales que el conjunto v
1
, . . . , v
m
, v
m+1
, . . . , v
n
es una base orto-
normal de V .
2. Si W = [v
1
, . . . , v
m
], entonces W

= [v
m+1
, . . . , v
n
].
Denicion 2.1.33. Sea W un subespacio de dimension nita de V . Sean P
W
/(V ) y P
W
/(V )
las proyecciones asociadas a la descomposicion V = W W

, siendo Im P
W
= W y Im P
W
= W

. La
proyeccion P
W
se llama la proyecci on ortogonal sobre el espacio W. Observar que si B = w
1
, . . . , w
n
es
una base ortonormal de W, entonces
P
W
(v) =
n

i=1
v, w
i
w
i
, P
W
(v) = v
n

i=1
v, w
i
w
i
, v V.
Corolario 2.1.34. Sea W un subespacio de dimension nita de V , P
W
/(V ) la proyeccion ortogonal
sobre W y v V . Entonces:
1. w W es
[[v w[[ [[v P
W
(v)[[. (2.5)
2. Si w
0
W verica
[[v w[[ [[v w
0
[[, (2.6)
w W, entonces w
0
= P
W
(v).
Dem. Observar que si w W, es v P
W
(v) W

y P
W
(v) w W, luego aplicando el teorema de
Pitagoras resulta
[[v w[[
2
= [[v P
W
(v) +P
W
(v) w[[
2
= [[v P
W
(v)[[
2
+[[P
W
(v) w[[
2
[[v P
W
(v)[[
2
. (2.7)
Esto implica la primera armacion. Para la segunda armacion, tomando w = P
W
(v) en (2.6) resulta
[[v P
W
(v)[[ [[v w
0
[[. Por otro lado tomando w = w
0
en (2.5) resulta [[v w
0
[[ [[v P
W
(v)[[. Luego
[[v w
0
[[ = [[v P
W
(v)[[. Teniendo en cuenta esta ultima relacion, tomando w = w
0
en (2.7) deducimos
[[P
W
(v) w
0
[[ = 0 y luego P
W
(v) = w
0
.
Denicion 2.1.35. 1. Sean v y w en V , denimos la distancia entre v y w por d(v, w) = |v w|.
2. Sea S un subconjunto no vaco de V y v V . Se dene la distancia de v a S por
d(v, S) :=nfd(v, w) : w S.
Observacion 2.1.36. Notar que si escribimos la relacion (2.5) en terminos de distancias, es
d(v, w) d (v, P
W
(v)) , w W.
Esto implica que d (v, P
W
(v)) es una cota inferior para d(v, w) : w W, pero como P
W
(v) W, resulta
d (v, P
W
(v)) = mnd(v, w) : w W = d(v, W).
La relacion (2.6) nos dice que P
W
(v) es el unico elemento de W que realiza la distancia de v a W.
22
Corolario 2.1.37 (Desigualdad de Bessel). Sea v
1
, . . . , v
n
un subconjunto ortonormal de V , entonces
[[v[[
2

i=1
[v, v
i
[
2
, v V.
Dem. Sea W = [v
1
, . . . , v
n
]. Aplicando el teorema de Pitagoras se deduce
[[v[[
2
= [[P
W
(v) +v P
W
(v)[[
2
= [[P
W
(v)[[
2
+[[v P
W
(v)[[
2
[[P
W
(v)[[
2
=
n

i=1
[v, v
i
[
2
.
2.2. Operadores en espacios con producto interno
En esta seccion V sera siempre un espacio vectorial con producto interno de dimension nita.
Teorema 2.2.1 (Riesz). Si V

, entonces existe un unico w V tal que (v) = v, w, para todo v V .


Dem. Sea B = v
1
, . . . , v
n
una base ortonormal de V y V

, consideremos w =

n
i=1
(v
i
) v
i
.
Si v V , aplicando (2.4) es v =

n
j=1
v, v
j
v
j
, luego
v, w =
_
n

j=1
v, v
j
v
j
, w
_
=
n

j=1
v, v
j

_
v
j
,
n

i=1
(v
i
) v
i
_
=
n

i,j=1
v, v
j
(v
i
) v
j
, v
i

=
n

i,j=1
v, v
j
(v
i
)
i,j
=
n

j=1
v, v
j
(v
j
) =
_
_
n

j=1
v, v
j
v
j
_
_
= (v), j = 1, . . . , n.
Luego (v) = v, w. Si otro vector u V verica (v) = v, u, para todo v V , entonces
v, w = v, u, v V w = u.
Teorema 2.2.2. Sea T /(V ). Existe un unico T

/(V ) tal que T(v), w = v, T

(w), v, w V.
Dem. Existencia: Sea B = v
1
, . . . , v
n
una base ortonormal de V , denimos T

: V V mediante
T

(w) =
n

i=1
w, T(v
i
) v
i
, w V. (2.8)
Es inmediato el probar que T

es lineal. Operando obtenemos


v, T

(w) =
_
v,
n

i=1
w, T(v
i
) v
i
_
=
n

i=1
w, T(v
i
) v, v
i
=
n

i=1
T(v
i
), w v, v
i
=
n

i=1
v, v
i
T(v
i
), w
=
_
n

i=1
v, v
i
T(v
i
), w
_
=
_
T
_
n

i=1
v, v
i
v
i
_
, w
_
= T(v), w, v, w V.
Observar que para la ultima igualdad aplicamos (2.4).
23
Unicidad: Si S /(V ) verica T(v), w = v, S(w), v, w V , entonces
v, T

(w) = v, S(w), v, w V T

(w) = S(w), w V T

= S.
Observacion 2.2.3. La unicidad en el teorema anterior implica que la denicion de T

no depende de la
eleccion de la base ortonormal B. Un comentario analogo vale para la denicion de w en el teorema de Riesz.
Denicion 2.2.4. El operador T

se llama el operador adjunto de T.


Proposicion 2.2.5. Si T /(V ), entonces v, T(w) = T

(v), w, v, w V.
Dem. v, T(w) = T(w), v = w, T

(v) = T

(v), w.
Proposicion 2.2.6. Sean T, S /(V ) y a k. Entonces:
(aT +S)

= aT

+S

, (T S)

= S

, (T

= T, Id

= Id .
Dem.
Las pruebas se basan en la unicidad del operador adjunto.
Prueba de (aT +S)

= aT

+S

:
(aT +S)(v), w = aT(v) +S(v), w = aT(v), w +S(v), w = av, T

(w) +v, S

(w)
= v, ( aT

+S

)(w) , v, w V.
Prueba de (T S)

= S

:
(T S)(v), w = T(S(v)), w = S(v), T

(w) = v, S

(T

(w)) = v, (S

)(w) , v, w V.
Prueba de (T

= T: por denicion de (T

es T

(v), w = v, (T

(w) , v, w V y por la
proposicion anterior es T

(v), w = v, T(w) , v, w V .
Prueba de Id

= Id: Id(v), w = v, w = v, Id(w), v, w V .


Denicion 2.2.7. Si A = (a
ij
) M
n
(C), denimos A = (a
ij
) y A

= A
t
; en particular si A M
n
(R) es
A

= A
t
.
La prueba de la siguiente proposicion consiste simplemente en realizar el calculo y queda como ejercicio.
Proposicion 2.2.8. Si A, B M
n
(k) y a k, entonces se cumple:
(A+aB)

= A

+ aB

, (AB)

= B

, (A

= A, I

= I.
Proposicion 2.2.9. Si T /(V ), B = v
1
, . . . , v
n
es una base ortonormal de V y [T]
B
= (a
ij
). Entonces
a
ij
= T(v
j
), v
i
, i, j = 1, . . . , n.
Dem. Si [T]
B
= (a
ij
) es T(v
i
) =

n
j=1
a
ji
v
j
, i = 1, . . . , n. Como B es ortonormal, aplicando la formula
(2.4) obtenemos a
ji
= T(v
i
), v
j
.
Proposicion 2.2.10. Si T /(V ) y B es una base ortonormal de V entonces [T

]
B
= ([T]
B
)

.
Dem. Sea [T]
B
= (a
ij
) y [T

]
B
= (c
ij
). Entonces
a
ij
= T(v
j
), v
i
= v
j
, T

(v
i
) = T

(v
i
), v
j
= c
ji
[T

]
B
= ([T]
B
)

.
24
Corolario 2.2.11. Sea A M
n
(k), consideremos el producto interno usual en k
n
y L
A
: k
n
k
n
denida
por L
A
(v) = Av, v k
n
. Entonces (L
A
)

= L
A
.
Dem. La base canonica B es ortonormal respecto al producto interno usual de k
n
, luego [(L
A
)

]
B
=
([L
A
]
B
)

= A

(L
A
)

= L
A
.
Ejemplo 2.2.12. Consideremos C
2
con el producto interno usual, B la base canonica de C
2
y T : C
2
C
2
denida por T(x, y) = (2ix + 3y, x y), (x, y) C
2
. Es
[T]
B
=
_
2i 3
1 1
_
[T

]
B
= ([T]
B
)

=
_
2i 3
1 1
_
t
=
_
2i 1
3 1
_
,
luego T

(x, y) = (2ix +y, 3x y).


Denicion 2.2.13. Decimos que un operador T /(V ) es normal si T T

= T

T.
Una matriz A M
n
(k) se dice normal si AA

= A

A
Proposicion 2.2.14. Si T /(V ) y B es una base ortonormal de V , entonces T es normal si y solo si
[T]
B
es normal.
Dem. Como B es una base ortonormal de V es [T

]
B
= ([T]
B
)

, luego [TT

]
B
= [T]
B
[T

]
B
= [T]
B
([T]
B
)

y analogamente [T

T]
B
= ([T]
B
)

[T]
B
. Entonces es claro que T T

= T

T si y solo si [T]
B
([T]
B
)

=
([T]
B
)

[T]
B
.
Denicion 2.2.15. 1. Un operador T /(V ) es autoadjunto si T

= T. Observar que T es autoadjunto


si y solo si
T(u), v = u, T(v), u, v V.
2. Una matriz A M
n
(R) es simetrica si A
t
= A.
3. Una matriz A M
n
(C) es hermitiana si A
t
= A o, equivalentemente, si A
t
= A.
Notar que la condicion A

= A equivale a decir que A es simetrica si k = R o hermitiana si k = C.


Proposicion 2.2.16. Si T /(V ), B base ortonormal de V y A = [T]
B
. Entonces T es autoadjunto si y
solo si A es simetrica en el caso k = R o hermitiana en el caso k = C.
Dem. Como B es una base ortonormal y A = [T]
B
, entonces A

= [T

]
B
. Luego T = T

si y solo si
A = A

.
Observacion 2.2.17. Si T /(V ) es autoadjunto, entonces T es normal:
T T

= T T = T

T.
El recproco es falso como lo muestra el siguiente ejemplo:
Ejemplo 2.2.18. Sea 0 < < y A =
_
cos sen
sen cos
_
. Es AA

= A

A = Id, luego A es normal. Por


otro lado es A

= A
t
=
_
cos sen
sen cos
_
,= A y A no es simetrica.
25
Si consideramos en R
2
el producto interno usual, T = R

: R
2
R
2
la rotacion de angulo y B la base
canonica de R
2
, es [T]
B
= A, luego T es un ejemplo de un operador que es normal y no es autoadjunto.
Nuestro principal objetivo en esta seccion es probar el siguiente:
Teorema 2.2.19. Sea T un operador en un espacio vectorial de dimension nita con producto interno. En-
tonces T es diagonalizable en una base ortonormal si y solo si T es normal en el caso complejo o autoadjunto
en el caso real.
Empezamos probando el directo.
Teorema 2.2.20. Sea T /(V ). Si T es diagonalizable en una base ortonormal de V , entonces T es normal
en el caso complejo o autoadjunto en el caso real.
Dem. Sea B una base ortonormal de V tal que [T]
B
=
_
_
_

1
. . . 0
.
.
.
.
.
.
.
.
.
0 . . .
n
_
_
_, es
[T

]
B
= ([T]
B
)

=
_
_
_

1
. . . 0
.
.
.
.
.
.
.
.
.
0 . . .
n
_
_
_.
Si k = R es
i
=
i
, i = 1, . . . , n, luego [T

]
B
= [T]
B
y esto equivale a T

= T.
En general es
[T

]
B
[T]
B
=
_
_
_
[
1
[
2
. . . 0
.
.
.
.
.
.
.
.
.
0 . . . [
n
[
2
_
_
_ = [T]
B
[T

]
B
,
luego [T

T]
B
= [T T

]
B
y por lo tanto T

T = T T

.
Para probar el recproco veremos primero el caso complejo y luego el real. Empezamos estudiando algunas
de la propiedades de los operadores normales.
Proposicion 2.2.21. Sea T /(V ). Si es un valor propio de T, entonces es un valor propio de T

Dem. Sea B una base ortonormal de V y A = [T]


B
. Sabemos que [T

]
B
= A

, luego si k es

_
=

A
() = det
_
A

Id
_
= det[(AId)

] = det(AId) =

A
() =

T
().
Entonces si es valor propio de T es

T
() =

T
() = 0 = 0.
Proposicion 2.2.22. Sea T /(V ) un operador normal. Entonces
1. [[T(v)[[ = [[T

(v)[[, v V .
2. T Id es normal, k.
3. Si v es vector propio de T correspondiente al valor propio , entonces v es vector propio de T

correspondiente al valor propio .


4. Si
1
,=
2
son valores propios de T con vectores propios correspondientes v
1
y v
2
, entonces v
1
v
2
.
Dem.
26
1. [[T(v)[[
2
= T(v), T(v) = v, T

(T(v)) = v, T(T

(v)) = T

(v), T

(v) = [[T

(v)[[
2
.
2.
(T Id) (T Id)

= (T Id) (T

Id) = T T

T +[[
2
Id
= T

T T

T +[[
2
Id = (T Id)

(T Id).
3. Es 0 = [[T(v) v[[ = [[(T Id)(v)[[ = [[(T Id)

(v)[[, por 1) y 2). Luego


_
_
T

(v) v
_
_
=
[[(T Id)

(v)[[ = 0 y es T

(v) = v.
4.
1
v
1
, v
2
=
1
v
1
, v
2
= T(v
1
), v
2
= v
1
, T

(v
2
) = v
1
,
2
v
2
=
2
v
1
, v
2
y como
1
,=
2
resulta
v
1
, v
2
= 0.
Lema 2.2.23. Sea T /(V ) y W V un subespacio que es T-invariante y T

-invariante. Si consideramos
la restriccion T[
W
/(W), entonces (T[
W
)

= T

[
W
. Si ademas T es normal, entonces tambien lo es T[
W
.
Dem. Si w
1
, w
2
W, es
T[
W
(w
1
), w
2
= T(w
1
), w
2
= w
1
, T

(w
2
) = w
1
, T

[
W
(w
2
), w
1
, w
2
W.
Luego (T[
W
)

= T

[
W
y por lo tanto si T es normal, es
T[
W
(T[
W
)

= T[
W
T

[
W
= (T T

)[
W
= (T

T)[
W
= T

[
W
T[
W
= (T[
W
)

T[
W
.
El siguiente es el recproco del teorema 2.2.19 en el caso complejo.
Teorema 2.2.24. Si k = C y T /(V ) es normal, entonces T es diagonalizable en una base ortonormal
Dem. La prueba es por induccion en n = dimV .
Para n = 1: Si 0 ,= v V entonces
_
v
[[v[[
_
es una base ortonormal de V formada por vectores propios de
T (en este caso todo vector es vector propio, pues si dimV = 1 toda transformacion lineal de V en V es de
la forma T(v) = v para alg un k).
Sea ahora n > 1 y supongamos razonando inductivamente que si tenemos un operador normal en un
espacio de dimension n 1, entonces existe una base ortonormal del espacio formada por vectores propios
del operador.
Como k = C existe valor propio de T. Sea v un vector propio de T correspondiente a y consideremos
W := [v]

= w V [ w, v = 0. Sabemos que W es un subespacio de V y que dimW = n 1. Sea


w W,
T(w), v = w, T

(v) =

w, v
_
= w, v = 0 = 0 T(w) W,
T

(w), v = w, T(v) = w, v = w, v = 0 = 0 T

(w) W.
Luego W es T y T

-invariante, como T es normal, el lema anterior implica que T[


W
/(W) es normal.
Tenemos que T[
W
/(W) normal y que dimW = n 1 entonces por la hipotesis inductiva existe
v
1
, . . . , v
n1
base ortonormal de W formada por vectores propios de T[
W
(y por lo tanto vectores propios
de T). Sea v
n
=
v
[[v[[
, como v
1
, . . . , v
n1
W = [v]

y v
n
[v] es v
i
v
n
, i = 1, . . . , n 1. Luego
B = v
1
, . . . , v
n1
, v
n
es una base ortonormal de V formada por vectores propios de T.
27
Ahora empezamos a preparar la prueba del caso real.
Proposicion 2.2.25. Sea T /(V ) autoadjunto y k un valor propio de T, entonces R.
Dem. Sea v V un vector propio correspondiente a . Es
v = T(v) = T

(v) = v
ya que como T es autoadjunto, es normal. Entonces v = v y v ,= 0, de donde = ; luego R.
Veremos dos pruebas del recproco del teorema 2.2.19 para el caso real. La primera la deducimos del
caso complejo mientras que la segunda es una modicacion de la prueba del caso complejo. Es un tema de
gustos con cual prueba quedarse.
Probaremos:
Teorema 2.2.26. Si k = R y T /(V ) es autoadjunto, entonces T es diagonalizable en una base ortonor-
mal.
Primer prueba.
Dem. Observar que como R C, es M
n
(R) M
n
(C). Luego si A M
n
(R), entonces el teorema 5.2.3
del Apendice nos prueba que el rango de A es el mismo si consideramos A en M
n
(R) o en M
n
(C).
Sea ( una base ortonormal de V . La matriz A = [T]
(
M
n
(R) es simetrica real. Pensando A M
n
(C),
como A es simetrica, entonces es hermitiana y por lo tanto es normal. Esto implica que L
A
/(C
n
) es
normal, luego L
A
es diagonalizable y por lo tanto A es diagonalizable en M
n
(C). Entonces

A
(t) escinde en
C

A
(t) = (1)
n
(t
1
)
n
1
(t
k
)
n
k
(2.9)
donde
1
, . . . ,
k
son los valores propios distintos de A en C y MG(
i
) = MA(
i
), i = 1, . . . , k, es decir
n rango(A
i
Id) = n
i
, i = 1, . . . , k. (2.10)
Como A M
n
(C) es hermitiana, entonces L
A
/(C
n
) es autoadjunta y entonces la proposicion 2.2.25
implica que los valores propios de A (que son los de L
A
) son reales. Luego
i
R, i = 1, . . . , k. Entonces
la igualdad (2.9) nos dice que

A
(t) escinde en R y la igualdad (2.10) nos prueba que MG(
i
) = MA(
i
),
i = 1, . . . , k (recordar la observacion al principio de la prueba); luego A es diagonalizable en R y por lo
tanto T /(V ) es diagonalizable.
Al ser T /(V ) diagonalizable, sabemos que V =

k
i=1
E

i
, donde E

i
es el subespacio propio corres-
pondiente a
i
, i = 1, . . . , k, siendo
1
, . . . ,
k
los valores propios distintos de T. Como T es autoadjunto, es
normal, entonces la Proposicion 2.2.22 implica que E

i
E

j
si i ,= j. Luego si B
i
base ortonormal de E

i
,
i = 1, . . . , k, entonces B
1
B
k
es una base ortonormal de V formada por vectores propios de T.
Segunda prueba.
Dem. La prueba es por induccion en n = dimV . Para n = 1 la prueba es trivial porque en ese caso todo
vector es vector propio de T.
28
Sea ahora n > 1 y supongamos razonando inductivamente que si tenemos un operador autoadjunto en
un espacio de dimension n1, entonces existe una base ortonormal del espacio formada por vectores propios
del operador. El polinomio caracterstico

T
tienen alguna raz en C y la proposicion 2.2.25 implica R.
Luego existe valor propio de T.
Sea v un vector propio de T correspondiente a y consideremos W := [v]

= w V [ w, v = 0.
Sabemos que W es un subespacio de V de dimension n 1. Sea w W,
T(w), v = w, T(v) = w, v = w, v = 0 = 0 T(w) W.
Luego W es T-invariante, como T es autoadjunto es inmediato el probar que T[
W
/(W) es autoadjunto.
Entonces la hipotesis inductiva aplicada a T[
W
implica que existe v
1
, . . . , v
n1
base ortonormal de W
formada por vectores propios de T. Sea v
n
=
v
[[v[[
, como v
1
, . . . , v
n1
W = [v]

y v
n
[v] es v
i
v
n
, i =
1, . . . , n 1. Luego B = v
1
, . . . , v
n1
, v
n
es una base ortonormal de V formada por vectores propios de
T.
Observacion 2.2.27. Un problema de la prueba anterior es que si bien no se apoya en el teorema 2.2.24,
s usa los n umeros complejos para probar que un operador autoadjunto real tienen alg un valor propio. Una
prueba de esta ultima armacion sin usar los n umeros complejos pero usando un poco de analisis esta en
la seccion 5.4 del Apendice.
Corolario 2.2.28. Si A M
n
(R) es simetrica, entonces su polinomio caracterstico

A
escinde en R.
2.3. El teorema espectral
En esta seccion V sera siempre un espacio vectorial con producto interno de dimension nita.
Recordar que si W es un subespacio de V , entonces P
W
denota la proyeccion ortogonal sobre W.
Proposicion 2.3.1. 1. Si W V es un subespacio, entonces P
W
es un operador autoadjunto.
2. Si P /(V ) es una proyeccion que ademas es un operador autoadjunto, entonces P es la proyeccion
ortogonal sobre Im P.
Dem. (1): Sean v
1
, v
2
V arbitrarios. Escribimos v
1
= w
1
+w
t
1
y v
2
= w
2
+w
t
2
, donde w
i
W, w
t
i
W

,
i = 1, 2. Entonces
P
W
(v
1
), v
2
= w
1
, w
2
+w
t
2
= w
1
, w
2
+w
1
, w
t
2
= w
1
, w
2
,
v
1
, P
W
(v
2
) = w
1
+w
t
1
, w
2
= w
1
, w
2
+w
t
1
, w
2
= w
1
, w
2
.
Luego P
W
(v
1
), v
2
= v
1
, P
W
(v
2
), v
1
, v
2
V y esto equivale a P

W
= P
W
.
(2): La relacion P
2
= P implica V = Im P Ker P y P es la proyeccion sobre Im(P) en la direccion de
Ker P. Sean u Im P (luego P(u) = u) y v Ker P, es
u, v = P(u), v = u, P(v) = u, 0 = 0 Ker P (Im P)

.
De V = Im P Ker P y V = Im P (Im P)

se deduce que dimKer P = dim(ImP)

, luego la relacion
Ker P (Im P)

implica Ker P = (Im P)

. Luego P = P
W
, siendo W = Im P.
Denicion 2.3.2. Sea P /(V ), decimos P es una proyecci on ortogonal si P
2
= P = P

. La proposicion
anterior prueba que toda proyeccion ortogonal es la proyeccion ortogonal sobre alg un subespacio.
29
Teorema 2.3.3 (Teorema espectral). Supongamos que T /(V) es un operador normal si k = C o
autoadjunto si k = R. Entonces existen unicos
1
, . . . ,
k
k distintos y P
1
, . . . , P
k
/(V ) no nulos, tales
que:
1. P
2
i
= P
i
= P

i
, i = 1, . . . , k (las P
i
son proyecciones ortogonales).
2. P
i
P
j
= 0 si i ,= j.
3. Id =

k
i=1
P
i
.
4. T =

k
i=1

i
P
i
.
Dem. Como T es normal si k = C o autoadjunto si k = R, entonces el teorema 2.2.19 implica que T es
diagonalizable en una base ortonormal.
Al ser T diagonalizable, entonces el teorema 1.5.1 implica que existen unicos
1
, . . . ,
k
k distintos y
P
1
, . . . , P
k
/(V ) no nulos, tales que se verican las propiedades 1,2,3,4, salvo eventualmente la condicion
P
i
= P

i
, i = 1, . . . , k.
Armacion: En este caso vale E

i
=

j,=i
E

j
, i = 1, . . . , k. En efecto, como T es normal (k = C o R),
es
E

i
E

j
, j ,= i E

j
E

i
, j ,= i

j,=i
E

j
E

i
dim(

j,=i
E

j
) = dimV dimE

i
= dimE

i
_
E

i
=

j,=i
E

j
.
Pero entonces V = E

j,=i
E

j
= E

i
E

i
, y P
i
es la proyeccion asociada a esta descomposicion, es
decir P
i
= P
E

i
. Luego P
i
es una proyeccion ortogonal.
La unicidad de la descomposicion se deduce inmediatamente de la unicidad en el caso clasico (el caso de
V sin producto interno y T un operador diagonalizable en V ).
Teorema 2.3.4. Sean P
1
, . . . , P
k
/(V) que verican:
1. P
2
i
= P
i
= P

i
, i = 1, . . . , k.
2. P
i
P
j
= 0 si i ,= j.
3. Id =

k
i=1
P
i
.
Dados
1
, . . . ,
k
k arbitrarios, denimos T /(V) mediante T =

k
i=1

i
P
i
. Entonces T es normal si
k = C o autoadjunto si k = R.
Dem. Como T =

k
i=1

i
P
i
, es T

k
i=1

i
P

i
=

k
i=1

i
P
i
.
Si k = R es
i
=
i
, i = 1, . . . , k, luego T

= T.
Si k = C es
T T

=
_
k

i=1

i
P
i
_

_
_
k

j=1

j
P
j
_
_
=
k

i,j=1

j
P
i
P
j
=
k

i=1
[
i
[
2
P
2
i
=
k

i,j=1

j
P
i
P
j
=
_
k

i=1

i
P
i
_

_
_
k

j=1

j
P
j
_
_
= T

T.
30
Observacion 2.3.5. Sea T /(V ) normal si k = C o autoadjunto si k = R. Sean
1
, . . . ,
k
los valores pro-
pios distintos de T y P
1
, . . . , P
k
las proyecciones ortogonales sobre los subespacios propios correspondientes.
Recordemos que la descomposicion
T =
1
P
1
+ +
k
P
k
se llama la descomposicion espectral de T y
1
, . . . ,
k
es el espectro de T. Recordar que en la Proposicion
1.22 probamos que cada P
i
es un polinomio en T.
Corolario 2.3.6. Sea k = C y T /(V). Entonces T es normal si y solo si T

= p(T) para alg un p C[x].


Dem. Si T

= p(T) con p =

n
i=0
a
i
x
i
, entonces
T

T = p(T) T =
_
n

i=0
a
i
T
i
_
T =
n

i=0
a
i
T
i+1
= T
n

i=0
a
i
T
i
= T p(T) = T T

,
luego T es normal.
Si T es normal y T =

k
i=1

i
P
i
es la descomposicion espectral de T, entonces T

k
i=1

i
P
i
.
Como
1
, . . . ,
k
son distintos entre s, la proposicion 5.1.2 del Apendice implica que existe p k[x] tal que
p(
i
) =
i
, i = 1, . . . , k. Entonces
p(T) = p
_
k

i=1

i
P
i
_
()
=
k

i=1
p(
i
) P
i
=
k

i=1

i
P
i
= T

,
luego T

= p(T).
() Esta igualdad es un ejercicio del practico 2.
Corolario 2.3.7. Sea k = C y T /(V ) un operador normal. Entonces T es autoadjunto si y solo si todos
los valores propios de T son reales.
Dem. Lo unico que hay que probar es el recproco. Sea T =

k
i=1

i
P
i
la descomposicion espectral de
T, entonces T

k
i=1

i
P
i
=

k
i=1

i
P
i
= T.
2.4. Isometras
En esta seccion V sera siempre un espacio vectorial con producto interno de dimension nita.
Denicion 2.4.1. Sean (V, ,
V
) y (W, ,
W
) dos espacios con producto interno. Una transformacion
lineal T /(V, W) se dice una isometra si verica:
T(u), T(v)
W
= u, v
V
, u, v V.
Si V = W y T /(V ) es una isometra, se dice que T es un operador ortogonal si k = R o que es un
operador unitario si k = C.
Proposicion 2.4.2. Sea T /(V ). Las siguientes armaciones son equivalentes:
1. T es una isometra.
2. T T

= Id T

T = Id T es invertible y T
1
= T

.
31
Dem. La ultima equivalencia es porque T : V V y V tiene dimension nita.
Observar que
T(u), T(v) = u, T

(T(v)) = u, (T

T)(v)), u, v V.
Luego T es una isometra si y solo si
u, (T

T)(v)) = u, v, u, v V (T

T)(v) = v, v V T

T = Id .
Teorema 2.4.3. Sea T /(V ). Las siguientes armaciones son equivalentes:
1. T es una isometra.
2. Para toda base ortonormal B de V , T(B) es una base ortonormal de V .
3. Existe una base ortonormal B de V tal que T(B) es una base ortonormal de V .
4. |T(v)| = |v|, v V .
Dem. (1 2): Sea B = v
1
, . . . , v
n
una base ortonormal de V , es T(v
i
), T(v
j
) = v
i
, v
j
=
ij
, luego
T(B) = T(v
1
), . . . , T(v
n
) es una base ortonormal de V .
(2 3): Esto es obvio, dado que V siempre admite una base ortonormal.
(3 4): Consideremos B = w
1
, . . . , w
n
una base ortonormal de V tal que T(B) = T(w
1
), . . . , T(w
n
)
es tambien una base ortonormal de V .
Sea v V . Como B es una base de V , entonces existen unicos a
1
, . . . , a
n
k tales que v =

n
i=1
a
i
w
i
,
luego T(v) =

n
i=1
a
i
T(w
i
). Como B es una base ortonormal es |v|
2
=

n
i=1
[a
i
[
2
y como T(B) es una base
ortonormal es |T(v)|
2
=

n
i=1
[a
i
[
2
, luego |T(v)| = |v|, v V .
(4 1): Esto se deduce de la linealidad de T y las formulas de polarizacion
u, v =
1
4
_
|u +v|
2
|u v|
2
_
, k = R; u, v =
1
4
k=3

k=0
i
k
_
_
_u +i
k
v
_
_
_
2
, k = C; u, v V.
Por ejemplo:
T(u), T(v) =
1
4
_
|T(u) +T(v)|
2
|T(u) T(v)|
2
_
=
1
4
_
|T(u +v)|
2
|T(u v)|
2
_
=
1
4
_
|u +v|
2
|u v|
2
_
= u, v.
El caso complejo es analogo.
Observacion 2.4.4. 1. Si T es una isometra, es T T

= T

T = Id, luego T es normal.


2. Si T es una isometra y k es un valor propio de T, entonces [[ = 1:
Sea 0 ,= v V : T(v) = v |v| = |T(v)| = [[ |v| [[ = 1.
En particular, si k = R es = 1.
3. Si T es una isometra, entonces [ det(T)[ = 1:
1 = det(Id) = det (T T

) = det(T) det(T

) = det(T) det(T) = [ det(T)[


2
[ det(T)[ = 1.
En particular, si k = R es det T = 1.
32
4. Sea T una isometra. Si k = C, como T es normal, entonces T es diagonalizable en una base ortonormal.
Si k = R esto no es cierto. Por ejemplo, la rotacion de angulo ( ,= k, k Z) es una isometra y no
es diagonalizable.
Proposicion 2.4.5. Sea T /(V).
1. Si k = C y T es normal, entonces T es una isometra si y solo si y [[ = 1 para todo valor propio
de T.
2. Si k = R y T es autoadjunta, entonces T es una isometra si y solo si y = 1 para todo valor propio
de T.
Dem. Lo unico que hay que probar son los recprocos.
1. Sea T =

k
i=1

i
P
i
la descomposicion espectral de T, entonces
T T

=
_
k

i=1

i
P
i
_

_
_
k

j=1

j
P
j
_
_
=
k

i,j=1

j
P
i
P
j
=
k

i=1
[
i
[
2
P
i
=
k

i=1
P
i
= Id .
Luego T T

= Id y la proposicion 2.4.2 implica que T es una isometra.


2. Vale la misma prueba del caso 1.
Denicion 2.4.6. Sea k un cuerpo cualquiera, una matriz A M
n
(k) se dice ortogonal si
A
t
A = AA
t
= Id A
1
= A
t
.
Una matriz A M
n
(C) se dice unitaria si
A

A = AA

= Id A
1
= A

.
Observar que si a una matriz real la consideramos como matriz compleja, entonces es unitaria si y solo si es
ortogonal.
Proposicion 2.4.7. Sea T /(V), B una base ortonormal de V y A = [T]
B
. Entonces T es una isometra
si y solo si A es ortogonal en el caso real o unitaria en el caso complejo.
Dem.
T T

= T

T = Id [T T

]
B
= [T

T]
B
= [Id]
B
[T]
B
[T

]
B
= [T

]
B
[T]
B
= Id
[T]
B
([T]
B
)

= ([T]
B
)

[T]
B
= Id AA

= A

A = Id .
Proposicion 2.4.8. Sea A M
n
(k). Las siguientes armaciones son equivalentes:
1. La matriz A es unitaria en el caso de k = C u ortogonal en el caso de k = R.
2. Las las de A forman una base ortonormal de k
n
.
3. Las columnas de A forman una base ortonormal de k
n
.
33
Dem.
Sea A = [a
ij
] =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn
_
_
_ = [A
1
[ . . . [A
n
], siendo A
i
=
_
_
_
a
1i
.
.
.
a
ni
_
_
_ y A

= (b
ij
), siendo b
ij
= a
ji
.
Si A

A = (c
ij
), entonces
c
ij
=
n

k=1
b
ik
a
kj
=
n

k=1
a
ki
a
kj
= A
j
, A
i

Luego
A

A = Id c
ij
=
ij
, i, j A
j
, A
i
=
ij
, i, j A
i
, A
j
=
ij
, i, j.
Entonces A

A = Id si y solo si A
1
, . . . , A
n
es una base ortonormal de k
n
.
Analogamente se prueba que AA

= Id si y solo si las las de A forman una base ortonormal de k


n
.
El vnculo entre bases ortonormales y matrices ortogonales o unitarias viene dado por la siguiente pro-
posicion. La prueba de la misma es un ejercicio del practico 5.
Proposicion 2.4.9. Sean B y ( bases de k
n
y A =
B
[Id]
(
. Entonces:
1. Si B y ( son bases ortonormales, entonces A es unitaria si k = C, u ortogonal si k = R.
2. Si B o ( es una base ortonormal y A es unitaria si k = C u ortogonal si k = R, entonces la otra base
es tambien ortonormal.
Denicion 2.4.10. 1. Dos matrices A, B M
n
(C) son unitariamente equivalentes si existe una matriz
unitaria Q M
n
(C) tal que A = QBQ

.
2. Dos matrices A, B M
n
(R) son ortogonalmente equivalentes si existe una matriz ortogonal Q M
n
(R)
tal que A = QBQ
t
.
Ejercicio 2.4.11. Probar que la relacion ser unitariamente equivalentes es de equivalencia en M
n
(C) y
que ser ortogonalmente equivalentes lo es en M
n
(R).
Teorema 2.4.12. 1. Una matriz A M
n
(C) es normal si y solo si A es unitariamente equivalente a
una matriz diagonal.
2. Una matriz A M
n
(R) es simetrica si y solo si A es ortogonalmente equivalente a una matriz diagonal.
Dem.
1. (): Consideremos L
A
: C
n
C
n
. Como A es normal, entonces L
A
es normal, luego existe una base
ortonormal B de C
n
tal que [L
A
]
B
= D, siendo D una matriz diagonal.
Sea ( la base canonica de C
n
y Q =
(
[Id]
B
. Es
A = [L
A
]
(
=
(
[Id]
B
[L
A
]
B B
[Id]
(
= QDQ
1
.
Como C y B son bases ortonormales de C
n
y Q =
(
[Id]
B
, entonces Q es unitaria y A = QDQ

.
34
(): Sean Q y D en M
n
(C), con Q unitaria y D diagonal tales que A = QDQ

. Observar que
A

= (QDQ

= Q

= QDQ

, luego
AA

= (QDQ

)
_
QDQ

_
= QDDQ

y A

A =
_
QDQ

_
(QDQ

) = QDDQ

.
Como DD = DD, es AA

= A

A.
2. (): Es la misma idea que en 1. Como A es simetrica, L
A
/(R
n
) es autoadjunta y luego diagonali-
zable en una base ortonormal. El resto sigue igual.
(): Sea A = QDQ
t
, con Q ortogonal y D diagonal. Es A
t
=
_
QDQ
t
_
t
= Q
tt
D
t
Q
t
= QDQ
t
= A,
luego A
t
= A.
Ejemplo 2.4.13. Sea A =
_
_
4 2 2
2 4 2
2 2 4
_
_
. Como A es una matriz simetrica real, sabemos que es ortogonal-
mente equivalente a una matriz diagonal. Vamos a hallar una matriz ortogonal Q y una matriz diagonal D
tales que A = QDQ
t
.
Es un ejercicio el vericar que

A
(t) = (t 2)
2
(t 8) y que los subespacios propios son
E
2
= [(1, 1, 0), (1, 0, 1)], E
8
= [(1, 1, 1)].
Aplicando Gram-Schmidt a la base (1, 1, 0), (1, 0, 1) de E
2
obtenemos
E
2
= [(1/2, 1, 1/2), (1, 0, 1)] = [(1, 2, 1), (1, 0, 1)] .
Luego (1, 2, 1), (1, 0, 1), (1, 1, 1) es una base ortogonal de R
3
, normalizando obtenemos
__

6
,
2

6
,
1

6
_
,
_

2
, 0,
1

2
_
,
_
1

3
,
1

3
,
1

3
__
que es una base ortonormal de R
3
formada por vectores propios de A.
Entonces si D =
_
_
2 0 0
0 2 0
0 0 8
_
_
y Q =
_
_
_

6

1

2
1

3
2

6
0
1

6
1

2
1

3
_
_
_, es A = QDQ
t
; es decir
_
_
4 2 2
2 4 2
2 2 4
_
_
=
_
_
_

6

1

2
1

3
2

6
0
1

6
1

2
1

3
_
_
_
_
_
2 0 0
0 2 0
0 0 8
_
_
_
_
_

6
2

6

1

2
0
1

2
1

3
1

3
1

3
_
_
_.
35
Captulo 3
Formas bilineales simetricas
3.1. Formas multilineales
Sea k un cuerpo arbitrario, V un k-espacio vectorial y n un entero positivo. Una n-forma multilineal en
V es una funcion : V V
. .
n
k que verica:
(v
1
, . . . , a v
i
+w
i
, . . . , v
n
) = a (v
1
, . . . , v
i
, . . . , v
n
) +(v
1
, . . . , w
i
, . . . , v
n
)
para todo a k, v
1
, . . . , v
n
, w
i
V y todo i = 1, . . . , n.
Observar que una forma multilineal es una funcion que es lineal en cada variable, en particular una
1-forma multilineal es simplemente un elemento del espacio dual V

.
Es un ejercicio el vericar que el conjunto de las n-formas multilineales es un subespacio del espacio de
las funciones con dominio V V y codominio k, en el cual las operaciones se denen punto a punto:
(f +g)(v
1
, . . . , v
n
) = f(v
1
, . . . , v
n
) +g(v
1
, . . . , v
n
), (a f)(v
1
, . . . , v
n
) = a f(v
1
, . . . , v
n
).
Luego el conjunto de las n-formas multilineales es un espacio vectorial.
3.2. Formas bilineales
Una forma bilineal es una 2-forma multilineal, es decir una funcion : V V k que verica
(a u +v, w) = a (u, w) +(v, w),
(w, a u +v) = a (w, u) +(w, v),
para todo a k, u, v, w V . Denotaremos por Bil(V ) al espacio vectorial de las formas bilineales en V .
Ejemplos de formas bilineales son los siguientes:
Ejemplo 3.2.1. Un producto interno real , : V V R.
Ejemplo 3.2.2. La funcion : k
2
k
2
k denida por
_
(x, y) , (x
t
, y
t
)
_
= 2 xx
t
+ 3 xy
t
+ 4 y x
t
y y
t
.
36
Ejemplo 3.2.3. Este ejemplo generaliza el anterior. Si A M
n
(k), denimos
A
: k
n
k
n
k por

A
(x, y) = x
t
Ay, siendo
x =
_
_
_
x
1
.
.
.
x
n
_
_
_, y =
_
_
_
y
1
.
.
.
y
n
_
_
_, A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn
_
_
_.
Explcitamente

A
_
(x
1
, , x
n
), (y
1
, , y
n
)
_
=
n

i,j=1
a
ij
x
i
y
j
, (3.1)
para todo (x
1
, , x
n
), (y
1
, , y
n
) k
n
.
Proposicion 3.2.4. Sean : V V k una forma bilineal, W un espacio vectorial y T, S : W V dos
transformaciones lineales. Si denimos
t
: W W k mediante

t
(w
1
, w
2
) = (T(w
1
), S(w
2
)), w
1
, w
2
W,
Entonces
t
es una forma bilineal en W.
Dem.

t
(w
1
+a w
t
1
, w
2
) = (T(w
1
+a w
t
1
), S(w
2
)) = (T(w
1
) +a T(w
t
1
), S(w
2
))
= (T(w
1
), S(w
2
)) +a (T(w
t
1
), S(w
2
)) =
t
(w
1
, w
2
) +a
t
(w
t
1
, w
2
).
Esto prueba que
t
es lineal en la primer variable y analogamente se prueba que es lineal en la segunda
variable.
Denicion 3.2.5. Si V tiene dimension nita n, B = v
1
, . . . , v
n
es una base de V y Bil(V ), denimos
M
B
() la matriz asociada a la forma bilineal en la base B mediante
M
B
() := ((v
i
, v
j
))
i,j
=
_
_
_
(v
1
, v
1
) (v
1
, v
n
)
.
.
.
.
.
.
(v
n
, v
1
) (v
n
, v
n
)
_
_
_ M
n
(k).
Ejemplo 3.2.6. En el Ejemplo 3.2.2, si B = (1, 0), (0, 1), es M
B
() =
_
2 3
4 1
_
.
Proposicion 3.2.7. Sea V un espacio de dimension nita n y B = v
1
, . . . , v
n
una base de V . Entonces
(u, v) = coord
B
(u)
t
M
B
() coord
B
(v), u, v V. (3.2)
Dem. Sean u =

n
i=1
x
i
v
i
y v =

n
j=1
y
j
v
j
. Entonces por la bilinealidad de es
(u, v) =
_
_
n

i=1
x
i
v
i
,
n

j=1
y
j
v
j
_
_
=
n

i,j=1
x
i
y
j
(v
i
, v
j
) .
Por otro lado teniendo en cuenta (3.1) es
coord
B
(u)
t
M
B
() coord
B
(u) = (x
1
, . . . , x
n
)
t
M
B
() (y
1
, . . . , y
n
) =
M
B
()
_
(x
1
, . . . , x
n
) , (y
1
, . . . , y
n
)
_
=
n

i,j=1
(v
i
, v
j
) x
i
y
j
.
37
Observacion 3.2.8. Notar que (3.2) implica que si A = M
B
(), entonces
(u, v) =
A
_
coord
B
(u), coord
B
(v)
_
, u, v V. (3.3)
Teorema 3.2.9. Sea V un espacio de dimension nita n y B = v
1
, . . . , v
n
una base de V . La funci on
M
B
: Bil(V ) M
n
(k) que a cada forma bilineal le asocia la matriz M
B
() es un isomorsmo.
Dem. Sean ,
t
Bil(V ) y a k. Es
M
B
_
a +
t
_
=
__
a +
t
_
(v
i
, v
j
)
_
i,j
=
_
a (v
i
, v
j
) +
t
(v
i
, v
j
)
_
i,j
= a ((v
i
, v
j
))
i,j
+
_

t
(v
i
, v
j
)
_
i,j
= a M
B
() +M
B
_

t
_
.
Luego M
B
es lineal.
Si Bil(V ) es tal que M
B
() = 0, entonces la formula (3.2) implica = 0. Luego Ker M
B
= 0 y
por lo tanto M
B
es inyectiva.
Si A = (a
ij
)
i,j
M
n
(k), denimos : V V k mediante (3.3). La proposicion 3.2.4 nos prueba que
Bil(V ) y operando obtenemos
(v
i
, v
j
) =
A
(e
i
, e
j
) = a
ij
, i, j = 1, . . . , n M
B
() = A.
Luego M
B
es sobreyectiva.
Corolario 3.2.10. Si V es un espacio de dimension nita n, entonces la dimension de Bil(V ) es n
2
.
Corolario 3.2.11. Si V es un espacio de dimension nita n, B es una base de V y Bil(V ), entonces
una matriz A M
n
(k) verica
(u, v) = coord
B
(u)
t
Acoord
B
(v), u, v V.
si y solo si A = M
B
().
Corolario 3.2.12. Si Bil (k
n
) entonces existe una unica matriz A M
n
(k) tal que =
A
.
Dem. Sea B la base canonica de k
n
y A = M
B
(), entonces aplicando (3.2) obtenemos
(u, v) = coord
B
(u)
t
M
B
() coord
B
(v) = u
t
Av =
A
(u, v), u, v V.
Ejemplo 3.2.13. Si consideramos la forma bilineal : k
2
k
2
k denida en el ejemplo 3.2.2, es

_
(x, y) ,
_
x
t
, y
t
__
= 2 xx
t
+ 3 xy
t
+ 4 y x
t
y y
t
= (x, y)
_
2 3
4 1
__
x
t
y
t
_
, (x, y), (x
t
, y
t
) k
2
.
De ahora en adelante supondremos que V es un k-espacio vectorial de dimension nita n.
Proposicion 3.2.14. Sean B y ( dos bases de V y Bil(V ). Entonces
M
(
() =
_
B
[id ]
(
_
t
M
B
()
B
[id ]
(
.
Dem. Sean u, v V ,
(u, v) =
_
coord
B
(u)
_
t
M
B
() coord
B
(v) =
_
B
[id ]
(
coord
(
(u)
_
t
M
B
()
_
B
[id ]
(
coord
(
(v)
_
=
_
coord
(
(u)
_
t
_
B
[id ]
(
_
t
M
B
()
B
[id ]
(
coord
(
(v).
Luego el Corolario 3.2.11 implica M
(
() =
_
B
[id ]
(
_
t
M
B
()
B
[id ]
(
.
38
Denicion 3.2.15. Dos matrices A y B en M
n
(k) se dicen congruentes si existe una matriz invertible Q
en M
n
(k) tal que A = Q
t
BQ.
Ejercicio 3.2.16. Probar que la congruencia es una relacion de equivalencia en M
n
(k).
Teorema 3.2.17. Sea Bil(V ) y B una base de V . Si A M
n
(k) es congruente con M
B
(), entonces
existe ( base de V tal que M
(
() = A.
Dem. Sea Q = (q
ij
) M
n
(k) invertible tal que A = Q
t
M
B
() Q. Si B = v
1
, . . . , v
n
, denimos
( = w
1
, . . . , w
n
mediante
w
j
=
n

i=1
q
ij
v
i
, j = 1, . . . , n.
Como Q es invertible, resulta que ( es una base de V y
B
[id ]
(
= Q. Luego
A = Q
t
M
B
() Q = (
B
[id ]
(
)
t
M
B
()
B
[id ]
(
= M
(
().
Corolario 3.2.18. Dos matrices son congruentes si y solo si representan a una misma forma bilineal.
Dem. Sean A y A
t
en M
n
(k) dos matrices congruentes. Si consideramos la forma bilineal
A
Bil (k
n
)
y B es la base canonica de k
n
es A
t
= M
B
(
A
). Luego A es congruente con M
B
(
A
) y el teorema anterior
implica que A = M
(
(
A
) para alguna base ( de k
n
. El recproco es la Proposicion 3.2.14.
3.3. Formas bilineales simetricas
Sea k un cuerpo arbitrario, decimos que el cuerpo tiene caracterstica 2 y escribimos car k = 2 si en k se
verica 1 + 1 = 0. Un ejemplo es el conjunto F
2
formado por dos elementos que llamamos 0 y 1, en el cual
denimos una suma y un producto mediante:
0 + 0 = 0, 1 + 1 = 0, 0 + 1 = 1, 1 + 0 = 1,
0 0 = 0, 0 1 = 0, 1 0 = 0, 1 1 = 1.
Es un ejercicio el vericar que F
2
con estas operaciones es un cuerpo y claramente car F
2
= 2. Otro ejemplo es
el cuerpo de expresiones racionales con coecientes en F
2
, es decir los cocientes de polinomios con coecientes
en F
2
.
Ejemplos de cuerpos con caracterstica distinta de 2 son Q, R y C. En un cuerpo k con car k ,= 2 es
2 := 1 + 1 ,= 0 y luego 2 es invertible en k.
En este seccion V sera siempre un k-espacio vectorial de dimension nita y car k ,= 2.
Denicion 3.3.1. Una forma bilineal se dice simetrica si
(u, v) = (v, u), u, v V.
Es un ejercicio el vericar que Bil
S
(V ) := Bil(V ) : es simetrica es un subespacio de Bil(V ).
Proposicion 3.3.2. Sea Bil(V ). Son equivalentes:
1. Bil
S
(V ).
2. Para toda base B de V es M
B
() simetrica.
3. Existe una base B de V tal que M
B
() es simetrica.
Dem. 1 2: Sea B = v
1
, . . . , v
n
una base de V y M
B
() = (a
ij
), entonces
a
ij
= (v
i
, v
j
) = (v
j
, v
i
) = a
ji
, i, j = 1, . . . , n
luego M
B
() = (a
ij
) es simetrica.
39
2 3: Esto es obvio.
3 1: Sea B = v
1
, . . . , v
n
una base de V tal que M
B
() es simetrica, esto ultimo equivale a (v
i
, v
j
) =
(v
j
, v
i
), i, j = 1, . . . , n. Sean u, v V , entonces existen escalares a
i
, b
i
k, i = 1, . . . , n tales que
u =

n
i=1
a
i
v
i
y v =

n
i=1
b
i
v
i
. Luego
(u, v) =
_
_
n

i=1
a
i
v
i
,
n

j=1
b
j
v
j
_
_
=
n

i=1
a
i
n

j=1
b
j
(v
i
, v
j
) =
n

i=1
a
i
n

j=1
b
j
(v
j
, v
i
)
=
_
_
n

j=1
b
j
v
j
,
n

i=1
a
i
v
i
_
_
= (v, u).
Como u y v son arbitrarios, se deduce que Bil
S
(V ).
Corolario 3.3.3. Si dim(V ) = n, entonces dimBil
S
(V ) =
n(n+1)
2
.
Denicion 3.3.4. Sea Bil
S
(V ). La funcion : V k denida por (v) = (v, v), v V se llama la
forma cuadratica asociada a .
Proposicion 3.3.5. Las formas cuadraticas en V forman un subespacio de las funciones de V en k.
Dem. Es claro que la funcion nula es una forma cuadratica (correspondiente a la forma bilineal nula). Si
y son dos formas cuadraticas y a k, entonces existen y en Bil
S
(V ) tales que (v) = (v, v) y (v) =
(v, v), v V, luego
(a + ) (v) = a (v) + (v) = a (v, v) +(v, v) = (a +) (v, v), v V y a + Bil
S
(V ).
Esto prueba que a + es una forma cuadratica.
Proposicion 3.3.6. Sea Bil
S
(V ) y : V k la forma cuadratica asociada a . Entonces:
1. (a v) = a
2
(v), a k, v V .
2. (0) = 0.
3. (u +v) = (u) + 2 (u, v) + (v), u, v V .
Dem.
1. (a v) = (a v, a v) = a
2
(v, v) = a
2
(v).
2. Se deduce de la formula anterior tomando a = 0.
3. (u +v) = (u +v, u +v) = (u, u) +(u, v) +(v, u) +(v, v) = (u) + 2 (u, v) + (v).
Observacion 3.3.7. Despejando
1
(u, v) en la tercer igualdad de la proposicion anterior obtenemos la
formula de polarizacion
(u, v) =
1
2
_
(u +v) (u) (v)
_
, u, v V.
Notar que esta formula permite escribir una forma bilineal simetrica en funcion de su forma cuadratica
asociada.
1
Para poder hacer este despeje es necesaria la condici on car k = 2.
40
Denicion 3.3.8. Un polinomio en las indeterminadas x
1
,. . .,x
n
se dice que es homogeneo de grado 2 si es
de la forma

1ijn
a
ij
x
i
x
j
.
Observar que estos polinomios forman un subespacio de k[x
1
, . . . , x
n
].
Ejemplo 3.3.9. Si n = 2, un polinomio homogeneo de grado 2 en las indeterminadas x, y es un polinomio
de la forma
ax
2
+bxy +cy
2
, a, b, c k.
Si n = 3, un polinomio homogeneo de grado 2 en las indeterminadas x, y, z es un polinomio de la forma
ax
2
+by
2
+cz
2
+dxy +exz +fyz, a, b, . . . , f k.
Proposicion 3.3.10. Los siguientes espacios vectoriales son isomorfos.
1. El espacio de las matrices simetricas n n con coecientes en k.
2. El espacio de las formas bilineales simetricas en k
n
.
3. El espacio de las formas cuadraticas en k
n
.
4. El espacio de los polinomios homogeneos de grado 2 en las indeterminadas x
1
, . . . , x
n
con coecientes
en k.
Dem. Nosotros habamos visto anteriormente que la correspondencia que a una matriz A le hace co-
rresponder la forma bilineal denida por (u, v) = u
t
Av establece un isomorsmo entre las matrices
n n con coecientes en k y las formas bilineales en k
n
. La Proposicion 3.3.2 nos dice que este isomorsmo
restringido a las matrices simetricas n n nos da un isomorsmo entre las matrices simetricas y las formas
bilineales simetricas.
El isomorsmo entre formas bilineales simetricas y formas cuadraticas viene dado por las formulas
siguientes:
(v) = (v, v), (u, v) =
1
2
_
(u +v) (u) (v)
_
. (3.4)
Si A = (a
ij
) M
n
(k) es una matriz simetrica, le asociamos el polinomio p en las indeterminadas
x
1
, . . . , x
n
denido por
p =

ij
b
ij
x
i
x
j
, b
ij
=
_
a
ii
si i = j,
2 a
ij
si i < j.
Es claro que que p es un polinomio homogeneo de grado 2 en las indeterminadas x
1
, . . . , x
n
y que esta
correspondencia es un isomorsmo entre las matrices simetricas y los polinomios homogeneos de grado
dos.
Ejemplo 3.3.11. Si A =
_
a b
b c
_
, entonces la forma bilineal simetrica, la forma cuadratica y el polinomio
homogeneo que corresponden a A son:

_
(x, y),
_
x
t
, y
t
__
= (x, y)
_
a b
b c
_

_
x
t
y
t
_
= a xx
t
+b xy
t
+b x
t
y +c y y
t
,
(x, y) = ((x, y), (x, y)) = a x
2
+ 2 b xy +c y
2
,
p = a x
2
+ 2 b xy +c y
2
.
Observar que la unica diferencia ente y p es que es una funcion de k k en k, mientras que p es un
polinomio en dos variables.
41
De ahora en adelante V es un k-espacio vectorial de dimension nita, Bil
S
(V ) y : V k es la
forma cuadratica asociada a .
Denicion 3.3.12. Dos vectores u y v en V son -ortogonales si (u, v) = 0. Dos subespacios U y W de
V son -ortogonales si (u, w) = 0 para todo u U y w W. Una base B = v
1
, . . . , v
n
de V se dice
-ortogonal si (v
i
, v
j
) = 0 si i ,= j y se dice -ortonormal si ademas (v
i
) 1, 0, 1, i = 1, . . . , n.
Observacion 3.3.13. 1. Sea B una base de V . Notar que es equivalente que B sea una base -ortogonal
de V con que la matriz M
B
() sea diagonal y que B sea una base -ortonormal de V con que la matriz
M
B
() sea diagonal y sus entradas diagonales sean 0, 1 o 1.
2. Si B = v
1
, . . . , v
n
es una base -ortogonal de V , es
M
B
() =
_
_
_
_
_
(v
1
) 0 0
0 (v
2
) 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 (v
n
)
_
_
_
_
_
.
Luego si u =

n
i=1
x
i
v
i
y v =

n
i=1
y
i
v
i
son dos vectores de V , es
(u, v) =
n

i=1
(v
i
) x
i
y
i
, (u) =
n

i=1
(v
i
) x
2
i
. (3.5)
Ejemplo 3.3.14. Consideremos la forma cuadratica : R
3
R denida por (x, y, z) = x
2
y
2
y sea
Bil
S
_
R
3
_
la forma bilineal correspondiente. Si B es la base canonica de R
3
, es
M
B
() =
_
_
1 0 0
0 1 0
0 0 0
_
_
.
Luego B es una base -ortonormal.
Ejemplo 3.3.15. Sea Bil
S
_
Q
2
_
tal que (x, y) = 2x
2
. Entonces la base canonica e
1
, e
2
es -ortogonal.
Observar que no existe ning un vector v de Q
2
tal que (v) = 1, luego no existe ninguna base -ortonormal
de Q
2
.
Denicion 3.3.16. Si W es un subespacio de V , la restricci on de a W es la funcion [
WW
: WW k.
Claramente [
WW
Bil
S
(W).
De las formulas (3.4) se deduce inmediatamente el siguiente:
Lema 3.3.17. Una forma bilineal simetrica es nula si y solo si su forma cuadratica asociada es nula.
Teorema 3.3.18. Existe una base -ortogonal de V .
Dem. Lo probaremos por induccion en n = dimV .
Si n = 1, toda base B = v de V es -ortogonal. Supongamos ahora que vale la tesis si la dimension
del espacio es n 1 y sea Bil
S
(V ) con dimV = n. Si = 0, entonces toda base de V es -ortogonal.
Supongamos ahora que ,= 0. Por el lema anterior es ,= 0, luego existe u V tal que (u) ,= 0.
Denimos V

mediante (v) = (v, u), v V . Observar que (u) = (u, u) = (u) ,= 0, luego
,= 0 y entonces dimKer = n 1. Aplicando la hipotesis de induccion a restringida a Ker tenemos
que existe v
1
, . . . , v
n1
base de Ker tal que (v
i
, v
j
) = 0 si i ,= j.
42
Como u , Ker = [v
1
, . . . , v
n1
], entonces el conjunto B = v
1
, . . . , v
n1
, u es LI y al tener n elementos
es base de V . Como v
1
, . . . , v
n1
Ker resulta que v
1
, . . . , v
n1
son -ortogonales con u y luego B es
una base -ortogonal de V .
Denicion 3.3.19. Llamamos radical o n ucleo de a
V
0
:= v V : (v, u) = 0, u V = v V : (u, v) = 0, u V .
Ejercicio 3.3.20. Probar que V
0
es un subespacio de V .
Denicion 3.3.21. Decimos que es no degenerada si V
0
= 0, es decir si
(u, v) = 0, v V u = 0.
Si W es un subespacio de V , decimos que es no degenerada en W si la restriccion de a W es no
degenerada.
Ejemplo 3.3.22. Consideremos la matriz identidad I M
n
(k) y
I
Bil
S
(k
n
),
I
(u, v) = u
t
I v = u
t
v,
u, v k
n
. Explcitamente

I
((x
1
, . . . , x
n
), (y
1
, . . . , y
n
)) = x
1
y
1
+ +x
n
y
n
.
Sea v = (v
1
, . . . , v
n
) k
n
,
v V
0
u
t
v = 0, u V e
t
i
v = 0, i = 1, . . . , n v
i
= 0, i = 1, . . . , n v = 0,
luego
I
es no degenerada.
Proposicion 3.3.23. Si A M
n
(k) simetrica y consideramos
A
Bil
S
(k
n
), entonces el radical de
A
es
el n ucleo de L
A
.
Dem. v V
0
u
t
Av = 0, u V
I
(u, Av) = 0, u V Av = 0 v Ker(L
A
).
Teorema 3.3.24. Si Bil
S
(V ), entonces existe un subespacio W de V tal que V = V
0
W y es no
degenerada en W.
Dem. Sea B = v
1
, . . . , v
n
una base -ortogonal de V y supongamos que ordenamos B de forma tal
que
(v
i
) ,= 0, i = 1, . . . , r,
(v
i
) = 0, i = r + 1, . . . , n.
Probaremos que V
0
= [v
r+1
, . . . , v
n
] y que si denimos W = [v
1
, . . . , v
r
], entonces V = V
0
W y es no
degenerada en W.
Sean u =

n
i=1
x
i
v
i
y v =

n
j=1
y
i
v
i
, aplicando (3.5) obtenemos
(u, v) =
r

i=l
(v
i
) x
i
y
i
. (3.6)
Si u V
0
, tomando v = v
j
, j = 1, . . . , r en (3.6), deducimos x
j
= 0, para todo j = 1, . . . , r, luego
u [v
r+1
, . . . , v
n
]. Recprocamente, si u [v
r+1
, . . . , v
n
] es x
j
= 0, para todo j = 1, . . . , r y de (3.6) se
deduce (u, v) = 0 para todo v V , es decir u V
0
. Esto completa la prueba de V
0
= [v
r+1
, . . . , v
n
].
43
Como V
0
= [v
r+1
, . . . , v
n
], resulta
V = [v
1
, . . . , v
r
] [v
r+1
, . . . , v
n
] = W V
0
= V
0
W.
Supongamos ahora que u, v W, esto equivale a x
i
= y
i
= 0, para todo i = r + 1, . . . , n. Si (u, v) = 0
para todo v W, entonces tomando v = v
j
, j = 1, . . . , r en (3.6), deducimos x
j
= 0, para todo j = 1, . . . , r,
luego u = 0. Esto prueba que es no degenerada en W.
Observacion 3.3.25. El espacio W en la descomposicion anterior no es unico. Por ejemplo, si Bil
S
_
R
2
_
esta denida mediante ((x, y), (x
t
, y
t
)) = xx
t
, entonces el radical de es el eje Oy y podemos tomar como
W a cualquier recta por el origen distinta de Oy.
Denicion 3.3.26. Llamamos rango de al rango de M
B
(), siendo B una base cualquiera de V . Esta
denicion tiene sentido porque dos matrices congruentes siempre tienen el mismo rango.
Proposicion 3.3.27. La forma bilineal es no degenerada si y solo si rango() = n, siendo n = dimV .
Dem. Sea B = v
1
, . . . , v
n
una base -ortogonal de V y supongamos que ordenamos B de forma tal
que
(v
i
) ,= 0, i = 1, . . . r,
(v
i
) = 0, i = r + 1, . . . , n.
En el teorema anterior probamos que V
0
= [v
r+1
, . . . , v
n
], luego es no degenerada si y solo si r = n.
Por otro lado es
M
B
() =
_
_
_
_
_
_
_
_
_
_
(v
1
)
.
.
.
(v
r
)
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
,
luego rango() = rango (M
B
()) = r. Esto implica que rango() = n si y solo si r = n.
3.4. Matrices elementales
En esta seccion k es un cuerpo cualquiera.
Denicion 3.4.1. Sea A M
n
(k). Se llaman operaciones elementales en las las o columnas de A a las
siguientes:
1. Operacion de tipo I. Intercambiar dos las o columnas de A.
2. Operacion de tipo II. Multiplicar una la o columna de A por una constante no nula.
3. Operacion de tipo III. Sumarle a una la o columna un m ultiplo de otra la o columna, respectivamente.
Denicion 3.4.2. Se llaman matrices elementales de tipo I, II o III a las matrices que se obtienen aplicando
las operaciones elementales correspondientes a la matriz identidad.
Es decir que las matrices elementales son las siguientes:
44
Matrices de tipo I:
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
0 1
.
.
.
.
.
.
.
.
.
1 0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Matrices de tipo II:
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
p
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
, p ,= 0.
Matrices de tipo III:
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1 q
.
.
.
.
.
.
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
o
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
.
.
.
.
.
.
q 1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
_
, q k.
Observacion 3.4.3. Observar que la traspuesta de una matriz elemental, es una matriz elemental del
mismo tipo.
Ejercicio 3.4.4. 1. Probar que las matrices elementales son invertibles y hallar sus inversas.
2. Probar que realizar una operacion elemental de tipo I, II o III en las columnas (las) de una matriz
A, equivale a multiplicar a A por la derecha (izquierda) con una matriz elemental del mismo tipo.
3. Probar que si realizar una operacion elemental en las columnas de A corresponde a multiplicar por la
derecha a A con una cierta matriz elemental E, entonces realizar la misma operacion elemental en las
las de A corresponde a multiplicar por la izquierda a A con E
t
.
Ejemplo 3.4.5. Sea A =
_
_
_
_
1 2 3 4
5 6 7 8
9 1 2 3
4 5 6 7
_
_
_
_
y E =
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
que se obtiene intercambiando las columnas
45
2 y 3 en la matriz identidad (matriz de tipo I). Observar que tenemos
A E =
_
_
_
_
1 2 3 4
5 6 7 8
9 1 2 3
4 5 6 7
_
_
_
_

_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
=
_
_
_
_
1 3 2 4
5 7 6 8
9 2 1 3
4 6 5 7
_
_
_
_
,
E A =
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_

_
_
_
_
1 2 3 4
5 6 7 8
9 1 2 3
4 5 6 7
_
_
_
_
=
_
_
_
_
1 2 3 4
9 1 2 3
5 6 7 8
4 5 6 7
_
_
_
_
.
Es decir que multiplicar a la matriz A por la derecha con la matriz E equivale a intercambiar las columnas
2 y 3 de A, mientras que multiplicar a la matriz A por la izquierda con la matriz E equivale a intercambiar
las las 2 y 3 de A.
Aplicacion 3.4.1. Calculo del rango de una matriz.
Sea A M
n
(k). Multiplicar a A (a izquierda o derecha) por una matriz invertible, es una operacion que
no afecta su rango. Como las matrices elementales son invertibles, deducimos que multiplicar por ellas deja
invariante el rango de A. Por otro lado multiplicar por matrices elementales equivale a realizar operaciones
elementales en sus las o columnas. De lo anterior se deduce que realizar operaciones elementales en las
las o columnas de A no afecta al rango de A. Esto nos da un metodo muy simple para hallar el rango de
una matriz, simplemente realizamos operaciones elementales en sus las y columnas hasta transformarla en
una matriz a la cual sea simple calcular su rango. De hecho mediante este metodo se puede transformar
cualquier matriz en una matriz diagonal que en la diagonal principal tenga entradas que son solo 0 y 1, en
este caso el rango es la cantidad de unos que aparecen en la diagonal principal.
Ejemplo 3.4.6. Sea Bil
S
(R
3
) tal que su forma cuadratica asociada es
(x, y, z) = 7x
2
2y
2
+ 7z
2
+ 8xy + 2xz 4yz, (x, y, z) R
3
.
Luego si ( es la base canonica de R
3
, es
M
(
() =
_
_
7 4 1
4 2 2
1 2 7
_
_
.
Para calcular el rango de , observar que si primero le sumamos a la primer columna la segunda multiplicada
por 2 y luego a la tercer la le sumamos la primera multiplicada por 3, tenemos:
_
_
7 4 1
4 2 2
1 2 7
_
_

_
_
1 4 1
0 2 2
3 2 7
_
_

_
_
1 4 1
0 2 2
0 10 10
_
_
.
Luego el rango de coincide con el rango de la ultima matriz que claramente es 2. En particular esto nos
dice que degenera.
Aplicacion 3.4.2. Diagonalizacion de una forma bilineal simetrica.
La operacion que nos interesa consiste en transformar una matriz simetrica A en una de la forma Q
t
AQ,
siendo Q una matriz invertible. Observar que si Q es una matriz elemental de tipo I, II o III, entonces Q
t
AQ
46
es la matriz que se obtiene realizando la operacion elemental correspondiente en las las y columnas de A.
Por ejemplo sean
A =
_
_
_
_
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 0
_
_
_
_
, E
1
=
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
, E
2
=
_
_
_
_
1 0 0 2
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
Luego
E
t
1
AE
1
=
_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_

_
_
_
_
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 0
_
_
_
_

_
_
_
_
1 0 0 0
0 0 1 0
0 1 0 0
0 0 0 1
_
_
_
_
=
_
_
_
_
1 3 2 4
3 8 6 9
2 6 5 7
4 9 7 0
_
_
_
_
,
E
t
2
AE
2
=
_
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
2 0 0 1
_
_
_
_

_
_
_
_
1 2 3 4
2 5 6 7
3 6 8 9
4 7 9 0
_
_
_
_

_
_
_
_
1 0 0 2
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
=
_
_
_
_
1 2 3 6
2 5 6 11
3 6 8 15
6 11 15 20
_
_
_
_
.
Nuestro objetivo es obtener una forma diagonal para la matriz asociada a la forma bilineal simetrica
Bil
S
(V ), lo cual equivale a hallar una base -ortogonal de V .
Mostraremos el metodo mediante un ejemplo. Consideremos Bil
S
(R
3
) denida en el Ejemplo 3.4.6.
Primero sumamos a la tercer columna de A = M
(
() la segunda multiplicada por 1 y luego sumamos a la
tercer la la segunda multiplicada por 1.
_
_
7 4 1
4 2 2
1 2 7
_
_

_
_
7 4 3
4 2 0
1 2 9
_
_

_
_
7 4 3
4 2 0
3 0 9
_
_
. (3.7)
Ahora le sumamos a la primer columna la segunda multiplicada por 2 y luego sumamos a la primer la la
segunda multiplicada por 2.
_
_
7 4 3
4 2 0
3 0 9
_
_

_
_
1 4 3
0 2 0
3 0 9
_
_

_
_
1 0 3
0 2 0
3 0 9
_
_
. (3.8)
Finalmente le sumamos a la tercer columna la primera multiplicada por 3 y luego sumamos a la tercer la
la primera multiplicada por 3.
_
_
1 0 3
0 2 0
3 0 9
_
_

_
_
1 0 0
0 2 0
3 0 0
_
_

_
_
1 0 0
0 2 0
0 0 0
_
_
= D. (3.9)
Observar que la matriz obtenida en (3.7) corresponde a calcular E
t
1
AE
1
siendo
E
1
=
_
_
1 0 0
0 1 1
0 0 1
_
_
.
La matriz obtenida en (3.8) corresponde a calcular E
t
2
E
t
1
AE
1
E
2
, siendo
E
2
=
_
_
1 0 0
2 1 0
0 0 1
_
_
.
47
Finalmente la matriz obtenida en (3.9) corresponde a calcular E
t
3
E
t
2
E
t
1
AE
1
E
2
E
3
, siendo
E
3
=
_
_
1 0 3
0 1 0
0 0 1
_
_
.
Luego es D = Q
t
AQ, siendo
Q = E
1
E
2
E
3
=
_
_
1 0 3
2 1 5
0 0 1
_
_
.
Esto nos dice que si
B = (1, 2, 0), (0, 1, 0), (3, 5, 1)
entonces M
B
() = D y B es una base -ortogonal de R
3
.
Un metodo para obtener la matriz Q es el siguiente, escribimos a la izquierda la matriz A y a la
derecha la matriz identidad I, luego realizamos operaciones elementales en A y cada vez que hacemos una
operacion elemental en las colummnas de A, tambien la hacemos en las columnas de I, pero cuando hacemos
operaciones elementales en las las de A no hacemos nada en la matriz I. Al nalizar el algoritmo, cuando
en la izquierda obtenemos la matriz diagonal D, en la derecha esta la matriz de congruencia Q. Veamos esto
en el ejemplo anterior:
_
_
7 4 1
4 2 2
1 2 7

1 0 0
0 1 0
0 0 1
_
_

_
_
7 4 3
4 2 0
1 2 9

1 0 0
0 1 1
0 0 1
_
_

_
_
7 4 3
4 2 0
3 0 9

1 0 0
0 1 1
0 0 1
_
_

_
_
1 4 3
0 2 0
3 0 9

1 0 0
2 1 1
0 0 1
_
_

_
_
1 0 3
0 2 0
3 0 9

1 0 0
2 1 1
0 0 1
_
_

_
_
1 0 0
0 2 0
3 0 0

1 0 3
2 1 5
0 0 1
_
_

_
_
1 0 0
0 2 0
0 0 0

1 0 3
2 1 5
0 0 1
_
_
, luego D =
_
_
1 0 0
0 2 0
0 0 0
_
_
, Q =
_
_
1 0 3
2 1 5
0 0 1
_
_
.
3.5. Formas bilineales simetricas reales
En esta seccion el cuerpo de base k es R y V es un R-espacio vectorial de dimension nita.
Denicion 3.5.1. Sean Bil
S
(V ) y la forma cuadratica asociada a .
1. es denida positiva si (v) > 0, v ,= 0.
2. es denida negativa si (v) < 0, v ,= 0.
3. es denida si es denida positiva o es denida negativa.
4. es semidenida positiva si (v) 0, v V y existe 0 ,= v
0
V tal que (v
0
) = 0.
5. es semidenida negativa si (v) 0, v V y existe 0 ,= v
0
V tal que (v
0
) = 0.
48
6. es semidenida si es semidenida positiva o es semidenida negativa.
7. es no denida si existen v
1
y v
2
en V tales que (v
1
) > 0 y (v
2
) < 0.
8. es no degenerada si lo es , es decir si (u, v) = 0, v V u = 0.
Decimos que una forma bilineal simetrica verica una propiedad de las anteriores si la verica su forma
cuadratica asociada.
Observacion 3.5.2. Notar que una forma bilineal simetrica denida positiva es lo mismo que un producto
interno real.
Ejemplo 3.5.3. Consideremos las siguientes formas cuadraticas en R
3
.
1. (x, y, z) = x
2
+y
2
+z
2
, es denida positiva.
2. (x, y, z) = x
2
y
2
z
2
, es denida negativa.
3. (x, y, z) = x
2
+y
2
, es semidenida positiva.
4. (x, y, z) = x
2
y
2
, es semidenida negativa.
5. (x, y, z) = x
2
y
2
, es no denida y degenerada.
6. (x, y, z) = x
2
y
2
z
2
, es no denida y no degenerada.
Denicion 3.5.4. Sea Bil
S
(V ). Decimos que dos subespacios V
+
y V

forman una -descomposicion


de V si verican
1. es denida positiva en V
+
y es denida negativa en V

.
2. V
+
y V

son -ortogonales.
3. V = V
0
V
+
V

.
En el teorema 3.5.6 probaremos que siempre existe una -descomposicion de V .
Observacion 3.5.5. Sea Bil
S
(V ) y V = V
0
V
+
V

una -descomposicion de V , entonces:


1. Si V
0
,= 0, entonces es semidenida positiva en V
0
V
+
y es semidenida negativa en V
0
V

.
2. es denida positiva si y solo si V

= V
0
= 0.
3. es denida negativa si y solo si V
+
= V
0
= 0.
4. es semidenida positiva si y solo si V

= 0 y V
0
,= 0.
5. es semidenida negativa si y solo si V
+
= 0 y V
0
,= 0.
6. es no denida si y solo si V

,= 0 y V
+
,= 0.
7. es no degenerada si y solo si V
0
= 0.
En particular de las partes 4, 5 y 7 se deduce que si es semidenida entonces degenera.
El siguiente teorema rena el teorema 3.3.24 para el caso de k = R.
Teorema 3.5.6. Dada Bil
S
(V ), existe una -descomposicion de V .
49
Dem. Sea B = v
1
, . . . , v
n
una base -ortogonal de V . Podemos suponer B ordenada de forma tal que
(v
i
) = a
i
, i = 1, . . . , p
(v
i
) = a
i
, i = p + 1, . . . , r
(v
i
) = 0, i = r + 1, . . . , n.
siendo a
i
> 0, i = 1, . . . , r. Por la prueba del teorema 3.3.24 sabemos que V
0
= [v
r+1
, . . . , v
n
] y que es no
degenerada en [v
1
, . . . , v
r
]. Sean
V
+
= [v
1
, . . . , v
p
], V

= [v
p+1
, . . . , v
r
].
Es claro que V = V
0
V
+
V

. Ademas los vectores de B son -ortogonales dos a dos, luego V


+
y V

son
-ortogonales. Por otro lado observemos que si v =

n
i=1
x
i
v
i
V , con x
1
, . . . , x
n
R, entonces aplicando
(3.5) obtenemos
(v) =
n

i=1
(v
i
) x
2
i
=
p

i=1
a
i
x
2
i

r

i=p+1
a
i
x
2
i
.
Si w V
+
y w ,= 0, es w =

p
i=1
y
i
v
i
, con y
1
, . . . , y
p
R y alg un y
i
,= 0, luego (w) =

p
i=1
a
i
y
2
i
> 0. Esto
prueba que es denida positiva en V
+
. Analogamente se prueba que es denida negativa en V

.
Ejemplo 3.5.7. Sea Bil
S
(V ), V = R
2
, tal que (x, y) = x
2
y
2
, x, y R. Es facil de probar que el
rango de es 2, luego es no degenerada y V
0
= 0. Observar que las bases
( = (1, 0), (0, 1) y B = (2, 1), (1, 2) .
son -ortogonales. Esto da lugar a dos descomposiciones del tipo V = V
+
V

:
R
2
= [(1, 0)] [(0, 1)] y R
2
= [(2, 1), (1, 2)] .
Luego no hay unicidad respecto a los subespacios V
+
y V

.
Observacion 3.5.8. Si Bil
S
(V ) y B es una base -ortogonal de V como en la prueba del teorema
3.5.6, entonces la matriz asociada a es
M
B
() =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
1
.
.
.
a
p
a
p+1
.
.
.
a
r
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Notar que de la prueba del teorema se deduce que si V = V
0
V
+
V

es la -descomposicion correspondiente,
entonces la dimension de V
+
es la cantidad de entradas diagonales positivas de M
B
() y la dimension de V

es la cantidad de entradas diagonales negativas de M


B
().
El siguiente teorema muestra que la dimension de V
+
y de V

no depende de la eleccion de la -
descomposicion.
50
Teorema 3.5.9. Sea Bil
S
(V ). Consideremos V = V
0
V
+
V

y V = V
0
W
+
W

dos -
descomposiciones de V , es decir
1. V
+
y V

son -ortogonales, es denida positiva en V


+
y denida negativa en V

.
2. W
+
y W

son -ortogonales, es denida positiva en W


+
y denida negativa en W

.
Entonces dimV
+
= dimW
+
y dimV

= dimW

.
Dem. Sea v W

(V
+
V
0
). Como v V
+
V
0
, entonces existen unicos v
0
V
0
y v
+
V
+
tales que
v = v
+
+v
0
. Luego
(v) = (v
+
+v
0
) = (v
+
) + 2 (v
+
, v
0
) + (v
0
) = (v
+
) 0.
Por otro lado, como v W

, si fuese v ,= 0 sera (v) < 0 lo cual nos lleva a una contradiccion. Entonces
la unica posibilidad es v = 0 y resulta W

(V
+
V
0
) = 0. Como es
V
0
V
+
V

= V W

+ (V
+
V
0
) = W

(V
+
V
0
) ,
deducimos
dimV
0
+ dimV
+
+ dimV

dimW

+ dimV
+
+ dimV
0
.
Luego es dimV

dimW

. Razonando analogamente con V

(W
+
V
0
) deducimos que dimW

dimV

y resulta dimV

= dimW

. Finalmente tomando dimensiones en V = V


0
V
+
V

y V = V
0
W
+
W

deducimos que dimV


+
= dimW
+
.
Del teorema anterior y la observacion 3.5.8 se deduce inmediatamente el siguiente.
Corolario 3.5.10 (Ley de inercia de Sylvester). El n umero de entradas positivas, negativas y nulas de una
matriz diagonal asociada a una forma cuadratica no depende de la representaci on diagonal.
Denicion 3.5.11. Sean V = V
0
V
+
V

una -descomposicion de V . Llamamos ndice de a dimV


+
y signatura de a dimV
+
dimV

. Por el teorema anterior esta denicion no depende de V


+
y V

. La
signatura, el ndice y el rango son los invariantes de .
Observacion 3.5.12. Consideremos Bil
S
(V ) siendo dimV = n y B una base -ortogonal de V . Sean
s la signatura de , r el rango de , p el n umero de entradas positivas de M
B
(), q el n umero de entradas
negativas de M
B
() y t el n umero de entradas nulas de M
B
(). Entonces el ndice de es p y tenemos las
siguientes relaciones
s = p q, r = p +q
p =
1
2
(r +s), q =
1
2
(r s), t = n r.
En particular es 2p = r +s, luego los tres invariantes quedan determinados conociendo dos de ellos.
Teorema 3.5.13. Sea Bil
S
(V ), siendo V un espacio vectorial real con producto interno de dimension
nita. Entonces existe una base ortonormal B de V tal que M
B
() es diagonal.
Dem. Sea ( = w
1
, . . . , w
n
una base ortonormal cualquiera de V y A = M
(
(). La matriz A es simetrica
real, luego existen matrices D y Q = (q
ij
) en M
n
(R) tales que D es diagonal, Q es ortogonal y
D = Q
1
AQ = Q
t
AQ.
Sea B = v
1
, . . . , v
n
el conjunto denido por v
j
=

n
i=1
q
ij
w
i
, j = 1, . . . , n. Como la matriz Q es ortogonal
y la base ( es ortonormal, entonces el conjunto B es una base ortonormal de V y Q =
(
[id ]
B
. Luego
D = Q
t
AQ = (
(
[id ]
B
)
t
M
(
()
(
[id ]
B
= M
B
().
51
Corolario 3.5.14. Sea Bil
S
(V ), B una base de V y A = M
B
(). Entonces la cantidad de entradas
diagonales positivas, negativas y nulas de una representacion matricial diagonal cualquiera de coincide
respectivamente con la cantidad de valores propios positivos, negativos y nulos de A.
Dem. Por la Ley de Inercia de Sylvester, basta probar que se cumple el enunciado para alguna repre-
sentacion matricial diagonal de .
Sea , el unico producto interno de V que hace que B sea una base ortonormal de V . Aplicando el
teorema anterior sabemos que existe una base ortonormal

B de V tal que D = M

B
() es diagonal. Luego es
A = M
B
() = Q
t
M

B
() Q = Q
t
DQ, Q =

B
[id ]
B
.
Como B y

B son dos bases ortonormales, entonces Q =

B
[id ]
B
es una matriz ortogonal i.e. Q
t
= Q
1
. Luego
A = Q
1
DQ y resulta que A y D tienen los mismos valores propios. Por otro lado, como D es una matriz
diagonal, tenemos que los valores propios de D coinciden con sus entradas diagonales. Luego la cantidad de
entradas diagonales positivas, negativas y nulas de D es la cantidad de valores propios positivos, negativos
y nulos de D y estos coinciden con los de A.
52
Captulo 4
Polinomio minimal y forma de Jordan
En este tema V sera siempre un k-espacio vectorial no nulo de dimension nita.
4.1. Subespacios invariantes
Sea T /(V ). Recordemos que un subespacio W de V se dice T-invariante si verica T(W) W. En
esta situacion escribimos T[
W
: W W a la restriccion de T a W, es decir T[
W
(w) = T(w) para todo
w W. Notar que si W es T-invariante, entonces T[
W
/(W).
Ejemplo 4.1.1. Si T /
_
R
3
_
esta denida por T(x, y, z) = (x + y, y + z, 0), entonces los subespacios
W
1
= (x, y, 0) : x, y R y W
2
= (x, 0, 0) : x R son T-invariantes.
Ejercicio 4.1.2. Probar que si T /(V ), entonces 0, V , Ker(T) e Im(T) son subespacios T-invariantes.
Proposicion 4.1.3. Sea T /(V ) y supongamos que tenemos una descomposicion V = W
1

W
h
en que cada W
i
es T-invariante. Si B
i
es una base de W
i
, i = 1, . . . , h, entonces en B = B
1
B
h
se
verica:
[T]
B
=
_
_
_
A
1
.
.
.
A
h
_
_
_, siendo A
i
= [T[
W
i
]
B
i
, i = 1, . . . , h.
Dem. Sea B
i
=
_
v
i
1
, . . . , v
i
n
i
_
, i = 1, . . . , h. Como W
i
es T-invariante, es T
_
v
i
j
_
W
i
y por lo tanto es
T
_
v
i
j
_
= T[
W
_
v
i
j
_
= a
1j
v
i
1
+ +a
n
i
j
v
i
n
i
, j = 1, . . . , n
i
. Luego
coord
B
_
T
_
v
i
j
__
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
a
1j
.
.
.
a
n
i
j
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
, j = 1, . . . , n
i
y [T[
W
i
]
B
i
=
_
_
_
a
11
a
1n
i
.
.
.
.
.
.
a
n
i
1
a
n
i
n
i
_
_
_.
53
Proposicion 4.1.4. Si T /(V ) y W es un subespacio T-invariante de V , entonces X
T[
W
(t) divide a

T
(t) en k[t].
Dem. Sea B
W
= w
1
, . . . , w
m
una base de W, como el conjunto B
W
es LI, sabemos que existen
w
m+1
, . . . , w
n
en V tales que B = w
1
, . . . , w
m
, w
m+1
, . . . , w
n
es una base de V . Como T (w
i
) W,
i = 1, . . . , m, es
[T]
B
=
_
_
_
_
_
_
_
_
_
_
a
1 1
a
1 m
a
1 m+1
a
1 n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
mm
a
mm+1
a
mn
0 0 a
m+1 m+1
a
m+1 n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 a
nm+1
a
nn
_
_
_
_
_
_
_
_
_
_
=
_
A B
0 D
_
,
siendo A = [T[
W
]
B
W
. Luego

T
(t) =

At I B
0 D t I

= [At I[ [D t I[ =

T[
W
(t) p(t),
siendo p(t) = [D t I[.
Ejemplo 4.1.5. Sea T /
_
R
4
_
denida por
T(x, y, z, t) = (x +y + 2z t, y +t, 2z t, z +t).
Consideremos el subespacio W = (x, y, 0, 0) : x, y R. Observar que T(x, y, 0, 0) = (x + y, y, 0, 0) W,
luego W es T-invariante. Si B = e
1
, e
2
, e
3
, e
4
es la base canonica de R
4
, entonces B
W
= e
1
, e
2
es base
de W y obtenemos
[T[
W
]
B
W
=
_
1 1
0 1
_
, [T]
B
=
_
_
_
_
1 1 2 1
0 1 0 1
0 0 2 1
0 0 1 1
_
_
_
_
.
Luego
1

T[
W
(t) = (1 t)
2
y

T
(t) = (1 t)
2
_
t
2
3t + 3
_
.
Denicion 4.1.6. Sea T /(V ) y v V . Llamamos subespacio T-cclico generado por v a
S
v,T
:=
_
v, T(v), T
2
(v), . . .

=
_
n

i=0
a
i
T
i
(v) : a
i
k, i = 0, . . . , n, n N
_
.
Proposicion 4.1.7. S
v,T
es el menor subespacio T-invariante de V que contiene a v.
Dem. Es claro que v S
v,T
. Por otro lado T
_
n
i=0
a
i
T
i
(v)
_
=

n
i=0
a
i
T
i+1
(v), luego S
v,T
es T-
invariante.
Sea W un subespacio T-invariante que contiene a v. Como W es T-invariante y v W, entonces
T(v) W. Luego T
2
(v) = (T T)(v) = T(T(v)) W y por induccion se prueba que T
n
(v) W, para todo
n N. Como W es un subespacio, esto implica S
v,T
=
_
v, T(v), T
2
(v), . . .

W.
Ejemplo 4.1.8. Si T /(V ), un vector v ,= 0 es un vector propio de T si y solo si S
v,T
= [v].
1
No confundir la variable t en

T|
W
(t) y

T (t) con la variable t en (x, y, z, t).
54
Ejemplo 4.1.9. Sea T /
_
R
3
_
denida por T(x, y, z) = (y + z, x + z, 3z). Observar que T (e
1
) = e
2
y
T (e
2
) = e
1
, luego T
n
(e
1
) , T
n
(e
2
) e
1
, e
2
, n N. Entonces
S
e
1
,T
= S
e
2
,T
= (x, y, 0) : x, y R.
Por otro lado, es
T(e
3
) = e
1
+e
2
+ 3 e
3
, T
2
(e
3
) = T(e
1
+e
2
+ 3 e
3
) = 2 e
1
+ 4 e
2
+ 9 e
3
,
luego
_
e
3
, T(e
3
), T
2
(e
3
)
_
= e
3
, e
1
+e
2
+ 3 e
3
, 2 e
1
+ 4 e
2
+ 9 e
3
y este conjunto es LI, luego es base de R
3
.
As S
e
3
,T
contiene una base del espacio, luego S
e
3
,T
= R
3
.
Ejemplo 4.1.10. Sea T /(R
3
[x]) denida por T(p(x)) = p
t
(x) y consideremos v = x
2
. Es
T
_
x
2
_
= 2 x, T
2
_
x
2
_
= 2, T
3
_
x
2
_
= 0,
luego S
x
2
,T
=
_
x
2
, 2 x, 2, 0, . . .

=
_
x
2
, 2 x, 2

= R
2
[x] R
3
[x].
Teorema 4.1.11. Sea T /(V ), 0 ,= v V , W = S
v,T
y h = dimW. Entonces:
1. El conjunto
_
v, T(v), . . . , T
h1
(v)
_
es base de W.
2. Si T
h
(v) = a
0
v +a
1
T(v) + +a
h1
T
h1
(v), es

T[
W
(t) = (1)
h
_
t
h
a
h1
t
h1
a
1
t a
0
_
.
Dem. Sea j = mn
_
i Z
+
:
_
v, T(v), . . . , T
i
(v)
_
es LD
_
, como v ,= 0, es j 1. Observar que
_
v, T(v), . . . , T
j1
(v)
_
es LI y
_
v, T(v), . . . , T
j1
(v), T
j
(v)
_
es LD, luego T
j
(v)
_
v, T(v), . . . , T
j1
(v)

.
Armacion: Para todo p N se cumple que T
j+p
(v)
_
v, T(v), . . . , T
j1
(v)

.
Lo probaremos por induccion en p. Si p = 0 sabemos que es cierto. Supongamos que T
j+p
(v)
_
v, T(v), . . . , T
j1
(v)

. Entonces
T
j+p+1
(v) =
_
T T
j+p
_
(v) = T
_
T
j+p
(v)
_

_
T(v), T
2
(v), . . . , T
j
(v)

.
Como es
_
T(v), T
2
(v), . . . , T
j1
(v), T
j
(v)
_

_
v, T(v), T
2
(v), . . . , T
j1
(v)

, deducimos que T
j+p+1
(v)
_
v, T(v), T
2
(v), . . . , T
j1
(v)

.
Luego W =
_
v, T(v), . . . , T
j1
(v)

, j = h = dimW y el conjunto B =
_
v, T(v), T
2
(v), . . . , T
h1
(v)
_
es
base de W. Sea T
h
(v) = a
0
v +a
1
T(v) + +a
h1
T
h1
(v), entonces
[T[
W
]
B
=
_
_
_
_
_
_
_
_
_
0 0 0 a
0
1 0 0 a
1
0 1 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 a
h2
0 0 1 a
h1
_
_
_
_
_
_
_
_
_
.
Es un ejercicio del practico probar que en este caso es

T[
W
(t) = (1)
h
_
t
h
a
h1
t
h1
a
1
t a
0
_
.
Ejemplo 4.1.12. Sea T /(R
3
) denida por T(x, y, z) = (y +z, x +z, 3 z), ya vimos en el ejemplo 4.1.9
que
T(e
1
) = e
2
y T(e
2
) = e
1
T
2
(e
1
) = e
1
= e
1
0 T(e
1
).
Luego e
1
, T(e
1
) = e
1
, e
2
es base de W = S
e
1
,T
y

T[
W
(t) = (1)
2
_
1 + 0 t +t
2
_
= 1 +t
2
.
55
4.2. Polinomios y transformaciones lineales
Si T /(V ), denimos T
n
/(V ), n = 0, 1, . . . , mediante
T
0
= Id, T
n
= T T
. .
n
, n = 1, 2, . . . .
Si p =

n
i=0
a
i
x
i
k[x], denimos p(T) /(V ) mediante
p(T) =
n

i=0
a
i
T
i
= a
n
T
n
+a
n1
T
n1
+ +a
1
T +a
0
Id .
Analogamente, si A M
n
(k) y p =

n
i=0
a
i
x
i
k[x], denimos p(A) M
n
(k) mediante
p(A) =
n

i=0
a
i
A
i
= a
n
A
n
+a
n1
A
n1
+ +a
1
A+a
0
I.
Ejemplo 4.2.1. Si consideramos el polinomio constante 1 k[x], resulta 1(T) = Id y 1(A) = I para todo
T /(V ), A M
n
(k).
Proposicion 4.2.2. Sea T /(V ) y B una base de V . Entonces [p(T)]
B
= p ([T]
B
) , p k[x].
Dem. Si p =

n
i=0
a
i
x
i
, es [p(T)]
B
=
_
n
i=0
a
i
T
i

B
=

n
i=0
a
i
([T]
B
)
i
= p ([T]
B
) .
Corolario 4.2.3. Si A M
n
(k), es p (L
A
) = L
p(A)
/(k
n
) para todo p k[x].
Dem. Si B es la base canonica de k
n
, es A = [L
A
]
B
. Aplicando la proposicion anterior obtenemos
[p (L
A
)]
B
= p(A), luego p (L
A
) = L
p(A)
.
Ejemplo 4.2.4. Sea T /
_
R
2
_
denida por T(x, y) = (x, 2x+y) y consideremos p = x
3
+x
2
x+2 R[x].
Es T = L
A
, siendo A =
_
1 0
2 1
_
. Luego p(A) = A
3
+ A
2
A + 2I =
_
3 0
8 3
_
y p(T)(x, y) = (3x, 8x + 3y),
(x, y) R
2
.
Observacion 4.2.5. La proposicion 4.2.2 y el corolario 4.2.3 nos permiten deducir propiedades de polino-
mios aplicados a operadores de propiedades de polinomios aplicados a matrices y viceversa. La siguiente
proposicion es una muestra de esto. Por eso es que general probaremos las proposiciones en uno solo de los
dos casos, entendiendo que la prueba del otro se deduce aplicando la proposicion 4.2.2 o el corolario 4.2.3,
seg un corresponda.
Proposicion 4.2.6. Sean T /(V ), A M
n
(k), k y p, q k[x]. Vale:
1. (p +q)(A) = p(A) +q(A), (p q)(A) = p(A) q(A).
2. (p +q)(T) = p(T) +q(T), (p q)(T) = p(T) q(T).
Dem. Podemos suponer p =

n
i=0
a
i
x
i
y q =

n
i=0
b
i
x
i
(puede ser a
n
= 0 o b
n
= 0).
Es p +q =

n
i=0
(a
i
+b
i
) x
i
, luego
(p +q)(A) =
n

i=0
(a
i
+b
i
) A
i
=
n

i=0
a
i
A
i
+
n

i=0
b
i
A
i
= p(A) +q(A).
Es p q = a
n
b
n
x
2n
+ (a
n1
b
1
+a
1
b
n1
) x
2n1
+ + (a
1
b
0
+a
0
b
1
) x +a
0
b
0
, luego
(p q)(A) = a
n
b
n
A
2n
+ (a
n1
b
1
+a
1
b
n1
) A
2n1
+ + (a
1
b
0
+a
0
b
1
) A+a
0
b
0
I
=
_
n

i=0
a
i
A
i
__
n

i=0
b
i
A
i
_
= p(A) q(A).
56
Sea B una base de V . Aplicando la proposicion anterior obtenemos:
[(p +q)(T)]
B
= (p +q) ([T]
B
) = p ([T]
B
) +q ([T]
B
) = [p(T)]
B
+ [q(T)]
B
= [p(T) +q(T)]
B
,
luego (p +q)(T) = p(T) +q(T). La otra relacion se prueba en forma analoga.
Como el producto de polinomios es conmutativo, de la proposicion anterior se deduce:
Corolario 4.2.7. Si p, q k[x], A M
n
(k) y T /(V ), entonces
p(A) q(A) = q(A) p(A) y p(T) q(T) = q(T) p(T).
Proposicion 4.2.8. Si T /(V ) y p k[x], entonces Ker p(T) e Im p(T) son subespacios T-invariantes.
Dem. Sea v Ker p(T), es p(T)(T(v)) = (p(T) T)(v) = (T p(T))(v) = T(p(T)(v)) = T(0) = 0, luego
T(v) Ker p(T).
Sea v = p(T)(w) Im p(T), es T(v) = T (p(T)(w)) = (T p(T)) (w) = (p(T) T) (w) = p(T) (T(w)) ,
luego T(v) Im p(T).
Corolario 4.2.9. Si T /(V ) y es un valor propio de T, entonces el subespacio propio E

= Ker(T Id)
es T-invariante.
Dem. Si p = x k[x], entonces E

= Ker p(T).
Teorema 4.2.10 (Cayley-Hamilton). Si T /(V ), entonces

T
(T) = 0.
Dem. Lo que tenemos que probar es que el operador

T
(T) : V V verica

T
(T) (v) = 0 para todo
v en V .
Sea v V arbitrario jo. Si v = 0 es

T
(T)(v) =

T
(T)(0) = 0. Supongamos ahora que v ,= 0 y sea
W = S
v,T
. Como W es T-invariante,

T[
W
divide a

T
. Sea p k[x] tal que

T
(x) = p(x)

T[
W
(x). Sea
h = dimW y T
h
(v) = a
0
v + a
1
T(v) + + a
h1
T
h1
(v), ya sabemos que en este caso es

T[
W
(x) =
(1)
h
_
x
h
a
h1
x
h1
a
1
x a
0
_
. Luego

T[
W
(T) (v) = (1)
h
_
T
h
(v) a
h1
T
h1
(v) a
1
T(v) a
0
v
_
= 0.
Entonces

T
(T) (v) =
_
p(T)

T[
W
(T)
_
(v) = p(T)
_

T[
W
(T) (v)
_
= p(T) (0) = 0.
Corolario 4.2.11. Si A M
n
(k), entonces

A
(A) = 0.
Lema 4.2.12. Sea T /(V ) y p(x) k[x] tal que p(T) = 0. Si p(x) admite una factorizacion de la forma
p(x) = p
1
(x) p
2
(x) con mcd (p
1
(x), p
2
(x)) = 1, entonces
V = Ker(p
1
(T)) Ker(p
2
(T)).
Dem. Como mcd (p
1
(x), p
2
(x)) = 1, entonces en el Apendice se prueba que existen m
1
(x) y m
2
(x) en
k[x] tales que m
1
(x) p
1
(x) +m
2
(x) p
2
(x) = 1, luego
Id = m
1
(T) p
1
(T) +m
2
(T) p
2
(T) = p
1
(T) m
1
(T) +p
2
(T) m
2
(T).
57
Sea v V , entonces v = Id(v) = p
1
(T)
_
m
1
(T)(v)
_
+p
2
(T)
_
m
2
(T)(v)
_
luego
V = Im(p
1
(T)) + Im(p
2
(T)).
Como p(x) = p
1
(x) p
2
(x) es 0 = p(T) = p
1
(T) p
2
(T). Entonces para todo v en V es 0 = p
1
(T)(p
2
(T)(v)) y
resulta Imp
2
(T) Ker p
1
(T). Analogamente de p(x) = p
2
(x) p
1
(x) se deduce Imp
1
(T) Ker p
2
(T). Luego
V = Imp
1
(T) + Imp
2
(T) Ker p
2
(T) + Ker p
1
(T) V,
de donde deducimos
V = Ker p
1
(T) + Ker p
2
(T).
Si v Ker p
1
(T) Ker p
2
(T) es p
1
(T)(v) = p
2
(T)(v) = 0, entonces
v = Id(v) = m
1
(T)(p
1
(T)(v)) +m
2
(T)(p
2
(T)(v)) = m
1
(T)(0) +m
2
(T)(0) = 0.
Luego Ker p
1
(T) Ker p
2
(T) = 0.
Teorema 4.2.13. Sea T /(V ) y p(x) k[x] tal que p(T) = 0. Si p(x) admite una factorizacion de la
forma p(x) = p
1
(x) p
h
(x) con mcd (p
i
(x), p
j
(x)) = 1, i ,= j, entonces
V = Ker(p
1
(T)) Ker(p
h
(T)).
Dem. Lo demostraremos por induccion en h. Para h = 2 es el lema anterior.
Supongamos que se cumple para h 1 y sea p(x) = p
1
(x) p
h1
(x) p
h
(x) con mcd (p
i
(x), p
j
(x)) = 1,
i ,= j.
Consideremos q(x) = p
1
(x) p
h1
(x) k[x], entonces p(x) = q(x) p
h
(x) y mcd (q(x), p
h
(x)) = 1. El
lema anterior aplicado a q(x) y p
h
(x) implica que
V = Ker(q(T)) Ker(p
h
(T)).
Sea W = Ker q(T). El subespacio W es T-invariante. Consideremos T[
W
/(W), es q(T[
W
) = q(T)[
W
=
q(T)[
Ker q(T)
= 0, entonces q(T[
W
) = 0 y podemos aplicar la hipotesis inductiva a T[
W
/(W) y q(x) k[x],
para concluir que W =

h1
i=1
Ker(p
i
(T[
W
)). Entonces es V =

h1
i=1
Ker(p
i
(T[
W
)) Ker(p
h
(T)).
Para i = 1, . . . , h 1 es
Ker p
i
(T[
W
) = Ker(p
i
(T)[
W
) = Ker p
i
(T) W = Ker p
i
(T),
La ultima igualdad se deduce de que si v Ker p
i
(T), entonces
q(T)(v) = (p
1
(T) p
h1
(T))(v) = (p
1
(T) p
i1
(T) p
i+1
(T) p
h1
(T))(p
i
(T)(v)) = 0.
Luego
Ker(p
i
(T)) Ker(q(T)) = W Ker(p
i
(T)) W = Ker(p
i
(T))
Entonces V =

h1
i=1
Ker(p
i
(T)) Ker p
h
(T) =

h
i=1
Ker(p
i
(T)).
58
4.3. Polinomio minimal
Denicion 4.3.1. Un polinomio p(x) es monico si es no nulo y el coeciente de su termino de mayor grado
es 1, es decir si es de la forma p(x) = x
m
+a
m1
x
m1
+ +a
1
x +a
0
, con m 1.
Lema 4.3.2. Si T /(V ), entonces existe un polinomio m(x) que verica:
1. m(T) = 0.
2. m(x) es de grado mnimo entre los polinomios no nulos que anulan a T.
3. m(x) es monico.
Dem. Sea J = p(x) k[x] : p(x) ,= 0 y p(T) = 0. El Teorema de Cayley-Hamilton nos asegura que

T
(x) k[x] es un polinomio de grado positivo que verica

T
(T) = 0, luego

T
(x) J y por lo tanto
existe m(x) J no nulo de grado mnimo entre los polinomios de J. Denimos m(x) :=
1
a
m(x) siendo a el
coeciente del termino de mayor grado de m(x). Entonces m(x) verica las condiciones 1, 2 y 3.
Lema 4.3.3. Sea T /(V ). Si un polinomio m(x) k[x] verica las condiciones 1, 2 y 3 del Lema 4.3.2,
entonces:
a. Si q(x) k[x] verica q(T) = 0, entonces m(x) divide a q(x).
b. Si un polinomio p(x) k[x] verica las condiciones 1, 2, y 3 del Lema 4.3.2, entonces p(x) = m(x).
Dem. a: Sea q(x) k[x] que verique q(T) = 0. Dividimos q(x) por m(x) y es q(x) = m(x) d(x) +r(x)
con r(x) = 0 o r(x) ,= 0 y gr r(x) < gr m(x). Teniendo en cuenta la condicion 1 obtenemos:
r(T) = q(T) m(T) d(T) = 0 0 d(T) = 0.
Si fuese r(x) ,= 0 tendramos una contradicci on con la minimalidad del grado de m(x), luego necesariamente
es r(x) = 0 y m(x) divide a q(x).
b: Si p(x) verica las condiciones 1, 2 y 3, entonces como p(x) verica la condicion 1 sabemos que
m(x) divide a p(x). Cambiando los roles de p(x) y m(x) obtenemos tambien que p(x) divide a m(x), luego
existe una constante a k tal que p(x) = a m(x). Como p(x) y m(x) son monicos deducimos que a = 1 y
p(x) = m(x).
Denicion 4.3.4. El polinomio construido en el Lema 4.3.2 se llama el polinomio minimal de T y se escribe
m
T
(x).
Podemos resumir los lemas anteriores en el siguiente teorema.
Teorema 4.3.5. Si T /(V ), entonces el polinomio minimal m
T
(x) k[x] es el unico polinomio que
verica:
1. m
T
(T) = 0.
2. m
T
(x) es de grado mnimo entre los polinomios no nulos que anulan a T.
3. m
T
(x) es monico.
Este polinomio cumple ademas que si q(x) k[x] es tal que q(T) = 0, entonces m
T
(x) divide a q(x).
Observacion 4.3.6. Si T /(V ) sabemos que

T
(T) = 0, luego m
T
(x) divide a

T
(x).
59
Ejemplo 4.3.7. 1. Si T = 0 /(V ), entonces m
0
(x) = x.
2. Si T = Id /(V ), entonces m
Id
(x) = x 1.
Denicion 4.3.8. Sea A M
n
(k), llamamos polinomio minimal de A al polinomio m
A
(x) k[x] que
verica:
1. m
A
(A) = 0.
2. m
A
(x) es de grado mnimo entre los polinomios no nulos que anulan a A.
3. m
A
(x) es monico.
Analogamente al caso de T /(V ), se prueba que este polinomio existe y es el unico polinomio que verica
dichas condiciones. Ademas cumple que si q(x) k[x] verica q(A) = 0, entonces m
A
(x) divide a q(x); en
particular m
A
(x) divide a

A
(x).
Ejemplo 4.3.9. Consideremos una matriz escalar A =
_
_
_

.
.
.

_
_
_ M
n
(k). Es A = I, luego AI = 0
y m
A
(x) = x . Observar que vale tambien el recproco, si m
A
(x) = x , entonces es A = I.
Proposicion 4.3.10. Sea T /(V ), B una base de V y A = [T]
B
. Entonces m
T
(x) = m
A
(x).
Dem.
0 = m
A
(A) = m
A
([T]
B
) = [m
A
(T)]
B
m
A
(T) = 0 m
T
(x)[m
A
(x),
m
T
(A) = m
T
([T]
B
) = [m
T
(T)]
B
= [0]
B
= 0 m
T
(A) = 0 m
A
(x)[m
T
(x).
Luego existe a k tal que m
T
(x) = a m
A
(x). Como ambos polinomios son monicos la unica posibilidad es
a = 1 y m
T
(x) = m
A
(x).
Corolario 4.3.11. Si A M
n
(k), es m
L
A
(x) = m
A
(x).
Dem. Se deduce inmediatamente de la proposicion anterior, dado que si B es la base canonica de k
n
,
entonces [L
A
]
B
= A.
Lema 4.3.12. Sea T /(V ), p(x) k[x] y v un vector propio de T correspondiente a un valor propio ,
entonces
p(T) (v) = p() v.
Dem. Observar que T(v) = v implica
T
2
(v) = T(T(v)) = T(v) = T(v) =
2
v.
Razonando por induccion se prueba que T
n
(v) =
n
v, n N, luego si p(x) =

n
i=0
a
i
x
i
es
p(T) (v) =
_
n

i=0
a
i
T
i
_
(v) =
n

i=0
a
i
T
i
(v) =
n

i=0
a
i

i
v =
_
n

i=0
a
i

i
_
v = p() v.
Teorema 4.3.13. Sea T /(V ). Entonces m
T
(x) y

T
(x) tienen las mismas races.
Dem. Como m
T
(x) divide a

T
(x), entonces existe un polinomio g(x) tal que

T
(x) = g(x) m
T
(x). Sea
k tal que m
T
() = 0, entonces

T
() = g() m
T
() = g() 0 = 0, luego

T
() = 0.
60
Sea k tal que

T
() = 0. El escalar es un valor propio de T, luego existe v ,= 0 tal que T(v) = v.
Por el lema anterior es m
T
() v = m
T
(T) (v) = 0(v) = 0 y como v ,= 0 es m
T
() = 0.
Observacion 4.3.14. Este teorema implica que si T /(V ) y

T
escinde

T
(t) = (1)
n
(t
1
)
n
1
(t
h
)
n
h
, con
i
,=
j
si i ,= j,
entonces
m
T
(t) = (t
1
)
m
1
(t
h
)
m
h
, con 1 m
i
n
i
, i = 1, . . . , h.
Corolario 4.3.15. Sea A M
n
(k). Entonces m
A
(x) y

A
(x) tienen las mismas races.
Dem. Se deduce del teorema anterior porque m
A
(x) = m
L
A
(x) y

A
(x) =

L
A
(x).
Ejemplo 4.3.16. Sea T /(R
2
) denida por T(x, y) = (2x + 5y, 6x +y). Es

T
(t) = (t 7)(t + 4), luego
necesariamente es m
T
(t) = (t 7)(t + 4).
Ejemplo 4.3.17. Sea A =
_
_
3 1 0
0 2 0
1 1 2
_
_
. Es

A
(t) = (t 2)
2
(t 3), luego m
A
(t) =
_
(t 2)(t 3)
(t 2)
2
(t 3)
.
Calculando es (A2I)(A3I) = 0, luego m
A
(t) = (t 2)(t 3).
Observacion 4.3.18. Sea A =
_
_
_
A
1
.
.
.
A
h
_
_
_ una matriz en bloques, siendo A
i
M
n
i
(k), i = 1, . . . , h.
Por ejemplo si
A =
_
_
_
_
_
_
_
_
2 3 4 0 0 0
3 0 5 0 0 0
2 2 7 0 0 0
0 0 0 6 0 0
0 0 0 0 4 3
0 0 0 0 0 7
_
_
_
_
_
_
_
_
, es A =
_
_
A
1
0 0
0 A
2
0
0 0 A
3
_
_
, siendo
A
1
=
_
_
2 3 4
3 0 5
2 2 7
_
_
, A
2
= (6), A
3
=
_
4 3
0 7
_
.
Es un ejercicio el probar que vale A
l
=
_
_
_
A
l
1
.
.
.
A
l
h
_
_
_, l N. Luego se deduce
p(A) =
_
_
_
p(A
1
)
.
.
.
p(A
h
)
_
_
_, p(x) k[x].
Teorema 4.3.19. Sea T /(V ). Entonces T es diagonalizable si y solo si m
T
(t) es de la forma
m
T
(t) = (t
1
) (t
h
) ,
con
i
,=
j
si i ,= j.
61
Dem. () : Supongamos que existe B base de V tal que
[T]
B
=
_
_
_
_
_
_
_
_
_
_
_
_
_

1
.
.
.

1
.
.
.

h
.
.
.

h
_
_
_
_
_
_
_
_
_
_
_
_
_
, con
i
,=
j
si i ,= j.
Entonces
1
, . . . ,
h
son las races de

T
(t) y por lo tanto de m
T
(t). Sea p(t) = (t
1
) (t
h
).
p ([T]
B
) =
_
_
_
_
_
_
_
_
_
_
_
_
_
p (
1
)
.
.
.
p (
1
)
.
.
.
p (
h
)
.
.
.
p (
h
)
_
_
_
_
_
_
_
_
_
_
_
_
_
= 0 p(T) = 0.
Luego m
T
(t)[p(t) y como m
T
(t) tiene races
1
, . . . ,
h
deducimos m
T
(t) = (t
1
) (t
h
).
() : Supongamos que m
T
(t) = (t
1
) (t
h
), con
i
,=
j
si i ,= j. Sabemos que m
T
(T) = 0
y como
i
,=
j
si i ,= j, es mcd (t
i
, t
j
) = 1 si i ,= j. Entonces aplicando el Teorema 4.2.13 a
p(t) = m
T
(t) obtenemos
V = Ker (T
1
Id) Ker (T
h
Id) = E

1
E

h
,
luego T es diagonalizable.
Corolario 4.3.20. Sea T /(V ). Si existe un polinomio p(t) k[t] de la forma p(t) = a (t
1
) (t
k
),
con
i
,=
j
si i ,= j y a k 0 tal que p(T) = 0, entonces T es diagonalizable.
Dem. Como p(T) = 0, entonces m
T
(t) divide a p(t) y por lo tanto verica las hipotesis del teorema
anterior.
Corolario 4.3.21. Sea A M
n
(k).
1. A es diagonalizable si y solo si su polinomio minimal es de la forma m
A
(t) = (t
1
) (t
h
) , con

i
,=
j
si i ,= j.
2. Si existe un polinomio p(t) k[t] de la forma p(t) = a (t
1
) (t
k
), con
i
,=
j
si i ,= j y
a k 0 tal que p(A) = 0, entonces A es diagonalizable.
Dem. Se deduce de lo anterior porque A es diagonalizable si y solo si L
A
es diagonalizable y m
A
(t) =
m
L
A
(t).
Ejemplo 4.3.22. En el Ejemplo 4.3.17 es m
A
(t) = (t2)(t3) y en el Ejemplo 4.3.16 es m
T
(t) = (t7)(t+4),
luego A y T son diagonalizables. Por otro lado en el Ejemplo 4.4.5 es m
T
(t) = t
3
, luego T no es diagonalizable.
62
Ejemplo 4.3.23. Si T es una proyeccion, entonces T verica T
2
= T. Luego es p(T) = 0, siendo p(t) =
t
2
t = t(t 1) y T es diagonalizable. De hecho si m
T
(t) = t 1, es T = Id. Si m
T
(t) = t, es T = 0. Si
m
T
(t) = t(t 1) entonces existe una base B de V tal que
[T]
B
=
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
1
.
.
.
1
_
_
_
_
_
_
_
_
_
_
.
Ejemplo 4.3.24. Sea A M
n
(R) tal que A
3
= A. Entonces p(A) = 0, siendo p(t) = t
3
t. Observar que
p(t) = t
3
t = t(t 1)(t + 1), luego el corolario anterior implica que A es diagonalizable.
Ejemplo 4.3.25. Veamos como hallar las matrices reales 2 2 que verican A
2
3A+ 2I = 0.
Sea p(t) = t
2
3t +2, es p(A) = 0, luego m
A
(t) divide a p(t). Como p(t) = (t 1)(t 2), entonces m
A
(t)
puede ser t 1, t 2 o (t 1)(t 2). Si m
A
(t) = t 1, entonces A = I. Si m
A
(t) = t 2, entonces A = 2I.
Si m
A
(t) = (t 1)(t 2), entonces A es diagonalizable con valores propios 1 y 2, luego es semejante a (
1 0
0 2
) .
4.4. Forma de Jordan
En el primer captulo estudiamos los operadores diagonalizables y vimos que para que un operador
sea diagonalizable es necesario que su polinomio caracterstico escinda y que para cada uno de sus valores
propios la multiplicidad geometrica coincida con la algebraica. En este captulo estudiaremos el caso de
los operadores que verican que su polinomio caracterstico escinde, pero la multiplicidad geometrica no es
necesariamente igual a la algebraica.
En lo que sigue, si A es una matriz n n, diremos que n es el tama no de A.
4.4.1. Operadores nilpotentes
Empezamos nuestro estudio considerando un caso que es en cierto sentido lo opuesto a ser diagonalizable.
Denicion 4.4.1. Un operador T /(V ) se dice nilpotente si existe k Z
+
tal que T
k
= 0. Al menor k tal
que T
k
= 0 le llamamos el orden de nilpotencia de T. Luego T es nilpotente de orden p si y solo si T
p
= 0
y T
p1
,= 0.
Analogamente, decimos que una matriz A M
n
(k) es nilpotente si existe k Z
+
tal que A
k
= 0 y su
orden de nilpotencia es el menor k tal que A
k
= 0.
Observacion 4.4.2. Si T /(V ) y B es una base de V , entonces es claro que T es nilpotente si y solo si
[T]
B
es nilpotente y en ese caso T y [T]
B
tienen el mismo orden de nilpotencia.
Observacion 4.4.3. Notar que el unico operador nilpotente de orden 1 es el operador nulo. En lo que sigue
en general asumiremos que los operadores nilpotentes tienen orden mayor que 1.
Observacion 4.4.4. Si T /(V ) es nilpotente de orden p, entonces de T
p
= 0 y T
p1
,= 0 se tiene que
el polinomio minimal de T es m
T
(t) = t
p
. Como el polinomio minimal y caracterstico tienen las mismas
races, se deduce que el unico valor propio de T es 0.
63
Ejemplo 4.4.5. Sea T /(R
2
[x]) denida por T(p(x)) = p
t
(x). Observar que
T
_
a x
2
+b x +c
_
= 2a x +b, T
2
_
a x
2
+b x +c
_
= 2a, T
3
_
a x
2
+b x +c
_
= 0.
Luego T es un operador nilpotente. Ademas vimos que T
3
= 0 y T
2
,= 0, entonces m
T
(t) = t
3
y por lo tanto

T
(t) = t
3
La proposicion siguiente muestra que un operador nilpotente no nulo nunca es diagonalizable.
Proposicion 4.4.6. Si un operador T /(V ) es nilpotente y diagonalizable, entonces es el operador nulo.
Dem. Si T es diagonalizable, entonces existe una base de V en la cual la matriz asociada a T es una
matriz diagonal D en la cual la diagonal principal esta formada por los valores propios de T. Por otro lado,
vimos en la observacion anterior que si T es nilpotente el unico valor propio que tiene es 0. Esto implica
D = 0 y por lo tanto T es el operador nulo.
Observacion 4.4.7. Notar que si A =
_
_
_
A
1
.
.
.
A
k
_
_
_ es una matriz en bloques, entonces el rango de
A es la suma de los rangos de A
1
, . . . , A
k
.
El objetivo principal de esta seccion es probar que si T /(V ) es nilpotente, entonces existe una base
B de V tal que la matriz asociada a T en la base B es una matriz en bloques de la forma
[T]
B
=
_
_
_
_
_
J
1
J
2
.
.
.
J
h
_
_
_
_
_
, J
i
=
_
_
_
_
_
_
_
_
_
_

i
0

i
0
.
.
.
.
.
.
.
.
. 0

i
0

i
_
_
_
_
_
_
_
_
_
_
, i = 1, . . . , h.
Empezamos con una proposicion que prueba el recproco de la armacion anterior y ademas brinda
informacion sobre la cantidad de bloques que aparecen en la descomposicion.
Proposicion 4.4.8. 1. Si
J =
_
_
_
_
_
_
_
0 1
0 1
.
.
.
.
.
.
0 1
0
_
_
_
_
_
_
_
M
n
(k),
entonces J es nilpotente de orden n.
2. Si
A =
_
_
_
J
1
.
.
.
J
k
_
_
_ M
n
(k), J
i
=
_
_
_
_
_
_
_
0 1
0 1
.
.
.
.
.
.
0 1
0
_
_
_
_
_
_
_
M
p
i
(k), i = 1, . . . , k. (4.1)
siendo p
1
p
2
p
k
, entonces
64
a) A es nilpotente de orden p
1
.
b) La cantidad de bloques J
i
contenidos en A es k = n rango(A).
Dem. Operando obtenemos
J =
_
_
_
_
_
_
_
0 1
0 1
.
.
.
.
.
.
0 1
0
_
_
_
_
_
_
_
, J
2
=
_
_
_
_
_
_
_
_
_
0 0 1
0 0 1
.
.
.
.
.
.
.
.
.
0 1
0 0
0
_
_
_
_
_
_
_
_
_
, , J
n1
=
_
_
_
_
_
0 0 1
0 0 0
.
.
.
.
.
.
.
.
.
0 0 0
_
_
_
_
_
, J
n
= 0.
Eso prueba la primera armacion. Para la segunda, observar que J
p
1
i
= J
p
1
p
i
i
J
p
i
i
= J
p
1
p
i
i
0 = 0, para
todo i = 1, . . . , k, y por lo tanto
A
p
1
=
_
_
_
J
p
1
1
.
.
.
J
p
1
k
_
_
_ = 0 A
p
1
= 0.
Luego A es nilpotente de orden menor o igual que p
1
. Por otro lado J
p
1
1
1
,= 0, luego A
p
1
1
,= 0 y esto
implica que el orden de nilpotencia de A es p
1
.
Observar que p
1
+p
2
+ +p
k
= n. Para cada i, la matriz J
i
M
p
i
(k) tiene rango p
i
1, luego
rango(A) =
k

j=1
rango (J
i
) =
k

j=1
(p
j
1) =
k

j=1
p
j
k = n k k = n rango(A).
A continuacion veremos que dado un operador nilpotente, siempre se puede obtener una base del espacio
de forma tal que su matriz asociada sea del tipo visto en (4.1). Empezamos con algunos resultados previos.
Proposicion 4.4.9. Sea T /(V ) un operador nilpotente de orden p. Entonces
0 , = Ker (T) Ker
_
T
p1
_
Ker(T
p
) = V. (4.2)
Dem. Observemos primero que Ker(T
m
) Ker
_
T
m+1
_
, m N. En efecto, si w Ker(T
m
) es
T
m
(w) = 0 T
m+1
(w) = T (T
m
(w)) = T(0) = 0 w Ker
_
T
m+1
_
.
Armacion: Si para alg un l es Ker
_
T
l+1
_
= Ker
_
T
l
_
, entonces Ker
_
T
l+m
_
= Ker
_
T
l
_
, m 1.
Lo probaremos por inducion en m. Si m = 1 es la hipotesis. Supongamos ahora que para alg un m 1 es
Ker
_
T
l
_
= Ker
_
T
l+m
_
. Queremos probar Ker
_
T
l
_
= Ker
_
T
l+m+1
_
. Por la observacion anterior Ker
_
T
l
_
=
Ker
_
T
l+m
_
Ker
_
T
l+m+1
_
, as que solo falta probar la otra inclusion. Sea w Ker
_
T
l+m+1
_
,
0 = T
l+m+1
(w) = T
l+1
(T
m
(w)) T
m
(w) Ker
_
T
l+1
_
= Ker
_
T
l
_

0 = T
l
(T
m
(w)) = T
l+m
(w) w Ker
_
T
l+m
_
= Ker
_
T
l
_
w Ker
_
T
l
_
.
Esto concluye la prueba de la armacion.
65
Observemos que como T es nilpotente de orden p, entonces T
p
= 0 y T
p1
,= 0. Luego Ker
_
T
p1
_

Ker (T
p
) = V y la armacion anterior implica que necesariamente Ker
_
T
l1
_
Ker
_
T
l
_
, para todo l =
1, 2, . . . , p 1. De aca se deduce inmediatamente (4.2).
Lema 4.4.10. Sea T /(V ) un operador nilpotente de orden p.
Si 2 q p y tenemos un conjunto v
1
, . . . , v
k
Ker(T
q
) que es LI y [v
1
, . . . , v
k
] Ker
_
T
q1
_
= 0,
entonces T(v
1
), . . . , T(v
k
) Ker
_
T
q1
_
, es LI y [T(v
1
), . . . , T(v
k
)] Ker
_
T
q2
_
= 0.
Dem. Como v
i
Ker (T
q
), es
0 = T
q
(v
i
) = T
q1
(T (v
i
)) T (v
i
) Ker
_
T
q1
_
, i = 1, . . . , k,
luego T (v
1
) , . . . , T (v
k
) Ker
_
T
q1
_
.
Probaremos que [T(v
1
), . . . , T(v
k
)] Ker(T
q2
) = 0 y que T(v
1
), . . . , T(v
k
) es LI.
Sea w [T(v
1
), . . . , T(v
k
)] Ker(T
q2
), luego existen a
i
k, i = 1, . . . , k tales que w =

k
i=1
a
i
T(v
i
) y
w Ker
_
T
q2
_
. Entonces
0 = T
q2
(w) = T
q2
_
k

i=1
a
i
T(v
i
)
_
= T
q1
_
k

i=1
a
i
v
i
_

i=1
a
i
v
i
Ker
_
T
q1
_
[v
1
, . . . , v
k
] = 0.
luego

k
i=1
a
i
v
i
= 0 y w =

k
i=1
a
i
T(v
i
) = T
_

k
i=1
a
i
v
i
_
= T(0) = 0.
Esto prueba que [T(v
1
), . . . , T(v
k
)] Ker(T
q2
) = 0.
Sean b
i
k, i = 1, . . . , k tales que

k
i=1
b
i
T(v
i
) = 0. Es
0 = T
q2
(0) = T
q2
_
k

i=1
b
i
T(v
i
)
_
= T
q1
_
k

i=1
b
i
v
i
_
,
entonces

k
i=1
b
i
v
i
Ker
_
T
q1
_
[v
1
, . . . , v
k
] = 0. Luego

k
i=1
b
i
v
i
= 0 y como v
1
, . . . , v
k
es LI, resulta
b
i
= 0, i = 1, . . . , k. Esto prueba que T (v
1
) , . . . , T (v
k
) es LI.
Lema 4.4.11. Supongamos que W es un subespacio de V y v
1
, . . . , v
k
V es un conjunto LI tales que
W [v
1
, . . . , v
k
] = 0. Entonces existen vectores u
1
, . . . , u
h
V tales que v
1
, . . . , v
k
, u
1
, . . . , u
h
es LI y
V = W [v
1
, . . . , v
k
, u
1
, . . . , u
h
].
Dem. Si w
1
, . . . , w
l
es una base de W, entonces W [v
1
, . . . , v
k
] = 0 implica que el conjunto
w
1
, . . . , w
l
, v
1
, . . . , v
k
es LI y por lo tanto existen u
1
, . . . , u
h
tales que w
1
, . . . , w
l
, v
1
, . . . , v
k
, u
1
, . . . , u
h
es
base de V . Luego
V = [w
1
, . . . , w
l
] [v
1
, . . . , v
k
, u
1
, . . . , u
h
] = W [v
1
, . . . , v
k
, u
1
, . . . , u
h
] .
Teorema 4.4.12. Si T /(V ), entonces T es nilpotente si y solo si existe una base B de V tal que
[T]
B
=
_
_
_
J
1
.
.
.
J
k
_
_
_, J
i
=
_
_
_
_
_
_
_
0 1
0 1
.
.
.
.
.
.
0 1
0
_
_
_
_
_
_
_
, i = 1, . . . , k. (4.3)
66
Dem. El recproco es una consecuencia inmediata de la proposicion 4.4.8.
Supongamos ahora que T es nilpotente de orden p. Aplicando la proposicion 4.4.9 sabemos que
0 , = Ker(T) Ker (T
p
) = V.
Para simplicar la notacion supondremos p = 3, pero la demostracion es completamente general. Tenemos
0 , = Ker (T) Ker
_
T
2
_
Ker
_
T
3
_
= V.
Consideremos Ker
_
T
2
_
Ker
_
T
3
_
= V . Sea v
1
, . . . , v
m
un conjunto LI tal que
Ker
_
T
3
_
= Ker
_
T
2
_
[v
1
, . . . , v
m
].
Entonces v
1
, . . . , v
m
es LI y [v
1
, . . . , v
m
] Ker
_
T
2
_
= 0, luego el lema 4.4.10 implica
T (v
1
) , . . . , T (v
m
) Ker
_
T
2
_
, T (v
1
) , . . . , T (v
m
) es LI y [T (v
1
) , . . . , T (v
m
)] Ker (T) = 0.
Consideremos Ker (T) Ker
_
T
2
_
. Por el lema 4.4.11 sabemos que existen u
1
, . . . , u
q
en Ker
_
T
2
_
tales que:
T (v
1
) , . . . , T (v
m
) , u
1
, . . . , u
q
Ker
_
T
2
_
es LI y Ker
_
T
2
_
= Ker (T) [T (v
1
) , . . . , T (v
m
) , u
1
, . . . , u
q
].
Luego [T (v
1
) , . . . , T (v
m
) , u
1
, . . . , u
q
] Ker (T) = 0.
Ahora repetimos el procedimiento anterior con T (v
1
) , . . . , T (v
m
) , u
1
, . . . , u
q
en lugar de v
1
, . . . , v
m
:
Primero aplicamos el lema 4.4.10 para deducir que el conjunto T
2
(v
1
) , . . . , T
2
(v
m
) , T (u
1
) , . . . , T (u
q
)
esta contenido en Ker (T) y es LI. Luego mediante el lema 4.4.11 deducimos que existen w
1
, . . . , w
r
en
Ker (T) tales que
T
2
(v
1
) , . . . , T
2
(v
m
) , T (u
1
) , . . . , T (u
q
) , w
1
, . . . , w
r

es base de Ker (T). Sean


B
1
= v
1
, . . . , v
m
,
B
2
= T (v
1
) , . . . , T (v
m
) , u
1
, . . . , u
q
,
B
3
= T
2
(v
1
) , . . . , T
2
(v
m
) , T (u
1
) , . . . , T (u
q
) , w
1
, . . . , w
r

Tenemos que:
V = Ker
_
T
3
_
= Ker
_
T
2
_
[B
1
], Ker
_
T
2
_
= Ker (T) [B
2
], Ker (T) = [B
3
].
Luego, V = [B
1
] [B
2
] [B
3
] y B = B
1
B
2
B
3
es base de V . Reordenando la base B se tiene:
B = T
2
(v
1
) , T (v
1
) , v
1
, . . . , T
2
(v
m
) , T (v
m
) , v
m
, T (u
1
) , u
1
, . . . , T (u
q
) , u
q
, w
1
, . . . , w
r

Observar que B
3
Ker (T), esto implica:
T
3
(v
1
) = = T
3
(v
m
) = 0, T
2
(u
1
) = = T
2
(u
q
) = 0, T (w
1
) = = T (w
r
) = 0.
67
Luego
[T]
B
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 1 0
0 0 1
0 0 0
.
.
.
0 1 0
0 0 1
0 0 0
0 1
0 0
.
.
.
0 1
0 0
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Denicion 4.4.13. La matriz [T]
B
en (4.3) es la forma de Jordan de T, cada submatriz J
i
es un bloque de
Jordan de T y B es una base de Jordan para T.
Observacion 4.4.14. Notar que cada bloque de Jordan J de tama no l corresponde a un ciclo de la base,
que es un conjunto ( de la forma
( =
_
T
l1
(v), T
l2
(v), . . . , T
2
(v), T(v), v
_
, con T
l
(v) = 0.
Si escribimos v
0
= v, v
1
= T(v), v
2
= T
2
(v), . . . , v
l1
= T
l1
(v) es ( = v
l1
, v
l2
, . . . , v
2
, v
1
, v
0
y
T(v
l1
) = 0, T(v
l2
) = v
l1
, T(v
l3
) = v
l4
, . . . , T(v
1
) = v
2
, T(v
0
) = v
1
.
Luego v
l1
esta en el n ucleo de T y es el unico elemento de ( que lo verica.
Observacion 4.4.15. De acuerdo a la proposicion 4.4.8, la cantidad de bloques de [T]
B
en (4.3), coincide
con dimV rango(T) = dimKer(T).
Corolario 4.4.16. Si T /(V ) y dimV = n, entonces T es nilpotente si y solo si

T
(t) = (1)
n
t
n
.
En particular, si T es nilpotente entonces

T
escinde.
Dem. El recproco es inmediato a partir del teorema de Cayley-Hamilton. El directo se deduce inme-
diatamente de (4.3), que muestra que [T]
B
es triangular superior con ceros en la diagonal principal.
En los ejemplos siguientes aplicaremos la observacion 4.4.15 para determinar la cantidad de bloques en
la forma de Jordan y la proposicion 4.4.8 para determinar la forma de Jordan.
Ejemplo 4.4.17. Consideremos de nuevo T /(R
2
[x]) denida por T(p(x)) = p
t
(x) (ejemplo 4.4.5).
Observar que
Ker(T) = a : a R, Ker
_
T
2
_
= ax +b : a, b R, Ker
_
T
3
_
= R
2
[x].
Luego es 0 , = Ker(T) Ker
_
T
2
_
Ker
_
T
3
_
= R
2
[x]. Como dimKer (T) = 1, deducimos que la forma de
Jordan de T tiene un solo bloque y la base de Jordan esta generada por un elemento de R
2
[x] Ker
_
T
2
_
.
Por ejemplo tomando x
2
obtenemos que B =
_
T
2
_
x
2
_
, T
_
x
2
_
, x
2
_
=
_
2, 2x, x
2
_
es una base de Jordan
para T y [T]
B
=
_
_
0 1 0
0 0 1
0 0 0
_
_
.
68
Ejemplo 4.4.18. Sea T /
_
R
4
_
denida por T(x, y, z, t) = (3y + 2t, 0, 2t, 0), para todo (x, y, z, t) R
4
.
Observar que T
2
= 0, luego es 0 , = Ker(T) Ker
_
T
2
_
= R
4
. Es Ker(T) = (x, 0, z, 0) : x, z R. Como
dimKer (T) = 2, sabemos que la forma de Jordan de T tiene dos bloques que podran ser de tama nos (2, 2)
o (3, 1). Al ser T
2
= 0 deducimos que no hay bloques de tama no 3; luego la forma de Jordan tiene dos
bloques tienen tama no 2 que estan generados por un par de elementos linealmente independientes u, v tales
que [u, v] Ker(T) = 0. Por ejemplo si u = (0, 1, 0, 0) y v = (0, 0, 0, 1), es
B = T(u), u, T(v), v = (3, 0, 0, 0), (0, 1, 0, 0), (2, 0, 2, 0), (0, 0, 0, 1) , [T]
B
=
_
_
_
_
0 1 0 0
0 0 0 0
0 0 0 1
0 0 0 0
_
_
_
_
.
Ejemplo 4.4.19. Sea T /
_
R
4
_
denida por T(x, y, z, t) = (0, 2z + 2t, 2t, 0), para todo (x, y, z, t) R
4
.
Observar que T = L
A
, siendo
A =
_
_
_
_
0 0 0 0
0 0 2 2
0 0 0 2
0 0 0 0
_
_
_
_
A
2
=
_
_
_
_
0 0 0 0
0 0 0 4
0 0 0 0
0 0 0 0
_
_
_
_
A
3
= 0.
Es dimKer(T) = 2. Luego la forma de Jordan de T tiene dos bloques que como en el ejemplo anterior pueden
ser de tama nos (2, 2) o (3, 1). Como A es nilpotente de orden 3 deducimos tenemos un bloque de tama no 3 y
otro bloque de tama no 1. El bloque de tama no 1 es generado por un elemento del n ucleo de T y el de tama no
3 corresponde a un ciclo generado por un vector u , Ker
_
T
2
_
. Por ejemplo u = (0, 0, 0, 1) , Ker
_
T
2
_
y
T(u) = (0, 2, 2, 0), T
2
(u) = (0, 4, 0, 0). Luego alcanza con tomar v Ker(T) tal que
_
T
2
(u), T(u), u, v
_
sea
LI. Por ejemplo v = (1, 0, 0, 0) lo verica y obtenemos
B =
_
T
2
(u), T(u), u, v
_
= (0, 4, 0, 0), (0, 2, 2, 0), (0, 0, 0, 1), (1, 0, 0, 0) , [T]
B
=
_
_
_
_
0 1 0 0
0 0 1 0
0 0 0 0
0 0 0 0
_
_
_
_
.
4.4.2. Caso general
Recordemos que un operador T /(V ) es diagonalizable si y solo si existe una base B de V formada
por vectores propios de T. En ese caso si B = v
1
, . . . , v
n
, es
[T]
B
=
_
_
_

1
.
.
.

n
_
_
_, T(v
i
) =
i
v
i
, i = 1, . . . , n.
Tambien vimos que no todo operador es diagonalizable, a un si el polinomio caracterstico escinde. Un ejemplo
de esto son los operadores nilpotentes estudiados en la seccion anterior (ver la proposicion 4.4.6 y el corolario
4.4.16).
Probaremos que si

T
(t) escinde en k, entonces existe una base B de V tal que
[T]
B
=
_
_
_
_
_
J
1
J
2
.
.
.
J
h
_
_
_
_
_
, J
i
=
_
_
_
_
_
_
_
_
_
_

i
1

i
1
.
.
.
.
.
.
.
.
. 1

i
1

i
_
_
_
_
_
_
_
_
_
_
, i = 1, . . . , h.
69
Observar que
1
, . . . ,
h
son los valores propios de T. Cada matriz J
i
es un bloque de Jordan correspondiente
al valor propio
i
(pueden haber varios bloques correspondientes al mismo valor propio). Cuando ordenamos
los bloques que forman [T]
B
de forma tal que ponemos juntos los bloques correspondientes a los mismos
valores propios y estos los ordenamos en tama nos decrecientes, entonces a [T]
B
le llamamos la forma canonica
de Jordan
2
de T y decimos que B es una base de Jordan para T.
Ejemplo 4.4.20. Una forma canonica de Jordan de un operador es una matriz del tipo
A =
_
_
_
_
_
_
_
_
_
_
_
_
2 1 0
0 2 1
0 0 2
2
3 1
0 3
0 1
0 0
_
_
_
_
_
_
_
_
_
_
_
_
.
en el cual omitimos los ceros fuera de los bloques de Jordan de A.
Teorema 4.4.21. Sea T /(V ). Existe una base de Jordan para T si y solo si

T
escinde en k.
Dem. (): Sea B una base de Jordan para T. Entonces
[T]
B
=
_
_
_
J
1
.
.
.
J
q
_
_
_, J
i
=
_
_
_
_
_
_
_

i
1

i
1
.
.
.
.
.
.

i
1

i
_
_
_
_
_
_
_
M
m
i
(k).
Luego

T
(t) =

q
i=1
det (J
i
t Id) =

q
i=1
(
i
t)
m
i
escinde en k.
(): Supongamos que

T
(t) = (1)
n
(t
1
)
n
1
(t
h
)
n
h
, con
i
,=
j
si i ,= j.
Como

T
(T) = 0 es p(T) = 0 siendo p(t) = (t
1
)
n
1
. . . (t
h
)
n
h
y como
i
,=
j
para i ,= j, es
mcd ((t
i
)
n
i
, (t
j
)
n
j
) = 1 si i ,= j, luego aplicando el teorema 4.2.13 obtenemos
V =
h

i=1
Ker(T
i
Id)
n
i
.
Sea W
i
= Ker(T
i
Id)
n
i
. Observar que W
i
= Ker p
i
(T), siendo p
i
(x) = (x
i
)
n
i
k[x], luego W
i
es
un subespacio T-invariante y V =

h
i=1
W
i
. En esta situacion, la proposicion 4.1.3 implica que si B
i
es una
base de W
i
, entonces B = B
1
B
h
es una base de V y la matriz asociada a T en esa base tiene la forma
[T]
B
=
_
_
_
A
1
.
.
.
A
h
_
_
_, siendo A
i
= [T[
W
i
]
B
i
, i = 1, . . . , h. (4.4)
A continuacion veremos como obtener B
i
en forma adecuada.
2
Se prueba que la forma de Jordan es unica a menos de reordenar los valores propios, lo cual justica el referirnos a [T]B
como la forma de Jordan de T (ver la observacion 4.4.24).
70
Empezamos observando que (T[
W
i

i
Id
W
i
)
n
i
=
_
T
i
Id[
W
i
_
n
i
= (T
i
Id)
n
i
[
W
i
= 0. Luego
T[
W
i

i
Id
W
i
/(W
i
) es nilpotente. Entonces aplicando el teorema 4.4.12 a T[
W
i

i
Id
W
i
deducimos
que existe B
i
base de W
i
tal que
[T[
W
i

i
Id
W
i
]
B
i
=
_
_
_

J
i
1
.
.
.

J
i
k
i
_
_
_, donde

J
i
j
=
_
_
_
_
_
_
_
0 1
0 1
.
.
.
.
.
.
0 1
0
_
_
_
_
_
_
_
, j = 1, . . . , k
i
.
Observar que T[
W
i
= T[
W
i

i
Id
W
i
+
i
Id
W
i
, luego [T[
W
i
]
B
i
= [T[
W
i

i
Id
W
i
]
B
i
+
i
I y por lo tanto
A
i
= [T[
W
i
]
B
i
=
_
_
_
J
i
1
.
.
.
J
i
k
i
_
_
_, donde J
i
j
=
_
_
_
_
_
_
_

i
1

i
1
.
.
.
.
.
.

i
1

i
_
_
_
_
_
_
_
, j = 1, . . . , k
i
.
Finalmente, si B = B
1
B
h
, es
[T]
B
=
_
_
_
A
1
.
.
.
A
h
_
_
_, A
i
=
_
_
_
J
i
1
.
.
.
J
i
k
i
_
_
_, J
i
j
=
_
_
_
_
_
_
_

i
1

i
1
.
.
.
.
.
.

i
1

i
_
_
_
_
_
_
_
, (4.5)
para todo i = 1, . . . , h y j = 1, . . . , k
i
.
Notar que cada bloque de Jordan J corresponde a un subconjunto ( de la base B de la forma
( =
_
(T Id)
l1
(v), (T Id)
l2
(v), . . . , (T Id)
2
(v), (T Id)(v), v
_
, con (T Id)
l
(v) = 0.
El conjunto ( se dice que es un ciclo de T correspondiente al valor propio . Luego B es una base de V que
es union disjunta de ciclos.
Observacion 4.4.22. Como en C todo polinomio escinde, del teorema anterior se deduce que en un espacio
vectorial complejo todo operador admite una base de Jordan.
La siguiente proposicion simplica el hallar la forma de Jordan.
Proposicion 4.4.23. Sea T /(V ) tal que su polinomio caracterstico escinde y B una base de Jordan
para T. Supongamos que
[T]
B
=
_
_
_
A
1
.
.
.
A
h
_
_
_, (4.6)
y cada bloque A
i
es de la forma
A
i
=
_
_
_
J
1
.
.
.
J
k
_
_
_, J
l
=
_
_
_
_
_
_
_

i
1

i
1
.
.
.
.
.
.

i
1

i
_
_
_
_
_
_
_
, l = 1, . . . , k, (4.7)
siendo
1
, . . . ,
h
los valores propios distintos de T. Entonces para cada i = 1, . . . , h vale
71
El tama no del bloque A
i
es la multiplicidad algebraica de
i
.
La cantidad de bloques de Jordan contenidos en A
i
es la multiplicidad geometrica de
i
.
Dem. Sea n = dimV y n
i
el tama no de A
i
, para cada i = 1, . . . , h. Observar que cada matriz A
i
es
triangular superior con
i
en la diagonal principal, luego

T
(t) =

[T]
B
(t) =
h

i=1
det(A
i
tI) =
h

i=1
(
i
t)
n
i
= (1)
n
h

i=1
(t
i
)
n
i
.
Como
i
,=
j
si i ,= j, deducimos n
i
= MA(
i
), para todo i = 1, . . . , h. Esto prueba la primer armacion.
Sea i 1, . . . , h arbitrario jo y supongamos que A
i
tiene la forma dada en (4.7). Luego
A
i

i
I =
_
_
_

J
1
.
.
.

J
k
_
_
_,

J
l
=
_
_
_
_
_
_
_
0 1
0 1
.
.
.
.
.
.
0 1
0
_
_
_
_
_
_
_
, l = 1, . . . , k.
Notar que la cantidad y tama no de bloques de Jordan contenidos en A
i
coincide con los de la matriz
nilpotente A
i

i
I, luego la ultima parte de la proposicion 4.4.8 implica que la cantidad de bloques de
Jordan contenidos en A
i
es k = n
i
rango(A
i

i
I).
Por otro lado, si j ,= i, la matriz A
j

i
I es triangular superior con
j

i
,= 0 en la diagonal principal,
luego A
j

i
I M
n
j
(k) es invertible y por lo tanto rango(A
j

i
I) = n
j
, para todo j ,= i. Esto implica
MG(
i
) = dimV rango(T
i
Id) = n rango ([T]
B

i
I) =
h

j=1
n
j

h

j=1
rango(A
j

i
I)
=
h

j=1
n
j

_
_

j,=i
rango(A
j

i
I) + rango(A
i

i
I)
_
_
=
h

j=1
n
j

_
_

j,=i
n
j
+ rango(A
i

i
I)
_
_
= n
i
rango(A
i

i
I) = k.
Esto prueba la segunda armacion.
Observacion 4.4.24. Notar que la proposicion anterior muestra que en la forma de Jordan de un operador,
la cantidad de bloques A
i
y la cantidad de sub-bloques de Jordan de cada A
i
no depende de la eleccion de
la base de Jordan. Tambien se puede probar que los tama nos de los bloques de Jordan contenidos en A
i
no dependen de la base (ver el teorema 5.6.2 en el Apendice). Luego la forma de Jordan de un operador es
unica a menos de reordenar los valores propios.
Ejemplo 4.4.25. Sea T /
_
R
3
_
denida por T(x, y, z) = (3x + y 2z, x + 5z, x y + 4z). Observar
que T = L
A
/
_
R
3
_
, siendo A =
_
_
3 1 2
1 0 5
1 1 4
_
_
.
Es

T
(t) =

A
(t) = (t 3) (t 2)
2
, luego los valores propios de T son 2 y 3 y la forma de Jordan
de T tiene un bloque A
1
de tama no 1 correspondiente al valor propio 3 y un bloque A
2
de tama no 2
correspondiente al valor propio 2. Es
A2 I =
_
_
1 1 2
1 2 5
1 1 2
_
_
y rango(A2 I) = 2.
72
Luego MG(2) = 1. Esto implica A
2
tiene un solo bloque de Jordan, luego la forma de Jordan de T es
J =
_
_
3 0 0
0 2 1
0 0 2
_
_
.
Ahora obtendremos una base de Jordan. Sabemos que
R
3
= Ker (T 3 Id) Ker (T 2 Id)
2
,
siendo dimKer (T 3 Id) = 1 y dimKer (T 2 Id)
2
= 2.
Como ya conocemos J, sabemos que esta base va a estar formada por un vector propio correspondiente
al valor propio 3 y un ciclo de longitud 2 correspondiente al valor propio 2. Este ciclo va a estar generado
por un vector v Ker (T 2 Id)
2
Ker (T 2 Id). Operando obtenemos
Ker (T 3 Id) = [(1, 2, 1)], Ker (T 2 Id)
2
= [(1, 0, 2), (0, 1, 1)].
Observar que (0, 1, 1) Ker (T 2 Id)
2
Ker (T 2 Id), luego
(T 2 Id)(0, 1, 1), (0, 1, 1) = (1, 3, 1), (0, 1, 1)
es un ciclo como el que estamos buscando y B = (1, 2, 1), (1, 3, 1), (0, 1, 1) es una base de Jordan para
T tal que [T]
B
= J.
Ejemplo 4.4.26. Sea T /(R
2
[x]) denida por T (p(x)) = p(x) p
t
(x).
Si ( = x
2
, x, 1 es
A = [T]
(
=
_
_
1 0 0
2 1 0
0 1 1
_
_
.
Luego

T
(t) = (t + 1)
3
y el unico valor propio de T es 1 con MA(1) = 3. Observar que (T +Id)
_
p(x)
_
=
p
t
(x), luego Ker(T +Id) = a : a R y MG(1) = 1. Esto implica que hay un solo bloque correspondiente
al valor propio 1 y la forma de Jordan de T es
J =
_
_
1 1 0
0 1 1
0 0 1
_
_
.
De acuerdo a la forma de J, deducimos que la base de Jordan es un ciclo de longitud 3 de la forma B =
_
(T + Id)
2
(v), (T + Id)(v), v
_
, siendo v R
2
[x] Ker (T + Id)
2
. Como (T + Id)
2
_
p(x)
_
= p
tt
(x), deducimos
que Ker(T +Id)
2
= ax+b : a, b R y por lo tanto x
2
R
2
[x] Ker (T + Id)
2
. Entonces B = 2, 2x, x
2

es una base de Jordan para T. Observar que las matrices A y J estan relacionadas por la formula de cambio
de base A = QJQ
1
, siendo
Q =
(
[Id]
B
=
_
_
0 0 1
0 2 0
2 0 0
_
_
.
Ejemplo 4.4.27. Sea T /
_
R
3
_
denida por T (x, y, z) = (2x, y + 3z, 3y + 5z). Es T = L
A
, siendo
A =
_
_
2 0 0
0 1 3
0 3 5
_
_
.
73
Luego

T
(t) = (t 2)
3
y 2 es el unico valor propio de T. Observar que MG(2) = 3 rango(A2I) = 2,
por lo cual T tiene dos bloques de Jordan. Como la suma de los tama nos de los dos bloques tiene que dar
3, deducimos que la forma de Jordan de T es
J =
_
_
2 1 0
0 2 0
0 0 2
_
_
.
Luego la base de Jordan tiene de la forma B = (T 2 Id)(u), u, v siendo u R
3
Ker(T 2 Id) y
v Ker(T 2 Id) tal que (T 2 Id)(u), v es LI. Operando obtenemos
Ker (T 2 Id) = [(1, 0, 0) , (0, 1, 1)].
El vector u = (0, 0, 1) R
3
Ker(T 2 Id) y (T 2 Id) (u) = (0, 3, 3) Ker (T 2 Id) . Ahora tenemos
que encontrar un vector en v Ker(T 2 Id) que no sea colineal con (0, 3, 3), por ejemplo v = (1, 0, 0).
As B = (0, 3, 3) , (0, 0, 1) , (1, 0, 0) es una base de Jordan y [T]
B
= J.
Observacion 4.4.28. Una consecuencia del teorema de existencia de bases de Jordan, es que si el polinomio
caracterstico de un operador T escinde, entonces T se escribe de forma unica como T = S +N, donde S es
diagonalizable, N es nilpotente y S N = N S. Esta es la descomposicion de Jordan del operador T. La
prueba de este resultado esta guiada en un ejercicio de la lista nal.
4.4.3. Forma de Jordan y polinomio minimal
Ahora veremos de relacionar la forma de Jordan con el polinomio minimal.
Proposicion 4.4.29. 1. Si
J =
_
_
_
_
_
_
_
1
1
.
.
.
.
.
.
1

_
_
_
_
_
_
_
M
n
(k).
Entonces m
J
(t) = (t )
n
.
2. Si
A =
_
_
_
J
1
.
.
.
J
k
_
_
_ M
n
(k), J
i
=
_
_
_
_
_
_
_
1
1
.
.
.
.
.
.
1

_
_
_
_
_
_
_
M
p
i
(k),
con p
1
p
2
p
k
. Entonces m
A
(t) = (t )
p
1
.
3. Si
A =
_
_
_
A
1
.
.
.
A
h
_
_
_ M
n
(k), A
i
=
_
_
_
J
i
1
.
.
.
J
i
k
i
_
_
_ M
n
i
(k), i = 1, . . . , h,
J
i
j
=
_
_
_
_
_
_
_

i
1

i
1
.
.
.
.
.
.

i
1

i
_
_
_
_
_
_
_
M
p
i
j
(k), j = 1, . . . , k
i
,
74
con
i
,=
j
si i ,= j y p
i
= p
i
1
p
i
2
p
i
k
i
, para todo i = 1, . . . , h. Entonces
m
A
(t) = (t
1
)
p
1
(t
h
)
p
h
.
Dem. Las armaciones (1) y (2) se deducen de la proposicion 4.4.8 considerando J I y A I,
respectivamente.
(3): Es

A
(t) = (1)
n
(t
1
)
n
1
(t
h
)
n
h
, con
i
,=
j
si i ,= j. Luego m
A
(t) = (t
1
)
m
1
(t
h
)
m
h
,
con 1 m
i
n
i
, i = 1, . . . , h.
Sea p(t) = (t
1
)
q
1
(t
h
)
q
h
. Es
p(A) =
_
_
_
p (A
1
)
.
.
.
p (A
h
)
_
_
_.
Luego
p(A) = 0 p (A
i
) = 0, i = 1, . . . , h
m
A
i
(t)[ p(t), i = 1, . . . , h
(t
i
)
p
i
[ (t
1
)
q
1
(t
h
)
q
h
, i = 1, . . . , h
p
i
q
i
, i = 1, . . . , h.
Entonces m
A
(t) = (t
1
)
p
1
(t
h
)
p
h
.
Corolario 4.4.30. Si el polinomio caratcerstico de un operador escinde, entonces para cada valor propio
, el exponente de t en la descomposicion factorial del polinomio minimal coincide con el tama no del
mayor bloque de Jordan correspondiente a .
Ejemplo 4.4.31. Sea T /
_
R
3
_
del que se sabe que (T 5 Id)
2
= 0 y T ,= 5 Id. Las condiciones anteriores
implican que m
T
(t) = (t 5)
2
, luego

T
(t) = (t 5)
3
. Sabemos que la forma de Jordan tiene tama no 3 y
en la misma solo hay bloques correspondientes al valor propio 5 y de estos el mas grande tiene tama no 2.
Luego la forma de Jordan de T es
J =
_
_
5 1 0
0 5 0
0 0 5
_
_
.
Ejemplo 4.4.32. Sea A M
4
(C) que verica (A 5I)
2
= 0, A ,= 5I. Estas condiciones implican m
A
(t) =
(t 5)
2
, luego

A
(t) = (t 5)
4
. Por la forma del polinomio minimal de A, sabemos que el tama no del mayor
bloque de la forma de Jordan de A es 2, luego las posibles formas de Jordan de A son
_
_
_
_
5 1 0 0
0 5 0 0
0 0 5 1
0 0 0 5
_
_
_
_
,
_
_
_
_
5 1 0 0
0 5 0 0
0 0 5 0
0 0 0 5
_
_
_
_
.
Para determinar la forma de Jordan necesitamos alg un otro dato. Por ejemplo, si sabemos el rango de A5I,
entonces la forma de Jordan de A es la primera si rango(A5I) = 2 y es la segunda si rango(A5I) = 1.
75
Captulo 5
Apendice
5.1. Polinomios
En esta seccion k es un cuerpo arbitrario.
Polinomios de Lagrange
Proposicion 5.1.1. Si c
1
, . . . , c
k
elementos distintos de k, entonces existen p
1
(x), . . . , p
k
(x) k[x] tales
que p
i
(c
j
) =
ij
, i, j = 1, . . . , k.
Dem. Denimos p
1
(x), . . . , p
k
(x) mediante
p
i
(x) =

j,=i
x c
j
c
i
c
j
=
(x c
1
)
(c
i
c
1
)

(x c
i1
)
(c
i
c
i1
)
(x c
i+1
)
(c
i
c
i+1
)

(x c
k
)
(c
i
c
k
)
, i = 1, . . . , k.
Luego p
i
(c
l
) =

j,=i
c
l
c
j
c
i
c
j
=
_
0, l ,= i

j,=i
c
i
c
j
c
i
c
j
= 1, l = i
_
=
il
, i, l = 1, . . . , k.
Los polinomios p
1
(x), . . . , p
k
(x) obtenidos en la proposicion anterior se llaman los polinomios de Lagrange
asociados a c
1
, . . . , c
k
.
Proposicion 5.1.2. Sean c
1
, . . . , c
k
elementos distintos de k y b
1
, . . . , b
k
elementos de k. Entonces existe
un polinomio p(x) k[x] tal que p(c
i
) = b
i
, i = 1, . . . , k.
Dem. Sea p(x) =

k
i=1
b
i
p
i
(x), siendo p
1
(x), . . . , p
k
(x) los polinomios de Lagrange asociados a c
1
, . . . , c
k
.
Luego p(c
l
) =

k
i=1
b
i
p
i
(c
l
) =

k
i=1
b
i

il
= b
l
, l = 1, . . . , k.
Maximo com un divisor
Denicion 5.1.3. Un polinomio p(x) es monico si es no nulo y el coeciente de su termino de mayor grado
es 1, es decir si es de la forma p(x) = x
m
+a
m1
x
m1
+ +a
1
x +a
0
, con m 1.
Sean p(x) y q(x) en k[x] no simultaneamente nulos. Recordemos que el maximo com un divisor de p(x) y
q(x) es el unico polinomio monico d(x) que verica d(x)[p(x), d(x)[q(x) y si m(x) k[x] es tal que m(x)[p(x),
m(x)[q(x), entonces m(x)[d(x). En esta situacion escribimos d(x) = mcd (p(x), q(x)).
Observar que si p(x) ,= 0 entonces mcd (p(x), 0) =
1
a
p(x), siendo a el coeciente del termino de mayor
grado de p(x).
76
En los cursos de secundaria se prueba que si tenemos p(x) y q(x) en k[x] con q(x) no nulo y gr p(x)
gr q(x), entonces mcd (p(x), q(x)) = mcd (q(x), r(x)), siendo r(x) el resto de dividir p(x) por q(x). Iterando
este proceso obtenemos el algoritmo de Euclides que permite obtener el maximo com un divisor de dos
polinomios:
p(x) = q(x) d
1
(x) +r
1
(x), gr r
1
(x) < gr q(x)
q(x) = r
1
(x) d
2
(x) +r
2
(x), gr r
2
(x) < gr r
1
(x)
r
1
(x) = r
2
(x) d
3
(x) +r
3
(x), gr r
3
(x) < gr r
2
(x)
r
2
(x) = r
3
(x) d
4
(x) +r
4
(x), gr r
4
(x) < gr r
3
(x)
.
.
.
r
n2
(x) = r
n1
(x) d
n
(x) +r
n
(x), gr r
n
(x) < gr r
n1
(x)
r
n1
(x) = r
n
(x) d
n+1
(x), r
n+1
(x) = 0
_

_
mcd (p(x), q(x)) =
1
a
r
n
(x). (5.1)
siendo a el coeciente del termino de mayor grado de r
n
(x).
Ejemplo 5.1.4. Sean x
8
x
6
+ 2x
5
+ 2x
4
+ 2x
3
+ 2x
2
+x + 1 y x
6
x
4
+ 2 x
3
+ 2 x
2
+x + 1 en R[x].
x
8
x
6
+ 2x
5
+ 2x
4
+ 2x
3
+ 2x
2
+x + 1 = (x
6
x
4
+ 2 x
3
+ 2 x
2
+x + 1)(x
2
) +x
3
+x
2
+x + 1
x
6
x
4
+ 2 x
3
+ 2 x
2
+x + 1 = (x
3
+x
2
+x + 1)(x
3
x
2
x + 3) +x
2
x 2
x
3
+x
2
+x + 1 = (x
2
x 2)(x + 2) + 5x + 5
x
2
x 2 = (5 x + 5)(
1
5
x
2
5
)
luego mcd (x
8
x
6
+ 2x
5
+ 2x
4
+ 2x
3
+ 2x
2
+x + 1, x
6
x
4
+ 2 x
3
+ 2 x
2
+x + 1) = x + 1.
Proposicion 5.1.5. Sean p(x) y q(x) en k[x] no simultaneamente nulos. Entonces existen a(x) y b(x) en
k[x] tales que
mcd (p(x), q(x)) = a(x) p(x) +b(x) q(x). (5.2)
Dem. Si q(x) = 0 entonces mcd (p(x), 0) =
1
a
p(x), siendo a el coeciente del termino de mayor grado de
p(x). Luego es a(x) =
1
a
y b(x) = 0.
Supongamos que tenemos p(x) y q(x) en k[x] no nulos con gr p(x) gr q(x). Consideremos el algoritmo
de Euclides (5.1). Probaremos por induccion que para todo l 1, 2, . . . , n existen polinomios a
l
(x) y b
l
(x)
tales que
r
l
(x) = a
l
(x) p(x) +b
l
(x) q(x).
Luego la relacion (5.2) se obtiene considerando el caso l = n y dividiendo por el coeciente del termino de
mayor grado de r
n
(x).
Observar que de la primera ecuacion de (5.1) deducimos r
1
(x) = d(x) p(x) q(x), si llamamos a
1
(x) =
d(x) y b
1
(x) = 1, es
r
1
(x) = a
1
(x) p(x) +b
1
(x) q(x).
De la segunda ecuacion de (5.1) obtenemos
r
2
(x) = d
2
(x) r
1
(x) +q(x) = d
2
(x) (a
1
(x) p(x) +b
1
(x) q(x)) +q(x)
= (d
2
(x) a
1
(x)) p(x) + (1 d
2
(x) b
1
(x)) q(x).
Si llamamos a
2
(x) = d
2
(x) a
1
(x) y b
2
(x) = 1 d
2
(x) b
1
(x), es
r
2
(x) = a
2
(x) p(x) +b
2
(x) q(x).
77
Razonando inductivamente, sea h < n y supongamos que para todo l h es r
l
(x) = a
l
(x) p(x) +b
l
(x) q(x).
Despejando r
h+1
(x) en (5.1) obtenemos
r
h+1
(x) = r
h
(x) d
h+1
(x) +r
h1
(x)
= (a
h
(x) p(x) +b
h
(x) q(x)) d
h+1
(x) +a
h1
(x) p(x) +b
h1
(x) q(x)
= (a
h
(x) d
h+1
(x) +a
h1
(x)) p(x) + (b
h
(x) d
h+1
(x) +b
h1
(x)) q(x)
= a
h+1
(x) p(x) +b
h+1
(x) q(x),
siendo a
h+1
= a
h
(x) d
h+1
(x) +a
h1
(x) y b
h+1
(x) = b
h
(x) d
h+1
(x) +b
h1
(x).
Ejemplo 5.1.6. Sean p(x) = x
6
x
4
+ 2 x
3
+ 2 x
2
+ x + 1 y q(x) = x
3
+ x
2
+ x + 1 en R[x]. Aplicando el
algoritmo de Euclides obtenemos
x
6
x
4
+ 2 x
3
+ 2 x
2
+x + 1 = (x
3
+x
2
+x + 1)(x
3
x
2
x + 3) +x
2
x 2
x
3
+x
2
+x + 1 = (x
2
x 2)(x + 2) + 5x + 5
x
2
x 2 = (5 x + 5)(
1
5
x
2
5
)
luego mcd (p(x), q(x)) = x + 1.
Observar que es
p(x) = q(x) d
1
(x) +r
1
(x), gr r
1
(x) < gr q(x)
q(x) = r
1
(x) d
2
(x) +r
2
(x), gr r
2
(x) < gr r
1
(x)
r
1
(x) = r
2
(x) d
3
(x), r
3
(x) = 0.
Luego despejando r
2
(x) de las dos primeras ecuaciones obtenemos
r
2
(x) = d
2
(x) p(x) + (1 +d
1
(x) d
2
(x)) q(x) (5.3)
siendo r
2
(x) = 5x +5, d
1
(x) = x
3
x
2
x +3 y d
2
(x) = x +2. Si substituimos r
2
(x), d
1
(x) y d
2
(x) en (5.3)
llegamos a
5x + 5 = (x + 2) p(x) + (x
4
+x
3
3x
2
+x + 7) q(x),
luego x + 1 =
1
5
(x + 2) p(x) +
1
5
(x
4
+x
3
3x
2
+x + 7) q(x) (vercarlo!).
Proposicion 5.1.7. Sean p(x) y q(x) polinomios no nulos. Entonces se verica que mcd (p(x), q(x)) = 1 si
y solo si existen a(x) y b(x) en k[x] tales que
a(x) p(x) +b(x) q(x) = 1.
Dem. Si mcd (p(x), q(x)) = 1, entonces la proposicion anterior nos prueba que existen a(x) y b(x) en
k[x] tales que a(x) p(x) +b(x) q(x) = 1.
Supongamos que existen polinomios a(x) y b(x) que verican a(x) p(x) + b(x) q(x) = 1. Si m(x) divide
a p(x) y a q(x), entonces m(x) divide a a(x) p(x) + b(x) q(x) = 1, luego m(x) k. Esto prueba que
mcd (p(x), q(x)) = 1.
78
5.2. Rango por determinantes
Denicion 5.2.1. Sea A M
mn
(k), siendo k un cuerpo cualquiera. Los menores de orden h de A (1
h mnm, n) son los determinantes de las submatrices de A de tama no h h obtenidas suprimiendo
mh las y n h columnas de A.
Ejemplo 5.2.2. Si A =
_
_
1 2 5 0
3 6 7 0
4 8 12 0
_
_
M
34
(k) podemos obtener menores de orden 3, 2 y 1 de A.
Los menores de orden 1 son simplemente las entradas de A. Los menores de orden 3 se obtienen suprimiendo
la primera, segunda, tercera y cuarta columnas de A:

2 5 0
6 7 0
8 12 0

= 0,

1 5 0
3 7 0
4 12 0

= 0,

1 2 0
3 6 0
4 8 0

= 0,

1 2 5
3 6 7
4 8 12

= 0.
Los menores de orden 2 se obtienen suprimiendo una la y dos columnas de A; por ejemplo los menores de
orden 2 que se obtienen eliminando la ultima columna son:

1 2
3 6

= 0,

1 5
3 7

= 8,

2 5
6 7

= 16,

5 0
7 0

= 0,

2 0
6 0

= 0,

1 0
3 0

= 0.
Los menores de orden 2 que se obtienen eliminando la columna del medio son:

1 2
4 8

= 0,

1 5
4 12

= 8,

2 5
8 12

= 16,

5 0
12 0

= 0,

2 0
8 0

= 0,

1 0
4 0

= 0.
Los menores de orden 2 que se obtienen eliminando la primer columna son:

3 6
4 8

= 0,

3 7
4 12

= 8,

6 7
8 12

= 16,

7 0
12 0

= 0,

6 0
8 0

= 0,

3 0
4 0

= 0.
Teorema 5.2.3. Si A M
mn
(k), entonces rango(A) = maxorden de M : M menor no nulo de A.
Dem. Sean r = rango(A) y l = maxorden de M : M menor no nulo de A.
Si A contiene una submatriz cuadrada B de tama no q q y q > r, entonces como todo conjunto de q
columnas de A es LD, deducimos que las columnas de B son LD y por lo tanto el determnante de B es cero.
Esto implica que todos los menores de orden q, con q > r son nulos y por lo tanto l r.
Como el rango de A es r, podemos reordenar las columnas de A de forma tal que las primeras r columnas
sean LI. Si C es la matriz m r formada por esas columnas, entonces el rango de C es r, luego existen r
las de C que son LI. Reordenando las las de C de forma tal que las primeras r las sean LI, obtenemos
que la matriz D obtenida tomando esas r las es una submatriz de tama no r r de A que tiene r las LI,
por lo cual su determinante es distinto de cero. As obtuvimos que existe un menor no nulo de orden r de
A; esto implica l r. Teniendo en cuenta que antes habamos obtenido l r, deducimos l = r.
Ejemplo 5.2.4. En el ejemplo anterior tenemos que todos los menores de orden 3 de A son nulos y existe
alg un menor de orden 2 de A no nulo, luego el rango de A es 2.
79
5.3. Movimientos rgidos
Como una aplicacion del tema producto interno veremos como clasicar los movimientos del plano y del
espacio. En esta seccion en R
2
y R
3
consideramos el producto interno usual.
Proposicion 5.3.1. Toda isometra T de R
2
es una rotacion si det T = 1 o una simetra axial si det T = 1.
Dem. Sea T /
_
R
2
_
una isometra, luego es T = L
A
, siendo A =
_
a b
c d
_
una matriz ortogonal. Al ser
A ortogonal es det A = 1.
Supongamos det A = 1. Sabemos que las columnas de A forman una base ortonormal de R
2
, luego (b, d)
es ortogonal con (a, c). Como (c, a) es no nulo y tambien es ortogonal con (a, c), deducimos que existe
k R tal que (b, d) = k(c, a). La condicion det A = 1 junto con 1 = |(a, c)|
2
= a
2
+ c
2
implican k = 1,
luego (b, d) = (c, a). Como a
2
+c
2
= 1, entonces existe un unico [0, 2) tal que a = cos y c = sen .
Luego
A =
_
a c
c a
_
=
_
cos sen
sen cos
_
y por lo tanto T es la rotacion de centro en el origen y angulo .
Si det A = 1, es

T
(t) = t
2
(a + d)t 1, luego su discriminante es positivo y por lo tanto tiene dos
races reales cuyo producto es 1. Como los valores propios de A solo pueden ser 1, deducimos que existe
B = w
1
, w
2
base ortonormal de R
2
que verica
T(w
1
) = w
1
, T(w
2
) = w
2
.
Luego T es la simetra axial de eje el subespacio [w
1
].
Proposicion 5.3.2. Toda isometra T de R
3
es una rotaci on si det T = 1 o la composicion de una rotacion
y una simetra especular si det T = 1.
Dem. Como el polinomio caracterstico de T es de grado 3, entonces el teorema de Bolzano implica que
tiene alguna raz real . Sea v
0
un vector propio de T correspondiente a y W = [v
0
]

. Es facil de probar
que W es T invariante, luego T[
W
/(W) y dimW = 2.
Si ( = w
1
, w
2
es una base de W, entonces B = v
0
, w
1
, w
2
es una base de R
3
y
[T]
B
=
_
_
0 0
0 a b
0 c d
_
_
, [T[
W
]
(
=
_
a b
c d
_
.
esto implica det T = det(T[
W
).
Como T es una isometra sabemos que = 1 y det T = 1.
1. Si det T = 1 y = 1, es det(T[
W
) = 1; luego T[
W
es una rotacion en el plano W y por lo tanto T es
una rotacion en el espacio de eje [v
0
].
2. Si det T = 1 y = 1, es det(T[
W
) = 1; luego T[
W
es una simetra axial de eje [w
1
] en el plano W
y por lo tanto T es una simetra axial en el espacio con eje [w
1
], que es lo mismo que una rotacion de
eje [w
1
] y angulo .
3. Si det T = 1 y = 1, es det(T[
W
) = 1; luego T[
W
es una simetra axial de eje [w
1
] en el plano
W y por lo tanto T es una simetra especular respecto al subespacio [v
0
, w
1
], que es lo mismo que
la composicion de la simetra especular respecto al subespacio [v
0
, w
1
] con la identidad (que es una
rotacion de angulo 0 y eje cualquiera).
80
4. Si det T = 1 y = 1, es det(T[
W
) = 1; luego T[
W
es una rotacion en el plano W y por lo tanto T
es una rotacion en el espacio de eje [v
0
] compuesta con una simetra especular respecto a W.
Denicion 5.3.3. Un movimiento rgido en un espacio con producto interno V es una funcion M : V V
que verica |M(u) M(v)| = |u v|, u, v V .
Una traslacion es una funcion M
v
0
: V V de la forma M
v
0
(v) = v +v
0
, para todo v V , donde v
0
V
es un vector jo. Claramente toda traslacion es un movimiento rgido.
Proposicion 5.3.4. Si V es un espacio vectorial real con producto interno, entonces todo movimiento rgido
M en V es de la forma M(v) = T(v) + v
0
donde v
0
es un vector jo y T /(V ) es una isometra. Luego
los movimientos rgidos de V se obtienen componiendo isometras con traslaciones.
Dem. Sea v
0
= M(0) y denimos una funcion T : V V mediante T(v) = M(v) v
0
, para todo v V .
Luego M(v) = T(v) +v
0
para todo v V . Resta ver que T es una isometra, para eso probaremos:
1. |T(v)| = |v|, para todo v V .
2. |T(u) T(v)| = |u v|, para todo u, v V .
3. T(u), T(v) = u, v, para todo u, v V .
4. T(au +v) = aT(u) +T(v), para todo a R, u, v V .
Las pruebas de las partes 1 y 2 son inmediatas a partir de la denicion de T. Para probar la parte 3, observar
que de la igualdad (2.2) se deduce que para todo u, v V vale
|u v|
2
= |u|
2
+|v|
2
2u, v u, v =
1
2
_
|u|
2
+|v|
2
|u v|
2
_
.
Luego de esta relacion y las partes 1 y 2 se deduce 3.
_
_
T(au +v)
_
aT(u) +T(v)
__
_
2
=
_
_
_
T(au +v) T(v)
_
aT(u)
_
_
2
= |T(au +v) T(v)|
2
+|aT(u)|
2
2T(au +v) T(v), aT(u)
= |T(au +v) T(v)|
2
+a
2
|T(u)|
2
2a(T(au +v), T(u) T(v), T(u))
= |(au +v) v|
2
+a
2
|u|
2
2a(au +v, u v, u) = 0.
Luego
_
_
T(au +v)
_
aT(u) +T(v)
__
_
2
= 0 y esto equivale a la armacion en 4.
Corolario 5.3.5. Todo movimiento rgido del plano es una traslacion, una rotacion, una simetra axial o
una antitraslaci on.
Dem. Por la proposicion 5.3.1 sabemos que las isometras del plano son rotaciones con centros en el
origen o simetras axiales con ejes que pasan por el origen. Luego los movimientos rgidos del plano se
obtienen componiendo traslaciones con esas rotaciones o simetras axiales. La descripcion nal se obtiene
observando que la composicion de una rotaci on con una traslacion da otra rotacion con centro trasladado (a
menos que la rotacion sea la identidad, en cuyo caso da una traslacion) y la composicion de una traslacion
con una simetra axial da una simetra axial si el vector de traslacion es ortogonal al eje de la simetra axial
o una antitraslacion en caso contrario.
Observacion 5.3.6. En forma analoga, utilizando la proposicion 5.3.2 se clasican todos los movimientos
rgidos del espacio.
81
5.4. Matrices simetricas reales
En esta seccion el cuerpo de base es R.
Valores propios de matrices simetricas reales
El siguiente resultado permite probar el teorema 2.2.26 sin hacer referencia a los n umeros complejos.
Teorema 5.4.1. Si A M
n
(R) es simetrica, entonces A tiene alg un valor propio.
Dem. Sea , el producto interno usual (escalar) de R
n
. Denimos f : R
n
R mediante f(x) = x, Ax,
para todo x R
n
. Observar que f es una forma cuadratica en R
n
, es decir un polinomio homogeneo de
segundo grado en n variables, luego es una funcion diferenciable y por lo tanto continua.
Sea S = x R
n
: |x| = 1. Como s es compacto y f es continua, entonces el teorema de Weierstrass
nos dice que existe v en S tal que f(v) f(x), para todo x en S. Notar que al ser |v| = 1 se tiene v ,= 0.
Sea w un vector arbitrario de R
n
tal que w v y |w| = 1. Denimos : R R
n
mediante
(t) = (cos t)v + (sen t)w, t R.
Observar que al ser |v| = |w| = 1 y v w, el teorema de Pitagoras implica |(t)|
2
= cos
2
t + sen
2
t = 1,
luego (t) S y por lo tanto f(v) f
_
(t)
_
, para todo t en R.
Sea = f : R R. Por lo anterior es (0) (t), para todo t en R; esto nos dice que tiene
un mnimo absoluto en 0 y como es claro que es derivable, deducimos
t
(0) = 0. Para calcular
t
(0)
empezamos observando que vale
t
(t) = (sen t)v + (cos t)w y por lo tanto (0) = v y
t
(0) = w. Por otro
lado es (t) = (t), A(t), luego
t
(t) =
t
(t), A(t) +(t), A
t
(t). Sustituyendo t por 0 y usando que
A es simetrica obtenemos
0 =
t
(0) = w, Av +v, Aw = w, Av +Av, w = 2w, Av.
Luego Av es ortogonal con w, para todo w en R
n
tal que w v y |w| = 1. Notar que si w un vector
arbitrario no nulo de R
n
tal que w v, entonces w
0
=
w
|w|
verica w
0
v y |w
0
| = 1, luego Av es
ortogonal con w
0
y por lo tanto con w. En conclusion Av es ortogonal con w, para todo w en R
n
tal que
w v. Esto implica Av
_
[v]

= [v] y por lo tanto existe R tal que Av = v.


Matrices simetricas reales congruentes
Recordar que en la seccion 3.2 denimos que dos matrices A y B en M
n
(R) son congruentes si existe
una matriz invertible Q en M
n
(k) tal que A = Q
t
BQ.
Proposicion 5.4.2 (Ley de inercia de Sylvester para matrices). Si A es una matriz simetrica real, entonces
el n umero de entradas positivas, negativas y nulas de una matriz diagonal congruente con A es independiente
de la matriz diagonal.
Dem. Sea Bil
S
(R
n
) denida por (u, v) = u
t
Av. Si D es una matriz diagonal congruente con A,
entonces existe B base de R
n
tal que M
B
() = D. Luego la Ley de inercia de Sylvester nos dice que el
n umero de entradas positivas, negativas y nulas de D depende solo de (por lo tanto de A) y no de D.
Denicion 5.4.3. Sea A M
n
(R) simetrica y D una matriz diagonal congruente con A. Denimos el ndice
de A como el n umero de entradas diagonales positivas de D y la signatura de A como la diferencia entre el
n umero de entradas diagonales positivas y el de entradas diagonales negativas de D. La Ley de Inercia de
Sylvester para matrices nos garantiza que esta denicion no depende de la matriz diagonal D.
Observar que el ndice y la signatura de A coinciden con el ndice y la signatura de
A
Bil
S
(R
n
)
denida por
A
(u, v) = u
t
Av. La signatura, el ndice y el rango son los invariantes de la matriz simetrica
A.
82
Observacion 5.4.4. De la Ley de Inercia de Sylvester para matrices se deduce inmediatamente que si dos
matrices simetricas son congruentes, entonces tienen los mismos invariantes.
Observacion 5.4.5. Es un ejercicio del practico 6 el probar que si V un R-espacio vectorial de dimension
nita y Bil
S
(V ), entonces existe una base -ortonormal de V .
Ejemplo 5.4.6. Sea Bil
S
(V ), V = R
2
, tal que (x, y) = x
2
y
2
, x, y R. Es facil de pobar que
(2, 1), (1, 2) es una base -ortogonal de R
2
, luego
__
2

3
,
1

3
_
,
_
1

3
,
2

3
__
es una base -ortonormal de R
2
(otra base -ortonormal es la canonica).
Teorema 5.4.7. Si A es una matriz simetrica real, entonces A es congruente con una unica matriz diagonal
D de la forma
D =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
.
1
1
.
.
.
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
. (5.4)
Dem. Sea
A
Bil
S
(R
n
) denida por
A
(u, v) = u
t
Av y B una base
A
-ortonormal de R
n
. Si D =
M
B
(
A
), entonces podemos considerar B ordenada de forma tal que D tiene la forma (5.4). Si ( es la base
canonica de R
n
, entonces es A = M
(
(
A
) y D = Q
t
AQ, siendo Q =
(
[id ]
B
. Esto prueba la existencia de la
matriz D.
Para probar la unicidad, si la matriz A es congruente con D y con

D, siendo D y

D matrices diagonales
de la forma (5.4), entonces D y

D son congruentes entre s y luego tienen los mismos invariantes. Como el
ndice de una matriz de esta forma es la cantidad de entradas diagonales que valen 1 y la signatura es la
diferencia entre la cantidad de entradas diagonales que valen 1 y la de entradas diagonales que valen 1,
resulta que D y

D tienen la misma cantidad de entradas diagonales que valen 1 y la misma cantidad de
entradas diagonales que valen 1, luego D =

D.
Corolario 5.4.8. Dos matrices simetricas reales son congruentes si y solo si tienen los mismos invariantes.
Dem. Ya sabemos que si dos matrices simetricas reales son congruentes, entonces tienen los mismos
invariantes. Para probar el recproco, si A y B son matrices simetricas, entonces sabemos que A es congruente
con una unica matriz diagonal D
A
de forma (5.4) y B es congruente con una unica matriz diagonal D
B
de forma (5.4). Como la cantidad de entradas diagonales que valen 1 y la cantidad de entradas diagonales
que valen 1 en D
A
y D
B
depende solo de los invariantes de A y de B respectivamente y estos coinciden,
entonces D
A
= D
B
. Luego A y B son congruentes entre s.
5.5. Supercies cuadricas
Denicion 5.5.1. Una cuadrica o supercie cu adrica es un subconjunto de R
3
de la forma
o =
_
(x, y, z) R
3
: a x
2
+b y
2
+c z
2
+d xy +e xz +f yz +g x +hy +i z +j = 0
_
,
siendo a, . . . , j n umeros reales tales que a, . . . , f son no todos nulos.
83
Ejemplo 5.5.2. Ejemplos de cuadricas.
1. Esfera: x
2
+y
2
+z
2
= 1.
2. Cono circular: x
2
+y
2
z
2
= 0.
3. Paraboloide: z = x
2
+y
2
.
4. Dos planos secantes: x
2
+ 2xy +y
2
z
2
= 0 (x +y +z)(x +y z) = 0.
Observar que toda cuadrica se puede describir de la forma siguiente
o =
_
(x, y, z) R
3
: a
11
x
2
+a
22
y
2
+a
33
z
2
+ 2 a
12
xy + 2 a
13
xz + 2 a
23
yz +b
1
x +b
2
y +b
3
z +c = 0
_
,
siendo A =
_
_
a
11
a
12
a
13
a
12
a
22
a
23
a
13
a
23
a
33
_
_
M
3
(R) , A ,= 0 y b
1
, b
2
, b
3
, c R.
Veamos otras formas de describir o. Si consideramos la forma cuadratica : R
3
R y la funcional
: R
3
R denidas por
(x, y, z) = a
11
x
2
+a
22
y
2
+a
33
z
2
+ 2 a
12
xy + 2 a
13
xz + 2 a
23
yz, (x, y, z) = b
1
x +b
2
y +b
3
z.
entonces
o =
_
X R
3
: (X) +(X) +c = 0
_
.
Observar que si es la forma bilineal simetrica asociada a y escribimos X =
_
_
x
y
z
_
_
y B =
_
_
b
1
b
2
b
3
_
_
,
entonces
(X) = X
t
AX, (X, Y ) = X
t
AY, (X) = X
t
B, X R
3
.
Si , es el producto interno usual (escalar) de R
3
, las formulas anteriores se escriben
(X) = X, AX, (X, Y ) = X, AY = AX, Y , (X) = X, B, X R
3
.
Denicion 5.5.3. Una cuadrica o se dice no degenerada si lo es la forma cuadratica asociada , es decir
si det A ,= 0. Decimos que X
0
R
3
es un centro de o si verica 2 AX
0
+B = 0.
Notar que si o es no degenerada, entonces tiene un unico centro X
0
=
1
2
A
1
B. En caso contrario o
puede tener innitos centros o no tener ninguno (ver el ejemplo 5.5.5).
Proposicion 5.5.4. Supongamos que una cu adrica o admite un centro X
0
. Si un punto esta en o, entonces
su simetrico respecto a X
0
tambien.
Dem. Supongamos que X
1
o, luego X
1
verica
(X
1
) +(X
1
) +c = 0. (5.5)
84
Observar que si X
2
es el simetrico de X
1
respecto a X
0
, entonces X
0
=
1
2
(X
1
+X
2
), luego X
2
= 2X
0
X
1
.
Calculando obtenemos
(X
2
) +(X
2
) +c = (2X
0
X
1
) +(2X
0
X
1
) +c
= 4(X
0
) 4(X
0
, X
1
) + (X
1
) + 2(X
0
) (X
1
) +c
= 4(X
0
) 4(X
0
, X
1
) + 2(X
0
) 2(X
1
) (usando (5.5))
= 2
_
2(X
0
, X
0
) 2(X
0
, X
1
) +(X
0
X
1
)
_
= 2
_
(2X
0
, X
0
X
1
) +(X
0
X
1
)
_
= 2
_
2AX
0
, X
0
X
1
+B, X
0
X
1

_
= 22AX
0
+B, X
0
X
1
= 20, X
0
X
1
= 0.
Luego (X
2
) +(X
2
) +c = 0 y por lo tanto X
2
o.
Ejemplo 5.5.5 (Ejemplos de supercies cuadricas).
Cuadricas con centro.
1. Hiperboloide de una hoja:
x
2
a
2
+
y
2
b
2

z
2
c
2
= 1.
2. Hiperboloide de dos hojas:
x
2
a
2

y
2
b
2

z
2
c
2
= 1.
3. Elipsoide:
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 1.
4. Cono:
x
2
a
2
+
y
2
b
2

z
2
c
2
= 0.
Cuadricas sin centro.
1. Paraboloide elptico: z =
x
2
a
2
+
y
2
b
2
.
2. Paraboloide hiperbolico: z =
x
2
a
2

y
2
b
2
.
3. Cilindro parabolico: z =
x
2
a
2
.
Cuadricas con un eje de centros.
1. Cilindro elptico:
x
2
a
2
+
y
2
b
2
= 1.
2. Cilindro hiperbolico:
x
2
a
2

y
2
b
2
= 1.
3. Dos planos secantes:
x
2
a
2

y
2
b
2
= 0 (
x
a

y
b
= 0 y
x
a
+
y
b
= 0).
4. Una recta (doble):
x
2
a
2
+
y
2
b
2
= 0 (x = 0 e y = 0).
Cuadricas con un plano de centros.
1. Dos planos paralelos:
x
2
a
2
= 1 (x = a y x = a).
2. Un plano (doble):
x
2
a
2
= 0 (x = 0).
85
Figura 5.1: Hiperboloide de una hoja y de dos hojas.
Figura 5.2: Elipsoide y cono.
Figura 5.3: Paraboloide elptico e hiperbolico.
86
Estas son las llamadas ecuaciones reducidas de las cuadricas.
Observacion 5.5.6. La ecuacion de una cuadrica puede dar lugar a un punto o al conjunto vaco:
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 0,
x
2
a
2
+
y
2
b
2
+
z
2
c
2
= 1.
Teorema 5.5.7. Si una cu adrica o no es el conjunto vaco ni esta formada por un solo punto, entonces
coincide con una de las descritas en el ejemplo 5.5.5, a menos de trasladar, rotar o intercambiar los ejes de
coordenadas o simetrizar respecto a un plano coordenado.
Dem. Sea o =
_
X R
3
: (X) +(X) +c = 0
_
, siendo (X) = X, AX y (X) = X, B.
Como A es una matriz simetrica real, entonces existe Q M
3
(R) matriz ortogonal tal que Q
t
AQ = D,
siendo
D =
_
_

1
0 0
0
2
0
0 0
3
_
_
M
3
(R).
Observar que
1
,
2
y
3
son los valores propios de A y det(A) =
1

3
.
Empezamos el estudio discutiendo seg un det(A) es o no cero.
Caso 1: det(A) ,= 0. La matriz A es invertible, luego o tiene un unico centro X
0
R
3
. Realizamos el
cambio de variable X =

X +X
0
(traslacion de ejes), luego
(X) +(X) +c = (

X +X
0
) +(

X +X
0
) +c
= (

X) + 2 (

X, X
0
) + (X
0
) +(

X) +(X
0
) +c
= (

X) + 2 (

X, X
0
) +(

X) + (X
0
) +(X
0
) +c
= (

X) + 2
_

X, AX
0
_
+
_

X, B
_
+ (X
0
) +(X
0
) +c
= (

X) +
_

X, 2 AX
0
+B
_
+ (X
0
) +(X
0
) +c
= (

X) +d,
siendo d = (X
0
) +(X
0
) +c. Entonces la ecuacion de o respecto a las coordenadas

X es
o : (

X) +d = 0.
Realizamos el cambio de variable

X = Q

X. Como Q es una matriz ortogonal, esto corresponde a realizar
un giro de ejes si det(Q) = 1 o un giro de ejes seguido de una simetra especular si det(Q) = 1 (ver la
proposicion 5.3.2). Es
(

X) = (Q

X) = (Q

X)
t
AQ

X =

X
t
Q
t
AQ

X =

X
t
D

X =
1
x
2
+
2
y
2
+
3
z
2
,

X =
_
_
x
y
z
_
_
.
Entonces la ecuacion de o respecto a las coordenadas x, y y z es
o :
1
x
2
+
2
y
2
+
3
z
2
+d = 0. (5.6)
Consideremos primero el caso en el cual d = 0.
87
1. Si
1
,
2
y
3
tienen el mismo signo, entonces o es un punto.
2. Si
1
,
2
y
3
no tienen el mismo signo, entonces o es un cono.
Consideremos ahora el caso en que d ,= 0. A menos de intercambiar x, y y z tenemos los casos siguientes:
1. Si
1
,
2
,
3
y d tienen el mismo signo, entonces o es el conjunto vaco.
2. Si
1
,
2
,
3
tienen el mismo signo y este signo es distinto del signo de d, entonces o es un elipsoide.
3. Si sg
1
= sg
2
,= sg
3
= sg d, entonces o es un hiperboloide de una hoja.
4. Si sg
1
= sg
2
,= sg
3
,= sg d, entonces o es un hiperboloide de dos hojas.
Caso 2: det(A) = 0. Realizamos primero el cambio de variable X = Q

X.

_
Q

X
_
+
_
Q

X
_
+c =

X
t
D

X +
_
Q

X, B
_
+c =

X
t
D

X +
_

X, Q
t
B
_
+c.
Sean

X =
_
_
x
y
z
_
_
y
_
_

3
_
_
= Q
t
_
_
b
1
b
2
b
3
_
_
. Entonces la ecuacion de o respecto a las coordenadas x, y y z
es
o :
1
x
2
+
2
y
2
+
3
z
2
+
1
x +
2
y +
3
z +c = 0.
Observar que como A ,= 0, entonces no puede ser
1
=
2
=
3
= 0; luego a menos de intercambiar los
ejes tenemos dos posibilidades:
1
,= 0,
2
=
3
= 0 y
1
,= 0,
2
,= 0,
3
= 0.
Caso 2.1:
1
,= 0,
2
=
3
= 0. Es
o :
1
x
2
+
1
x +
2
y +
3
z +c = 0.
Caso 2.1.1:
2
=
3
= 0. Es:
o :
1
x
2
+
1
x +c = 0.
Sea =
2
1
4
1
c. Tenemos las siguientes posibilidades:
1. Si < 0, entonces o es el conjunto vaco.
2. Si > 0, entonces o son dos planos paralelos: x =

1
+

2
1
y x =

1

2
1
.
3. Si = 0, entonces o es un plano (doble): x =

1
2
1
.
Caso 2.1.2:
2
,= 0 o
3
,= 0. Realizamos el cambio de variable
_
_
_
x = x
y = a y b z
z = b y +a z
y obtenemos
o :
1
x
2
+
1
x + (
2
a +
3
b) y + (
3
a
2
b) z +c = 0.
Elegimos a y b tales que
_

3
a
2
b = 0
a
2
+b
2
= 1
88
Observar que a y b se obtienen intersectando la circunferencia x
2
+y
2
= 1 con la recta
3
x
2
y = 0. Esto
asegura la existencia de a y b; ademas implica que existe [0, 2] tal que a = cos y b = sen , luego
el cambio de coordenadas representa un giro de ejes alrededor del eje O x. Para estos valores de a y b la
ecuacion de o respecto a las coordenadas x, y y z queda
o :
1
x
2
+
1
x + y +c = 0, con =
2
a +
3
b.
Observar que las rectas de ecuacion
2
x +
3
y = 0 y
3
x
2
y = 0 son perpendiculares y se cortan en el
origen, luego =
2
a +
3
b ,= 0 y podemos despejar y en la ecuacion anterior para obtener
o : y =

1

x
2
+

1

x +
c

= 0,
luego o es un cilindro parabolico.
Caso 2.2:
1
,= 0,
2
,= 0 y
3
= 0. Es
o :
1
x
2
+
2
y
2
+
1
x +
2
y +
3
z +c = 0.
Si hacemos la traslacion de ejes
_

_
x = x

1
2
1
y = y

2
2
2
z = z
,
entonces la ecuacion de o respecto a las coordenadas x, y y z queda
o :
1
x
2
+
2
y
2
+
3
z + = 0, (5.7)
siendo = c

2
1
4
1


2
2
4
2
.
Caso 2.2.1:
3
= 0. Es o :
1
x
2
+
2
y
2
+ = 0
1. Si = 0, entonces tenemos dos posibilidades:
a) Si sg
1
= sg
2
, entonces o es la recta (doble) x = 0 y y = 0.
b) Si sg
1
,= sg
2
, entonces o son dos planos secantes y =
_

2
x e y =
_

2
x.
2. Si ,= 0 entonces tenemos tres posibilidades:
a) Si sg
1
= sg
2
= sg , entonces o es el conjunto vaco.
b) Si sg
1
= sg
2
,= sg , entonces o es un cilindro elptico.
c) Si sg
1
,= sg
2
, entonces o es un cilindro hiperbolico.
Caso 2.2.2:
3
,= 0. Es o :
1
x
2
+
2
y
2
+
3
z + = 0.
1. Si sg
1
= sg
2
, entonces o es un paraboloide elptico.
2. Si sg
1
,= sg
2
, entonces o es un paraboloide hiperbolico.
Esto concluye la clasicacion de las supercies cuadricas.
89
Resumen.
Sea o : (X) +(X) +c, siendo (X) = X
t
AX, (X) = B
t
X. Sean
1
,
2
y
3
los valores propios de
A. Sean D matriz diagonal y Q matriz ortogonal tales que D = Q
t
AQ.
Caso det(A) ,= 0. Sea X
0
la solucion de 2AX +B = 0 y d = (X
0
) +(X
0
) +c.
Cambio de variables X = Q

X +X
0
o :
1
x
2
+
2
y
2
+
3
z
2
+d = 0.
d = 0.

1
,
2
y
3
tienen el mismo signo, o es un punto.

1
,
2
y
3
tienen distinto signo, o es un cono.
d ,= 0.

1
,
2
y
3
tienen el mismo signo y coincide con el de d, o es el conjunto vaco.

1
,
2
y
3
tienen el mismo signo y es distinto del signo de d, o es un elipsoide.
sg
1
= sg
2
,= sg
3
= sg d, o es un hiperboloide de una hoja.
sg
1
= sg
2
,= sg
3
,= sg d, o es un hiperboloide de dos hojas.
Caso det(A) = 0. Sea = Q
t
B.
Cambio de variables X = Q

X o :
1
x
2
+
2
y
2
+
3
z
2
+
1
x +
2
y +
3
z +c = 0.

1
,= 0,
2
=
3
= 0.

2
,= 0 o
3
,= 0, o es un cilindro parabolico.

2
=
3
= 0. Sea =
2
1
4
1
c.
< 0, o es el conjunto vaco.
> 0, o son dos planos paralelos.
= 0, o es un plano (doble).

1
,= 0,
2
,= 0,
3
= 0.

3
= 0. Sea = c

2
1
4
1


2
2
4
2
.
= 0.
sg
1
= sg
2
, o es una recta (doble).
sg
1
,= sg
2
, o son dos planos secantes.
,= 0.
sg
1
= sg
2
= sg , o es el conjunto vaco.
sg
1
= sg
2
,= sg , o es un cilindro elptico.
sg
1
,= sg
2
, o es un cilindro hiperbolico.

3
,= 0.
sg
1
= sg
2
, o es un paraboloide elptico.
sg
1
= sg
2
, o es un paraboloide hiperbolico.
90
Ejemplo 5.5.8. Sea o : 2 x
2
+y
2
z
2
+2 xz +4 x4 y +2 z +3 = 0. Es A =
_
_
2 0 1
0 1 0
1 0 1
_
_
y det(A) = 3.
Calculando obtenemos X
0
= (1, 2, 0) y d = 3. Como A es simetrica real, sabemos por el corolario 3.5.14
que los signos de sus valores propios coinciden con los signos de las entradas diagonales de cualquier matriz
diagonal congruente con A. Luego para saber el signo de sus valores propios podemos aplicar el algoritmo
de la seccion 3.4. Observar que no necesitamos obtener la matriz de congruencia, as que el algoritmo es mas
simple y solo debemos realizar las operaciones elementales en las las y columnas de A. En nuestro caso
obtenemos
A =
_
_
2 0 1
0 1 0
1 0 1
_
_

_
_
1 0 0
0 2 1
0 1 1
_
_

_
_
1 0 0
0 1 1
0 1 2
_
_

_
_
1 0 0
0 1 0
0 0 3
_
_
.
Luego hay dos valores propios positivos y uno negativo, como el signo de d es negativo, deducimos que o es
un hiperboloide de una hoja.
Observar que en este caso podemos hallar explcitamente los valores propios, estos son 1,
1+

13
2
y
1

13
2
,
luego aplicando (5.6) tenemos que la ecuacion reducida de o es
1
3
x
2
+
_
1 +

13
6
_
y
2

13 1
6
_
z
2
= 1.
Ejemplo 5.5.9. Sea o : x
2
+ 4y
2
+ z
2
2xz 2x + 2z = 0. Es A =
_
_
1 0 1
0 4 0
1 0 1
_
_
y det(A) = 0. Luego
uno de los valores propios es cero y calculando el polinomio caracterstico de A obtenemos los otros valores
propios. En este caso es

A
(t) = t(2 t)(4 t) y los valores propios son 0, 2 y 4. Luego hallamos una
base de vecores propios correspondientes, por ejemplo (1, 0, 1), (1, 0. 1), (0, 1, 0) y la normalizamos para
obtener la matriz Q:
D =
_
_
4 0 0
0 2 0
0 0 0
_
_
, D =
_
_
_
0
1

2
1

2
1 0 0
0
1

2
1

2
_
_
_, A = Q
t
DQ.
Calculando = Q
t
B obtenemos =
_
0, 2

2, 0
_
, luego
3
= 0. Calculando = c

2
1
4
1


2
2
4
2
obtenemos
= 1. Luego de (5.7) deducimos que la ecuacion reducida de o es
4 x
2
+ 2 y
2
= 1.
Esto nos dice que o es un cilindro elptico.
91
5.6. Unicidad de la forma de Jordan
La proposicion 4.4.23 nos permite calcular la forma de Jordan en los casos en que la dimension del
espacio no es muy grande. En lo que sigue veremos como obtener la forma de Jordan en el caso general y
tambien probaremos su unicidad.
Lema 5.6.1. Si
A =
_
_
_
J
1
.
.
.
J
k
_
_
_ M
n
(k), J
i
=
_
_
_
_
_
_
_
0 1
0 1
.
.
.
.
.
.
0 1
0
_
_
_
_
_
_
_
M
p
i
(k), i = 1, . . . , k. (5.8)
siendo p = p
1
p
2
p
k
, entonces la cantidad de bloques de Jordan de tama no r contenidos en A es
l
r
l
r+1
, siendo l
r
= rango
_
A
r1
_
rango (A
r
), r = 1, 2 . . . .
Dem. Sea i 1, . . . , h. Recordando la primera parte de la proposicion 4.4.8, vemos que
rango(J
i
) = p
i
1, rango
_
J
2
i
_
= p
i
2, . . . , rango
_
J
p3
i
_
= 2, rango
_
J
p2
i
_
= 1, rango (J
p
i
) = 0.
En particular rango (J
m
i
) = 0, para todo m p. Por otro lado, de (5.8) deducimos
A
r
=
_
_
_
J
r
1
.
.
.
J
r
k
_
_
_ M
n
(k), r = 0, 1, . . . . (5.9)
Para cada r = 1, 2, . . . , sea m
r
la cantidad de bloques de Jordan de tama no r contenidos en A. Observar
que m
r
= 0 si r > p.
Como para cada j = 1, . . . , p hay m
j
bloques de tama no j y cada bloque J
i
de tama no j tiene rango
j 1, es
rango(A) =
k

i=1
rango(J
i
) = m
2
+ 2m
3
+ 3m
4
+ + (p 2)m
p1
+ (p 1)m
p
.
Notar que la suma empieza en j = 2 porque lo bloques de tama no 1 son nulos. Considerando (5.9) con r = 2,
ahora cada bloque J
2
i
de tama no j tiene rango j 2, luego
rango
_
A
2
_
=
k

i=1
rango
_
J
2
i
_
= m
3
+ 2m
4
+ 3m
5
+ + (p 3)m
p1
+ (p 2)m
p
.
Notar que la suma empieza en j = 3 porque lo bloques de tama no 2 al elevar al cuadrado son nulos.
As seguimos obteniendo
rango(A) = m
2
+ 2m
3
+ 3m
4
+ + (p 2)m
p1
+ (p 1)m
p
,
rango
_
A
2
_
= m
3
+ 2m
4
+ 3m
5
+ + (p 3)m
p1
+ (p 2)m
p
,
rango
_
A
3
_
= m
4
+ 2m
5
+ 3m
6
+ + (p 4)m
p1
+ (p 3)m
p
,
.
.
.
rango
_
A
p3
_
= m
p2
+ 2m
p1
+ 3m
p
,
rango
_
A
p2
_
= m
p1
+ 2m
p
,
rango
_
A
p1
_
= m
p
,
rango (A
p
) = 0.
92
Notar que
m
1
+ 2m
2
+ 3m
3
+ 4m
4
+ + (p 1)m
p1
+pm
p
= n = rango(I) = rango(A
0
).
Luego l
r
= 0 si r > p y
l
p
= rango
_
A
p1
_
rango (A
p
) = m
p
,
l
p1
= rango
_
A
p2
_
rango
_
A
p1
_
= m
p
+m
p1
,
l
p2
= rango
_
A
p3
_
rango
_
A
p2
_
= m
p
+m
p1
+m
p2
,
.
.
.
l
3
= rango
_
A
2
_
rango
_
A
3
_
= m
p
+m
p1
+m
p2
+ +m
3
,
l
2
= rango
_
A
1
_
rango
_
A
2
_
= m
p
+m
p1
+m
p2
+ +m
3
+m
2
,
l
1
= rango
_
A
0
_
rango
_
A
1
_
= m
p
+m
p1
+m
p2
+ +m
3
+m
2
+m
1
.
Finalmente, restando miembro a miembro las ecuaciones anteriores obtenemos m
r
= l
r
l
r+1
, para todo
r = 1, 2, . . . .
El siguiente teorema nos da un algoritmo para hallar la forma de Jordan.
Teorema 5.6.2. Sea T /(V ) tal que su polinomio caracterstico escinde y B una base de Jordan para T.
Supongamos que
[T]
B
=
_
_
_
A
1
.
.
.
A
h
_
_
_, (5.10)
y cada bloque A
i
es de la forma
A
i
=
_
_
_
J
1
.
.
.
J
k
_
_
_, J
l
=
_
_
_
_
_
_
_

i
1

i
1
.
.
.
.
.
.

i
1

i
_
_
_
_
_
_
_
, l = 1, . . . , k, (5.11)
siendo
1
, . . . ,
h
los valores propios distintos de T. Entonces para cada i = 1, . . . , h vale
El tama no del bloque A
i
es la multiplicidad algebraica de
i
.
La cantidad de bloques de Jordan contenidos en A
i
es la multiplicidad geometrica de
i
.
La cantidad de bloques de Jordan de tama no r contenidos en A
i
es l
r
l
r+1
, siendo
l
r
= rango(T
i
Id)
r1
rango(T
i
Id)
r
, r = 1, 2 . . . .
Luego la forma de Jordan de T no depende de la eleccion de la base B.
Dem. Sea n = dimV . Observar que las dos primeras armaciones ya las probamos en la proposicion
4.4.23, luego solo resta probar la tercera. Recordar que la cantidad de bloques de Jordan de tama no r
contenidos en A
i
coincide con la de A
i

i
I. Por el lema anterior, si llamamos m
r
a la cantidad de bloques
de Jordan de tama no r contenidos en A
i

i
I, es m
r
= l
r
l
r+1
, siendo
l
r
= rango(A
i

i
Id)
r1
rango(A
i

i
Id)
r
.
93
De (5.10) deducimos
[(T
i
I)
r
]
B
=
_
_
_
(A
1

i
I)
r
.
.
.
(A
h

i
I)
r
_
_
_, r = 1, 2, . . . .
Luego rango ((T
i
I)
r
) =

h
j=1
rango ((A
j

i
I)
r
), para todo r = 1, 2, . . . . Observar que si j ,= i, entonces
A
j

i
I M
n
j
(k) es invertible y por lo tanto (A
j

i
I)
r
M
n
j
(k) es invertible para todo r, luego
rango ((A
j

i
I)
r
) = n
j
, para todo r y todo j ,= i. Esto implica
rango ((T
i
I)
r
) =
h

j=1
rango ((A
j

i
I)
r
) =

j,=i
n
j
+ rango ((A
i

i
I)
r
) , r = 1, 2, . . . .
Operando obtenemos
rango
_
(T
i
I)
r1
_
rango ((T
i
I)
r
) =
=
_
_

j,=i
n
j
+ rango
_
(A
i

i
I)
r1
_
_
_

_
_

j,=i
n
j
+ rango ((A
i

i
I)
r
)
_
_
= rango
_
(A
i

i
I)
r1
_
rango ((A
i

i
I)
r
) = l
r
.
Esto prueba la tercer armacion del teorema.
Observacion 5.6.3. El teorema anterior prueba que la forma de Jordan de T no depende de la eleccion de
la base de Jordan. Es decir que si ordenamos los bloques de Jordan correspondientes al mismo valor propio
en tama nos decrecientes, entonces la forma de Jordan de T es unica a menos de reordenar los bloques A
i
.
Ejemplo 5.6.4. Sea V un espacio vectorial de dimension 8 y T /(V ) del cual se sabe

T
(t) = (t 2)
8
, rango(T 2 Id) = 4, rango(T 2 Id)
2
= 2, rango(T 2 Id)
3
= 1.
Veamos que con esos datos podemos determinar su forma de Jordan J. Por la forma del polinomio carac-
terstico sabemos que J esta formada solo por bloques de Jordan correspondientes al valor propio 2. La
cantidad de bloques de J es MG(2) = 8 4 = 4. Para saber sus tama nos aplicamos el teorema 5.6.2:
l
1
= MG(2) = 4, l
2
= rango(T 2 Id)rango(T 2 Id)
2
= 2, l
3
= rango(T 2 Id)
2
rango(T 2 Id)
3
= 1.
Luego la cantidad de bloques de tama no 1 es l
1
l
2
= 2 y la cantidad de bloques de tama no 2 es l
2
l
3
= 1.
Sabemos que J tiene 4 bloques y que de los cuales hay dos bloques de tama no 1 y un bloque de tama no 2,
luego el que resta solo puede ser un bloque de Jordan de tama no 4 y por lo tanto
J =
_
_
_
_
_
_
_
_
_
_
_
_
2 1 0 0 0 0 0 0
0 2 1 0 0 0 0 0
0 0 2 1 0 0 0 0
0 0 0 2 0 0 0 0
0 0 0 0 2 1 0 0
0 0 0 0 0 2 0 0
0 0 0 0 0 0 2 0
0 0 0 0 0 0 0 2
_
_
_
_
_
_
_
_
_
_
_
_
.
Denicion 5.6.5. Si A M
n
(k) y

A
(t) =

L
A
(t) k[t] escinde, denimos la forma de Jordan de A como
la de L
A
/(k
n
).
94
Observar que si J es la forma de Jordan de A y B = v
1
, . . . , v
n
es la base de Jordan para L
A
correspondiente, entonces es
A = QJ Q
1
, Q = [v
1
[ [v
n
].
Ejemplo 5.6.6. Sea
A =
_
_
_
_
2 1 0 1
0 3 1 0
0 1 1 0
0 1 0 3
_
_
_
_
M
4
(R).
Es

A
(t) = (t 2)
3
(t 3), luego
J =
_
A
1
3
_
, A
1
M
3
(R).
Para el valor propio 2, es MG(2) = 4 rango(A2I) = 2. Luego A
1
tiene dos bloques y como A
1
M
3
(R)
esto determina A
1
. Entonces la forma de Jordan de A es
J =
_
_
_
_
2 1 0 0
0 2 0 0
0 0 2 0
0 0 0 3
_
_
_
_
.
Para hallar la matriz de semejanza Q tenemos que hallar la base de Jordan correspondiente. Observar que
esta base es de la forma
B = (A2I) v, v, u, w ,
siendo (A2I) v, u una base de Ker (L
A
2 id ), Ker (L
A
2 id )
2
= Ker (L
A
2 id ) [v] y w una base
de Ker (L
A
3 id ).
Operando obtenemos
A2I =
_
_
_
_
0 1 0 1
0 1 1 0
0 1 1 0
0 1 0 1
_
_
_
_
, (A2I)
2
=
_
_
_
_
0 2 1 1
0 0 0 0
0 0 0 0
0 2 1 1
_
_
_
_
, A3I =
_
_
_
_
1 1 0 1
0 0 1 0
0 1 2 0
0 1 0 0
_
_
_
_
.
Luego
Ker (L
A
2 id ) = (x, y, z, t) : y = z = t = [(1, 0, 0, 0), (0, 1, 1, 1)],
Ker (L
A
2 id )
2
= (x, y, z, t) : 2y +z +t = 0 = [(1, 0, 0, 0), (0, 1, 0, 2), (0, 0, 1, 1)],
Ker (L
A
3 id ) = (x, y, z, t) : x = t y y = z = 0 = [(1, 0, 0, 1)].
Observar que v = (0, 1, 0, 2) Ker (L
A
2 id )
2
Ker (L
A
2 id ), luego
Ker (L
A
2 id )
2
= Ker (L
A
2 id )
2
[v].
Entonces sabemos que (L
A
2 id ) (v) = (1, 1, 1, 1) Ker (L
A
2 id ). Observar que si u = (1, 0, 0, 0), el
conjunto
(L
A
2 id ) (v), u = (1, 1, 1, 1), (1, 0, 0, 0) Ker (L
A
2 id )
y es LI, luego es base de Ker (L
A
2 id ). Si tomamos w = (1, 0, 0, 1) Ker (L
A
3 id ), obtenemos que el
conjunto
B = (1, 1, 1, 1), (0, 1, 0, 2), (1, 0, 0, 0), (1, 0, 0, 1)
95
es una base de Jordan y si Q =
_
_
_
_
1 0 1 1
1 1 0 0
1 0 0 0
1 2 0 1
_
_
_
_
, es A = QJ Q
1
.
Del teorema 5.6.2 se deduce inmediatamente la siguiente.
Proposicion 5.6.7. Sea T /(V ), B una base de V y A = [T]
B
. Supongamos que

A
(t) =

T
(t) escinde.
Entonces la forma de Jordan de T coincide con la forma de Jordan de A.
En el teorema y corolario siguientes asumiremos que en las formas de Jordan los bloques de Jordan
correspondientes a los mismos valores propios estan ordenados en tama nos decrecientes.
Teorema 5.6.8. Sean A y B en M
n
(k) tales que sus polinomios caractersticos escinden. Entonces A y B
son semejantes si y solo si tienen la misma forma de Jordan
1
.
Dem. Si A y B tienen la misma forma de Jordan J, entonces A y B son semejantes a J y por lo tanto
son semejantes entre s.
Si A y B son semejantes, entonces existen T /(k
n
) y B y ( bases de k
n
tales que A = [T]
B
y B = [T]
(
.
Luego la proposicion 5.6.7 implica que A y B tienen la misma forma de Jordan.
Corolario 5.6.9. Si A y B estan en M
n
(C), entonces A y B son semejantes si y solo si tienen la misma
forma de Jordan.
1
Se entiende que la misma a menos de permutar los distintos valores propios.
96
5.7. Formas multilineales alternadas
Sea V un k-espacio vectorial y n un entero positivo. Una n-forma multilineal en V se dice alternada
si verica:
(v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = 0 (5.12)
cada vez que existan i ,= j tales que v
i
= v
j
.
Observar que si es una n-forma alternada, entonces verica:
(v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) , i ,= j, v
1
, . . . , v
n
V. (5.13)
En efecto, es
0 = (v
1
, . . . , v
i
+v
j
, . . . , v
i
+v
j
, . . . , v
n
)
= (v
1
, . . . , v
i
, . . . , v
i
, . . . , v
n
) + (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) + (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
)
+ (v
1
, . . . , v
j
, . . . , v
j
, . . . , v
n
)
= 0 + (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) + (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) + 0
= (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) + (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) ,
luego (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
).
Recprocamente, si car k ,= 2 y es una n-forma multilineal que verica (5.13) entonces verica (5.12):
Sean v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
V con v
i
= v
j
e i ,= j. Utilizando (5.13) y que v
i
= v
j
obtenemos:
(v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = (v
1
, . . . , v
j
, . . . , v
i
, . . . , v
n
) = (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) .
Luego 2 (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = 0 y como car k ,= 2 es (v
1
, . . . , v
i
, . . . , v
j
, . . . , v
n
) = 0.
Observar que lo anterior prueba que (5.12) y (5.13) son equivalentes si car k ,= 2.
Escribiremos
Alt
k
(V ) = : V V
. .
k
k : es una k-forma multilineal alternada, k = 1, 2, . . .
Es un ejercicio el vericar que Alt
k
(V ) es un subespacio del espacio de las k-formas multilineales en V , luego
Alt
k
(V ) es un espacio vectorial. Observar que Alt
1
(V ) = V

. Denimos Alt
0
(V ) := k.
Ejemplo 5.7.1. Sea : R
3
R
3
R denida por ((x, y, z), (x
t
, y
t
, z
t
)) = xy
t
y x
t
+ 2 y z
t
2 y
t
z.
Observar que se puede escribir como el siguiente producto matricial:

_
(x, y, z),
_
x
t
, y
t
, z
t
__
= xy
t
y x
t
+ 2 y z
t
2 y
t
z = xy
t
+y
_
x
t
+ 2 z
t
_
2 y
t
z
= (x, y, z)
_
_
y
t
x
t
+ 2 z
t
2 y
t
_
_
= (x, y, z)
_
_
0 1 0
1 0 2
0 2 0
_
_
_
_
x
t
y
t
z
t
_
_
. (5.14)
De esta formula se deduce que es una forma bilineal y es facil probar que es alternada. Observar que la
matriz en la igualdad (5.14) es antisimetrica, es decir verica A
t
= A.
97
Ejemplo 5.7.2. Si V = R
n
, denimos Alt
n
(V ) mediante la funcion determinante:
((x
11
, . . . , x
n1
) , . . . , (x
1n
, . . . , x
nn
)) =

x
11
x
1n
.
.
.
.
.
.
x
n1
x
nn

.
De ahora en adelante supondremos que V es un espacio vectorial de dimension nita n.
Proposicion 5.7.3. Alt
k
(V ) = 0 para todo k > n.
Dem. Consideremos e
1
, . . . , e
n
una base de V y sea Alt
k
(V ).
Sean v
1
, . . . , v
k
V , v
1
=

n
j
1
=1
a
j
1
e
j
1
, . . . , v
k
=

n
j
k
=1
a
j
k
e
j
k
, luego
(v
1
, . . . , v
k
) =
_
_
n

j
1
=1
a
j
1
e
j
1
, . . . ,
n

j
k
=1
a
j
k
e
j
k
_
_
=
n

j
1
==j
k
=1
a
j
1
a
j
k
(e
j
1
, . . . , e
j
k
) .
Como k > n, en el conjunto e
j
1
, . . . , e
j
k
necesariamente hay elementos repetidos, luego (e
j
1
, . . . , e
j
k
) = 0,
j
1
, . . . , j
k
y (v
1
, . . . , v
k
) = 0. Como v
1
, . . . , v
k
V son arbitrarios se deduce que = 0
Proposicion 5.7.4. Supongamos que e
1
, . . . , e
n
es una base de V y Alt
k
(V ), k n. Entonces = 0
si y solo si
(e
i
1
, . . . , e
i
k
) = 0, i
1
, . . . , i
k
1, . . . , n tales que 1 i
1
< i
2
< < i
k
n. (5.15)
Dem. Es claro que = 0 implica (5.15).
Supongamos que verica (5.15). Sean v
1
, . . . , v
k
V , v
1
=

n
j
1
=1
a
j
1
e
j
1
, . . . , v
k
=

n
j
k
=1
a
j
k
e
j
k
, luego
(v
1
, . . . , v
k
) =
_
_
n

j
1
=1
a
j
1
e
j
1
, . . . ,
n

j
k
=1
a
j
k
e
j
k
_
_
=
n

j
1
==j
k
=1
a
j
1
a
j
k
(e
j
1
, . . . , e
j
k
) . (5.16)
Observar que si existen p ,= q tales que e
jp
= e
jq
, entonces (e
j
1
, . . . , e
j
k
) = 0. Por otro lado, si e
j
1
, . . . , e
j
k
son
distintos entre s, podemos reordenarlos para obtener un conjunto e
i
1
, . . . , e
i
k
con 1 i
1
< i
2
< < i
k
n.
Notar que siempre podemos pasar de la k-upla (e
j
1
, . . . , e
j
k
) a la k-upla (e
i
1
, . . . , e
i
k
) realizando una cantidad
nita de intercambios entre los elementos de (e
j
1
, . . . , e
j
k
), cada intercambio corresponde a un cambio de
signo en , de donde aplicando (5.15) obtenemos
(e
j
1
, . . . , e
j
k
) = (e
i
1
, . . . , e
i
k
) = 0.
Luego todos los sumandos de (5.16) son nulos y (v
1
, . . . , v
k
) = 0. Como v
1
, . . . , v
k
V son arbitrarios se
deduce que = 0.
Corolario 5.7.5. Supongamos que e
1
, . . . , e
n
es una base de V y , Alt
k
(V ), k n. Entonces =
si y solo si
(e
i
1
, . . . , e
i
k
) = (e
i
1
, . . . , e
i
k
) , i
1
, . . . , i
k
1, . . . , n tales que 1 i
1
< i
2
< < i
k
n.
Dem. Aplicar la proposicion anterior a Alt
k
(V ).
Observacion 5.7.6. Llamaremos o
n
al conjunto de permutaciones de n elementos. Es decir que o
n
es el
conjunto de biyecciones del conjunto 1, 2, . . . , n en s mismo. Si o
n
, llamaremos sg() al signo de .
98
Recordemos como se calcula el signo de una permutacion. Por ejemplo, si =
_
1 2 3 4
3 1 4 2
_
, entonces
en la cuaterna (3, 1, 4, 2) tenemos:
el 3 esta en inversion con el 1 y el 2,
El 1 no esta en inversion con ninguno,
el 4 esta en inversion con el 2,
luego el n umero total de inversiones es 2 + 0 + 1 = 3 y por lo tanto sg() = (1)
3
= 1.
Sea Alt
k
(V ). Consideremos i, j 1, . . . , k, i ,= j y denimos o
k
como la trasposicion que
intercambia i con j, entonces la condicion de que sea alternada se reeja en

_
v
(1)
, . . . , v
(k)
_
= (v
1
, . . . , v
k
) , v
1
, . . . , v
k
V.
De hecho este resultado se generaliza al siguiente (omitimos la prueba):
Proposicion 5.7.7. Sea Alt
k
(V ) y o
k
, entonces

_
v
(1)
, . . . , v
(k)
_
= sg() (v
1
, . . . , v
k
) , v
1
, . . . , v
k
V.
Denicion 5.7.8. Si
1
, . . . ,
k
V

, denimos
1

k
: V V
. .
k
k mediante
(
1

k
) (v
1
, . . . , v
k
) =

1
(v
1
)
1
(v
k
)
.
.
.
.
.
.

k
(v
1
)
k
(v
k
)

, v
1
, . . . , v
v
V.
Claramente
1

k
Alt
k
(V ),
1
, . . . ,
k
V

.
Ejemplo 5.7.9. Si , V

es Alt
2
(V ) y
( ) (u, v) =

(u) (v)
(u) (v)

= (u) (v) (v) (u), u, v V.


Consideremos V = R
3
, e
1
, e
2
, e
3
la base canonica y e

1
, e

2
, e

3
la base dual en V

, es decir
e

1
(x, y, z) = x, e

2
(x, y, z) = y, e

3
(x, y, z) = z.
Entonces
(e

1
e

2
)
_
(x, y, z),
_
x
t
, y
t
, z
t
__
=

x x
t
y y
t

= xy
t
y x
t
,
(e

1
e

3
)
_
(x, y, z),
_
x
t
, y
t
, z
t
__
=

x x
t
z z
t

= xz
t
z x
t
,
(e

2
e

3
)
_
(x, y, z),
_
x
t
, y
t
, z
t
__
=

y y
t
z z
t

= y z
t
z y
t
,
Observar que si es la 2-forma del ejemplo 5.7.1, entonces = e

1
e

2
+ 2 e

2
e

3
.
99
Ejemplo 5.7.10. Si , , V

es Alt
3
(V ) y
( ) (u, v, w) =

(u) (v) (w)


(u) (v) (w)
(u) (v) (w)

Si consideramos de nuevo V = R
3
, e
1
, e
2
, e
3
la base canonica y e

1
, e

2
, e

3
la base dual en V

, entonces
(e

1
e

2
e

3
)
_
(x, y, z),
_
x
t
, y
t
, z
t
_
,
_
x
tt
, y
tt
, z
tt
__
=

x x
t
x
tt
y y
t
y
tt
z z
t
z
tt

.
La prueba de las siguientes propiedades es simple y queda como ejercicio.
1. = 0 y = , , V

.
2. Si existen i ,= j tales que
i
=
j
, entonces
1

i

j

k
= 0.
3.
(1)

(k)
= sg()
1

k
, o
k
; en particular

1

i

j

k
=
1

j

i

k
.
Teorema 5.7.11. Sea e
1
, . . . , e
n
una base de V y e

1
, . . . , e

n
la base dual en V

, entonces
B =
_
e

i
1
e

i
k
: 1 i
1
< < i
k
n
_
es una base de Alt
k
(V ), para todo k = 1, . . . , n. Ademas vale
=

1i
1
<<i
k
n
(e
i
1
, . . . , e
i
k
) e

i
1
e

i
k
, Alt
k
(V ). (5.17)
Dem. Sea k 1, . . . , n y Alt
k
(V ). Probaremos que se escribe en forma unica como combinacion
lineal de B, es decir que existen unicos a
i
1
,...,i
k
k, 1 i
1
< < i
k
n tales que
=

1i
1
<<i
k
n
a
i
1
,...,i
k
e

i
1
e

i
k
.
Observar que aplicando el Corolario 5.7.5, obtenemos que se verica esta ultima igualdad si y solo si
(e
j
1
, . . . , e
j
k
) =

1i
1
<<i
k
n
a
i
1
,...,i
k
_
e

i
1
e

i
k
_
(e
j
1
, . . . , e
j
k
) , (5.18)
para todo j
1
, . . . , j
k
1, . . . , n con 1 j
1
< < j
k
n.
Calculando tenemos dos casos posibles:
_
e

i
1
e

i
k
_
(e
j
1
, . . . , e
j
k
) =

i
1
(e
j
1
) e

i
1
(e
j
k
)
.
.
.
.
.
.
e

i
k
(e
j
1
) e

i
k
(e
j
k
)

=
_
(A) si l : j
l
, i
1
, . . . , i
k
,
(B) si j
1
, . . . , j
k
= i
1
, . . . , i
k
.
(5.19)
En el caso (A), es e

i
1
(e
j
l
) = = e

i
k
(e
j
l
) = 0, luego en el determinante de la ecuacion (5.19) la columna
l-esima es nula y resulta
_
e

i
1
e

i
k
_
(e
j
1
, . . . , e
j
k
) = 0.
100
En el caso (B) es j
1
, . . . , j
k
= i
1
, . . . , i
k
siendo 1 j
1
< < j
k
n y 1 i
1
< < i
k
n, luego
necesariamente es i
1
= j
1
, . . . , i
k
= j
k
y
_
e

i
1
e

i
k
_
(e
j
1
, . . . , e
j
k
) =
_
e

i
1
e

i
k
_
(e
i
1
, . . . , e
i
k
) =

1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1

= 1.
Entonces en la suma de la ecuacion (5.18) el unico termino no nulo corresponde al caso i
1
= j
1
, . . . , i
k
= j
k
y en ese caso es
_
e

i
1
e

i
k
_
(e
i
1
, . . . , e
i
k
) = 1, luego la ecuacion (5.18) equivale a
(e
j
1
, . . . , e
j
k
) = a
j
1
,...,j
k
, j
1
, . . . , j
k
1, . . . , n, 1 j
1
< < j
k
n
Esto concluye la prueba del teorema.
Recordemos el smbolo combinatorio
_
n
k
_
=
n!
(nk)!k!
que esta denido para todo n, k N, n k.
Corolario 5.7.12. Si dimV = n y k n, entonces dimAlt
k
(V ) =
_
n
k
_
.
Ejemplo 5.7.13. Si dimV = 3 y e
1
, e
2
, e
3
es una base de V , entonces Alt
k
(V ) = 0, k 4 y vale
dimAlt
0
(V ) =
_
3
0
_
= 1, 1 es una base de Alt
0
(V ) = R;
dimAlt
1
(V ) =
_
3
1
_
= 3, e

1
, e

2
, e

3
es una base de Alt
1
(V ) = V

;
dimAlt
2
(V ) =
_
3
2
_
= 3, e

1
e

2
, e

1
e

3
, e

2
e

3
es una base de Alt
2
(V );
dimAlt
3
(V ) =
_
3
3
_
= 1, e

1
e

2
e

3
es una base de Alt
3
(V ).
En el caso de V = R
3
estas bases fueron halladas explcitamente en los ejemplos 5.7.9 y 5.7.10.
Ejemplo 5.7.14. Si V = k
n
y e
1
, . . . , e
n
es la base canonica de k
n
, entonces dimAlt
n
(V ) =
_
n
n
_
= 1 y
e

1
e

n
es una base de Alt
n
(V ).
(e

1
e

n
) ((x
11
, . . . , x
n1
) , . . . , (x
1n
, . . . , x
nn
)) =

1
(x
11
, . . . , x
n1
) e

1
(x
1n
, . . . , x
nn
)
.
.
.
.
.
.
.
.
.
e

n
(x
11
, . . . , x
n1
) e

n
(x
1n
, . . . , x
nn
)

x
11
x
1n
.
.
.
.
.
.
.
.
.
x
n1
x
nn

.
Luego e

1
e

n
= det (el determinante) y det es una base de Alt
n
(V ).
Denicion 5.7.15. Si Alt
k
(V ) y Alt
l
(V ), con k, l 1, denimos su producto Alt
k+l
(V ) en
la forma siguiente: si B = e
1
, . . . , e
n
es una base de V y
=

1i
1
<<i
k
n
a
i
1
,...,i
k
e

i
1
e

i
k
, =

1j
1
<<j
l
n
b
j
1
,...,j
l
e

j
1
e

j
l
,
entonces
:=

1 i
1
< < i
k
n
1 j
1
< < j
l
n
a
i
1
,...,i
k
b
j
1
,...,j
l
e

i
1
e

i
k
e

j
1
e

j
l
.
Se prueba que esta denicion no depende de la eleccion de la base B.
101
Proposicion 5.7.16. El producto de formas multilineales tiene las siguientes propiedades:
1. ( +) = + , Alt
k
(V ) y , Alt
l
(V ).
2. ( +) = + , Alt
k
(V ) y , Alt
l
(V ).
3. ( ) = ( ) , Alt
k
(V ), Alt
l
(V ) y Alt
h
(V ).
4. (a ) = (a ) = a ( ), Alt
k
(V ) , Alt
l
(V ) y a R.
5. = (1)
kl
, Alt
k
(V ) y Alt
l
(V ).
Denicion 5.7.17. Si T : V W es una transformacion lineal, denimos T

: Alt
k
(W) Alt
k
(V )
mediante
T

()(v
1
, . . . , v
k
) := (T(v
1
), . . . , T(v
k
)), Alt
k
(W), v
1
, . . . , v
k
V.
Proposicion 5.7.18. 1. Si T : V W es una transformacion lineal, entonces T

: Alt
k
(W) Alt
k
(V )
tambien es lineal.
2. id

= id : Alt
k
(W) Alt
k
(V ).
3. Si S : U V y T : V W son transformaciones lineales, entonces (T S)

= S

.
4. Si T : V W es un isomorsmo, entonces T

: Alt
k
(W) Alt
k
(V ) es un isomorsmo y verica
_
T
1
_

= (T

)
1
: Alt
k
(V ) Alt
k
(W).
Dem. La prueba de las dos primeras armaciones es inmediata y la omitiremos. Para la tercera, si
Alt
k
(W) y u
1
. . . , u
k
U, es
_
(T S)

()
_
(u
1
, . . . , u
k
) =
_
(T S)(u
1
), . . . , (T S)(u
k
)
_
=
_
T
_
S(u
1
)
_
, . . . , T
_
S(u
k
)
_
_
=
_
T

()
__
S(u
1
)
_
, . . . ,
_
S(u
k
)
_
=
_
S

_
T

()
_
_
(u
1
, . . . , u
k
)
=
_
S

_
()(u
1
, . . . , u
k
).
La cuarta armacion se deduce de la segunda y la tercera: al ser T
1
T = id , se deduce
_
T
1
T
_

= id


_
T
1
_

= id .
Analogamente de T T
1
= id se obtiene
_
T
1
_

= id y por lo tanto
_
T
1
_

es la inversa de T

.
Proposicion 5.7.19. Si T : V W es una transformacion lineal y
1
, . . . ,
k
W

, entonces
T

(
1

k
) = T

(
1
) T

(
k
) Alt
k
(V ).
Dem.
T

(
1

k
)(v
1
, . . . , v
k
) = (
1

k
)(T(v
1
), . . . , T(v
k
)) =

1
(T(v
1
))
1
(T(v
k
))
.
.
.
.
.
.

k
(T(v
1
))
k
(T(v
k
))

(
1
)(v
1
) T

(
1
)(v
k
)
.
.
.
.
.
.
T

(
k
)(v
1
) T

(
k
)(v
k
)

= (T

(
1
) T

(
k
)) (v
1
, . . . , v
k
).
102
Corolario 5.7.20. Si T : V W es una transformacion lineal y Alt
k
(V ), Alt
l
(W), entonces
T

( ) = T

() T

().
Proposicion 5.7.21. Si dimV = n, T : V V es una transformacion lineal y B = e
1
, . . . , e
n
es una
base de V , entonces
T

(e

1
e

n
) = det(T) e

1
e

n
.
Dem. Si
B
[T]
B
= (a
ij
), es e

k
(T(e
i
)) = e

k
_

n
j=1
a
ji
e
j
_
= a
ki
, i, k = 1, . . . , n. Luego aplicando la
formula (5.17) a T

(e

1
e

n
), obtenemos
T

(e

1
e

n
) = T

(e

1
e

n
) (e
1
, . . . , e
n
)e

1
e

n
= (e

1
e

n
) (T(e
1
), . . . , T(e
n
)) e

1
e

n
=

1
(T(e
1
)) e

1
(T(e
n
))
.
.
.
.
.
.
e

n
(T(e
1
)) e

n
(T(e
n
))

1
e

n
=

a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn

1
e

n
= det(T) e

1
e

n
.
103
Captulo 6
Ejercicios
En este captulo incluimos las listas de ejercicios del curso.
6.1. Practico 0
1. Sea V un espacio vectorial y T /(V ). El operador T se dice que es una proyecci on si T
2
= T.
a) Supongamos que un espacio vectorial V se descompone como V = W U y consideremos la
funcion T : V V denida por T(v) = w si v = w +u, w W, u U.
1) Probar que T es una proyecci on.
2) Probar que T verica Im(T) = W y Ker(T) = U.
El operador T se llama la proyecci on sobre W en la direccion de U.
b) Probar que si T /(V ) es una proyeccion, entonces V = Ker(T) Im(T) y T es la proyeccion
sobre Im(T) en la direccion de Ker(T). Sugerencia: escribir v = v T(v) +T(v).
2. Sea V un espacio vectorial y V
1
, . . . , V
n
subespacios de V tales que V = V
1
V
n
. Para cada
i = 1, . . . , n, denimos una funcion T
i
: V V mediante T
i
(v) = v
i
si v = v
1
+ + v
n
, con
v
1
V
1
, . . . , v
n
V
n
. Probar que las funciones T
i
son proyecciones que verican
a) T
i
T
j
= 0 si i ,= j.
b) T
1
+ +T
n
= id .
c) Im(T
i
) = V
i
para todo i = 1, . . . , n.
3. Recprocamente, probar que si tenemos un espacio vectorial V y proyecciones T
1
, . . . , T
n
/(V ) que
verican 2a y 2b, entonces V = Im(T
1
) Im(T
n
).
4. Sean T, S : R
2
[X] R
2
[X] denidas por
T(a +bx +cx
2
) = b +bx bx
2
, S(a +bx +cx
2
) = a +b + (b +c)x
2
.
Se pide:
a) Probar
T
2
= T, S
2
= S, T S = S T = 0, T +S = id .
b) Hallar bases de U =Im(T) y de V =Im(S).
c) Vericar R
2
[X] = U V .
104
5. Sean M
n
(R) el espacio de las matrices reales nn, S el subespacio formado por las matrices simetricas
y A el subespacio formado por las matrices antisimetricas.
a) Probar que M
n
(R) = S A.
b) Hallar explcitamente la proyecion de M
n
(R) sobre S en la direccion de A y la proyecion de M
n
(R)
sobre A en la direccion de S.
6. Hallar una proyeccion P que proyecte R
2
sobre el subespacio generado por el vector (1, 1) en la
direccion del subespacio generado por el vector (1, 2).
7. Demostrar que si V = U W y P es la proyeccion sobre U en la direccion de W, entonces id P es
la proyeccion sobre W en la direccion de U.
8. Demostrar que si P : V V es una proyeccion y V tiene dimension nita, entonces existe una base
B de V tal que la matriz asociada a P en la base B tiene la forma
_
Id 0
0 0
_
. Que informacion nos
da la traza
1
de una proyeccion?
9. Sea V un espacio vectorial (no necesariamente de dimension nita) y P : V V una proyeccion.
Probar que id +P es invertible y hallar su inversa.
6.2. Practico 1 (diagonalizacion)
1. Determinar si las siguientes armaciones son verdaderas.
a) Todo operador lineal en un espacio vectorial de dimension n tiene n valores propios distintos.
b) Si una matriz real tiene un vector propio entonces tiene un n umero innito de vectores propios.
c) Existe una matriz que no tiene vectores propios.
d) Los valores propios son escalares no nulos.
e) Dos vectores propios cualesquiera son linealmente independientes.
f ) La suma de dos valores propios de un operador T es tambien un valor propio de T.
g) Los operadores en espacios vectoriales de dimension innita no tienen valores propios.
h) Una matriz A n n con entradas en un cuerpo k es semejante a una matriz diagonal si y solo si
existe una base para k
n
compuesta de vectores propios de A.
i ) Matrices semejantes tienen siempre los mismos valores propios.
j ) Matrices semejantes tienen siempre los mismos vectores propios.
k) La suma de dos vectores propios de un operador T es tambien un vector propio de T.
2. Para las siguientes matrices A M
n
(k):
a) Hallar los valores propios de A y los subespacios propios correspondientes a cada uno de ellos.
b) Si es posible, hallar una base de k
n
que consista en vectores propios de A y dar una matriz
diagonal D y una matriz invertible Q tales que A = QDQ
1
.
1
La traza de un operador se dene como la traza de la matriz asociada al operador en alguna base del espacio. La denici on
anterior no depende de la eleccion de la base, porque matrices semejantes tienen la misma traza.
105
A =
_
1 2
3 2
_
, k = R; A =
_
_
0 2 3
1 1 1
2 2 5
_
_
, k = R; A =
_
i 1
2 i
_
, k = C
A =
_
1 0
0 1
_
, k = R; A =
_
1 0
0 1
_
, k = C.
3. Probar que los valores propios de una matriz triangular superior A son las entradas de la diagonal
principal de A.
4. a) Probar que un operador lineal T en un espacio de dimension nita es invertible si y solo si 0 no
es valor propio de T
b) Sea T un operador invertible. Probar que k es un valor propio de T si y solo si
1
es un
valor propio de T
1
.
5. Sea T un operador lineal en un espacio V y sea v un vector propio de T correspondiente a un valor
propio . Para cada entero positivo m, probar que v es un vector propio de T
m
correspondiente al
valor propio
m
. (Recordar que T
m
= T T, m veces.)
6. Una matrix escalar es una matriz de la forma a Id con a k.
a) Probar que si A es semejante a una matriz escalar a Id entonces A = a Id.
b) Probar que una matriz diagonalizable que tiene un solo valor propio es una matriz escalar.
c) Deducir que la matriz
_
2 1
0 2
_
no es diagonalizable.
7. Para una matrix cuadrada A, probar que A y A
t
tienen el mismo polinomio caracterstico (y por lo
tanto tienen los mismos valores propios).
8. Sea T : M
n
(R) M
n
(R) la funcion que asigna a una matriz su traspuesta, T(A) = A
t
.
a) Probar que T es lineal y que sus unicos valores propios son 1 y -1.
b) Hallar los subespacios de vectores propios correspondientes a 1 y -1.
c) Existe una base de M
n
(R) cuyos elementos sean vectores propios de T?
9. Sea A una matriz n n con polinomio caracterstico

A
(t) = (1)
n
t
n
+a
n1
t
n1
+ +a
1
t +a
0
.
a) Probar que a
0
= det(A). Deducir que A es invertible si y solo si a
0
,= 0.
b) Probar que a
n1
= (1)
n1
tr (A), donde tr (A) es la traza de A.
6.3. Practico 2 (diagonalizacion)
Sea T un operador en V y W un subespacio de V . Decimos que W es un subespacio T-invariante si
T(W) W. En este caso la restriccion T[
W
: W W es un operador en W.
106
1. Determinar si las siguientes armaciones son verdaderas. En todos los casos T /(V ), donde V es un
espacio vectorial de dimension nita.
a) Si el n umero de valores propios diferentes de T es estrictamente menor que la dimension de V , T
no es diagonalizable.
b) Dos vectores propios de T correspondientes a un mismo valor propio son linealmente dependientes.
c) Si T es diagonalizable, tiene al menos un valor propio.
d) El operador T es diagonalizable si y solo si la multiplicidad de cada uno de sus valores propios
es igual a la dimension del subespacio E

.
e) Si
1
y
2
son valores propios diferentes de T, E

1
E

2
= 0.
2. En los siguientes casos determinar si la matriz A M
n
(R) es diagonalizable y si lo es hallar una matriz
Q M
n
(R) tal que Q
1
AQ es diagonal.
A =
_
1 2
0 1
_
, A =
_
1 3
3 1
_
, A =
_
1 4
3 2
_
,
A =
_
_
7 4 0
8 5 0
6 6 3
_
_
, A =
_
_
0 0 1
1 0 1
0 1 1
_
_
, A =
_
_
1 1 0
0 1 2
0 0 3
_
_
, A =
_
_
3 1 1
2 4 2
1 1 1
_
_
.
3. En los siguientes casos determinar si T /(V ) es diagonalizable y si lo es hallar una base B de V tal
que la matriz [T]
B
es diagonal.
a) V = R
3
[x], T(ax
2
+bx +c) = cx
2
+bx +a.
b) V = R
2
[x], [T(p)](x) = p(0) +p(1)
_
x +x
2
_
.
c) V = C
2
, T(z, w) = (z +iw, iz +w).
d) V = R
3
[x], T(p(x)) = p
t
(x) +p
tt
(x).
e) V = M
2
(R), T(A) = A
t
.
4. Si A =
_
1 4
2 3
_
M
2
(R), calcular A
n
para cualquier n entero positivo. Sugerencia: escribir A =
QDQ
1
, donde D es diagonal.
5. Sea T /(V ) invertible, donde V es un espacio vectorial de dimension nita. Probar que T es
diagonalizable si y solo lo es T
1
.
6. Un operador T se dice nilpotente si existe alg un n Z
+
tal que T
n
= 0.
a) Probar que si un operador T es nilpotente y es un valor propio de T, entonces = 0.
b) Probar que si un operador T en un espacio de dimension nita es diagonalizable y nilpotente,
entonces es T = 0.
7. Sea T un operador diagonalizable en un espacio de dimension nita. Probar que T es una proyeccion
si y solo si todo valor propio de T es 0 o 1.
8. La sucesion de Fibonacci se dene por recurrencia mediante
a
0
= 1, a
1
= 1, a
n
= a
n1
+a
n2
, n = 2, 3, . . . .
107
a) Encontrar una matriz A tal que
_
a
n
a
n1
_
= A
_
a
n1
a
n2
_
, n.
b) Dar una formula explcita para a
n
.
9. Sea A M
n
(k). Probar que A es diagonalizable si y solo si A
t
es diagonalizable.
10. Sean T y S /(V ), donde V es un espacio vectorial de dimension nita. Se dice que T y S son
simultaneamente diagonalizables si existe una base B de V tal que [T]
B
y [S]
B
son diagonales.
a) Sean T y S simultaneamente diagonalizables. Probar que T y S conmutan, es decir T S = S T.
b) Probar que si T /(V ) es diagonalizable, entonces T y T
n
son simultaneamente diagonalizables
para todo entero positivo n.
11. Sea T un operador diagonalizable en un espacio de dimension nita V y sea W ,= 0 un subespacio
T-invariante de V .
a) Sean v
1
, . . . , v
k
vectores propios de T correspondientes a valores propios distintos. Probar por
induccion en k que si v
1
+ +v
k
W, entonces v
i
W para todo i.
b) Probar que T[
W
es diagonalizable.
12. Probar que si T y S son dos operadores diagonalizables en un espacio de dimension nita V que
conmutan, entonces T y S son simultaneamente diagonalizables.
Sugerencia: mostrar que para todo valor propio de T el subespacio propio E
,T
es S-invariante y
aplicar el ejercicio anterior para obtener una base de E
,T
formada por vectores propios de S.
13. Hallar la descomposicion espectral de T en el ejercicio 3, dando explcitamente las proyecciones sobre
los subespacios propios. Para alguno de estos casos, escribir explcitamente cada proyeccion como un
polinomio evaluado en el operador.
14. Probar que si T es diagonalizable e invertible con descomposicion espectral T =

h
i=1

i
P
i
, entonces
T
1
=

h
i=1

1
i
P
i
. Observar que esto se puede usar tambien para probar el ejercicio 5.
15. Sea T un operador diagonalizable en un espacio de dimension nita. Usar la descomposicion espectral
T =
1
P
1
+ +
k
P
k
para probar:
a) Si p(x) es un polinomio cualquiera, es p(T) =

k
i=1
p(
i
) P
i
.
b) Un operador S conmuta con T si y solo si S conmuta con cada P
i
.
c) Si k = R y todos los valores propios de T son no negativos, entonces existe un operador diagona-
lizable S tal que S
2
= T. Que se puede decir en el caso k = C?
6.4. Practico 3 (espacios con producto interno)
1. Determinar si las siguientes armaciones son verdaderas.
a) Un producto interno es lineal en ambas componentes.
b) Hay un unico producto interno sobre R
n
.
c) La desigualdad triangular solo vale en espacios de dimension nita.
d) Todo conjunto ortonormal es LI
108
2. Sean u = (2, 1 +i, i), v = (2 i, 2, 1 +2i) C
3
, con el producto interno habitual. Calcular u, v, |u|
y |v| y vericar que se cumplen la desigualdad de Cauchy-Schwarz y la desigualdad triangular.
3. Probar que x, y = xAy

dene un producto interno en C


2
, donde A =
_
1 i
i 2
_
.
Calcular (1 i, 2 + 3i), (2 +i, 3 2i).
4. Sea V un espacio vectorial con producto interno sobre k.
a) Probar la regla del paralelogramo: |u +v|
2
+|u v|
2
= 2
_
|u|
2
+|v|
2
_
, u, v V .
b) Probar las formulas de polarizacion:
u, v =
1
4
_
|u +v|
2
|u v|
2
_
, k = R; u, v =
1
4
k=3

k=0
i
k
_
_
_u +i
k
v
_
_
_
2
, k = C; u, v V.
5. En los siguientes casos, hallar una base ortonormal B de V aplicando el metodo de Gram-Schmidt al
conjunto S dado y calcular los coecientes de Fourier con respecto a la base B del vector v dado.
a) V = R
3
, con el producto interno habitual, S = (1, 0, 1), (0, 1, 1), (1, 3, 3), v = (1, 1, 2).
b) V = C
2
con el producto interno denido en el ejercicio 3, S = (1, 0), (0, 1), v = (i, 1).
c) S = (1, i, 0), (1 i, 2, 4i), V es el subespacio de C
3
generado por S, con el producto interno
habitual en C
3
, v = (3 +i, 4i, 4).
6. Se dene , : R
2
R
2
R mediante (x, y), (x
t
, y
t
) = 2 xx
t
+y x
t
+xy
t
+y y
t
.
a) Probar que , es un producto interno en R
2
.
b) Hallar una base de R
2
que sea ortonormal respecto a este producto interno.
7. Sea V un espacio vectorial real o complejo de dimension nita y B = v
1
, . . . , v
n
una base cualquiera
de V . Denimos , : V V k por v, w =

n
i=1
x
i
y
i
si v =

n
i=1
x
i
v
i
y w =

n
i=1
y
i
v
i
. Probar
que , dene un producto interno en V y que B es una base ortonormal respecto a , .
8. Hallar explcitamente un producto interno en R
2
que verique que (2, 3), (1, 2) es una base ortonor-
mal.
9. Sean V = C
3
con el producto interno habitual y W el subespacio generado por (i, 0, 1). Hallar bases
ortonormales de W y de W

. Hallar explcitamente
W
y
W
y vericar
W
+
W
= Id.
10. Sea V un espacio vectorial con producto interno, W un subespacio de V y v V . En los casos siguientes
se pide:
Hallar W

.
Hallar las proyecciones
W
(v) y
W
(v).
Calcular la distancia de v a W.
a) V = R
2
, W = (x, y) : y = 4x, v = (2, 6), con el producto interno habitual.
b) V = C
3
, W es el subespacio generado por (1, i, 1 i), (i, 1 +i, 2), v = (0, 2i 1, 1 +i), con el
producto interno habitual.
c) V = R
2
[x], W = R
1
[x], p(x) = 4 + 3x 2x
2
, con el producto interno p, q =
_
1
0
p q. (Por
que p, q =
_
1
0
p q dene un producto interno en R
2
[x]?)
109
11. Sean W
1
y W
2
subespacios vectoriales de un espacio vectorial con producto interno V . Probar que
(W
1
+ W
2
)

= W

1
W

2
y que W

1
+ W

2
(W
1
W
2
)

. Probar que si V es de dimension nita,


entonces (W
1
W
2
)

= W

1
+W

2
.
12. Sea V un espacio vectorial con producto interno y U, W subespacios de V .
a) Probar U W implica W

.
b) Probar W
_
W

. Probar que si V es de dimension fnita


2
, entonces W =
_
W

.
13. Sean V un espacio vectorial de dimension nita con producto interno, W un subespacio de V y
/(V ) tal que [
W
= Id y W

ker . Probar que es la proyeccion ortogonal sobre W.


14. Sean V un espacio vectorial de dimensi on nita con producto interno, W un subespacio de V y v , W.
Probar que existe z W

tal que v, z , = 0.
15. Sea V el conjunto de sucesiones reales (x
n
) tales que

n=1
[x
n
[
2
< .
a) Sean x, y V , x = (x
n
), y = (y
n
). Probar que
_
N

n=1
[x
n
y
n
[
_
2

n=1
[x
n
[
2

n=1
[y
n
[
2
para todo N 1 y concluir que la serie

x
n
y
n
es convergente.
b) Probar que V es un espacio vectorial real con las operaciones:
(x +y)
n
= x
n
+y
n
, (x)
n
= x
n
,
para todo n 1, donde x = (x
n
), y = (y
n
).
c) Probar que x, y :=

n=1
x
n
y
n
es un producto interno en V , donde x = (x
n
), y = (y
n
).
d) Sea W el subespacio generado por x
i
: i = 1, 2, . . . , donde x
i
=
_
x
i
n
_
n
, con x
i
n
= 0 si n ,= i y
x
i
i
= 1. Probar que W W

.
Los siguientes ejercicos son optativos.
16. Si I = [a, b] R es un intervalo cerrado y f : I C es una funcion, entonces para cada t en
I es f(t) = f
1
(t) + i f
2
(t), luego f dene dos funciones f
1
, f
2
: I R y recprocamente f
1
y f
2
denen f = f
1
+ if
2
. Se dice que f es continua o integrable si f
1
y f
2
son continuas o integrables
respectivamente. Si f es integrable se dene
_
b
a
f(t) dt :=
_
b
a
f
1
(t) dt +i
_
b
a
f
2
(t) dt C.
Sea H = f : [0, 2] C : f es continua, denimos , : HH C por f, g =
1
2
_
2
0
f(t) g(t) dt.
Probar que , es un producto interno en H.
En los ejercicios siguientes se considera H con este producto interno.
17. Recordar que si z = a +ib C, se dene e
z
:= e
a
(cos b +i sen b). La exponencial verica:
e
z
1
e
z
2
= e
z
1
+z
2
, (e
z
)
n
= e
nz
, n Z, e
z
= e
z
.
2
La hipotesis de dimensi on nita es necesaria; ver el ejercicio 15.
110
a) Probar que para todo z ,= 0 en C es
_
b
a
e
zt
dt =
e
zt
z

t=b
t=a
=
e
az
e
bz
z
.
b) Probar que el conjunto S =
_
f
n
: [0, 2] C : f
n
(x) = e
inx
, x [0, 2], n Z
_
es un subcon-
junto ortonormal de H. Deducir que la dimension de H es innita.
18. Sea S = f
n
: n Z el conjunto ortonormal de H denido en el ejercicio 17 y sea f H denida
por f(x) = x, x [0, 2].
a) Probar [[f[[
2
=
4
3

2
y f, f
n
=
_

1
in
, si n ,= 0
, si n = 0
, n Z.
b) Aplicar la desigualdad de Bessel a f y f
n
: h n h, h = 0, 1, . . . , para probar
4
3

2

2
+ 2
h

n=1
1
n
2
.
c) Deducir que la serie

1
n
2
es convergente y

n=1
1
n
2

1
6

2
.
6.5. Practico 4 (operadores en espacios con producto interno)
En los ejercicios de este repartido se considera siempre a k
n
con el producto interno habitual y en R
n
[x]
el producto interno p, q =
_
1
0
p q.
1. Para cada una de las siguientes funcionales : V k, encontrar un vector w tal que (v) = v, w
para todo v V .
a) V = R
3
, (x, y, z) = x 2y + 4z.
b) V = C
3
, (x, y, z) = 2z x +i(3x +y).
c) V = R
2
[x], (p) = p(0) +p
t
(1).
2. En los casos siguientes, para cada T /(V ) hallar el adjunto T

.
a) V = C
3
, T(x, y, z) = (2x +iy, (1 i)z x, iy).
b) V = R
2
[x], T(p) = p
t
.
c) T(v) = v, u w, donde V es un espacio vectorial de dimension nita con producto interno y u y
w son vectores jos de V .
3. Sea V un espacio de dimension nita con producto interno y T un operador en V . Probar que si T es
invertible, entonces T

es invertible y (T

)
1
= (T
1
)

.
4. Sea V un espacio de dimension nita con producto interno y T un operador en V . Probar que ImT

=
(Ker T)

.
5. Para cada una de los siguientes operadores, determinar si es normal o autoadjunto.
a) T : R
2
R
2
, T(x, y) = (2x 2y, 2x + 5y).
b) T : C
2
C
2
, T(x, y) = (2x +iy, x + 2y).
c) T : R
2
[x] R
2
[x], T(p) = p
t
.
6. Sean T y S operadores autoadjuntos. Probar que T S es autoadjunto si y solo si T S = S T.
111
7. Probar que para todo T /(V ), los operadores T

T y T T

son autoadjuntos.
8. Sea V un C-espacio vectorial y T un operador en V . Se dene
T
1
=
1
2
(T +T

) y T
2
=
1
2i
(T T

).
a) Probar que T
1
y T
2
son autoadjuntos y que T = T
1
+i T
2
.
b) Probar que si T = S
1
+i S
2
con S
1
y S
2
autoadjuntos, entonces S
1
= T
1
y S
2
= T
2
.
c) Probar que T es normal si y solo si T
1
T
2
= T
2
T
1
.
9. Sea T un operador en un espacio con producto interno V y sea W un subespacio T-invariante de V .
Probar:
a) Si T es autoadjunto, entonces T[
W
es autoadjunto.
b) El subespacio W

es T

-invariante.
10. Sea T un operador normal en un C-espacio vectorial de dimension nita con producto interno V .
Probar que ker T = ker T

e ImT = ImT

.
11. Sea T un operador autoadjunto en un espacio de dimension nita con producto interno V . Probar que
para todo v en V es
|T(v) iv|
2
= |T(v)|
2
+|v|
2
.
Deducir que T i id es invertible y que
_
(T i id )
1
_

= (T +i id )
1
.
12. Sea T un operador en un C-espacio vectorial con producto interno. Probar:
a) Si T es autoadjunto, entonces T(v), v es real para todo v V .
b) Si T satisface T(v), v = 0 para todo v V , entonces T = 0. (Sugerencia: Sustituir v por v +w
y luego por v +iw).
c) Si T(v), v es real para todo v V , entonces T = T

.
13. Sea T un operador autoadjunto en un espacio vectorial V con producto interno de dimension nita n.
El operador T se dice que es denido positivo si T(v), v > 0 para todo v ,= 0 y que es semidenido
si T(v), v 0 para todo v.
Sea A = [T]
B
donde B es una base ortonormal de V . Probar:
a) T es denido positivo (semidenido) si y solo si todos sus valores propios son positivos (no
negativos).
b) T es denido positivo (semidenido) si y solo si L
A
lo es.
c) T es denido positivo si y solo si
n

i,j=1
A
ij
x
i
x
j
> 0 para todo (x
1
, . . . , x
n
) ,= 0.
14. Sea T un operador (invertible) en un espacio vectorial V de dimension nita con producto interno.
Probar que T T

y T

T son operadores semidenidos (denidos) positivos.


15. a) Sea V un R-espacio vectorial de dimension nita con producto interno y sean T y S operadores
autoadjuntos tales que T S = S T. Probar que existe una base ortonormal de V tal que
diagonaliza simultaneamente a T y a S.
112
b) Enunciar y probar el resultado analogo para matrices.
16. Sea V un espacio con producto interno , y sea T un operador denido positivo en V . Probar que
u, v
t
= T(u), v dene otro producto interno en V .
17. Sea V un espacio de dimension nita con producto interno y sean T y S operadores autoadjuntos
con S denido positivo. Probar que T S y S T son operadores diagonalizables que solo tienen
valores propios reales. (Sugerencia: Mostrar que T S es autoadjunto con respecto al producto interno
u, v
t
= S(u), v).
18. Probar el recproco del ejercicio 16: Sea V un espacio de dimension nita con un producto interno
, . Probar que cualquier otro producto interno en V se puede expresar de forma unica como
u, v
t
= T(u), v, siendo T /(V ) un operador denido positivo.
6.6. Practico 5 (operadores en espacios con producto interno)
1. Indicar si las siguientes proposiciones son ciertas o falsas (asumimos que estamos en un espacio con
producto interno y de dimension nita):
a) Todo operador unitario es normal.
b) Todo operador ortogonal es diagonalizable.
c) Si dos matrices son unitariamente equivalentes, entonces son semejantes.
d) La suma de dos matrices unitarias es unitaria.
e) El adjunto de un operador unitario es unitario.
f ) Si T es un operador ortogonal en V , entonces [T]
B
es una matriz ortogonal para cualquier base
B.
g) Si todos los valores propios de un operador son 1 entonces el operador es unitario u ortogonal.
2. Sea T : R
2
R
2
denido por T(x, y) = (2x 2y, 2x + 5y). Probar que T es autoadjunto y hallar
una base ortonormal de R
2
que consista en vectores propios de T.
3. Sean B, B
t
bases de k
n
y A =
B
[id]
B
. Probar:
a) Si B y B
t
son bases ortonormales de k
n
, entonces AA

= A

A = Id.
b) Si B (B
t
) es una base ortonormal de k
n
y A verica AA

= A

A = Id, entonces B
t
(B) es una
base ortonormal de k
n
.
4. Para cada una de las siguientes matrices A encontrar una matriz ortogonal o unitaria Q y una matriz
diagonal D tal que A = QDQ

.
A =
_
1 2
2 1
_
, A =
_
0 i
i 0
_
, A =
_
2 3 3i
3 + 3i 5
_
, A =
_
1 i 1 +i
1 i 1 +i
_
,
A =
_
cos sin
sin cos
_
M
2
(C), A =
_
_
0 2 2
2 0 2
2 2 0
_
_
A =
_
_
2 1 1
1 2 1
1 1 2
_
_
.
5. Probar que la composicion de isometras es una isometra.
6. Dado C, sea T

: C C denida por T

(z) = z. Hallar los valores de para los cuales T

es a)
normal, b) autoadjunto, c) positivo (ver practico anterior) d) isometra.
113
7. Cuales de los siguientes pares de matrices son unitariamente equivalentes?
a)
_
1 0
0 1
_
,
_
0 1
1 0
_
.
b)
_
0 1
1 0
_
,
_
0
1
2
1
2
0
_
.
c)
_
_
0 1 0
1 0 0
0 0 1
_
_
,
_
_
1 0 0
0 i 0
0 0 1
_
_
.
8. Sea V el espacio de las funciones continuas de [0, 1] en C con el producto interno: f, g =
_
1
0
f g. Sea
h V ja. Se dene T : V V mediante T(f) = hf. Probar que T es una isometra si y solo si
[h(t)[ = 1 para todo t [0, 1].
9. Sea V un espacio con producto interno y sea T : V V un operador autoadjunto. Probar que T i id
es invertible y que S := (T +i id ) (T i id )
1
es una isometra.
10. Sea T un operador en un espacio con producto interno de dimension nita V . Si |T(v)| = |v| para
todo v en alguna base ortonormal, debe ser T una isometra? Probar o dar un contraejemplo.
11. Encontrar una matriz ortogonal cuya primera la sea
_
1
3
,
2
3
,
2
3
_
.
12. Sea V = R
2
, W = [(1, 3)] y B la base canonica de V . Calcular [P
W
]
B
donde P
W
es la proyeccion
ortogonal sobre W. Hacer lo mismo para R
3
y W = [(1, 0, 1)].
13. Para cada una de las matrices del ejercicio 4:
a) Describir la descomposicion espectral de L
A
.
b) Denir explcitamente cada una de las proyecciones ortogonales sobre los subespacios propios de
L
A
.
14. Sea V un k-espacio de dimension nita con producto interno y sea P : V V una proyeccion.
a) Si P es una proyeccion ortogonal probar que |P(v)| |v| para todo v V . Dar un ejemplo de
una proyeccion para la cual no sea valida la desigualdad anterior. Que se puede deducir si se da
la igualdad?
b) Si P es normal y k = C, probar que P debe ser una proyeccion ortogonal.
c) Sea P una proyeccion sobre un espacio de dimension nita con producto interno V . Probar que
si |P(v)| |v| para todo v, entonces P es una proyeccion ortogonal.
15. Sea T un operador normal en un C-espacio con producto interno y de dimension nita. Usar la
descomposicion espectral T =
1
P
1
+ +
k
P
k
para probar:
a) T = T

si y solo si todo valor propio de T es un n umero imaginario puro.


b) Existe un operador normal S tal que S
2
= T.
c) Si existe un operador autoadjunto S tal que S
2
= T, entonces T es un operador semidenido
positivo.
d) Si T es un operador semidenido positivo, entonces existe un unico operador semidenido positivo
S tal que S
2
= T.
114
16. Sea T un operador invertible en un C-espacio vectorial de dimension nita. El objetivo de este ejercicio
es probar que existen unicos operadores S y U tales que S es denido positivo, U es unitario y T = US.
a) Probar que existe un operador denido positivo S tal que S
2
= T

T.
b) Probar que U := T S
1
es un operador unitario.
c) Probar la unicidad de la descomposicion T = U S, con U unitario y S denido positivo.
Sugerencia: si T = U S es una tal descomposicion, probar que T

T = S
2
y aplicar 15d.
6.7. Practico 6 (formas bilineales simetricas y supercies cuadricas)
En los siguientes ejercicios k es un cuerpo de caracterstica distinta de 2.
1. Determinar si las siguientes armaciones son verdaderas.
a) Si es una forma bilineal en un espacio vectorial V de dimension nita, existe una base B de V
tal que M
B
() es diagonal.
b) Si es una forma bilineal simetrica en un espacio vectorial V de dimension nita, M
B
() es
simetrica para toda base B de V .
c) Dos matrices congruentes tienen los mismos valores propios.
d) Toda matriz simetrica es congruente a una matriz diagonal.
2. Determinar cuales de las siguientes funciones : V V k son formas bilineales, donde V es un
espacio vectorial sobre el cuerpo k.
a) (u, v) = (u) (v), donde , V

.
b) V = R, k = R, (x, y) = x + 2y.
c) V = R
2
, k = R, (u, v) = det[u, v], donde u y v indican la primera y segunda columna de [u, v],
respectivamente.
3. Vericar que las siguientes funciones son formas bilineales y hallar la matriz asociada a cada una de
ellas en la base B dada.
a) : k
3
k
3
k, ((x, y, z)(x
t
, y
t
, z
t
)) = xx
t
2xy
t
+yx
t
zz
t
, B = (1, 0, 1), (1, 0, 1), (0, 1, 0).
b) : M
2
(k) M
2
(k) k, (A, B) = tr (A) tr (B),
B =
__
1 0
0 0
_
,
_
0 1
0 0
_
,
_
0 0
1 0
_
,
_
0 0
0 1
__
.
4. Se dene : M
n
(k) M
n
(k) k mediante (A, B) = tr (AB).
a) Probar que Bil
S
(M
n
(k)).
b) Probar que es no degenerada.
5. En cada uno de los casos siguientes encontrar una base -ortogonal B y hallar M
B
().
a) Bil
S
_
k
2
_
, tal que (x, y) = x
2
+ 6xy + 2y
2
, para todo (x, y) k
2
.
b) Bil
S
_
k
2
_
, tal que (x, y) = 2xy, para todo (x, y) k
2
.
c) =
A
Bil
S
_
k
3
_
, siendo A =
_
_
3 1 2
1 4 0
2 0 1
_
_
.
115
d) Bil
S
_
k
3
_
, tal que (x, y, z) = 2x
2
+y
2
+ 3z
2
2xy + 4xz + 6yz, para todo (x, y, z) k
3
.
6. Sea V un R-espacio vectorial de dimension nita y Bil
S
(V ). Probar que en V existe una base
-ortonormal. Sugerencia: partir de una base -ortogonal de V y normalizarla.
7. a) Sea V un C-espacio vectorial de dimension nita y Bil
S
(V ). Probar que en V existe una base
-ortonormal v
1
, . . . , v
n
tal que (v
i
) 0, 1, para todo i = 1, . . . , n.
Sugerencia: recordar que en C todo elemento tiene una raz cuadrada.
b) Sean A, B M
n
(C) simetricas. Probar que si A y B tienen el mismo rango, entonces existe
Bil
S
(C
n
) y dos bases B, ( de C
n
tales que A = M
B
() y B = M
(
().
Luego A y B representan a una misma forma bilineal simetrica si y solo si tienen el mismo rango.
8. Para cada una de las matrices A, hallar los invariantes de , siendo =
A
Bil
S
(R
3
).
A =
_
_
1 2 0
2 3 2
0 2 1
_
_
, A =
_
_
1 3 3
3 5 3
3 3 3
_
_
, A =
_
_
1 3 2
3 3 2
2 2 2
_
_
, A =
_
_
5 3 3
3 3 3
3 3 3
_
_
.
9. Sean A, B M
n
(R) matrices simetricas tales que B es invertible y tiene todos sus valores propios del
mismo signo. Probar que existe una matriz invertible Q M
n
(R) tal que Q
t
AQ y Q
t
BQ son matrices
diagonales. Sugerencia: considerar primero el caso en que B tiene todos sus valores propios positivos
y denir a partir de B un producto interno en R
n
.
10. Hallar en los siguientes casos la forma bilineal simetrica asociada a la forma cuadratica , una base
ortonormal B del espacio tal que M
B
() es diagonal y el ndice, la signatura y el rango de . En todos
los casos se considera el producto interno habitual en R
n
.
a) : R
2
R, (x, y) = 2x
2
+ 4xy +y
2
.
b) : R
2
R, (x, y) = 7x
2
8xy +y
2
.
c) : R
3
R, (x, y, z) = 3x
2
2xz + 3y
2
+ 3z
2
.
11. Sea o = (x, y, z) R
3
: 3x
2
+ 3y
2
+ 3z
2
2xz + 2

2(x + z) + 1 = 0. Calcular la ecuacion de o en


funcion de las coordenadas en la base B hallada en 10c y describir o geometricamente.
12. Clasicar las siguientes cuadricas:
3x
2
+ 3y
2
+ 5z
2
+ 2xy 2xz 2yz 1 = 0; x
2
+y
2
3z
2
2xy + 6xz + 6yz +c = 0, c = 0, 1;
x
2
+y
2
+z
2
+ 2xy + 2xz + 2yz +x +y +z +c = 0, discutir seg un c R;
2x
2
+ 2y
2
+z
2
+ 2xz + 2yz +x +y 2z + 1 = 0; 2x
2
+ 2y
2
+z
2
+ 2xz + 2yz +x +y +z 1 = 0.
13. Sea o la supercie cuadrica denida por 2x
2
+ 5y
2
+ 2z
2
+ 6xy 2yz + 3x 2y z + 14 = 0.
a) Que tipo de cuadrica es o?
b) Hallar explcitamente las ecuaciones de los ejes en los cuales o tiene su forma reducida.
116
6.8. Practico 7 (subespacios invariantes y polinomio minimal)
En los ejercicios que siguen todos los espacios son de dimension nita.
1. Se dene T /(M
2
(R)) mediante T(X) = (
0 1
1 0
)X.
Estudiar si el subespacio W =
_
X M
2
(R) : X
t
= X
_
es T-invariante.
2. Para cada uno de los operadores T /(V ) y cada vector v V , encontrar una base del subespacio
T-cclico generado por v.
a) V = R
3
[x], T(p(x)) = p
tt
(x) y v = x
3
.
b) V = M
2
(R), T(X) = X
t
y v = (
0 1
1 0
).
c) V = M
2
(R), T(X) = (
1 1
2 2
)X y v = (
0 1
1 0
).
3. Sea T un operador en V .
a) Probar que si el polinomio caracterstico de T escinde, entonces tambien escinde el polinomio
caracterstico de la restriccion de T a un subespacio T-invariante.
b) Deducir que si el polinomio caracterstico de T escinde, entonces todo subespacio T-invariante no
trivial contiene un vector propio de T.
4. Sea
A =
_
_
_
_
_
_
_
_
_
0 0 . . . 0 0 a
0
1 0 . . . 0 0 a
1
0 1 . . . 0 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . 1 0 a
n2
0 0 . . . 0 1 a
n1
_
_
_
_
_
_
_
_
_
M
n
(k)
donde a
0
, a
1
, . . . , a
n1
son escalares arbitrarios. Probar

A
(t) = (1)
n
_
t
h
a
n1
t
n1
a
1
t a
0
_
.
Sugerencia: probarlo por induccion en n, desarrollando det(AtI) por la primera la.
5. Sea A una matriz nn con polinomio caracterstico

A
(t) = (1)
n
t
n
+a
n1
t
n1
+ +a
2
t
2
+a
1
t +a
0
.
a) Probar que si A es invertible entonces A
1
=
1
a
0
_
(1)
n
A
n1
+ a
n1
A
n2
+ + a
2
A + a
1
I
_
.
Sugerencia: recordar el teorema de Cayley-Hamilton.
b) Calcular A
1
para A =
_
_
1 2 1
0 2 3
0 0 1
_
_
.
6. Indicar si las siguientes armaciones son ciertas o falsas:
a) El polinomio minimal y el polinomio caracterstico de un operador diagonalizable son iguales.
b) Sea T un operador en V , n = dimV , m
T
(x) el polinomio minimal de T y

T
(x) el polinomio
caracterstico de T. Si

T
(x) escinde, entonces

T
(x) divide a m
T
(x)
n
.
c) Si el polinomio minimal de T escinde, entonces T es diagonalizable.
117
7. Calcular el polinomio minimal de las siguientes matrices.
_
2 1
1 2
_
,
_
1 1
0 1
_
,
_
_
4 14 5
1 4 2
1 6 4
_
_
,
_
_
3 0 1
2 2 2
1 0 1
_
_
.
8. Calcular el polinomio minimal de los siguientes operadores.
a) T : R
2
R
2
donde T(x, y) = (x +y, x y).
b) T : R
2
[x] R
2
[x] donde T(p(x)) = p
t
(x) + 2p(x).
c) T : M
n
(R) M
n
(R) donde T(X) = X
t
.
Sugerencia: los dos ultimos casos se pueden resolver sin hallar la matriz asociada al operador.
9. Determinar cuales de las matrices y operadores de los dos ejercicios anteriores son diagonalizables.
10. Sea T un operador diagonalizable en R
2
que verica T
3
2T
2
+ T = 0. Describir las posibles formas
diagonales de T.
11. Sea T /(V ) que verica T
3
= T
2
, T
2
,= T y T no es nilpotente. Es T diagonalizable?
12. Sea T un operador en V y W un subespacio T-invariante de V . Probar que el polinomio minimal de
T[
W
divide al polinomio minimal de T.
13. Sea T un operador en V . Sean W
1
y W
2
subespacios T-invariantes de V tales que V = W
1
W
2
.
a) Sean

1
(x) y

2
(x) los polinomios caractersticos de T[
W
1
y T[
W
2
respectivamente. Probar que

1
(x)

2
(x) es el polinomio caracterstico de T.
b) Sean m
1
(x) y m
2
(x) los polinomios minimales de T[
W
1
y T[
W
2
respectivamente. Probar que
m
1
(x) m
2
(x) se anula en T. Mostrar mediante un contraejemplo que m
1
(x) m
2
(x) no
3
es necesa-
riamente el polinomio minimal de T.
14. Sea A una matriz nn. Probar que la dimension del subespacio generado por
_
I, A, A
2
, . . .
_
coincide
con el grado del polinomio minimal de A.
15. Sea A M
n
(k) como en el ejercicio 4. Probar
m
A
(t) = t
h
a
n1
t
n1
a
1
t a
0
.
Sugerencia: observar que si B = e
1
, . . . , e
n
es la base canonica de k
n
, entonces e
i
= A
i1
e
1
, para
todo i = 2, . . . , n.
6.9. Practico 8 (forma de Jordan)
En los ejercicios que siguen todos los espacios son de dimension nita, salvo que se diga lo contrario.
3
Con un poco de trabajo se puede probar que el polinomio minimal de T es el mnimo com un m ultiplo de m1(x) y m2(x).
118
1. Se consideran las siguientes matrices
_
2 4
1 2
_
,
_
_
_
_
1 0 1 0
13 1 16 1
1 0 1 0
6 1 7 1
_
_
_
_
,
_
_
_
_
_
_
0 0 0 1 0
0 0 0 0 0
0 1 0 1 2
0 1 0 1 1
0 1 0 1 1
_
_
_
_
_
_
,
_
_
_
_
_
_
0 1 0 1 2
0 0 1 1 0
0 0 0 0 1
0 0 0 0 2
0 0 0 0 0
_
_
_
_
_
_
.
Probar que son nilpotentes. Hallar sus polinomios minimales y sus formas de Jordan.
2. Probar que si T /(V ) es un operador nilpotente, entonces su traza es nula.
3. a) Probar que si A M
n
(k) y k = C, entonces A es nilpotente si y solo si 0 es su unico valor propio.
b) Probar con un contraejemplo que esto es falso si k = R.
4. Para cada uno de los operadores T, encontrar la forma canonica de Jordan y una base de Jordan.
a) T = L
A
donde A =
_
1 1
1 3
_
.
b) T /(R
2
[x]) denido por T(p(x)) = p
t
(x) + 2p(x).
c) T = L
A
donde A =
_
_
2 4 3
4 6 3
3 3 1
_
_
.
5. a) Sea T un operador y un valor propio de T. Probar que si rango(T id )
m
= rango(T id )
m+1
para alg un n umero natural m, entonces Ker(T id )
n
= Ker(T id )
m
para todo n mayor o
igual que m.
b) Test de diagonalizacion. Sea T un operador cuyo polinomio caracterstico escinde. Supongamos
que
1
. . . ,
h
son los valores propios distintos de T. Entonces T es diagonalizable si y solo si
rango(T
i
id) = rango(T
i
id)
2
para todo i = 1, . . . , h.
6. Para cada una de las siguientes matrices A, encontrar su forma de Jordan y una matriz Q tal que
J = Q
1
AQ.
_
_
_
_
_
_
3 1 0 0 0
2 0 0 0 0
0 0 1 0 0
0 0 0 1 1
0 0 0 1 1
_
_
_
_
_
_
,
_
_
_
_
0 3 1 2
2 1 1 2
2 1 1 2
2 3 1 4
_
_
_
_
,
_
_
_
_
_
_
_
_
2 0 0 0 0 0
1 2 0 0 0 0
1 0 2 0 0 0
0 1 0 2 0 0
1 1 1 1 2 0
0 0 0 0 1 1
_
_
_
_
_
_
_
_
.
7. Cuales de las siguientes matrices son semejantes entre s?
_
_
3 3 2
7 6 3
1 1 2
_
_
,
_
_
0 1 1
4 4 2
2 1 1
_
_
,
_
_
0 1 1
3 1 2
7 5 6
_
_
,
_
_
0 1 2
0 1 1
0 0 2
_
_
.
8. Sea A una matriz n n cuyo polinomio caracterstico escinde. Probar que A y A
t
tienen la misma
forma de Jordan y concluir que A y A
t
son semejantes. (Sugerencia: Para cada valor propio de A y
cualquier natural r, mostrar que rango ((AI)
r
) = rango
_
(A
t
I)
r
_
.)
119
9. Sea V el subespacio de las funciones de R en R generado por las funciones e
x
, xe
x
, x
2
e
x
y e
2x
. Denimos
T : V V por T(f) = f
t
. Encontrar la forma de Jordan y una base de Jordan para T.
10. El objetivo de este ejercicio y del siguiente es probar que si el polinomio caracterstico de un operador
T escinde, entonces T se escribe de forma unica como T = S + N, donde S es diagonalizable, N es
nilpotente y S N = N S. Esta es la descomposicion de Jordan del operador T.
Sea T /(V ) cuyo polinomio caracterstico escinde y supongamos que

T
(t) = (1)
n
(t
1
)
n
1
(t
h
)
n
h
,
siendo
1
, . . . ,
h
los valores propios distintos de T. Sean P
1
, . . . , P
h
/(V ) las proyecciones asociadas
a la descomposicion
V = Ker (T
i
id )
n
1
Ker (T
i
id )
n
h
.
Denimos S :=
1
P
1
+ +
h
P
h
y N := T S.
a) Si B es una base de Jordan para T, describir [S]
B
y [N]
B
.
b) Probar que S es diagonalizable, N es nilpotente y S N = N S.
11. Sean T, S y N operadores en un mismo espacio vectorial V tales que T = S + N donde S es
diagonalizable, N nilpotente y SN = NS. Probar que T y S tienen el mismo polinomio caracterstico
y que S es el denido en la parte b) del ejercicio anterior.
(Sugerencia: Sean
1
, . . . ,
h
los valores propios distintos de S y E
i
:= Ker (S
i
id ), i = 1, . . . , h.
Observar que E
i
es N invariante y que N[
E
i
/(E
i
) es nilpotente. Para cada i = 1, . . . , h sea B
i
una
base de Jordan para N[
E
i
y B = B
1
B
h
. Calcular [T]
B
.)
Observar que esto prueba la unicidad de la descomposicion de Jordan de T.
12. Hallar la descomposicion de Jordan de los operadores del ejercicio 4.
13. Sea T /
_
R
4
_
que verica T
5
6 T
4
+ 8 T
3
+ 6 T
2
9 T = 0.
a) Hallar los posibles valores propios de T.
b) Si T es sobreyectiva y T + id es inyectiva, dar los posibles polinomios minimales de T.
c) Si ademas T no es diagonalizable, hallar las posibles formas de Jordan de T y los respectivos
polinomios caractersticos.
d) En las hipotesis de (13c), si T = S+N es la descomposicion de Jordan de T con S diagonalizable
y N nilpotente, hallar el menor n N tal que N
n
= 0.
6.10. Practico 9 (formas multilineales alternadas)
1. Sea k un cuerpo de caracterstica distinta de 2 y V un k-espacio vectorial. Si Bil(V ), denimos

t
Bil(V ) mediante
t
(u, v) = (v, u), para todo u, v V . Probar:
a) Dada Bil(V ), es Bil
S
(V ) si y solo si
t
= y Alt
2
(V ) si y solo si
t
= .
b) Bil(V ) = Bil
S
(V ) Alt
2
(V ).
2. Escribir las siguientes formas alternadas en funcion de la base
_
e

i
1
e

i
k
: 1 i
1
< < i
k
n
_
,
siendo e
1
, . . . , e
n
la base canonica de R
n
.
120
a) Alt
2
(R
3
), ((x, y, z), (x
t
, y
t
, z
t
)) = 3xy
t
3x
t
y yz
t
+y
t
z + 2xz
t
2x
t
z.
b) Alt
2
(R
3
), ((x, y, z), (x
t
, y
t
, z
t
)) = xy
t
+xz
t
+yz
t
(x
t
y +x
t
z +y
t
z).
c) Alt
3
(R
3
), ((x, y, z), (x
t
, y
t
, z
t
), (x
tt
, y
tt
, z
tt
)) =

x
t
y
t
z
t
x y z
x
tt
y
tt
z
tt

.
d) Alt
3
(R
4
), = e

1
e

4
e

2
+e

1
e

3
e

1
+e

4
e

3
e

2
+e

3
e

4
e

2
.
e) Alt
3
(R
4
), ((x, y, z, t), (x
t
, y
t
, z
t
, t
t
), (x
tt
, y
tt
, z
tt
, t
tt
)) =

y
tt
y
t
y
x
tt
x
t
x
t
tt
t
t
t

z x t
z
t
x
t
t
t
z
tt
x
tt
t
tt

.
f ) Alt
2
(R
3
), siendo (x, y, z) = x +y +z y (x, y) = 2x y. (Sugerencia: escribir y en
funcion de la base dual de la base canonica de R
3
.)
g) Alt
3
(R
3
), siendo (x, y, z) = x +y, (x, y, z) = x +z y (x, y, z) = y +z.
3. Calcular

k=0
dimAlt
k
(R
n
), para n = 1, 2, . . ..
121