You are on page 1of 49

´

Indice general
Cap´ıtulo 1. Diagonalizaci´on 3
1. Vectores y valores propios
3
2. Polinomio Caracter´ıstico
6
3. Diagonalizaci´on
8
4. Recordatorio de Suma Directa
10
5. Polinomio M´ınimo 13
6. Subespacios T−invariantes 15
Cap´ıtulo 2. Formas Bilineales 25
Cap´ıtulo 3. Formas Cuadr´aticas 35
1. Operadores Autoadjuntos 41
2. Operadores Unitarios 42
3. Teorema Espectral 43
4. Triangulaci´on Compleja 49
1
Cap´ıtulo 1
Diagonalizaci´ on
En general ser´an de dimensi´on finita a menos que se diga lo contrario
1. Vectores y valores propios
Definici´on. Para T : V → V una transformaci´on lineal (con V no
necesariamenre de dimensi´on finita) un elemento x de V distinto de cero
y un escalar λ en K se llaman un vector propio de T, si T(x) = λx. Es
decir, λ es un valor propio si existe x = 0, tal que T(x) = λx, x es un
vector propio si existe λ ∈ K tal que T(x) = λx.
Definici´on. Para T : V → V una transformaci´on lineal (con V no ne-
cesariamente de dimensi´on finita) y λ ∈ K un valor propio, definimos
E
λ
= {x ∈ V |T(x) = λx} como el espacio propio de T.
Proposici´on 1. Sean T : V → V un operador y λ un valor propio.
Entonces E
λ
es un subespacio.
Demostraci´on Primero T(0) = 0 = λ · 0, entonces 0 ∈ E
λ
. Sean
x, y ∈ E
λ
y a ∈ K,
T(x +ay) = T(x) +aT(y)
= λx +aλy
= λ(x +ay)
Por lo que x +ay ∈ E
λ
y E
λ
es un subespacio de V.
Definici´on. Para un operador T en V y un valor propio λ, definimos a
la multiplicidad geom´etrica de λ como la dimensi´on de E
λ
.
Ejemplos
3
4 Diagonalizaci´on
1. T : V → V dada por T(x) = 0 tiene como valor propio a 0 y
E
0
= V .
2. T : R
2
→R
2
una rotaci´on por un ´angulo que no sea m´ ultiplo de
π, T no tiene valores propios.
3. T : R
2
→ R
2
dada por T(x, y) = (2x, −5y) tiene como valores
propios 2 y -5 con E
2
el eje x y E
−5
el eje y.
4. D : R[x] → R[x], con D(p) = p

0 es un valor propio con E
0
=
P
0
(R) los polinomios de grado menor o igual a 0.
5. D : ζ

(R) → ζ

(R), con D(f) = f

1 es un valor propio con
E
1
, ⊇< e
x
> generalizando para λ ∈ R, E
λ
⊇< e
λx
> .
El siguiente es un criterio muy ´ util para saber si un escalar λ ∈ K es
un valor propio.
Proposici´on 2. Sea T un operador en V (no necesariamente de dimen-
si´on finita) y λ ∈ K. λ es un valor propio de T si y s´olo si nuc(T−λ1
V
) =
0
Demostraci´on
⇒) Si λ es un valor propio de T entonces existe v ∈ V con v = 0 tal
que T(v) = λv, por lo que (T −λ1
V
)(v) = 0 y nuc(T −λ1
V
) = 0.
⇐) Si nuc(T −λ1
V
) = 0 entonces existe v ∈ nuc(T −λ1
V
) con v = 0,
por lo que (T −λ1
V
)(v) = 0 y T(v) = λv.
Proposici´on 3. Sea T un operador en V . Son equivalentes:
1. λ es un valor propio de T
2. nuc(T −λ1
V
) = 0
3. T −λ1
V
es no invertible
Demostraci´on
Ejercicio.
Sin la hip´otesis de la dimensi´on finita, la equivalencia anterior no es
necesariamente cierta, por ejemplo
Si V = K[x] y T(p) = p

, tenemos que 0 es valor propio, pero T no
es invertible.
Pero en general se tiene que 1. o 2. implican 3.
1. Vectores y valores propios
5
Recordando que si T es un operador en V (no necesariamente de
dimensi´on finita) y n ∈ N definimos
T
0
= 1
V
T
n+1
= T ◦ T
n
por lo que para p ∈ K[x] un polinomio con coeficientes n K, si
p(x) = a
0
+a
1
x
1
+... +a
n
x
n
definimos
p(T) = a
0
1
V
+a
1
T +... +a
n
T
n
Proposici´on 4. Sean T un operador en V (no necesariamente de di-
mensi´on finita) y λ un valor propio. Entonces:
1. λ
K
es un valor propio de T
n
, para n ∈ N
2. Para a ∈ K, λ es un valor propio de aT
3. Para p ∈ K[x], p(λ) es un valor propio de p(T)
Demostraci´on
Ejercicio.
Definici´on. Un operador T en V (no necesariamente de dimensi´on finita)
es nilpotente si existe n ∈ N tal que T
n
= 0.
Proposici´on 5. Si T es un operador en V (no necesariamente de di-
mensi´on finita), T es nilpotente y λ un valor propio entonces λ es 0.
Demostraci´on Por hip´otesis existe n ∈ N T
n
= 0, por lo que λ
n
es
un valor propio del operador 0, por lo que λ
n
= 0 y de aqu´ı λ = 0.
Identificamos a K
n
con M
n×1
(K) y recordamos que toda matriz A ∈
M
n
(K) define un operador en K
n
, T
A
: K
n
→K
n
dado por T
A
(x) = Ax.
Cuando hablemos de los valores propios o vectores propios de una matriz
A nos referiremos a los valores propios y vectores propios de T
A
.
6 Diagonalizaci´on
2. Polinomio Caracter´ıstico
El polinomio caracter´ıstico de un operador T en V , lo definimos como
p
T
(λ) = det([T −λ1
V
]
β
β
)
donde β es una base ordenada, notemos que p
T
(λ) = det([T]
β
β
−λI)
donde I es la matriz identidad. Hay que ver que el polinomio caracter´ıstico
no depende de la elecci´on de la base β, as´ı que consideremos otra base
ordenada γ
p
T
(λ)−det([T]
β
β
−λI)
=det([1
V
]
γ
β
)det([T]
β
β
−λI)det([1
V
]
β
γ
)
=det([1
V
]
γ
β
([T]
β
β
−λI)[1
V
]
β
γ
)
=det([T]
γ
γ
−λI)
Usamos el hecho de que el determinante abre la multiplicaci´on y
([1
V
]
γ
β
)
−1
= [1
V
]
β
γ
.
Proposici´on 6. Si T es un operador en V , el coeficiente principal de su
polinomio caracter´ıstico es (−1)
n
donde n es la dimensi´on de V .
Demostraci´on Por inducci´on sobre n
Sea β una base ordenada de V y A = [T]
β
β
.
Si n = 1, p
T
(λ) = det(A−λI) = A
11
−λ.
Ahora el paso inductivo
p
T
(λ) =det(A−λI)
=
n+1

i=1
(−1)
n+1+i
(A−λI)
n+1i
det(

(A−λI)
n+1i
=
n

i=1
(−1)
n+1+i
A
n+1i
det(

(A−λI)
n+1i
)
+ (A
n+1n+1
−λ)det(

(A−λI)
n+1n+1
)
Observemos que
2. Polinomio Caracter´ıstico
7
det(

(A−λI)
n+1i
) =

σ∈S
n
sgn(τ)
n

j=1
(

(A−λI)
n+1i
)
jτ(j)
por lo que

n
j=1
(

(A−λI)
n+1i
)
jτ(j)
es un polinomio de grado a lo m´as
n. Por otro lado det(

(A−λI)
n+1n+1
) = det(
ˆ
A
n+1n+1
−λI) = p
T
ˆ
A
n+1n+1
(λ)
por hip´otesis de inducci´on tiene coeficiente principal (−1)
n
, por lo que
(A
n+1n+1
−λ)det(
ˆ
A
n+1n+1
−λI) tiene coeficiente principal (−1)
n+1
, por
lo observado anteriormente los dem´as polinomios tienen grado menor o
igual a n, por lo que el coeficiente principal debe ser (−1)
n+1
.
Corolario 1. Sea T un operador en V y dimV = n, entonces ∂p
T
= n.
La utilidad del polinomio caracter´ıstico se sigue de la siguiente ob-
servaci´on.
Observaci´on Para T un operador en V y β una base de V , tenemos
que x ∈ V es un vector propio de T si y s´olo si [x]
β
es un vector propio
de [T]
β
β
. Tambi´en λ ∈ K es un valor propio de T si y s´olo si λ es un valor
propio de [T]
β
.
Demostraci´on
Ejercicio.
Recordando que λ es un valor propio de T si y s´olo si T −λI
V
es no
invertible, tenemos que λ es un valor propio de T si y s´olo si [T]
β
β
−λI es
no invertible y esto ´ ultimo es equivalente a que det([T]
β
β
− λI) = 0. Por
lo que llegamos a que λ es un valor propio de T si y s´olo si p
T
(λ) = 0. El
problema de encontrar valores propios se lleva a encontrar ra´ıces de un
polinomio.
Ejemplo 1. Sea T : K
2
→ K
2
dado por T(x, y) = (x + y, x − y) y
consideramos β = {(1, 0), (0, 1)}, no hay que complicarnos la vida puesto
8 Diagonalizaci´on
que cualquier base funciona, en general elegiremos la can´onica
[T]
β
β
=
_
1 1
1 1
_
p
T
(λ) =det
_
1 −λ 1
1 −1 −λ
_
=(1 −λ)(−1 −λ) −1
=−1 −λ +λ +λ
2
−1

2
−2 = (λ −

2)(λ +

2)
Las ra´ıces del polinomio caracter´ıstico son

2, −

2 y por lo tanto
son valores propios. Queremos encontrar un vector propio para cada valor
propio, es decir, un elemento no cero de nuc(T −λI
V
), es decir, buscamos
una soluci´on no trivial
_
1 −λ 1
1 −1 −λ
__
x
y
_
=
_
0
0
_
Primero en el caso de λ =

2
_
(1 −

2)x +y = 0
x + (−1 −

2)y = 0
Haciendo x = 1, encontramos que y =

2 −1. Verificando T(1,

2 −1 =
(

2, 2 −

2) =

2(1,

2 −1) En el caso de λ = −

2
_
(1 +

2)x +y = 0
x + (−1 +

2)y = 0
De nuevo elegimos x = 1 y llegamos a que y = −1 −

2, calculando
T(1, −1 −

2) = (−

2, 2 +

2) = −

2(1, −1 −

2).
Lo´ unico que necesitamos en este ejemplo es que

2 ∈ K, en el caso
de Z
3
esto no se da 0
2
= 0, 1
2
= 1 y 2
2
= 1.
3. Diagonalizaci´on
Definici´on. Una matriz D ∈ M
n
(K) la llamamos diagonal si D
ij
= 0
siempre que i = j, es decir, una matriz cuadrada es diagonal si fuera de
su diagonal solo toma el valor 0.
3. Diagonalizaci´on
9
_
1 0
0 1
_
,
_
1 0
0 0
_
,
_
−1 0
0 2
_
Definici´on. Un operador T en V es diagonalizable si existe una base β
de V tal que [T]
β
es una matriz diagonal.
Proposici´on 7. Para T un operador en V son equivalentes
1. T es diagonalizable
2. Existe β base de V de vectores propios
Demostraci´on
1. ⇒2.) Si T es diagonalizable existe β tal que [T]
β
es diagonal.
Si ponemos β = {v
1
, ..., v
n
}, tenemos que [T(v
i
)]
β
= [T]
β
[v
i
]
β
, si
calculamos su j−´esima coordenada tenemos
[T(v
i
)]
β
j1
=([T]
β
[v
i
]
β
)
j1
=
n

k=1
[T]
β
jk
[v
i
]
β
k1
=
n

k=1
[T]
β
jj
δ
jk
δ
ki
=[T]
β
jj
δ
ji
Lo que quiere decir que T(v
i
) = [T]
β
ii
v
i
.
2. ⇒ 1.) Si existe una base β = {v
1
, ..., v
n
} de vectores propios con
T(v
i
) = λ
i
v
i
, lo que quiere decir que [T]
ij
= [T(v
j
)]
ii
= 0, si i = j.
Para llevar esto a´ un m´as al lenguaje de matrices, recordamos que dos
matrices A, B representan al mismo operador si existe Q ∈ GL
n
(K) tal
que A = QBQ
−1
, cuando esto pasa decimos que son semejantes, damos
naturalmente la siguiente definici´on.
Definici´on. Una matriz cuadrada es diagonalizable si es semejante a una
matriz diagonal.
Proposici´on 8. Para T un operador en V , son equivalentes
1. T es diagonalizable
2. Para toda β base de V , tal que [T]
β
es diagonalizable
10 Diagonalizaci´on
3. Existe β base de V , tal que [T]
β
es diagonalizable
Demostraci´on
1. ⇒ 2.) Si T es diagonalizable, existe γ base de V tal que [T]
γ
es
diagonal, sea β una base de V , [1
V
]
γ
β
[T]
β
[1
V
]
β
γ
= [T]
γ
, y como [1
V
]
γ
β
es
invertible con inversa [1
V
]
β
γ
, tenemos que [T]
β
es semejante a una matriz
diagonal.
2. ⇒3.) Obvio.
3. ⇒ 1.) Si [T]
β
es diagonalizable, entonces existe Q ∈ GL
n
(K)
con Q[T]
β
Q
−1
= D con D una matriz diagonal. Consideramos que Q
representa un operador que podemos poner Q = [S]
β
para alg´ un operador
S en V , notemos que Q
−1
= [s
−1
]
β
, de aqu´ı [STS
−1
]
β
= D por lo que
tenemos que si β = {v
1
, ..., v
n
} entonces STS
−1
(v
i
) = D
ii
v
i
, por lo que
T(S
−1
(v
i
)) = D
ii
(S
−1
(v
i
)), es decir S
−1
(v
1
), ..., S
−1
(v
n
) son vectores
propios y como S
−1
es un isomorfismo, son una base de vectores propios.

4. Recordatorio de Suma Directa
Sean V
i
≤ V i = 1, ..., n subespacios, la suma

n
i=1
V
i
es el subespacio
formado por los elementos de la forma v
1
+... +v
n
con v
i
∈ V
i
para toda
i = 1, ..., n. Diremos que el subespacio

n
i=1
V
i
es una suma directa, si
para cada i = 1, ..., n V
i

j=i
V
j
= 0 y lo denotaremos por

n
i=1
V
i
.
Proposici´on 9. Sean V
i
≤ V y dim(V
i
) = m
i
para i = 1, ..., n. La suma
de los V
i
es directa si y s´olo si dim(

n
i=1
V
i
) =

n
i=1
.
Demostraci´on
Ejercicio.
Proposici´on 10. Sean V
i
≤ V .

k
i=1
V
i
es suma directa si y s´olo si para
cualesquiera β
i
⊆ V
i
linealmente independiente,

k
i=1
β
i
es linealmente
independiente. En este caso la uni´on siempre resutar´a ajena.
Proposici´on 11. Sea T un operador en V , v
1
, ..., v
n
vectores propios
de λ
1
, ..., λ
n
con λ
i
= λ
j
si i = j, entonces v
1
, ..., v
n
son linealmente
independientes.
4. Recordatorio de Suma Directa
11
Demostraci´on
Por inducci´on sobre n.
Si n = 0, el conjunto de vectores es vac´ıo y por lo tanto linealmente
independiente.
Si n = 1, v
1
es linealmente independiente por ser distinto de cero.
Suponemos v´alido para n, y suponemos que v
1
, ..., v
n+1
son lineal-
mente dependientes, como v
1
, ..., v
n
son linealmente independientes en-
tonces
v
n+1
= µ
1
v
1
+... +µ
n
v
n
Aplicando T y multiplicando por λ
n+1
obtenemos las siguientes dos igual-
dades.
λ
n+1
vn + 1 =µλ
1
v
1
+... +µ
n
λ
n
v
n
λ
n+1
vn + 1 =µλ
n+1
v
1
+... +µ
n
λ
n+1
v
n
despejando obtenemos
µ
1

1
−λ
n+1
)v
1
+... +µ
n

n
−λ
n+1
)v
n
= 0
Por hip´otesis de inducci´on
µ
i

i
−λ
n+1
) = 0
pero λ
i
− λ
n+1
= 0 por hip´otesis, por lo que µ
i
= 0 para i = 1, ..., n lo
que implica que v
n+1
= 0! contradiciendo el hecho de que v
n+1
era un
vector propio.
Corolario 2. Sea T un operador en V con dimV = n y n valores propios
diferentes. Entonces T es diagonalizable.
Demostraci´on. Para cada λ
i
existe un vector propio v
i
, el conjunto
{v
1
, ..., v
n
} es linealmente independiente y junto con la hip´otesis de que
dimV = n tenemos que v
1
, ..., v
n
es una base de vectores propios de V.
Corolario 3. Sean T un operador en V y λ
1
, ..., λ
n
valores propios de T
diferentes entre s´ı. Entonces la suma de los E
λ
i
es directa.
Demostraci´on
Sea v
i
∈ E
λ
i

j=i
E
λ
j
entonces v
i
= v
1
+... +v
i−1
+v
i+1
+... +v
k
con v
j
∈ E
λ
j
para j = 1, ..., k entonces despejando a 0 tenemos que
v
1
, ..., v
k
son linealmente dependientes por lo que la ´ unica manera que
esto pase y no se contradiga la proposici´on anterior es que v
1
= 0, por lo
que E
λ
i
|

j=i
E
λ
j
= 0.
12 Diagonalizaci´on
Definici´on. Un polinomio p ∈ K[x] se escinde en K, si existen λ, λ
1
, ..., λ
k

K (no necesariamente diferentes) tales que p(x) = λ(x −λ
1
)...(x −λ
k
).
Proposici´on 12. Sea T un operador en V diagonalizable entonces p
T
se
escinde.
Demostraci´on Sea β una base de V de vectores propios, entonces
[T]
β
= D es una matriz diagonal, por lo que p
T
(λ) = det(D − λI) =
(D
11
−λ)...(D
nn
−λ) = (−1)
n
(λ −D
11
)...(λ −D
nn
)
Definici´on. Para T un operador en V y λ un valor propio de T defi-
nimos la multiplicidad algebraica de λ como la multiplicidad de λ en el
polinomio caracter´ıstico p
T
, es decir, el mayor k tal que (x −λ)
k
|p
T
(x).
Proposici´on 13. Sea T un operador en V tal que p
T
se escinde en K y
m
i
la multiplicidad algebraica de λ
i
entonces dimV =

m
i
.
Proposici´on 14. Sea T un operador en V y λ un valor propio de T,
entonces la multiplicidad geom´etrica de λ es menor o igual a la multipli-
cidad algebraica de λ.
Demostraci´on. Sea {v
1
, ..., v
k
} una base de E
λ
, y la extendemos
a una de V , β = {v
1
, ..., v
k
, ..., v
n
} entonces [T]
β
=
_
A
1
A
2
0 A
3
_
donde
A
1
= λI ∈ M
k
(k), A
2
∈ M
k×n−k
(k), A
3
∈ M
n−k
(k) y 0 ∈ M
n−k×k
(k)
p
T
(x) =det([T]
β
−xI)
=det(A
1
−xI)det(A
3
−xI)
=(−1)
k
(x −λ)
k
det(A
3
−xI)
por lo que (x −λ)
k
|p
T
(x).
Proposici´on 15. Sea T un operador en V con dimV = n, tal que p
T
se
escinde en K y λ
1
, ..., λ
k
los valores propios de T (diferentes) entonces
son equivalentes:
1. T es diagonalizable
2. La multiplicidad algebraica coincide con la geom´etrica para todo
valor propio.
Demostraci´on.
5. Polinomio M´ınimo 13
1. ⇒2.) Si T es diagonalizable existe una base β de vectores propios
llamamos β
i
= β ∩E
λ
i
, notamos que β =

k
i=1
β
i
, β es la uni´on ajena de
los β
i
. Calculando
n =|β|
=
k

i=1

i
|

k

i=1
dim(E
λ
i
)
≤n
De aqu´ı

k
i=1
dim(E
λ
i
) = n.
Si llamamos m
i
a la multiplicidad algebraica de λ
i
, sabemos que

k
i=1
m
i
= n. Por lo que dim(E
λ
i
) = m
i
para toda i = 1, ..., k.
2. ⇒1.) Sea β
i
una base de E
λ
i
, entonces β =

k
i=1
β
i
, por hip´otesis
β es linealmente independiente entonces
|β| =
k

i=1

i
|
=
k

i=1
dim(E
λ
i
)
=
k

i=1
m
i
=n
Por lo que β es base y de vectores propios.
5. Polinomio M´ınimo
Recordemos que para T un operador en V le hab´ıamos dado un sen-
tido a p(T) donde p es un polinomio en K[x]. Sin profundizar mucho,
recordemos de cursos pasados que en un anillo conmutativo R, si defini-
mos a divide a b, para a, b ∈ R, como que existe c ∈ R tal que ac = b, esta
relaci´on nos da un preorden, es decir, la relaci´on es reflexiva y transitiva.
Todo esto para dar la siguiente definici´on.
14 Diagonalizaci´on
Definici´on. Sea T un operador de V , el polinomio m´ınimo de T, p
T
,
lo definimos como el m´ınimo polinomio m´onico de K[x] distinto de cero,
que con el preorden mencionado anteriormente hace que p
T
(T) = 0.
Proposici´on 16. Sea T un operador en V , entonces p
T
existe y es ´ unico.
Demostraci´on. Sea n = dimV , entonces dim(End(V )) = n
2
por lo
que 1
V
, T, ..., T
n
2
son n
2
+1 vectores que deben ser linealmente dependien-
tes por lo que existen a
0
, ..., a
n
2 ∈ K tales que a
0
1
V
+a
1
T +...+a
n
2T
n
2
=
0 con alg´ un a
i
= 0 por lo que p(x) = a
0
+a
1
x+...+a
n
2x
n
2
es un polinomio
que anula a T.
Ahora consideramos
I = {∂q ∈ N|q ∈ K[x] con q = 0 y q(T) = 0}
Claramente I ⊆ N y ∂p ∈ I, por lo que I = ∅, ahora por el principio
del buen orden existe un m´ınimo en m ∈ I, ese m es el grado de un
polinomio f distinto de cero que anula a T, ahora veamos que es m´ınimo
con respecto al preorden de la divisibilidad.
Sea g ∈ K[x] tal que g(T) = 0, g = 0 y m ≤ ∂g entonces por el
algoritmo de la divisi´on en polinomios existen h, r ∈ K[x] tales que
g = fh +r con ∂r < ∂f = m
Valuando en T
0 = g(T) =f(T)h(T) +r(T)
=0 ◦ h(T) +r(T)
=r(T)
por lo que r(T) = 0 si ∂r es un natural tendr´ıamos que ∂r ∈ I!
contradiciendo que ∂f es m´ınimo, por lo que ∂r = −∞ y r = 0. As´ı que
g = fh y f|h. La siguiente observaci´on nos dar´a el truco de la unicidad,
ya que tenemos el grado m, todos los polinomios de grado m que anulan
a T son m´ınimos, pero si f y f

son dos polinomios que cumplen esto,
entonces existe a ∈ K tal que af = f

. Como f|f

existe h ∈ K[x]
fh = f

, pero m = ∂(f

) = ∂(fh) = ∂(f) + ∂(h) = m + ∂(h) de donde
∂(h) = 0, por lo que h = a con a ∈ K. El regreso tambi´en se vale, es
decir, si f tiene grado m, f(T) = 0 y a ∈ K entonces af tiene grado m
y af(T) = 0. Por que el conjunto de polinomios de grado m que anulan
a T, todos son m´ ultiplos por un escalar.
6. Subespacios T−invariantes 15
Sabemos que existe al menos un polinomio f tal que f(T) = 0 y ∂f =
m. Si f no es m´onico entonces su coeficiente principal a es distinto de cero,
por lo que a
−1
f es m´onico y cumple lo deseado, por lo que llamemos p
T
=
a
−1
f. Si f es otro polinomio m´onico que cumple lo deseado, entonces
p
T
= bf

con b ∈ K, pero p
T
, bf

tienen el mismo coeficiente principal,
en este caso el de p
T
es 1 y el de bf

es b, por lo que b = 1 y p
T
= f

, es
decir, pedirle que sea m´onico le da unicidad.
Corolario 4. Si T es un operador en V con dimV = n entonces ∂(p
T
) ≤
n
2
.
Observaci´on. Si T es el operador cero, entonces p
T
(x) = x.
Ejemplos
1. Sea T : K
2
→ K
2
dado por T(x, y) = (y, x), notemos que T
2
=
1
K
2 por lo que T
2
− 1
K
2 = 0, en este caso p
T
(x) = x
2
− 1 =
(x −1)(x + 1), es f´acil observar que ni x −1 ni x + 1 anula a T.
Ahora un peque˜ no c´alculo para plantear cierta conexi´on
p
T
(λ) = det
_
λ 1
1 λ
_
= λ
2
−1 = p
T
(λ)
2. Sea T : K[x] → K[x], dado por T(f) = f

, y veamos que T no
tiene polinomio m´ınimo, puede ser confuso pero no imposible,
sea p ∈ K[x] un polinomio para que anule a T, se necesita que
p(T) = 0, es decir, que p(T)(f) = 0, siendo m´as expl´ıcitos, si
p(x) = a
0
+a
1
x +... +a
n
x
n
,
p(T)(f) = a
0
f +a
1
f

+... +a
n
f
(n)
donde f
(i)
denota la i−´esima derivada, por lo que pedir que
p(T)(f) = 0 es pedir que a
0
f+a
1
f

+...+a
n
f
(n)
= 0 si tomamos el
caso particular de f = x
n
entonces p(T)(x
n
) = b
0
+b
1
x+...+b
n
x
n
donde b
i
= a
n−i
(n−i)! con i = 0, ..., n que si pedimos que K = R
o C, vemos que p(T)(x
n
) = 0 al menos que p originalmente fuese
cero, por lo cual T no tiene polinomio m´ınimo. . . . . . . . . . .
6. Subespacios T−invariantes
Definici´on. Sea T un operador en V y W ≤ V , decimos que W es un
espacio T−invariante, W ≤
T
V , si T(V ) ⊆ V . Pedir esta propiedad hace
sentido en que para W ≤
T
V tenemos que T|
W
es un operador en W.
16 Diagonalizaci´on
Ejemplos.
1. 0 ≤
T
V
2. nucT ≤
T
V
3. V ≤
T
V
4. imT ≤
T
V
Proposici´on 17. Sea T un operador en V y W ≤
T
V , entonces p
T|
W
|p
T
.
Demostraci´on.
Sea β una base de W y la completamos a γ una base de V , entonces
[T]
γ
=
_
[T]
β
A
0 B
_
por lo que
p
T
(λ) =det([T]
γ
−λI)
=det([T]
β
−λI)det(B −λI)
=p
T|W
(λ)det(B −λI)
de aqu´ı p
T|
W
(λ)|p
T
(λ).
Proposici´on 18. Sea T un operador en V con V =

m
i=1
V
i
donde
V
i

T
V , entonces p
T
=

m
i=1
p
T|
v
i
.
Demostraci´on.
Ejercicio
Observaci´on. Para T un operador en V , W ≤
T
V y f ∈ K[x],
f(T|
W
) = f(T)|
W
Ejercicio
Proposici´on 19. Sea T un operador en V con W ≤
T
V entonces
p
T|
W
|p
T
.
Demostraci´on.
p
T
(T|
W
) = p
T
(T)|
W
= 0|
W
= 0 por la minimalidad de p
T|
W
, con-
cluimos que p
T|
W
|p
T
.
Definici´on. Para T un operador en V y x ∈ V definimos < x >
T
como
el subespacio generado por {T
n
(x)|n ∈ N}, lo llamaremos el subespacio
T−c´ıclico generado por x.
Proposici´on 20. Sea T un operador en V entonces p
T
= mcm{p
T|
<x>
T
|x ∈
V }.
6. Subespacios T−invariantes 17
Demostraci´on.
Primero ponemos
p
T
= mcn{p
T|
<x>
T
|x ∈ V }
de la proposici´on anterior tenemos
p
T|
<x>
T
|p
T
∀x ∈ V
es decir, p
T
es un m´ ultiplo com´ un, de lo que se sigue que m|p
T
.
Por la parte de ser un com´ un m´ ultiplo tenemos que p
T
<x>
T
|m, para
toda x ∈ V . As´ı que existe h
x
tal que p
T
<x>
T
h
x
= m, valuando T(x) en
la igualdad anterior
m(T)(x) =(h
x
(T) ◦ p
T
<x>
T
(x))(x)
=h
x
(T)(p
T
<x>
T
(T(x)))
=h
x
(T)(0)
=0
Es decir, manula a T, por lo que p
T
<x>
T
|m. Como los dos son m´onicos
y se dividen entre s´ı, no queda m´as que sean iguales.
Lema 1. Sea T un operador en V con dimV = n y < x >
T
= V para
alg´ un V , entonces x, T(x), ..., T
n−1
(x) es una base de V .
Demostraci´on.
Si para alg´ un r ∈ N
+
,
T
r
(x) ∈< x, T(x), ..., T
r−1
(x) >
entonces {T
k
(x)|k ∈ N} ⊆ {x, T(x), ..., T
r−1
} por lo que V ⊆<
x, T(x), ..., T
r−1
(x) > y de aqu´ı que x, T(x), ..., T
r−1
(x) genere, del curso
pasado sabemos que r ≥ n.
Dentro del mismo contexto sabemos que existe al menos un r con la
propiedad antes mencionada, en caso contrario tendr´ıamos que para todo
k ∈ N
+
T
k
(x) / ∈< x, T(x), ..., T
k−1
(x) > por lo que {x, T(x), ..., T
k−1
(x)}
ser´ıa linealmente independiente para toda k ∈ N resultando en que V
ser´ıa de dimensi´on infinita.
18 Diagonalizaci´on
Lo anterior es para poder definir
s = m´ın{r ∈ N
+
|T
r
(x) ∈< x, T(x), ..., T
r−1
(x) >}
y que este exista dado que el conjunto es no vac´ıo. Tengamos en
cuenta que para s tambi´en se tiene s ≥ n.
Por como se eligi´o s, x, T(x), ..., T
s−1
(x) es linealmente independiente
por lo que s ≤ n, de aqu´ı s = n. Como ya se hab´ıa notado, de aqu´ı se
deduce el hecho de que x, T(x), ..., T
n−1
(x) es base.
En la demostraci´on anterior usamos mucho el hecho de que si tenemos
un conjunto linealmente independiente S, entonces S∪{x} es linealmente
independiente si y solo si x / ∈< S >.
Teorema 1. Sea T un operador en V con dimV = n y V =< x >
T
para
alg´ un x ∈ V , entonces p
T
= ±p
T
.
Demostraci´on
Por la proposici´on anterior β = {x, T(x), ..., T
n−1
(x)} es base de V .
Calculando [T]
β
tenemos
[T(x)]
β
=
_
_
_
_
_
_
_
0
1
0
.
.
.
0
_
_
_
_
_
_
_
[T
2
(x)]
β
=
_
_
_
_
_
_
_
0
0
1
.
.
.
0
_
_
_
_
_
_
_
6. Subespacios T−invariantes 19
[T
n−2
(x)]
β
=
_
_
_
_
_
_
_
0
0
0
.
.
.
1
_
_
_
_
_
_
_
y si T
n
(x) = a
0
x +a
1
T(x) +... +a
n−1
T
n−1
(x) entonces
[T
n
(x)]
β
=
_
_
_
_
_
a
0
a
1
.
.
.
a
n−1
_
_
_
_
_
Por lo que
[T]
β
=
_
_
_
_
_
_
_
0 0 · · · 0 a
0
1 0 · · · 0 a
1
0 1 · · · 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · 1 a
n−1
_
_
_
_
_
_
_
Ahora
P
T
(λ) = det
_
_
_
_
_
_
_
−λ 0 · · · 0 a
0
1 −λ · · · 0 a
1
0 1 · · · 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · 1 a
n−1
λ
_
_
_
_
_
_
_
Calculando tenemos
20 Diagonalizaci´on
p
T
(λ) =−λdet
_
_
_
_
_
_
_
−λ 0 · · · 0 a
0
1 −λ · · · 0 a
1
0 1 · · · 0 a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 · · · 1 a
n−1
λ
_
_
_
_
_
_
_
+(−1)
n+1
a
0
det
_
_
_
_
_
_
_
−1 −λ 0 · · · 0
0 1 −λ · · · 0
0 0 1 · · · 0
.
.
.
.
.
.
.
.
.
.
.
.
−λ
0 0 0 · · · 1
_
_
_
_
_
_
_
Como ejercicio queda demostrar que el ´ ultimo determinante vale 1.
Notemos que el pen´ ultimo determinante tiene la misma forma que el
original, por lo que repitiendo el proceso llegamos a que
p
T
(λ) = (−1)
n

n
−a
n−1
λ
n−1
−... −a
1
λ −a
0
)
Evaluando x en p
T
(T) tenemos
p
T
(T)(x) = (−1)
n
(T
n
(x) −a
n−1
T
n−1
(x)... −a
1
T(x) −a
0
x) = 0
De este hecho se sigue que p
T
(T)(T
i
(x)) = 0 para i = 0, ..., n−1 por
lo que P
T
(T) anula a β y por lo tanto anula a V , de aqu´ı p
T
(T) = 0 y
p
T
|p
T
.
Ahora si ponemos a p
T
(λ) = b
0
+b
1
λ+... +b
m−1
λ
m−1
+λ con m ≤ n
y evaluamos a T y evaluamos a T tenemos que
0 = p
T
(T) = b
0
1
V
+bT +... +b
m−1
T
m−1

en particular valdr´ıa para x. Si m < n, entonces b
0
x +b
1
T(x) +... +
b
m−1
T
m−1
(x) +T
m
(x) = 0, lo cual contradice la independencia lineal de
x, T(x), ..., T
m
(x), por lo que m = n y como p
T
|p
T
tenemos que p
T
= ap
T
con a ∈ K, como p
T
es m´onico y el coeficiente principal de p
T
es ±1, se
sigue el resultado.
6. Subespacios T−invariantes 21
Teorema 2 (Cayley-Hamilton). Sea T un operador en V , entonces p
T
(T) =
0, es decir, p
T
|p
T
.
Demostraci´on
Sabemos que para x ∈ V
p
T|
<x>
T
= ±p
T|
<x>
T
y que
p
T|
<x>
T
|p
T
por lo que p
T|
<x>
T
|p
T
, es decir, p
T
es un com´ un m´ ultiplo de p
T|
<x>
T
corriendo por x ∈ V , y como p
T
es el m´ınimo com´ un m´ ultiplo p
T
|p
T
.
Proposici´on 21. Sea T un operador en V . T es diagonalizable si y solo
si p
T
(x) = (x −λ
1
)...(x −λ
k
) con λ
1
, ..., λ
k
diferentes entre s´ı.
Demostraci´on
⇒) Como T es base, existe β base de vectores propios, consideremos
q(x) = (x −λ
1
)...(x −λ
k
)
donde λ
1
, ..., λ
k
son los distintos valores propios de T, tomemos v ∈ β,
entonces T(v) = λ
j
para alg´ un j de 1 a k, entonces
q(T)(v) =((x −λ
1
)...(x −λ
j−1
)(x −λ
j+1
)...(x −λ
k
))(T) ◦ ((x −λ
j
)(T))(v)
=((x −λ
1
)...(x −λ
j−1
)(x −λ
j+1
)...(x −λ
k
))(T)(T(v) −λ
j
v)
=((x −λ
1
)...(x −λ
j−1
)(x −λ
j+1
)...(x −λ
k
))(T)(0)
=0
Por lo que q(T) anula a toda la base β y as´ı que q(T) = 0 y de
aqu´ı p
T
|q. Por otro lado
p
T

j
)v = p
T
(T)(v) = 0
22 Diagonalizaci´on
y como v es un vector propio es distinto de cero por lo que p
T

j
) = 0
y de aqu´ı que los λ
j
sean ra´ıces de p
T
, por lo que q|p
T
, ahora como los
dos son m´onicos y se dividen entre s´ı q = p
T
.
⇐) Si p
T
(x) = (x−λ
1
)...(x−λ
k
) con λ
1
, ..., λ
k
diferentes. La demos-
traci´on se har´a por inducci´on sobre k y hacemos la observaci´on que por
el teorema anterior los λ
i
son valores propios de T.
Base: Si k = 1, entonces 0 = p
T
(T) = (x −λ
1
)(T) = T −λ1
V
por lo
que T = λ1
V
y obviamente T es diagonalizable.
Si k = 2 entonces 0 = p
T
(T) = (T−λ
1
1
V
)(T−λ
2
1
V
). Por el algoritmo
de la divisi´on tenemos
x −λ
1
= (x −λ
2
)1 + (λ
2
−λ
1
)
de aqu´ı
((x −λ
1
) −(x −λ
2
))(λ
2
−λ
1
)
−1
= 1
Por lo que aplicando T, tenemos
((T −λ
1
1
V
) −(T −λ
2
1
V
))(λ
2
−λ
1
)
−1
= 1
V
Para todo v ∈ V
(T −λ
2
1
V
)((λ
2
−λ
1
)
−1
(T −λ
1
1
V
)(v)) =(λ
2
−λ
1
)
−1
(T −λ
2
1
V
)(T −λ
1
1
V
)(v)
=(λ
2
−λ
1
)
−1
0(v)
=0
entonces (λ
2
−λ
1
)
−1
(T −λ
1
1
V
)(v) ∈ E
λ
2
.
An´alogamente (λ
2
−λ
1
)
−1
(T −λ
2
1
V
)(v) ∈ E
λ
1
.
Con lo anterior, para toda v ∈ V
v = (λ
2
−λ
1
)
−1
(T −λ
1
1
V
)(v) −(λ
2
−λ
1
)
−1
(T −λ
2
1
V
)(v)
por lo que v ∈ E
λ
1
+E
λ
2
de aqu´ı V = E
λ
1
+E
λ
2
.
6. Subespacios T−invariantes 23
Para cuando k > 2 y se vale para k, primero notemos que por hip´ote-
sis de inducci´on S = T|

k
i=1
E
λ
i
es diagonalizable por lo que p
S
(x) =
(x − λ
1
)...(x − λ
k
) por hip´otesis de inducci´on, por otro lado p
S
(x) y
(x −λ
k+1
son coprimos por lo que existen f, g ∈ K[x]
1 = p
S
f + (x −λ
k+1
)g
Sea v ∈ V ,
p
S
(T) ◦ (x −λ
k+1
g(T)(v) =gp
S
(T)(x −λ
k+1
)(T)(v)
=gp
T
(T)(v)
=0
Por lo que ((x −λ
k+1
)g)(T)(v) ∈ nucp
S
(T).
Af. nucp
S
(T) ⊆

k
i=1
E
λ
i
. Ejercicio
Por otro lado
(x −λ
k+1
) ◦ (p
S
f)(T)(v) =p
T
◦ f(T)(v)
=f(T)(p
T
(T)(v))
=f(T)(0)
=0
Por lo que p
S
f(T)(v) ∈ E
λ
k+1
.
As´ı para toda v ∈ V , v ∈
_

k
i=1
E
λ
i
_
+E
λ
k+1
.
Por lo que V =

k+1
i=1
E
λ
i
.
Cap´ıtulo 2
Formas Bilineales
Definici´on. Una forma bilineal en un K−espacio V es na funci´on B :
V ×V →K tal que:
Para x, x

, y, y

∈ V y λ ∈ K,
1. B(x +x

, y) = B(x, y) +B(x

, y)
2. B(x, y +y

) = B(x, y) +B(x, y

)
3. (B(λx, y) = λB(x, y) = B(x, λy)
esto es que sea lineal en cada variable.
Ejemplos
1. V = K
n
con n natural
B(¯ x, ¯ y) =
n

i=1
x
i
y
i
2. V = I([a, b]) las funciones integrables en el intervalo ([a, b]) con
B(f, g) =
_
b
a
f(x)g(x)dx
3. V = K
n
y A ∈ M
n
(K)
B(¯ x, ¯ y) = ¯ xA¯ y
t
Definici´on. Para V un K−espacio, Bil(V ) es el conjunto de todas las
formas bilineales sobre K.
25
26 Formas Bilineales
Proposici´on 22. Para V un K−espacio, Bil(V ) es un K−espacio.
Demostraci´on
Notemos que Bil(V ) ⊆ K
V ×V
y como K
v×V
es un K−espacio basta
ver que Bil(V ) es un subespacio.
Primero 0(v, w) = 0 es una forma bilineal, por lo tanto 0 ∈ Bil(V ).
Despu´es sean B, B

∈ Bil(V ) y λ ∈ K. Para x, x

, y, y

∈ V y α ∈ K
(B +λB

)(x +x

, y) =B(x +x

, y) +λB

(x +x

, y)
=B(x, y) +B

(x

, y) +λ(B

(x, y) +B(x

, y))
=B(x, y) +B(x

, y) +λB

(x, y) +λB

(x

, y)
=(B +λB

)(x, y) + (B +λB

)(x

, y)
An´alogamente
(B +λB

)(x, y

) = (B +λB

)(x, y) + (B +λB

)(x, y

)
Tambi´en
(B +λB

)(αx, y) =B(αx, y) +λB

(αx, y)
=αB(x, y) +αλB

(x, y)
=α(B +λB

)(x, y)
An´alogamente
α(B +λB

)(x, y) = (B +λB

)(x, αy)
Por lo tanto B +λB

∈ Bil(V )
Por lo tanto Bil(V ) es un K−subespacio y espacio en su propio
derecho.
Del ejemplo 3 se tiene que las matrices representan algunas formas
bilineales por lo que es natural preguntar si representa a todas, sobreen-
tendiendo que hablamos del caso de dimensi´on finita.
27
Definici´on. Sea B : V × V → K una forma bilineal sobre V con V de
dimensi´on finita y β = {v
1
, ..., v
n
} una base de V , definimos la matriz
asociada a la forma B para la base β como
ˆ
B
βij
= B(v
i
, v
j
)
si no hay riesgo a confusi´on omitiremos la base, es decir nos queda-
remos con
ˆ
B
Proposici´on 23. Sea B ∈ Bil(V ) y β = {v
1
, ..., v
n
} una base de V ,
entonces B(v, w) = [v]
t
β
ˆ
B[w]
β
.
Demostraci´on
Para ver esto fijamos v ∈ V y basta ver que
[B(v, )]
β
= [v]
t
β
ˆ
B
Calculando
([v]
t
β
ˆ
B)
ij
=
n

k=1
[v]
t
β
1k
ˆ
B
kl
=
n

k=1
[v]
t
β
ik
B(v
k
, v
j
)
=
n

k=1
B([v]
t
β
ik
v
k
, v
j
)
=B(
n

k=1
[v]
t
β
ik
v
k
, v
j
)
=B(v, v
j
)
=[B(v, )]
β
j
Proposici´on 24. Sea ∧ : Bil(V ) →M
n
(K) para alguna base β finita de
V , entonces ∧ es un isomorfismo.
28 Formas Bilineales
Demostraci´on
Ponemos a β = {v
1
, ..., v
n
}.
Primero veamos que es lineal.
Sean B, B

∈ Bil(V ) y λ ∈ K
(

B‘λB

)
ij
=(B +λB

)(v
i
, v
j
)
=B(v
i
, v
j
) +λB

(v
i
, v
j
)
=
ˆ
B
ij

ˆ
B

ij
Ahora demostraremos que es lineal dando la inversa φ : M
n
(K) →
Bil(V ) ponemos φ
A
:= φ(A) y definimos
φ
A
(v, w) = [v]
t
β
A[w]
β
Notemos que φ es lineal, para A, A

∈ M
n
(K) y λ ∈ K
ϕ
A+λA
(v, w) =[x]
t
β
(A+λA

)[w]
β
=[x]
t
β
A[w]
β
+λ[x]
t
β
A

[w]
β

A
(v, w) +λϕ
A
(v, w)
Comprobemos que son inversas
Sea B ∈ Bil(V )
ϕ
ˆ
B
(v, w) =[v]
t
β
ˆ
B[w]
β
=B(v, w)
por la proposici´on anterior.
∴ φ
ˆ
B
= B
Sea A ∈ M
n
(K),
29
(
´
φ
A
)
ij

A
(v
i
, v
j
)
=[v
i
]
t
β
A[v
j
]
=(δ
t
i

j
)
ij
=
n

k=1

t
i
A)
ik
δ
kj
=(δ
t
i
A)
ij
=
n

k=1
δ
t
ik
A
kj
=A
ij
∴ (
´
φ
A
) = A
El resultado anterior contesta la pregunta de si las formas bilineales
son representadas por las matrices y m´as a´ un lo hacen de manera ´ unica
y lineal.
Definici´on. Una forma bilineal B es sim´etrica si B(v, w) = B(w, v).
Proposici´on 25. B es sim´etrica si y solo si
ˆ
B es sim´etrica.
Demostraci´on
Sea β = {v
1
, ..., v
n
} la base en la que esta
ˆ
B.
ˆ
B
ij
=B(v
i
, v
j
)
=B(v
j
, v
i
)
=
ˆ
B
ji
Si
ˆ
B es sim´etrica, entonces
30 Formas Bilineales
B(v, w) =[v]
t
β
ˆ
B[w]
β
=[v]
t
β
ˆ
B
t
[w]
t
t
β
=([w]
t
β
ˆ
B[v]
β
)
t
=[w]
t
β
ˆ
B[v]
β

Definici´on. Una forma bilineal es antisim´etrica si B(v, w) = −B(w, v).
Proposici´on 26. B es antisim´etrica si y solo si
ˆ
B es antisim´etrica.
Demostraci´on
Tarea.
Definici´on. B ∈ Bil(V ) es alternante si B(v, v) = 0.
Proposici´on 27. Si 1 + 1 = 0, entonces son equivalentes
1. B es alternante.
2. B es antisim´etrica.
Demostraci´on
⇒) 0 = B(v +w, v +w) = B(v, v) +B(v, w) +B(w, v) +B(w, w) =
B(v, w) +B(w, v)
Por lo que B(v, w) = −B(w, v)
⇐) Si B(v, v) = −B(v, v) entonces 2B(v, v) = 0
Por lo que B(v, v) = 0.
Observaci´on. De la demostraci´on se sigue que aunque 1 + 1 = 0,
alternante implica antisim´etrica.
Observaci´on. En el caso de que 1 +1 = 0, se tiene que −1 = 1, por
lo que
31
B(v, w) = −B(w, v) = B(w, v)
ser antisim´etrico es lo mismo que ser sim´etrico.
Proposici´on 28. B ∈ Bil(V ) es alternante si y solo si
ˆ
B es antisim´etri-
ca y
ˆ
B
ii
= 0.
Demostraci´on
Sea β = {v
1
, ..., v
n
}
⇒)
ˆ
B
ij
= B(v
i
, v
j
) = −B(v
j
, v
i
) = −
ˆ
B
t
ij
ˆ
B
ii
= B(v
i
, v
i
) = 0
⇐)
B(v, v) =[v]
t
β
ˆ
B[v]
β
=
n

k=1
([v]
t
β
ˆ
B)
1k
[v]
β
k1
=
n

k=1
(
n

j=1
[v]
t
β
ij
ˆ
B
jk
)[v]
β
k1
=
n

k=1
k−1

j=1
[v]
t
β
ij
ˆ
B
jk
[v]
β
k1
+
n

k=1
n

j=k+1
[v]
t
β
ij
ˆ
B
jk
[v]
β
k1
=
n

k=1
k−1

j=1
[v]
t
β
ij
ˆ
B
jk
[v]
β
k1
+
n

k=1
n

j=k+1
[v]
β
ij
(−
ˆ
B
t
jk
)[v]
tt
β
k1
=0.
Ejercicio. Sean SB(V ) = {B ∈ BIl(V )|B es sim´etrica} y AB(V ) =
{B ∈ Bil(V )|B es antisim´etrica}. Si 1 + 1 = 0 entonces Bil(V ) =
SB(V ) ⊕AB(V ).
Ahora veamos qu´e relaci´on existe si cambiamos la base, si tenemos
β = {v
1
, ..., v
n
} y γ = {w
1
, ..., w
n
}, c´omo est´an relacionados
ˆ
B
β
y
ˆ
B
γ
.
Si ponemos w
j
=

n
i=1
λ
ij
v
i
, entonces
32 Formas Bilineales
B(w
i
, w
j
) =
n

k=1
λ
ki
B(v
i
, w
j
)
=
n

k=1
n

m=1
λ
ki
B(v
i
, v
j

mj
Por lo que
ˆ
B
γ
= S
t
ˆ
B
β
S donde S = [I
V
]
β
γ
.
Veamos que si calculamos el determinante
det(
ˆ
B
γ
) =det(S
t
ˆ
B
β
S)
=det(S)
2
det(
ˆ
B
β
)
Como cualquier matriz invertible se puede usar como un cambio de
base, el conjunto de todos los determinantes que se le pueden asociar a
una forma bilineal B son todos los m´ ultiplos de los otros por un cuadrado
del campo K.
Definici´on. El discriminante de B una forma bilineal lo definimos por
dis(B) = {a
2
det(
ˆ
B)|a ∈ K}
notemos que por lo observado anteriormente no depende de la elec-
ci´on de una base particular para
ˆ
B
Si dis(B) = {0} diremos que B es una forma no degenerada.
Definici´on. Definimos el radical izquierdo de B ∈ Bil(V )
rad
L
(B) = {v ∈ V |∀w ∈ V B(v, w) = 0}
y el radical derecho por
rad
R
(B) = {v ∈ B|∀w ∈ V B(w, v) = 0}
33
Proposici´on 29. Sea V de dimensi´on finita, son equivalentes para B ∈
Bil(V ):
1. B es no degenerada.
2. rad
L
(B) = {0}
3. rad
R
(B) = {0}
Demostraci´on
1. ⇒ 2. Si rad
L
(B) = {0}, entonces existe v ∈ rad
L
(B) con v = 0,
por lo que existe una base β = {v
1
, v
2
, ..., v
n
} con v
1
= v. Notemos que la
matriz
ˆ
B
β
tiene en su primer columna todas las entradas cero por hip´ote-
sis. Por lo que det(
ˆ
B
β
) = 0, por lo que dis(B) = {0}! contradiciendo el
hecho de que B fuese no degenerada.
3. ⇒ 1. Supongamos que no se cumple que B no es no degenerada,
por lo que det(
ˆ
B) = 0, elegimos β una base de V , por lo que de lo ´ ultimo
se sigue existe ∈ V con v = 0, tal que
ˆ
B
β
[v]
β
= 0 de aqu´ı que para todo
w ∈ V B(w, v) = [w]
t
β
ˆ
B
β
[v]
β
= 0 de donde v ∈ rad
R
(B) por lo que
rad
R
(B) = {0}! por lo tanto det(
ˆ
B) = {0}.
Definici´on. Una forma bilineal se llama reflexiva si B(v, w) = 0 implica
B(w, v) = 0.
Definici´on. Si B es una forma bilineal reflexiva diremos que v es orto-
gonal a w si B(v, w) = 0 y lo denotaremos por v ⊥ w,notemos que pedir
que B sea reflexiva es para que la relaci´on ⊥ sea reflexiva.
Definici´on. Para S ⊆ V y B una forma bilineal reflexiva, definimos el
complemento ortogonal de S para B como S

= {v ∈ V |B(v, w) = 0
para todo w ∈ S}.
Proposici´on 30. Sea B una forma bilineal reflexiva, S, T ⊆ V . Enton-
ces:
1. S

≤ V
34 Formas Bilineales
2. S ⊆ S
⊥⊥
3. Si S ⊆ T entonces T

⊆ S

4. S

=< S >

Definici´on. Sea B una forma bilineal reflexiva y W ≤ V , el radical de
W en B lo definimos como rad
B
(W) = W ∩ W

. Diremos que W es un
subespacio no degenerado si rad
B
(W) = 0.
Proposici´on 31. Sea B una forma bilineal reflexiva en V un espacio
de dimensi´ on finita y W un subespacio no degenerado de V , entonces
V = W ⊕W

.
Demostraci´on
Por hip´otesis W ∩ W

= 0. Para ver que V = W + W

demos-
traremos que dimV = dimW + dimW

. Pongamos que dimV = n y
dimW = k y consideremos una base de W, {v
1
, ..., v
k
} y extend´amosla
a una base de V con los elementos {v
k+1
, ..., v
n
}. Tomamos v ∈ W

y
lo expresamos como combinaci´on lineal v =

n
i=1
λ
i
v
i
, tenemos por un
lado que B(v
i
, v) = 0 para i = 1, ..., k entonces

n
j=1
λ
j
B(v
i
, v
j
) = 0
para i = 1, ..., k de aqu´ı

n
j=1
λ
j
ˆ
B
β
ij
= 0 para i = 1, ..., k por lo que [v]
β
es anulado por la matriz de k × n formada por los primeros k renglones
de
ˆ
B
β
, entonces dimW

≥ n − k por el teorema de la dimensi´on, de
aqu´ı dimW +dimW

≥ n −k +k = n.
∴ W +W

= W.
Cap´ıtulo 3
Formas Cuadr´aticas
Definici´on. El grado de un monomio en n variables x
k
1
1
x
k
2
2
...x
k
n
n
lo de-
finimos como k
1
+k
2
+... +k
n
.
Definici´on. Una forma cuadr´atica n−aria sobre un campo K es un po-
linomio p en n variables tal que es una combinaci´on lineal de monomio
de grado 2.
Ejemplos
1. p(x, y, z) = xy +yz +z
2
2. p(x, y) = x
2
+xy +y
2
3. p(x) = 2x
2
4. p(x, y, z, w) = zw +w
2
+x
2
+yx
Observaci´on. Si consideramos una matriz A en M
n
(K), p(x) =
xAx
t
es un polinomio en n variables, m´as a´ un
35
36 Formas Cuadr´aticas
p(x) =
n

i=1
x
1i
(Ax
t
)
i1
=
n

i=1
x
1i
(
n

j=1
A
ij
x
t
j1
)
=
n

i=1
n

j=1
x
1i
A
ij
x
ij
=
n

i=1
n

j=1
A
ij
x
i
x
j
que es una combinaci´on lineal de polinomios m´onicos de grado dos,
por lo que p es una forma cuadr´atica.
Dos matrices pueden inducir la misma forma cuadr´atica, por ejemplo
A =
_
1 1
1 0
_
p(x, y) =
_
x y
_
A
_
x
y
_
=
_
x +y x
_
_
x
y
_
=x
2
+xy +xy
=x
2
+ 2xy
B =
_
1 2
0 0
_
37
q(x, y) =
_
x y
_
B
_
x
y
_
=
_
x 2x
_
_
x
y
_
=x
2
+ 2xy
Supondremos que 1 + 1 = 0.
Para una forma cuadr´atica q, en n variables
q(x) =
n

i=1
i

j=1
a
ij
x
i
x
j
podemos poner a a
ij
= a
ji
, de este modo la matriza A
q
dada por
A
ij
=
_
a
ij
2
si i = j
a
ii
si i = j
induce a la forma cuadr´atica q

es decir xA
q
x
t
= q(x). Definimos
QF
n
(K) el conjunto de formas cuadr´aticas en n variables sobre K.
Proposici´on 32. QF
n
(K) ≤ K[x
1
, ..., x
n
].
Proposici´on 33. Hay un isomorfismo entre SM
n
(K), las matrices sim´etri-
cas de n ×n y QF
n
(K).
Demostraci´on
Definimos ϕ : SM
n
(K) → QF
n
(K) por ϕ(A) = q
A
donde q
A
(x) =
xAx
t
y ψ : QF
n
(K) → SM
n
(K) ψ(q) = A
q
como se describi´o anterior-
mente.
Primero q
A
(x) =

n
i=1

n
j=1
A
ij
x
i
x
j
por lo que (A
q
A
)
ij
=
_
2A
ij
2
si i = j
A
ii
si i = j
lo que lleva a que (A
q
A
)
ij
= A
ij
.
Por lo que A = A
q
A
.
38 Formas Cuadr´aticas
Por otro lado,
q
A
q
(x) =
n

i=1
n

j=1
A
q
ij
x
i
x
j
=
n

i=1
n

j=1
a
ij
2
x
i
x
j
+
n

i=1
a
ii
x
2
i
=
n

i=1
i

j=1
a
ij
x
i
x
j
=q(x).
Tambi´en, toda forma cuadr´atica q ∈ QF
n
(K) induce una forma bili-
neal sim´etrica en Bil(K
n
)
B
q
(x, y) =
1
2
(q(x +y) −q(x) −q(y))
y toda forma bilineal B induce una forma cuadr´atica
q
B
(x) = B(x, x)
Ejercicio
0.1. Operadores Normales. Supondremos que K = C y que V
es un K−espacio de dimensi´on finita con producto interior < , >.
Definici´on. T un operador en V se llama normal si T ◦ T

= T

◦ T.
Proposici´on 34. Sea T un operador normal en V . Entonces λ ∈ C es
un valor propio de T si y solo si
¯
λ es valor propio de T

.
39
Demostraci´on
Sea v ∈ V con v = 0 y T(v) = λv entonces T(v) −λv = 0,
entonces < T −λ1
V
(v), Y −λ1
V
(v) >= 0
entonces < v, (T −λ1
V
)(v) >= 0
entonces < v, (T −λ1
V
)(T −λ1
V
)

(v) >= 0
entonces < (T −λ1
V
)

(v), (T −λ1
V
)

(v) >= 0
entonces < (T


¯
λ1
V
)(v), (T


¯
λ1
V
)(v) >= 0
entonces T

(v) =
¯
λ(v).
Para el regreso solo basta recordar que (T

)

= T y
¯
¯
λ = λ.
Proposici´on 35. Sea T un operador normal en V = 0 entonces T es
diagonalizable.
Demostraci´on
Sean λ
1
, ..., λ
k
los distintos valores propios de T, entonces
k

i=1
E
λ
i
≤ V
si la contenci´on es propia entonces
W =
_
k

i=1
E
λ
i
_

= 0
Consideremos w ∈ Wy v ∈ E
λ
i
, entonces
< T(w), v >= < w, T

(v) >
= < w,
¯
λ
i
v >
=λ < w, v >
=λ · 0
=0
Por lo que T(w) ∈ W.
40 Formas Cuadr´aticas
Ahora p
T|
W
|p
T
, como p
T|
W
∈ C[x], p
T|W
tiene una ra´ız λ, por lo que
existe x ∈ W ⊆ V , con x = 0 T(x) = T|
W
(x) = λx, lo que implica que
x ∈
_

k
i=1
E
λ
i
_
!.
Por lo que la contenci´on no puede ser propia, por lo tanto V =

k
i=1
E
λ
i
.
Observaci´on. Si T

= f(T) con f ∈ C[x], entonces T es normal.
Proposici´on 36. Sea T un operador en V entonces T es normal si y
solo si T tiene una base ortogonal de vectores propios.
Demostraci´on
⇒ Si T es normal entonces T es diagonalizable por lo que V =

k
i=1
E
λ
i
donde los λ
i
son los distintos valores propios de T, considera-
mos una base ortogonal β
i
en E
λ
i
, sean v
i
∈ β
i
y v
j
∈ β
j
, entonces
λ
i
< v
i
, v
j
>= < λ
i
v
i
, v
j
>
= < T(v
i
), v
j
>
= < v
i
, T

(v
j
) >
= < v
i
,
¯
λ
j
v
j
>

j
< v
i
, v
j
>
Si < v
i
, v
j
>= 0 entonces λ
i
= λ
j
! por lo que < v
i
, v
j
> y de aqu´ı se
tiene que β =

k
i=1
β
i
es una base ortogonal de vectores propios.
⇐) Si V tiene una base ortogonal de vectores propios entonces tiene
una base ortonormal de vectores propios, por lo que [T]
β
es diagonal y
[T

]
β
=
¯
[T]
t
β
pero por ser diagonal [T

]
β
=
¯
[T]
β
. Claramente [T]
β
[T

]
β
=
[T

]
β
[T]
β
. Por lo que T

T = TT

.
1. Operadores Autoadjuntos 41
1. Operadores Autoadjuntos
Ahora cambiemos a C por R y recordemos que un operador T en V
se llama autoadjunto si T = T

.
Proposici´on 37. Sea T un operador autoadjunto en V entonces T es
diagonalizable.
Demostraci´on
Consideremos β base de V y n = dimV , entonces podemos pensar
V como R
n
y a R
n
metido en C
n
m´as a´ un esto extiende [T]
β
como
transformaci´on lineal de R
n
en R
n
a una de C
n
en C
n
.
Como [T]
β
es un operador sobre C, tiene al menos un valor propio
λ ∈ C, m´as a´ un
¯
λ es un valor propio de [T

]
β
, pero por hip´otesis T

= T,
por lo que λ y
¯
λ son valores propios de [T]
β
entonces existe v ∈ C
n
con
v = 0 y
λv =[T]
β
v
=[T

]
β
v
=
¯
λv
como v = 0 entonces λ =
¯
λ, por lo que λ ∈ R. Por lo que T tiene todos
sus valores propios reales. Sean λ
1
, ..., λ
k
los diferentes valores propios de
T, si

k
i=1
E
λ
i
≤ V es una contenci´on propia definimos
W =
_
k

i=1
E
λ
i
_

= 0
Sea w ∈ W y v ∈ E
λ
i
, entonces
42 Formas Cuadr´aticas
< t(w), v >= < w, T

(v) >
= < w, λv >
=λ < w, v >
=0
Por lo que W es T−invariante y por la unicidad del adjunto tenemos
que T

|
W
= (T|
W
)

. Por lo que su w = 0 T|
W
ser´ıa autoadjunto pudiendo
encontrar un valor propio de T|
W
!.
Corolario 5. Toda matriz sim´etrica en R es diagonalizable.
2. Operadores Unitarios
Un operador se llama unitario si preserva el producto interior.
Proposici´on 38. Sea T un operador normal en
C
V entonces T es uni-
tario si y solo si V tiene una base ortonormal de vectores propios con
valores propios de norma 1.
Demostraci´on
⇒) Primero existe una base ortonormal β de vectores propios, m´as
a´ un para v ∈ β
1 =||v||
=||T(v)||
=||λv||
=|λ|||v||
=|λ|
⇐) Sea β = {v
1
, ..., v
n
} la base de la hip´otesis, como T(β) = {T(v
1
), ..., T(v
n
)} =

1
v
1
, ..., λ
n
v
n
} que es un conjunto ortonormal, entonces T es unitario.

3. Teorema Espectral 43
3. Teorema Espectral
Aqu´ı nos olvidaremos de la hip´otesis de dimensi´on finita.
Definici´on. Si T es un operador en V , y V = W ⊕U a modo de que si
v ∈ V se ve como v = w +u con w ∈ W y u ∈ U, entonces
T(v) = w
en este caso se le llamar´a a T la proyecci´on de W atrav´es de U y se
denotar´a por

W
U
.
Ejemplos
1. R
2
=
¯
OX ⊕
¯
OX, por lo que
¯
OY

¯
OX
(x, y) = (x, 0)
¯
OY

¯
OX
(x, y) = (0, y)
2. Consideremos para a ∈ R

, l
a
= {(x, ax) ∈ R
2
|x ∈ R},
l
a

¯
0x
(x, y) =
l
a

¯
0x
((x −y/a, 0) + (y/a, y))
=(x −y/a, 0)
3. Si HI = 0, P(K) = {f ∈ K
K
|f es par } y I(K) = {f ∈ K
K
|f es
impar} entonces K
K
= I(K) ⊕P(K)

I(K)
P(K)
(f)(x) =
f(x)−f(−x)
2
Proposici´on 39. Sea T un operador en V entonces T es una proyecci´on
si y solo si T es idempotente.
44 Formas Cuadr´aticas
Demostraci´on
⇒)
⇐) Si T es idempotente entonces
V =imT ⊕nucT
T =
imT

nucT
Definici´on. Llamaremos a una proyecci´on ortogonal

W
U
si U = W

y
W
⊥⊥
= W, en este caso denotaremos a la proyecci´on por

W
.
Recordemos que si V tiene dimensi´on finita para todo subespacio W
se da que W
⊥⊥
= W
Proposici´on 40. Sea T un operador en V entonces T es una proyecci´on
ortogonal si y solo si T es idempotente y normal.
Demostraci´on
⇒) Sea T =

W
para W ≤ V . Sean v, w ∈ V tales que v = v
1
+ v
2
y w = w
1
+w
2
con v
1
, w
1
∈ W y v
2
, w
2
∈ W

<

W
(v), w >= < v
1
, w
1
+w
2
>
= < v
1
, w
1
> + < v
1
, w
2
>
= < v
1
, w
1
>
< v,

W
(w) >= < v
1
+v
2
, w
1
>
= < v
1
, w
1
> + < v
1
, w
2
>
= < v
1
, w
1
>
Por lo que <

W
(v), w >=< v,

W
(w) > de aqu´ı

W
=


W
por
lo que T es autoadjunto y por lo tanto normal.
3. Teorema Espectral 45
⇐) Se tienen que demostrar dos cosas, nucT = (imT)

y que imT =
(imT)
⊥⊥
.
Primero nucT = (imT)

⊆) Sea v ∈ nucT, entonces v = 0 o v es un vector propio de cero, en
el segundo caso tenemos que es un vector propio de T

con valor propio
cero conjugado, que es cero, por lo que nucT

= nucT. (Esto porque T
es normal).
Sea w ∈ V , entonces
< v, T(w) >=< T

(v), w >=< 0, w >= 0
Por lo que v ∈ (imT)

.
⊇) Sea w ∈ (imT)

entonces t(w) ∈ imT calculando
< T(w), T(w) >= < w, T

T(w) >
= < w, T(T

(w)) >
=0
Por lo que T(w) = 0, por lo tanto (imT)

= nucT.
Para la segunda parte siempre tenemos que imT ⊆ (imT)
⊥⊥
. Por lo
que sea v ∈ (imT)
⊥⊥
, sabemos que como T es idmpotente v = T(v) +
(v −T(v)), ahora v −T(v) ∈ nucT = (imT)

entonces < v, v −T(v) >=
0(v ∈ (imT)
⊥⊥
). Por otro lado T(v) ∈ imT ⊆ (imT)
⊥⊥
. Por lo que
< T(v), v −T(v) >= 0, de esto que
< v −T(v), v −T(v) >= < v, v −T(v) > − < T(v), v −T(v) >
= 0
De aqu´ı v −T(v) = 0 por lo que T(v) = v, esto es que v ∈ imT, por
lo tanto imT = (imT)
⊥⊥
.
Proposici´on 41. Sea W ≤ V con W
⊥⊥
= W, entonces

W
(v) es el
elemento de W m´as cercano a v.
46 Formas Cuadr´aticas
Demostraci´on
Primero v =

W
(v)+(v−

W
(v)) y v−

W
(v) ∈ nucT = (imT)

=
W

.
Ahora
||v −w||
2
= < v −w, v −w >
= <

W
(v) + (v −

W
(v)) −w,

W
(v) + (v −

W
(v)) −w >
= <

W
(v) −w,

W
(v) −w > + < v −

W
(v), v −

W
(v) >
=||

W
(v) −w||
2
+||v −

W
(v)||
2
≥||v −

W
(v)||
2
lo que implica que ||v −w|| ≥ ||v −

W
(v)||
Teorema 3 (Teorema Espectral). Sea T un operador en V de dimensi´on
finita. Si T es normal, si K = C y autoajunto, si K = R con λ
1
, ..., λ
k
los diferentes valores de T y T
i
=

E
λ
i
entonces
1. Si E

λ
i
=

j=1
E
λ
j
entonces (E

λ
i
)

= E
λ
i
2. T
i
T
j
= δ
ij
T
i
3. 1
V
=

k
i=1
T
i
4. T =

k
i=1
λ
i
T
i
Demostraci´on
Primero notemos que como T es diagonalizable V =

k
i=1
E
λ
i
1. T es autoadjunto entonces T es normal. Ahora sean v ∈ E
λ
i
y
w ∈ E
λ
j
con i = j, entonces
3. Teorema Espectral 47
λ
i
< v, w >= < λ
i
v, w >
= < T(v), w >
= < v, T

(w) >
= < v,
¯
λ
j
w >

j
< v, w >
entonces (λ
i
− λ
j
) < v, w >= 0 como λ
i
− λ
j
= 0 entonces <
v, w >= 0. Con esto tenemos que E
λ
i
⊆ (E
λ
j
)

, si i = j esto implica que
E

λ
j
⊆ (E
λ
j
)

. Como tenemos que V = E
λ
j
⊕ E

λ
j
y V = E
λ
j
⊕ (E
λ
j
)

llegamos a que dimE

λ
j
= dim((E
λ
j
)

) que unido con la contenci´on ante-
rior llegamos a que E

λ
j
= (E
λ
j
)

, por lo que E
λ
j
= (E
λ
j
)
⊥⊥
= (E

λ
j
)

.
2. Como T
i
es una proyecci´on T
i
T
i
= T
i
. Ahora si i = j, T
j
(T
i
(v)) =
T
j
(E
λ
i
) = T
j
((E

λ
i
)

) = 0.
3. Como V =

k
i=1
E
λ
i
entonces todo v ∈ V es de la forma v =

k
i=1
v
i
con v
i
∈ E
λ
i
por lo que T
i
(v) =

E
λ
i
(v) = v
i
, as´ı
k

i=1
T
i
(v) =
k

i=1
v
i
= v
4. Siguiendo con lo establecido
T(v) =T(
k

i=1
v
i
)
=
k

i=1
T(v
i
)
=
k

i=1
λ
i
v
i
=
k

i=1
λ
i
T
i
(v).
48 Formas Cuadr´aticas
Corolario 6. Sea T un operador normal en
C
V entonces T es autoad-
junto si y solo si todo valor propio de T es real.
Demostraci´on
⇒) Sea λ un valor propio de T y v un vector propio de λ entonces
λv =T(v)
=T

(v)
=
¯
λv
entonces λ =
¯
λ.
⇐) Como
T

=(
k

i=1
λ
i
T
i
)

=
k

i=1
¯
λ
i
T

i
Como las proyecciones son autoadjuntas
=
k

i=1
λ
i
T
i
=T
4. Triangulaci´on Compleja 49
4. Triangulaci´on Compleja
Aqu´ı regresemos a la hip´otesis de dimensi´ on finita.
Teorema 4 (Descomposici´on de Schur). Sea T un operador en
C
V , en-
tonces existe una base β tal que [T]
β
es triangular superior.
Demostraci´on
Como p
T
∈ C[x] entonces tiene al menos un valor propio λ
1
, descom-
ponemos a V = E
λ
1
⊕E

λ
1
.
Ahora consideramos bases ortonormales β

1
y β

1
de E
λ
i
y E

λ
i
, por
lo que β
1
= β

1
∪ β

1
es una base ortonormal de V , m´as a´ un
[T]
β
1
=
_
λ
1
I A

1
0 A

2
_
Si A

2
es triangular el proceso termina, si no considero T
2
: E

λ
1

E

λ
1
el operador inducido por A

2
, as´ı T
2
tiene un valor propio λ
2
= λ
1
,
consideramos β

2
y β

2
bases de E
λ
2
y E

λ
2
(en E

λ
1
) para obtener β
2
=
β

2
∪ β

2
.
Tenemos que
[A

2
]
β
2
=
_
λ
2
a
2
1
0 A
2
2
_
Por lo que si llamamos
¯
β
2
= β
1
∪ β
2
tenemos que
[T] ¯
β
2
=
_
_
λ
1
I A

2
1
A

2
2
0 λ
2
I A

2
3
0 0 A

2
4
_
_
Si A

4
es triangular ya terminamos, si no repretimos el proceso.
Observaci´on. Como se construye β se tiene que es una base orto-
normal.