´

Algebra I - Curso 2005/06 - Grupos M1 y M2
Tema 9: REDUCCI
´
ON POR
SEMEJANZA DE UNA MATRIZ.
DIAGONALIZACI
´
ON
por Mario L´opez G´omez
1. Valores y vectores propios.
Definici´on.- Dada una matriz cuadrada A ∈ K
n×n
, se dice que λ ∈ K es un valor propio o
autovalor de A si existe alg´ un vector no nulo u ∈ K
n
tal que Au = λu.
El vector u anterior se dice vector propio o autovector de A, asociado al autovalor λ.
As´ı pues, los vectores propios de una matriz A son aquellos vectores (no nulos) que se transforman
mediante A en proporcionales a s´ı mismos, siendo los valores propios las correspondientes constantes
de proporcionalidad.
Definici´on.- Dados un espacio vectorial E sobre K y f un endomorfismo de E, se define valor
propio o autovalor de f como aquel valor λ ∈ K para el cual existe alg´ un v ∈ E, v = 0, tal que
f(v) = λv. Para cada valor propio λ, los vectores propios o autovectores asociados a λ son aquellos
v ∈ E tales que f(v) = λv (excluyendo el vector nulo).
Observaci´on.- Si E es de dimensi´on finita y B es una base de E, λ es autovalor de f si y s´olo si
lo es de la matriz de f respecto a B.
En esta asignatura restringiremos nuestro estudio casi exclusivamente a los valores y vectores
propios en espacios de dimensi´on finita, es decir, valores o vectores propios de matrices (recu´erdese
que ´estas han de ser necesariamente cuadradas). Todos los resultados que veamos para valores y
vectores propios de una matriz cuadrada, tendr´an su traducci´on inmediata para endomorfismos en
dimensi´on finita.
Definici´on.- Dada una matriz cuadrada A ∈ K
n×n
, se define su espectro, y se denota por σ(A),
como el conjunto de todos los autovalores de A, es decir,
σ(A) := {λ ∈ K : λ es autovalor de A}.
Id´entica definici´on se tiene para el espectro de un endomorfismo
1
´
Algebra I - Tema 9: Diagonalizaci´on 2
Observaci´on.- Au = λu ⇔ (A − λI)u = 0 ⇔ u ∈ ker(A − λI). As´ı pues, dada una matriz
A ∈ K
n×n
, el conjunto de los vectores propios asociados a un mismo valor propio λ, junto
con el vector nulo, es un subespacio vectorial de K
n
.
Observaci´on.- Una matriz A es invertible si y solo si 0 no es autovalor de A.
Definici´on.- Dada A ∈ K
n×n
y λ autovalor de A, llamamos subespacio propio o subespacio
caracter´ıstico de A asociado a λ al subespacio formado por todos los vectores propios asociados a
λ, adem´as del vector nulo, es decir,
ker(A −λI) = {u ∈ K
n
: Au = λu}.
2. El polinomio caracter´ıstico.
Por lo visto anteriormente, un escalar λ ∈ K es autovalor de una matriz A de orden n si y s´olo si
dim(ker(λI −A)) ≥ 1, es decir, si r(λI −A) < n. Esta ´ ultima condici´on equivale a su vez a que
det(λI −A) = 0,
que es una ecuaci´on en la inc´ognita λ cuyas soluciones son precisamente los autovalores de A.
Si consideramos
χ
A
(λ) := |λI −A| =

λ −a
11
−a
12
· · · −a
1n
−a
21
λ −a
22
· · · −a
2n
.
.
.
.
.
.
.
.
.
.
.
.
−a
n1
−a
n2
· · · λ −a
nn

,
observamos que el desarrollo de tal determinante nos da un polinomio en la indeterminada λ, cuyo
t´ermino de mayor grado, que se obtiene a partir del producto de los elementos de la diagonal, es λ
n
;
se trata, pues, de un polinomio m´onico de grado igual al orden de la matriz.
Definici´on.- Dada A ∈ K
n×n
, se llama polinomio caracter´ıstico de A, y se denota por χ
A
, al
polinomio con coeficientes en K, m´onico de grado n, definido por
χ
A
(λ) := |λI −A|,
cuyas ra´ıces son los autovalores de A.
Observaci´on.- Evaluando χ en el 0, obtenemos χ(0) = det(−A) = (−1)
n
det A; sabemos que χ(0)
es el t´ermino independiente de dicho polinomio, que coincidir´a por tanto con el valor de (−1)
n
det A.
Definici´on.- Dada A ∈ K
n×n
, se define su traza como trA = a
11
+a
22
+. . . +a
nn
, es decir, la suma
de los elementos de su diagonal principal.
´
Algebra I - Tema 9: Diagonalizaci´on 3
Observaci´on.- El t´ermino de grado n−1 de χ
A
se obtiene tambi´en a partir del producto de todos
los elementos de la diagonal principal:
(λ −a
11
)(λ −a
22
) . . . (λ −a
nn
) = λ
n
−(a
11
+ a
22
+ . . . + a
nn

n−1
+ . . .
Se observa, pues, que el coeficiente de grado n −1 de χ
A
es el opuesto a la traza de A.
Proposici´on.- Matrices semejantes entre s´ı tienen el mismo polinomio caracter´ıstico.
Demostraci´on.- Sean A, B matrices cuadradas del mismo orden tales que B = P
−1
AP para una
cierta matriz de paso P; entonces
χ
B
(λ) = |λI −B| = |λI −P
−1
AP| = |P
−1
λIP −P
−1
AP| = |P
−1
(λI −A)P| =
= |P
−1
||(λI −A)||P| = |P|
−1
|(λI −A)||P| = |(λI −A)| = χ
A
(λ).
As´ı pues, el polinomio caracter´ıstico es un dato intr´ınseco de cada endomorfismo, es decir, no
depende de la base concreta (de la expresi´on matricial concreta) en que el endomorfismo se representa.
Por lo visto anteriormente, tambi´en se conservan mediante semejanza la traza de la matriz y el
determinante, es decir:
Corolario.- Matrices semejantes entre s´ı tienen el mismo determinante y la misma traza.
Definici´on.- Dada A ∈ K
n×n
, un autovalor λ de A se dice que es autovalor m´ ultiple de orden m
(tiene multiplicidad m) si tiene multiplicidad m como ra´ız de χ
A
.
Nota.- La multiplicidad antes definida tambi´en se llama a veces multiplicidad algebraica de un
autovalor, mientras que dim(ker(A −λI)) se llama multiplicidad geom´etrica de λ.
Obs´ervese que si A es una matriz real, puede tener algunos o todos sus autovalores complejos
no reales; si A es una matriz compleja de orden n, por el teorema de factorizaci´on en C tiene n
autovalores, contando sus multiplicidades.
Observaci´on.- Si A ∈ R
n×n
y λ es un autovalor de A, entonces su conjugado λ tambi´en lo es (y
de la misma multiplicidad). As´ı pues, los autovalores complejos no reales de una matriz real
son conjugados dos a dos. En particular, toda matriz real y de orden impar tiene alg´ un
autovalor real.
Observaci´on.- Si A es una matriz real y λ un autovalor de A, entonces
Au = λu ⇔ Au = λu ⇔ Au = λu,
es decir, que el subespacio propio ker(A − λI) est´a formado por los conjugados de los vectores de
ker(A−λI). Por lo tanto, los subespacios propios ker(A−λI) y ker(A−λI) tienen la misma dimensi´on.
´
Algebra I - Tema 9: Diagonalizaci´on 4
3. Diagonalizaci´on.
Nuestro objetivo es, dada una matriz cuadrada A, encontrar, cuando sea posible, una matriz
diagonal semejante a A; esto es equivalente a encontrar una base de K
n
en la que el endomorfismo
determinado por A se exprese de forma diagonal, es decir, los vectores de la base se transformen
mediante A en proporcionales a s´ı mismos; diagonalizar una matriz A equivale, por tanto, a encontrar
una base de vectores propios de A (y los correspondientes valores propios).
El primer resultado importante sobre diagonalizaci´on es que vectores propios asociados a
valores propios distintos son linealmente independientes, es decir:
Proposici´on.- Sea A ∈ K
n×n
, sean u
1
, u
2
, . . . , u
k
vectores propios de A asociados, respectivamente,
a los valores propios λ
1
, λ
2
, . . . , λ
k
, siendo ´estos distintos dos a dos. Entonces u
1
, u
2
, . . . , u
k
son li-
nealmente independientes.
Demostraci´on.- Lo demostraremos por inducci´on en k, el n´ umero de valores propios distintos.
Para k = 1, el resultado es trivial. Supongamos que es cierto para k valores propios. Si tenemos ahora
k+1 valores propios distintos, λ
1
, . . . , λ
k+1
, cuyos vectores propios correspondientes son u
1
, . . . , u
k+1
,
supongamos que, para unos escalares α
1
, . . . , α
k+1
∈ K, se tiene que
k+1
¸
j=1
α
j
u
j
= 0.
Aplic´andole a la combinaci´on lineal anterior la matriz A−λ
k+1
I, y puesto que Au
j
= λ
j
u
j
, se tiene
que
0 = (A −λ
k+1
I)
k+1
¸
j=1
α
j
u
j
=
k+1
¸
j=1
α
j
(A −λ
k+1
I)u
j
=
k
¸
j=1
α
j

j
−λ
k+1
)u
j
.
La hip´otesis de inducci´on (el resultado cierto para k) nos dice que los vectores propios u
1
, . . . , u
k
son
linealmente independientes, luego los escalares α
j

j
−λ
k+1
), j = 1, 2, . . . , k de la ´ ultima combinaci´on
lineal han de ser todos nulos. Pero, puesto que λ
k+1
es distinto de todos los restantes λ
j
, esto implica
que α
j
= 0 para j = 1, 2, . . . , k. Por tanto, nos queda que α
k+1
u
k+1
= 0 que, al ser u
k+1
no nulo,
nos permite concluir que tambi´en es α
k+1
= 0. As´ı pues, todos los coeficientes α
j
son forzosamente
nulos, lo que demuestra la independencia lineal de los u
j
.
Corolario.- Los subespacios propios de una matriz dan suma directa.
Demostraci´on.- Sean λ
1
, . . . , λ
k
valores propios de una misma matriz A, distintos dos a dos. Para
cada i ∈ {1, 2, . . . , k}, consideramos el subespacio ker(A − λ
i
I) ∩
¸
j=i
ker(A − λ
j
I), y tenemos que
comprobar que este subespacio se reduce al nulo.
Sea un vector u ∈ ker(A−λ
i
I) ∩
¸
j=i
ker(A−λ
j
I); por pertenecer a
¸
j=i
ker(A−λ
j
I), se podr´a ex-
presar como
¸
j=i
u
j
, en donde u
j
∈ ker(A−λ
j
I) para cada j = i; pero, por otro lado u ∈ ker(A−λ
i
I),
´
Algebra I - Tema 9: Diagonalizaci´on 5
con lo que
0 = −u +
¸
j=i
u
j
no puede tener ning´ un sumando no nulo, pues los sumandos no nulos dar´ıan una combinaci´on lineal
de vectores propios asociados a valores propios distintos, y por tanto linealmente independientes,
igualada al vector nulo. Luego nuestro vector u de partida no puede ser otro que el nulo.
Definici´on.- Sea A ∈ K
n×n
; se dice que A es diagonalizable si es semejante a una matriz diagonal
con elementos en K, es decir,
∃P ∈ K
n×n
invertible tal que P
−1
AP = diag(λ
1
, . . . , λ
n
).
Observaci´on.- Los elementos λ
j
de la expresi´on anterior son forzosamente autovalores de A, mien-
tras que las columnas de la matriz P son autovectores a ellos asociados.
Observaci´on.- Si A ∈ K
n×n
tiene n autovalores distintos, entonces es diagonalizable.
Observaci´on.- A ∈ K
n×n
es diagonalizable si y solo si existe una base de autovectores de A, lo cual
es equivalente a que la suma de las dimensiones de los subespacios propios de A sea como m´ınimo
n; pero el importante resultado que enunciamos a continuaci´on nos dice que estas dimensiones no
pueden sumar m´as de n.
Teorema.- Sea A ∈ K
n×n
y sea λ ∈ K un autovalor de A de multiplicidad m. Entonces
dim(ker(A −λI)) ≤ m.
Es decir, que la multiplicidad geom´etrica de un autovalor no puede exceder de su multiplicidad
algebraica.
Demostraci´on.- Consideramos un autovalor λ
0
de una matriz A ∈ K
n×n
; llamamos p = dim(ker(A−
λI)), y vamos a ver que λ
0
es ra´ız de χ
A
de multiplicidad mayor o igual que p.
Tenemos, pues, p vectores propios u
1
, . . . , u
p
linealmente independientes, asociados a λ. Por el
teorema de ampliaci´on de la base podemos ampliar ese sistema libre con n−p vectores hasta completar
una base de K
n
, digamos
B = (u
1
, . . . , u
n
).
´
Algebra I - Tema 9: Diagonalizaci´on 6
Si consideramos la matriz P de paso cuyas columnas son los vectores de dicha base, tenemos que
P
−1
AP es una matriz de la forma
˜
A =

¸
¸
¸
¸
¸
¸
¸
¸
λ
0
· · · 0
.
.
.
.
.
.
.
.
. B
0 · · · λ
0
0 · · · 0
.
.
.
.
.
.
.
.
. C
0 · · · 0

,
en donde B y C son submatrices, siendo C cuadrada de orden n−p. Como el polinomio caracter´ıstico
se conserva mediante semejanza, es χ
A
= χ
˜
A
. Pero resulta evidente que
χ
˜
A
(λ) = det(λI −
˜
A) = (λ −λ
0
)
p
det(λI −C) = (λ −λ
0
)
p
χ
C
(λ),
con lo que queda claro que λ
0
tiene como m´ınimo multiplicidad p.
Corolario.- Caracterizaci´on de las matrices diagonalizables.
Sea A ∈ K
×n
; A es diagonalizable (en K) si y solo si se satisfacen:
i) χ
A
tiene, contando sus multiplicidades, n ra´ıces en K.
ii) Para todo autovalor λ de A, dim(ker(A −λI)) coincide con la multiplicidad algebraica de λ.
En particular: una matriz compleja es diagonalizable si y solo si para todo autovalor λ de A,
dim(ker(A −λI)) coincide con la multiplicidad algebraica de λ.
Una matriz real es diagonalizable (en R) si y s´olo si todos sus autovalores son reales y, adem´as,
para todos ellos se cumple la condici´on de la dimensi´on.
Observaciones: Todas las propiedades siguientes se enuncian para una matriz cuadrada de orden
K
n×n
:
1. Si A es diagonalizable, entonces A
t
tambi´en lo es (y la matriz de paso que la diagonaliza
es la inversa de la transpuesta de la de A).
En efecto, si P
−1
AP = D diagonal, entonces
D = D
t
= (P
−1
AP)
t
= P
t
A
t
(P
−1
)
t
= P
t
A
t
(P
t
)
−1
.
2. Si A es diagonalizable e invertible, entonces A
−1
tambi´en es diagonalizable (y la
matriz de paso que la diagonaliza es la misma que la de A)..
En efecto, si P
−1
AP = D = diag(λ
1
, . . . , λ
n
) con todos los λ
j
no nulos, entonces
diag(λ
−1
1
, . . . , λ
−1
n
) = D
−1
= (P
−1
AP)
−1
= P
−1
A
−1
P.
3. Si A es diagonalizable, entonces cualquier potencia de A tambi´en lo es (y la matriz
que la diagonaliza es la misma).
En efecto, P
−1
AP = D = diag(λ
1
, . . . , λ
n
) implica que
diag(λ
k
1
, . . . , λ
k
n
) = D
k
= (P
−1
AP)
k
= (P
−1
AP)(P
−1
AP) · · · (P
−1
AP) = P
−1
A
k
P.
´
Algebra I - Tema 9: Diagonalizaci´on 7
4. Reducci´on por semejanza de una matriz a forma trian-
gular.
Teorema.- Toda matriz cuadrada compleja es semejante a una triangular superior.
Demostraci´on.- Razonaremos por inducci´on sobre el orden n de la matriz. Para n = 1 es trivial-
mente cierto. Supongamos que el resultado es v´alido para n −1.
Sea A ∈ C
n×n
,
A =

¸
¸
¸
¸
a
11
a
12
· · · a
1n
a
21
a
22
· · · a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
· · · a
nn

.
Por el teorema fundamental del
´
Algebra, χ
A
tiene alguna ra´ız, es decir, existe alg´ un valor propio
de A, digamos λ
1
∈ C. Sea u
1
∈ C
n
un vector propio no nulo asociado a λ
1
. Por el teorema de
ampliaci´on de la base, existen u
2
, . . . , u
n
∈ C
n
tales que B = (u
1
, u
2
, . . . , u
n
) es una base de C
n
.
Sea P la matriz de paso de la can´onica a esta base, es decir, la matriz cuyas columnas son
los n vectores u
1
, . . . , u
n
. La matriz P
−1
AP, semejante a A, que es la que expresa en la base B el
endomorfismo de A, es de la forma
P
−1
AP =

¸
¸
¸
¸
λ
1
a

12
· · · a

1n
0 a

21
· · · a

2n
.
.
.
.
.
.
.
.
.
.
.
.
0 a

n2
· · · a

nn

,
ya que la primera columna de dicha matriz es el vector de coordenadas de Au
1
respecto a la propia
base (u
1
, . . . , u
n
).
Ahora podemos considerar la submatriz
˜
A =

¸
¸
a

12
· · · a

1n
.
.
.
.
.
.
.
.
.
a

n2
· · · a

nn

∈ C
(n−1)×(n−1)
y aplicarle la hip´otesis de inducci´on, es decir, que existe una matriz
˜
P ∈ C
(n−1)×(n−1)
invertible tal
que
˜
T =
˜
P
−1
˜
A
˜
P es triangular superior.
Si ahora consideramos la matriz invertible
Q =

¸
¸
¸
¸
1 0 · · · 0
0
.
.
.
˜
P
0

∈ C
n×n
,
es f´acil ver multiplicando por cajas que el producto

¸
¸
¸
¸
1 0 · · · 0
0
.
.
.
˜
P
0

−1

¸
¸
¸
¸
λ
1
a

12
· · · a

1n
0
.
.
.
˜
A
0

¸
¸
¸
¸
1 0 · · · 0
0
.
.
.
˜
P
0

=
´
Algebra I - Tema 9: Diagonalizaci´on 8
=

¸
¸
¸
¸
λ
1
0 · · · 0
0
.
.
.
˜
P
−1
˜
A
˜
P
0

=

¸
¸
¸
¸
λ
1
0 · · · 0
0
.
.
.
˜
T
0

= T,
es triangular superior. O lo que es lo mismo:
(PQ)
−1
A(PQ) = Q
−1
(P
−1
AP)Q = T
luego nuestra matriz A de partida es semejante a una triangular superior.
5. Nociones sobre la forma can´onica de Jordan.
Cuando una matriz A ∈ C
n×n
no sea diagonalizable, intentaremos expresar el endomorfismo de
A de la forma m´as sencilla posible; podr´a encontrarse una base de C
n
en la que el endomorfismo se
represente mediante una matriz que solamente tendr´a elementos no nulos en la diagonal principal y
en la l´ınea inmediatamente superior a ´esta, cuyos elementos s´olo podr´an ser unos y ceros.
En particular, ser´a una matriz diagonal por bloques, siendo estos bloques de la forma

¸
¸
¸
¸
¸
¸
¸
¸
λ
0
1
λ
0
1
λ
0
.
.
.
λ
0
1
λ
0

en donde λ
0
es un autovalor de A.
Un caso particular es el bloque de orden 1, en que s´olo aparece el autovalor en la diagonal. Puede
haber varios bloques asociados a un mismo autovalor, y cada autovalor debe aparecer en la diagonal
un n´ umero de veces igual a su orden de multiplicidad. Este n´ umero de veces coincide con la suma de
los ´ordenes de los bloques asociados a dicho autovalor.
El n´ umero de unos “encima”de λ
0
es la diferencia entre su orden de multiplicidad y dim(ker(A−
λ
0
I)). Obs´ervese que este n´ umero coincide con la suma de los ´ordenes de los bloques asociados a λ
0
menos el n´ umero de dichos bloques.
El vector de la nueva base asociado a la primera columna de cada bloque es un vector propio
(Au
j
= λ
0
u
j
). Los restantes vectores u
j
verifican
Au
j
= u
j−1
+ λ
0
u
j
,
cada uno se transforma en combinaci´on lineal del anterior y de s´ı mismo. Cada bloque nos da, pues,
una cadena de vectores de la base as´ı relacionados, el primero de los cuales es un vector propio. El
subespacio engendrado por todos ellos es invariante mediante A.
Una matriz semejante a A con las propiedades dichas se denomina forma can´onica de Jordan
de A, y es ´ unica salvo el orden de los bloques. Obviamente, si A es diagonalizable, su forma can´onica
de Jordan es la diagonal semejante a A.
6. Matriz asociada a un polinomio.
Definici´on.- Sea P un polinomio m´onico de grado n,
P(x) = a
0
+ a
1
x + . . . + a
n−1
x
n−1
+ x
n
.
´
Algebra I - Tema 9: Diagonalizaci´on 9
Se define su matriz compa˜ nera como

¸
¸
¸
¸
¸
¸
¸
¸
0 1 0 · · · 0 0
0 0 1 · · · 0 0
0 0 0 · · · 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 · · · 0 1
−a
0
−a
1
−a
2
· · · −a
n−2
−a
n−1

.
Proposici´on.- Para cada polinomio P, el polinomio caracter´ıstico de la matriz compa˜ nera de P es
el propio P.
Demostraci´on.- V´ease el ejercicio 9.5 de la colecci´on.
As´ı pues, todo polinomio m´onico es el polinomio caracter´ıstico de alguna matriz.
Proposici´on.- Si C es una matriz compa˜ nera y λ
0
es un valor propio de C, entonces dim(ker(C −
λ
0
I)) = 1.
Demostraci´on.- Si C es de orden n, C −λ
0
I tiene al menos n −1 columnas linealmente indepen-
dientes, debido a los unos y ceros por encima de la diagonal. Luego r(C −λ
0
I) = n −1.
Corolario.- Una matriz compa˜ nera es diagonalizable si y s´olo si todos sus valores propios son
simples.
7. Polinomios anuladores. El polinomio m´ınimo.
7.1. Evaluaci´on de un polinomio en una matriz.
7.1.1. Definici´on y propiedades.
Una matriz cuadrada A con elementos en un cuerpo K, admite la potenciaci´on para cualquier
exponente natural (definiendo A
0
= I). De este modo, dado cualquier polinomio p(x) = a
0
+ a
1
x +
a
2
x
2
+ . . . + a
k
x
k
∈ K[x] , podemos definir
p(A) := a
0
I + a
1
A + a
2
A
2
+ . . . + a
k
A
k
,
que es otra matriz cuadrada del mismo orden que A.
Por las propiedades distributivas del producto de matrices respecto a la suma, y del producto de
escalar por matriz respecto a la suma de matrices, tenemos que, si p, q ∈ K[x],
(p + q) (A) = p(A) + q(A);
(pq) (A) = p(A)q(A),
de modo que podemos tratar los polinomios evaluados en matrices como si estuvieran evaluados en
escalares.
Obs´ervese, adem´as, que cualesquiera dos matrices de la forma p(A), q(A) conmutan.
´
Algebra I - Tema 9: Diagonalizaci´on 10
7.1.2. Valores propios de una matriz polinomial.
Proposici´on.- Dada una matriz A ∈ K
n×n
, para cualquier polinomio p ∈ K[x] se cumple:
Si λ ∈ K es un valor propio de A , entonces, p(λ) es un valor propio de p(A).
Adem´as, si v ∈ K
n
es un vector propio de A asociado a λ, entonces es vector propio de p(A)
asociado a p(λ).
Demostraci´on.- Av = λv ⇒ A
j
v = λ
j
v ⇒
k
¸
j=0
a
j
A
j
v =

k
¸
j=0
a
j
λ
j

v.
Adem´as, cuando el cuerpo es C, se tiene el siguiente rec´ıproco:
Proposici´on.- A ∈ C
n×n
, p ∈ C[x]; si λ ∈ C es un valor propio de p(A), entonces existe α ∈ C tal
que p(α) = λ.
Demostraci´on.- Consideramos el polinomio p(z) −λ que, salvo un caso trivial, ser´a no constante,
y por el teorema de factorizaci´on se podr´a escribir como
p(z) −λ = c
k
¸
j=1
(z −α
j
),
con c = 0 y los α
j
n´ umeros complejos.
Evaluando el polinomio anterior en la matriz A, obtenemos
p(A) −λI = c
k
¸
j=1
(A −α
j
I),
y, tomando determinantes,
det(p(A) −λI) = c
n
k
¸
j=1
det(A −α
j
I).
Ahora bien, el primer miembro es nulo por ser λ valor propio de p(A), de suerte que alg´ un factor del
segundo miembro debe anularse tambi´en, es decir, det(A−α
s
I) = 0, lo que significa que α
s
es valor
propio de A. Pero este valor es ra´ız del polinomio p(z) −λ, es decir, satisface que p(α
s
) = λ.
7.2. Ejemplo: las matrices circulantes.
7.2.1. Definici´on de matriz circulante.
Dado un n´ umero natural n y un vector a =(a
1
, a
2
, . . . .a
n
) , se define la matriz circulante
asociada C
n
como
C
n
(a) =

¸
¸
¸
¸
¸
¸
a
1
a
2
a
3
· · · a
n
a
n
a
1
a
2
· · · a
n−1
a
n−1
a
n
a
1
· · · a
n−2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
2
a
3
a
4
· · · a
1

.
´
Algebra I - Tema 9: Diagonalizaci´on 11
Obs´ervese que las filas (y columnas) de una tal matriz contienen permutaciones de los elementos
de la primera. Adem´as, sobre la diagonal principal y cada l´ınea paralela a ella, todos los elementos
son iguales. Asimismo, los elementos de la l´ınea que ”comienza” en el (1, j) son iguales a los de la
l´ınea que ”termina” en el (j −1, n) .
7.2.2. La matriz circulante S
n
.
Cuando, fijado n, consideramos el vector e
2
(segundo vector can´onico), la matriz circulante aso-
ciada se llama S
n
:
S
n
= (e
2
| e
3
| e
4
| . . .| e
n
| e
1
) =

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
0 1 0 0 · · · 0 0
0 0 1 0 · · · 0 0
0 0 0 1 · · · 0 0
0 0 0 0 · · · 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 · · · 0 1
1 0 0 0 · · · 0 0

7.2.3. Propiedades de S
n
.
Obs´ervese que S
n
es una matriz de permutaci´on, concretamente la de la permutaci´on que lleva
cada columna a la siguiente (llevando la ´ ultima a la primera), es decir, rota las columnas hacia la
derecha.
Las potencias de S
n
son matrices de permutaci´on, S
k
n
da la permutaci´on que desplaza cada
columna k lugares hacia la derecha:
S
2
n
= (e
3
| e
4
| e
5
| . . .| e
1
| e
2
) ; S
3
n
= (e
4
| e
5
| e
6
| . . .| e
2
| e
3
) ; . . .
As´ı pues, S
n
n
= I, es decir, la permutaci´on es de orden n.
Tambi´en puede interpretarse, por supuesto, como matriz de permutaci´on por filas (un lugar hacia
arriba).
S
n
es, como todas las de permutaci´on, una matriz ortogonal (es decir, S
t
n
= S
−1
n
.
Obs´ervese, finalmente, que S
n
es una matriz compa˜ nera asociada al polinomio (de grado n)
q (λ) = λ
n
−1, siendo ´este, por tanto, su polinomio caracter´ıstico.
7.2.4. Caracterizaci´on de las matrices circulantes.
Una matriz cuadrada de orden n es circulante si y s´olo si es resultado de evaluar un polinomio
en S
n
, es decir:
A ∈ K
n×n
; A es circulante ⇔ ∃p ∈ K[x] tal que p(S
n
) = A.
Demostraci´on.- ⇒
Si A =

¸
¸
¸
¸
¸
¸
a
1
a
2
a
3
· · · a
n
a
n
a
1
a
2
· · · a
n−1
a
n−1
a
n
a
1
· · · a
n−2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
2
a
3
a
4
· · · a
1

, se descompone f´acilmente como
A = a
1
I + a
2
S
n
+ a
3
S
2
n
+ . . . + a
n
S
n−1
n
.
´
Algebra I - Tema 9: Diagonalizaci´on 12
⇐ Sea un polinomio q (λ) = b
0
+ b
1
λ + . . . + b
m
λ
m
. Para k ≥ n, k = nl + r, con 0 ≤ r ≤ n −1,
se tiene que A
k
= A
r
, de modo que
q(A) = b

0
I + b

1
A + . . . + b

n−1
A
n−1
=

¸
¸
¸
¸
¸
¸
b

0
b

1
b

2
· · · b

n−1
b

n−1
b

0
b

1
· · · b

n−2
b

n−2
b

n−1
b

0
· · · b

n−3
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b

1
b

2
b

3
· · · b

0

=
= C
n

b

0
, b

1
, . . . , b

n−1

.
7.2.5. Valores y vectores propios de la matriz S
n
.
Como se ha visto antes, el polinomio caracter´ıstico de S
n
es λ
n
− 1, de modo que los valores
propios de esta matriz son las ra´ıces n-´esimas de la unidad, a saber:
λ
k
= ξ
k
, k = 0, 1, . . . , n −1, siendo ξ = e
i

n
.
Al tener n valores propios distintos, S
n
es, evidentemente, diagonalizable.
Nota: Al ser una matriz ortogonal, lo cual es un caso particular de matriz normal (concepto
que se estudiar´a en
´
Algebra II), S
n
ser´a diagonalizable unitariamente, es decir, a trav´es de una
matriz de paso unitaria (extensi´on al campo complejo del concepto de matriz ortogonal).
Todos los valores propios tienen m´odulo unidad.
Los vectores propios de una matriz compa˜ nera vienen dados por las columnas de la matriz de
Vandermonde construida a partir de los valores propios, es decir:
ker

S
n
−ξ
k
I

= L
¸
1, ξ
k
, ξ
2k
, . . . , ξ
n−k
¸
,
obteni´endose la matriz de paso:
P =

¸
¸
¸
¸
¸
¸
1 1 1 1 · · · 1
1 ξ ξ
2
ξ
3
· · · ξ
n−1
1 ξ
2
ξ
4
ξ
6
· · · ξ
n−2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 ξ
n−1
ξ
n−2
ξ
n−3
· · · ξ

,
llamada matriz de Fourier de orden n.
As´ı, P
−1
S
n
P =
¯
P
t
S
n
P =diag(1, ξ, ξ
2
, . . . , ξ
n−1
).
7.2.6. Valores y vectores propios de una matriz circulante.
Como
C
n
(a) =
n
¸
j=1
a
j
S
j
n
=
n
¸
j=1
a
j

Pdiag(1, ξ, ξ
2
, . . . , ξ
n−1
)P
−1

j
=
=
n
¸
j=1
a
j
Pdiag(1, ξ, ξ
2
, . . . , ξ
n−1
)
j
P
−1
=
= P

n
¸
j=1
a
j
diag(1, ξ
j
, ξ
2j
, . . . , ξ
n−j
)

P
−1
=
= Pdiag

n
¸
j=1
a
j
,
n
¸
j=1
a
j
ξ
j
, . . . ,
n
¸
j=1
a
j
ξ
n−j

P
−1
,
´
Algebra I - Tema 9: Diagonalizaci´on 13
queda claro que los valores propios de C
n
(a) son
λ
k
=
n
¸
j=1
a
j
ξ
kj
; k = 0, 1, . . . , n −1.
As´ı, toda matriz circulante es diagonalizable, y la matriz de paso es la matriz de Fourier.
7.3. Polinomios anuladores de una matriz.
Dada A ∈ K
n×n
, diremos que un polinomio q ∈ K[x] es un anulador de A si q(A) = 0 (matriz
nula).
Como el espacio K
n×n
tiene dimensi´on n
2
, es obvio que, si k ≥ n
2
, las matrices I, A, A
2
, . . . , A
k
ser´an linealmente dependientes cualquiera que sea la matriz A ∈ K
n×n
.
As´ı, existir´a alg´ un polinomio no nulo q, de grado menor o igual que n
2
, anulador de A. (M´as
adelante veremos que, de hecho, el propio polinomio caracter´ıstico de la matriz, que tiene grado n,
es un anulador).
7.3.1. Propiedades de los polinomios anuladores.
En lo que sigue, suponemos fijada la matriz A.
El polinomio nulo es un anulador. La suma de anuladores, el producto de anuladores y el producto
de un escalar por un anulador, son anuladores. As´ı, el conjunto de anuladores tiene las estructuras
de subanillo y subespacio vectorial de K[x] . (Esto puede expresarse diciendo que es una sub´algebra
del ´algebra K[x]).
Adem´as, si multiplicamos un anulador por un polinomio cualquiera, obtenemos un
anulador (esto se puede expresar diciendo que el conjunto de anuladores de A es un ideal del anillo
K[x]).
Matrices semejantes tienen los mismos polinomios anuladores: en efecto, si
B = P
−1
AP, ∀q ∈ K[x] , q(B) = P
−1
q(A)P.
7.4. El polinomio m´ınimo.
7.4.1. Definici´on de polinomio m´ınimo.
Como existen anuladores no nulos de grado menor o igual que n
2
, existir´a entre ellos alguno de
grado m´ınimo, y m´onico.
´
Este ser´a el polinomio m´ınimo de la matriz A, que denotaremos
por m
A
.
El polinomio m´ınimo es ´ unico. En efecto, si existieran dos polinomios m´ınimos distintos m
A
y m

A
, ambos tendr´ıan que ser del mismo grado, digamos r. Pero entonces, su diferencia m
A
− m

A
ser´ıa un polinomio anulador de A, no nulo y de grado menor que r, contradiciendo la hip´otesis de
que m
A
y m

A
fueran polinomios m´ınimos.
El polinomio m´ınimo genera todos los anuladores, es decir:
Si p(A) = 0, entonces p(x) = q(x)m
A
(x), para alg´ un q ∈ K[x] .
En efecto, puesto que el grado de p ha de ser mayor o igual que el de m
A
, podemos efectuar la divisi´on
eucl´ıdea p(x) = q(x)m
A
(x)+r(x), siendo gr(r) < gr(m
A
). Pero como r(x) =p(x)−q(x)m
A
(x) tambi´en
es un anulador, no puede ser m´as que r(x) ≡ 0.
´
Algebra I - Tema 9: Diagonalizaci´on 14
7.4.2. Los ceros del polinomio m´ınimo.
Proposici´on.- Todo valor propio de A es un cero del polinomio m´ınimo.
Demostraci´on.- Si λ
0
es valor propio y v
0
un vector propio asociado a ´el se tiene que
m
A

0
) v
0
= m
A
(A)v
0
= 0v
0
= 0,
de donde se deduce, puesto que v
0
es no nulo, que m
A

0
) = 0.
Proposici´on.- Todo cero de m
A
es valor propio de A.
Demostraci´on.- Como ya sabemos que todos los valores propios λ
1
, . . . , λ
p
de A son ceros de m
A
,
podemos escribir
m
A
(λ) = (λ −λ
1
)
r
1
. . . (λ −λ
p
)
r
p
q(λ).
(La factorizaci´on anterior es posible en C[λ]). Supongamos que m
A
tiene alg´ un cero λ
0
que no es
valor propio: m
A
(λ) = (λ − λ
1
)
r
1
. . . (λ − λ
p
)
r
p
(λ − λ
0
)r(λ). Puesto que λ
0
no es valor propio, es
(A −λ
0
I) invertible, de donde
0 = (A −λ
0
I)
−1
m
A
(A) = (A −λ
1
I)
r
1
. . . (A −λ
p
I)
r
p
r(A),
lo cual significa que (λ −λ
1
)
r
1
. . . (λ −λ
p
)
r
p
r(λ) es un anulador de A de grado menor que el de m
A
,
que es una contradicci´on.
Hemos concluido que los ceros del polinomio m´ınimo son los valores propios de la matriz,
pero ¿cu´ales son sus multiplicidades? El teorema de Cayley-Hamilton nos da una cota para ´estas, al
afirmar que, como m´aximo, son las mismas que en el polinomio caracter´ıstico.
7.5. El teorema de Cayley-Hamilton.
Teorema.- (de Cayley-Hamilton)
El polinomio m´ınimo de A divide al polinomio caracter´ıstico de A.
O, equivalentemente:
El polinomio caracter´ıstico de A es un anulador de A.
Demostraci´on.- Sabemos que, sobre el cuerpo C, toda matriz cuadrada es semejante a una trian-
gular superior. Tambi´en sabemos que matrices semejantes tienen el mismo polinomio caracter´ıstico
y los mismos polinomios anuladores. Por todo ello, basta demostrar el teorema para matrices trian-
gulares superiores.
Para ello, procederemos por inducci´on en el orden n de la matriz. Para n = 1, el resultado es
trivial. Supongamos, pues, que es cierto para las matrices triangulares de orden n y sea T
n+1
una
matriz triangular superior de orden n + 1, que escribiremos de la forma
T
n+1
=

a u
t
0 T
n

,
´
Algebra I - Tema 9: Diagonalizaci´on 15
en donde a ∈ K, u ∈ K
n
y T
n
es una matriz del mismo tipo pero de orden n, cuyos elementos
diagonales (es decir, sus valores propios) denotamos por a
1
, . . . , a
n
.
El polinomio caracter´ıstico de una tal matriz puede escribirse como
χ
T
n+1
(λ) = (a −λ)χ
T
n
(λ) = (a −λ)
n
¸
j=1
(a
j
−λ).
Evaluando el polinomio anterior en la matriz T
n+1
,
χ
T
n+1
(T
n+1
) = (aI
n+1
−T
n+1

T
n
(T
n+1
) = (aI
n+1
−T
n+1
)
n
¸
j=1
(a
j
I
n+1
−T
n+1
),
que es la expresi´on que queremos ver que se anula.
La primera matriz de este producto se escribe como
aI
n+1
−T
n+1
=

0 −u
t
0 aI
n
−T
n

Cada uno de los restantes factores del producto anterior es de la forma
a
j
I
n+1
−T
n+1
=

a
j
−a −u
t
0 a
j
I
n
−T
n

,
de modo que el producto de todos ellos se puede escribir como

¸
¸
¸
¸
¸
k
¸
j=1
(a
j
−a) v
t
0
k
¸
j=1
(a
j
I
n
−T
n
)

=

¸
¸
k
¸
j=1
(a
j
−a) v
t
0 χ
T
n
(T
n
)

=

¸
¸
k
¸
j=1
(a
j
−a) v
t
0 O

,
en donde se ha aplicado la hip´otesis de inducci´on para obtener la ´ ultima igualdad.
Por lo tanto, al multiplicar finalmente

0 −u
t
0 aI
n
−T
n

¸
¸
k
¸
j=1
(a
j
−a) v
t
0 O

,
obtenemos la matriz nula, como quer´ıamos.
7.6. Caracterizaci´on de las matrices diagonalizables en t´erminos de los
ceros del polinomio m´ınimo.
Teorema.- Sea A ∈ C
n×n
; A es diagonalizable si y s´olo si todos los ceros de m
A
son
simples.
´
Algebra I - Tema 9: Diagonalizaci´on 16
Demostraci´on.- ⇒ A tiene el mismo polinomio m´ınimo que D = P
−1
AP, y obviamente
¸
λj ∈σ(A)
(λ −λ
j
) es un anulador de D.
⇐ Sea m
A
= (λ −λ
1
) . . . (λ −λ
r
), con λ
i
= λ
j
si i = j. Consideramos los polinomios
p
j
(λ) =
m
A
(λ)
λ −λ
j
, j = 1, . . . , r.
Estos polinomios son primos entre s´ı (m.c.d. (p
1
, . . . , p
r
) = 1) , de modo que, por la identidad de
B´ezout generalizado, existen q
1
, . . . , q
n
∈ K[x] tales que
r
¸
j=1
q
j
(λ)p
j
(λ) ≡ 1.
Evaluando el polinomio anterior en A, tenemos que
r
¸
j=1
q
j
(A)p
j
(A) = I,
lo cual quiere decir que, para todo v ∈ K
n
,
r
¸
j=1
q
j
(A)p
j
(A)v = v.
Ahora, llamando v
j
= q
j
(A)p
j
(A)v, se tiene que
(A −λ
j
I)v
j
= q
j
(A)p
j
(A)(A −λ
j
I)v =q
j
(A)m
A
(A)v = 0,
es decir, que v
j
∈ ker(A −λ
j
I).
Hemos concluido que todo v ∈ K
n
se descompone como
v = v
1
+ . . . +v
r
, con v
j
∈ ker(A −λ
j
I),
con lo que K
n
= ker(A −λ
1
I) ⊕. . . ⊕ker(A −λ
r
I), lo que equivale a que A sea diagonalizable.
8. C´alculo del polinomio m´ınimo.
8.1. C´alculo a partir del polinomio caracter´ıstico.
Dado el polinomio caracter´ıstico p
A
(λ) =
r
¸
j=1
(λ−λ
j
)
s
j
, sabemos que el polinomio m´ınimo ser´a de
la forma m
A
(λ) =
r
¸
j=1
(λ − λ
j
)
r
j
con 1 ≤ r
j
≤ s
j
. Por lo tanto, basta con ir probando con todos los
polinomios de esta forma, en orden creciente de grado, hasta encontrar uno que sea anulador de A.
´
Algebra I - Tema 9: Diagonalizaci´on 17
8.2. C´alculo a partir de la forma can´onica de Jordan.
Si se conoce la forma can´onica de Jordan de A, podemos calcular f´acilmente su polinomio m´ınimo,
que coincide con el de A.
Est´a claro que el polinomio m´ınimo de un bloque de Jordan del tipo

¸
¸
¸
¸
¸
¸
¸
¸
λ
0
1
λ
0
1
λ
0
.
.
.
λ
0
1
λ
0

es precisamente (λ −λ
0
)
s
, siendo s el orden del bloque. Si existen varios bloques asociados a un
mismo valor propio, y tomamos el polinomio m´ınimo del mayor de ellos, ese polinomio es anulador
de todos ellos y, consecuentemente, el polinomio m´ınimo de toda la “submatriz asociada a λ
0
”; por
ejemplo:

¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
¸
2
2 1
0 2
2 1
0 2
2 1 0
0 2 1
0 0 2

tiene como polinomio m´ınimo (λ −2)
3
.
Si este procedimiento lo repetimos para las cajas asociadas a cada uno de los valores propios, y
multiplicamos todos los polinomios m´ınimos obtenidos, habremos hallado el polinomio m´ınimo de A.