You are on page 1of 14

2016

ÁLGEBRA II (LSI – PI)


UNIDAD Nº 6

VALORES Y VECTORES PROPIOS

Facultad de Ciencias Exactas y Tecnologías


aa | ¡Error! No hay texto con el estilo especificado en el documento. 1
UNIVERSIDAD NACIONAL DE SANTIAGO DEL ESTERO
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

§1.- Valores y Vectores Propios de una matriz

Recordemos que toda matriz A ∈ F m× n determina de modo natural una transformación lineal
T : F n×1 → F m×1 definida por .
En muchas aplicaciones resulta necesario encontrar vectores v, si existen, tales que Av y v (o bien
T(v) y v) resulten paralelos, es decir buscamos un vector v y un escalar tal que
Av = λ v
o bien ,
es fácil advertir que para estos casos m debe ser igual a n.
Este tipo de problema se presenta en diversas aplicaciones relacionadas con la física, química,
biología, etc.

Definición 1
Sea A ∈ F n x n . λ ∈ F es un valor propio de A si y sólo si existe algún vector no nulo v ∈ F n x 1 tal
que A v = λ v .

Definición 2
Si λ ∈ F es un valor propio de A ∈ F n x n . Los vectores no nulos v ∈ F n x 1 que verifican la
condición A v = λ v se denominan vectores propios de A asociados al valor propio λ .

Notas
2.- Son sinónimos
a) Valor propio, valor característico, raiz característica, autovalor, eigenvalor, valor espectral
b) vector propio, vector característico, autovector, eigenvector

3.- Si v es un vector propio de A asociado a un valor propio λ, entonces Av es un múltiplo escalar de v, ya que Av=λ v.
En el caso en que λ≠ 0 entonces v y Av son paralelos, por definición de paralelismo de vectores.

4.- Los valores y vectores propios tienen una interpretación geométrica útil en los espacios vectoriales reales R2 y R3.
Esto es así, ya que si v es un vector propio de una matriz A∈R2x2(o R3x3 ), asociado a un valor propio λ, entonces la
acción dela matriz A sobre v hace que éste se dilate, se contraiga, invierta su sentido, etc. según sea el valor de λ.

λv
v v
v
λv
O
O O λv
λ> 1 0<λ<1
-1<λ<0
Ejemplo1
3 −2 2 1
Sean A =   , v =   y v ' =   entonces
1 0  1  3 
3 −2  2   4  2
Av=    =   = 2 
1 0  1   2  1 
de modo que

http://algebra-lineal.blogspot.com Unidad 6 2
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

2
es un vector propio asociado al valor propio 2 y el efecto que produce A sobre el
1
vector es premultiplicarlo por 2, luego y son paralelos.

Por otro lado


3 −2 1  −3 1
A v' =     = ≠λ 
1 0  3  1  3 

Luego no es un vector propio de pues ′ no es múltiplo escalar de ’, es decir y ′ no


son paralelos.

Espacio propio
Proposición 1
El conjunto Eλ de los vectores v ∈ F n x 1 tales que verifican la condición A v = λ v es un
subespacio vectorial de V. Esto es
{ }
Eλ = v ∈ F nx1 / A v = λ v ≺ V
Demostración
Queda para el alumno.

Definición 3
El conjunto Eλ de los vectores v ∈ F n x 1 tales que verifican la condición A v = λ v se denomina
espacio propio correspondiente al valor propio λ .

Proposición 2
Sea A ∈ F n x n . El conjunto de vectores propios de A asociados a valores propios diferentes es
linealmente independiente.
Demostración
Sean v1 , v 2 ,..., v n vectores propios de A asociados a λ1 , λ2 , ..., λn ∈ F respectivamente, tales que
λi ≠ λ j , si i ≠ j .
Es decir,
Avi = λi vi , con λi ≠ λ j , si i ≠ j .

Debemos probar que { v1 , v 2 ,..., v n } es linealmente independiente, es decir que debemos probar que
es verdadera la siguiente proposición
 n

∀ n ∈ N; 


i =1
ai vi = 0v ⇒ ∀ i = 1, ..., n; ai = 0  (*)

Para ello, emplearemos el Principio de Inducción Matemática en n

Si n = 1 , entonces

a1 v1 = 0 v ⇒ a1 = 0

http://algebra-lineal.blogspot.com Unidad 6 3
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

ya que v1 es vector propio y por lo tanto v1 ≠ 0 v


por lo tanto {v1} es linealmente independiente. Luego, la proposición (*) es verdadera para n = 1 ,

Si suponemos que la proposición (*) es verdadera para n = h , entonces debemos probar que
también lo es para n = h + 1 .
En esta situación la hipótesis inductiva es “la proposición (*) es verdadera para n = h ”, es decir
que el conjunto {v1 , v2 ,..., v h } es linealmente independiente.

Debemos probar que la proposición (*) es verdadera para n = h + 1 , es decir que el conjunto
{v1 , v 2 ,..., vh , vh+1} es linealmente independiente.
Para ello tomemos la siguiente combinación lineal, de valor 0 v , de estos h + 1 vectores propios
h +1

∑a
i =1
i vi = 0 v (1)

Multiplicamos por A en ambos miembros de (1),


 h+1 
A  ∑ ai vi  = A 0 v
 i =1 
Por propiedades del álgebra de matrices, resulta
h +1

∑a
i =1
i Avi = 0 v

Por hipótesis A vi = λi vi , con λi ≠ λ j , si i ≠ j entonces reemplazando en la expresión


precedente se tiene
h +1

∑a
i =1
i λ i vi = 0 v (2)

Ahora, multiplicamos ambos miembros por λ h +1 en (1)


h +1
λ h+1 ∑ ai vi = λ h+1 0 v
i =1
Por propiedad distributiva del producto de un escalar por una combinación lineal, es
h+1

i =1
λh+1 ai vi = 0 v

Como el producto es conmutativo en el cuerpo F, resulta


h+1

i =1
ai λ h+1 vi = 0 v (3)

Si restamos miembro a miembro (3)-(2), tenemos


h+1 h +1
∑ ai λh+1 vi − ∑ ai λi vi = 0 v
i =1 i =1

y realizando las operaciones correspondientes, obtenemos

http://algebra-lineal.blogspot.com Unidad 6 4
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

h
∑ ai (λ h+1 − λi ) vi = 0 v
i =1

esto es,
a1 (λh+1 − λ1 ) v1 + a 2 (λh+1 − λ2 ) v2 + ... + a h (λh+1 − λh ) vh = 0 v
Observemos que ésta expresión es una combinación lineal de valor 0v de vectores del conjunto
{v1 , ..., vh }, que es linealmente independiente por hipótesis inductiva, de modo que los escalares
deben ser simultáneamente nulos.
Es decir,
a1 (λh +1 − λ1 ) = 0 ⇒ a1 = 0
a 2 (λh+1 − λ2 ) = 0 ⇒ a 2 = 0
: :
: :
a h (λ h +1 − λ h ) = 0 ⇒ a h = 0

Esto es así ya que los valores propios son diferentes entre sí, por hipótesis del teorema, por lo tanto
los escalares son simultáneamente nulos
a1 = a2 = ...= ah = 0
Reemplazando en (1) el valor de estos escalares, obtenemos
0 v1 + 0 v2 + ... + 0 vh + a h+1 vh+1 = 0 v
de donde,
a h+1 vh+1 = 0 v ⇒ a h+1 = 0
ya que vh+1 ≠ 0 v por ser vector propio de A.

Luego {v1 , v2 ,..., vh , vh+1} es linealmente independiente, y por lo tanto la proposición (*) es
verdadera.
Q.E.D.

Observación
La proposición recíproca de la Proposición 2 es falsa, pues puede ocurrir que un conjunto de vectores propios sea
linealmente independiente y estos vectores estén asociados a valores propios no necesariamente distintos, hasta puede
ocurrir que todos los valores propios sean iguales. Tal es el caso de la matriz identidad de orden 3, en donde el conjunto
de vectores propios {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es linealmente independiente y estos vectores propios están asociados
al valor propio λ1 = λ2 = λ3 = 1.

Proposición 3
Sea A ∈ F n x n , λ ∈ F es un valor propio de A si y sólo si la matriz λI n − A es singular (no
inversible), siendo In la matriz unidad de orden n.
Demostración
λ ∈ F es un valor propio de A ⇔ ∃ v ∈ F n x 1 ∧ v ≠ 0 v , tal que A v = λ v ⇔
⇔ ∃ v ∈ F n x 1 ∧ v ≠ 0v tal que λ I n v − A v = 0 v ⇔
⇔ ∃ v ∈ F n x 1 ∧ v ≠ 0 v tal que (λ I n − A) v = 0 v ⇔

http://algebra-lineal.blogspot.com Unidad 6 5
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

⇔ el sistema de ecuaciones homogéneo (λ I n − A) v = 0 v es compatible indeterminado ⇔


⇔ la matriz λ I n − A no es inversible (es singular).

Definición 4
Sea A ∈ F nxn .
λI n − A se denomina Matriz Característica.
det(λI n − A) se denomina Polinomio Característico. Es un polinomio de grado n en la variable
λ con coeficientes en el cuerpo F. La notación usual es P(λ ) = det(λI n − A) .
det (λI n − A) = 0 se denomina Ecuación Característica. Es una ecuación de grado n en la
variable λ con coeficientes en el cuerpo F.

Nota:

( )
Por el Corolario del Teorema Fundamental de Álgebra, la ecuación característica det λI n − A = 0 admite exactamente
n raíces. Estas raíces pueden o no pertenecer al cuerpo F. Únicamente las raíces pertenecientes al cuerpo F son los
valores propios de la matriz A ∈ F nxn .

Procedimiento para determinar los valores y vectores propios


Sea A ∈ F n x n .
I. det (λ I n − A) = 0 . Las raíces de esta ecuación pertenecientes al cuerpo F son los valores propios
de la matriz A.
II. Para cada valor propio λi ∈F, formamos el sistema de ecuaciones lineales homogéneo
(λi I n − A) v = 0 v ,
donde v es el vector incógnita. De cada uno de estos sistemas de
ecuaciones lineales se determina el conjunto solución, que es precisamente el espacio propio
correspondiente al valor propio λi .
III. Determinamos una base B i de cada espacio propio . Cada una de estas bases está formada
por los vectores propios linealmente independientes asociados al valor propio λi .

Proposición 4

Los valores propios de una matriz triangular son los elementos de su diagonal principal.

Demostración
Sea A ∈ F n x n , una matriz triangular superior, dada por
 a11 a12 ... a1n 
0 a22 ... a2 n 

A= 0 0 ... a3 n  .
 
 : : ... : 
 0 0 ... ann 

Es claro que si calculamos el polinomio característico de A tenemos

http://algebra-lineal.blogspot.com Unidad 6 6
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

λ − a11 − a12 ... − a1n


0 λ − a22 ... − a2 n
det(λ I n − A) = 0 0 ... − a3n = ( λ − a11 )( λ − a22 ) ... ( λ − ann )
: : ... :
0 0 ... λ − ann

Ahora consideramos la ecuación característica


det (λI n − A) = 0 ,
esto es,
(λ − a11 )(λ − a22 )...(λ − ann ) = 0
Al resolver la ecuación característica, observamos que las raíces son precisamente los elementos de
la diagonal principal de la matriz triangular superior A, esto es,

 λ1 = a11
λ = a
 2 22

 :
 :

λn = ann

es decir, que los valores propios de la matriz A son los elementos de su diagonal principal.
En forma análoga procedemos si la matriz A es una matriz triangular inferior.
Q.E.D.

Proposición 5

Los valores propios de una matriz diagonal son los elementos de su diagonal principal.

Demostración
(Queda para el alumno)

Semejanza de Matrices

Definición 5
Sean dos matrices A, B ∈ F nxn .
A es semejante a B si y sólo si existe una matriz P ∈ F nxn inversible, tal que B = P −1 A P .

Proposición 6
La relación de semejanza de matrices es una relación de equivalencia.

Demostración
La relación de semejanza de matrices es Reflexiva

http://algebra-lineal.blogspot.com Unidad 6 7
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

Sea la matriz A ∈ F nxn . Es claro que A es semejante a A, ya que existe la matriz unidad Id ∈ Fnxn,

que es inversible, tal que A = Id –1AId

i) La relación de semejanza de matrices es Simétrica


Sean dos matrices A, B ∈ F nxn . Probaremos que “si A es semejante a B, entonces B es semejante a
A”.
Como A es semejante a B, entonces existe una matriz P ∈ F nxn inversible, tal que
B = P −1 A P
-
Multiplicamos en ambos miembros a la izquierda por P y a la derecha por P 1, y tenemos
– –1 –1
P B P 1= P (P A P)P
como el producto de matrices es asociativo resulta
– – –
P B P 1= (P P 1) A (PP 1)
de aquí se sigue

P B P 1= A

Luego B es semejante a A, ya que P es la inversa de P 1.

ii) La relación de semejanza de matrices es Transitiva


Sean tres matrices A, B, C ∈ F
nxn
. Probaremos que “si A es semejante a B y B es semejante a C,
entonces A es semejante a C.
Como A es semejante a B y B es semejante a C entonces, existen dos matrices inversibles P, S∈Fnxn
tales que
B = P −1 A P ∧ C = S −1 B S
entonces,
C = S −1 ( P −1 A P ) S
y como la multiplicación de matrices es asociativa, resulta
C = ( S −1 P −1 ) A (P S )
empleando la propiedad de la inversa del producto de matrices inversibles ( ,
observamos que existe una matriz inversible P S ∈ Fnxn tal que
C = (P S) −1 A (P S)
por lo tanto A es semejante a C.
Finalmente de i), ii) y iii) se sigue que la relación de semejanza de matrices es una relación de
equivalencia.
Q.E.D.

Nota
En adelante, si una matriz A es semejante a otra matriz B diremos simplemente que “A y B son semejantes”, esto es
debido a que la equivalencia de matrices es una relación de equivalencia.

http://algebra-lineal.blogspot.com Unidad 6 8
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

Proposición 7
Si dos matrices son semejantes entonces tienen el mismo polinomio característico y por lo tanto
tienen los mismos valores propios.

Demostración
Sean A, B ∈ F nxn matrices semejantes y sea P ∈ F nxn inversible tal que B = P −1 A P . Probaremos
que det (λ In - B) = det (λIn - A)
En efecto,
det ( λ I n − B ) = det ( λ I n − P −1 A P ) = det ( λ I n (P −1 P ) − P −1 A P ) =

= det ( P −1 ( λ I n ) P − P −1 A P ) = det ( P −1 ( λ I n − A ) P ) = det ( P −1 ) det ( λ I n − A ) det ( P ) =

= det ( P −1 ) det ( P ) det ( λ I n − A ) = det ( P −1 P ) det ( λ I n − A ) = det ( I n ) det ( λ I n − A ) =

= det ( λ I n − A )

Q.E.D.

Ejemplo
3 0  3 2 1 2 
Las matrices A =   y B=  son semejantes, ya que existe la matriz P =  
1 2  0 2  1 0 

inversible, tal que B = P −1 AP .

En efecto, P es inversible pues es fácil ver que det ( P ) ≠ 0 y calculando P −1 por el método más

0 1 
−1
conveniente resulta P = 1 1  ,
 −
2 2
0 1 
3 0  1 2  1 2  1 2   3 2 
luego B = P −1 AP =  1 1    =  = .
 − 1 2  1 0  1 −1 1 0  0 2 
2 2
El polinomio característico para las matrices A y B están dados por
 1 0  3 0    λ − 3 0 
det ( λI 2 − A) = det  λ   −   = det     = ( λ − 3)( λ − 2 ) = λ − 5λ + 6
2
 0 1  1 2     −1 λ − 2  
 1 0 3 2     λ − 3 −2  
det ( λI 2 − B ) = det  λ   −   = det     = ( λ − 3)( λ − 2 ) = λ − 5λ + 6
2
 0 1  0 2    0 λ − 2 

por lo que ambas matrices tienen el mismo polinomio característico y por lo tanto los mismos
valores propios como valores propios λ1 = 3, λ 2 = 2
Observación
El recíproco de la Proposición 7 es falso, ya que dos matrices pueden tener los mismos valores propios sin ser matrices
semejantes.

http://algebra-lineal.blogspot.com Unidad 6 9
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

Ejemplo
1 0 
La matriz I 2 =   tiene por valores propios los elementos de la diagonal principal por ser una
0 1 
matriz diagonal, según Proposición 5, λ1 = λ 2 = 1 ;
1 0 
La matriz B =   tiene por valores propios los elementos de la diagonal principal por ser una
2 1
matriz triangular, según Proposición 4, λ1 = λ 2 = 1 .
Ambas matrices tienen los mismos valores propios, sin embargo no son semejantes ya que no existe
una matriz P inversible que satisfaga
B = P −1I 2 P (*)
pues al ser I 2 el neutro para el producto de matrices, la igualdad (*) se reduciría a
B = P −1P
pero esto no es posible ya que el producto P −1P es la matriz identidad y B ≠ I 2 .

Matrices Diagonalizables

Definición 6
Sea A ∈ F nxn . La matriz A es diagonalizable si y sólo si existe una matriz diagonal D
∈ F nxn tal que A es semejante a D.

Observaciones
1.- Como vimos en la Proposición 7, si una matriz A es semejante a una matriz D, entonces resulta que A y D tienen los
mismos valores propios. Además, la Proposición 5, asegura que si D es una matriz diagonal entonces los valores
propios de D son los elementos de su diagonal principal. De estos resultados se desprende que si una matriz A es
semejante a una matriz diagonal D entonces los valores propios de A son precisamente los elementos de la diagonal
principal de la matriz diagonal D y por Definición 6 la matriz A es diagonalizable .
2.- Empleando las definiciones 6 y 5 podemos realizar el siguiente razonamiento,
A ∈ F nxn es diagonalizable ⇔ existe una matriz diagonal D ∈ F nxn tal que A es semejante a D ⇔
por Def. 6
-1
⇔ existe una matriz inversible P ∈ F nxn tal que D = P AP
por Def. 5

3.- De las observaciones 1 y 2 podemos advertir que la matriz inversible P diagonaliza a la matriz A y la matriz
diagonal D semejante a A, tiene en su diagonal principal a los valores propios de la matriz A.

Proposición 8
Una matriz A ∈ F nxn es diagonalizable si y sólo si A tiene n vectores propios que forman un
conjunto linealmente independiente.
En tal caso la matriz diagonal D semejante a la matriz A está dada por,

λ1 0 ... 0
0 λ2 ... 0 

D=: : ... :  ∈ F nxn
 
: : ... : 
 0 0 ... λn 

http://algebra-lineal.blogspot.com Unidad 6 10
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

donde λ1 , λ2 , ..., λn son los valores propios de A. Si P ∈ F nxn es una matriz cuyas columnas son
vectores propios linealmente independientes de la matriz A entonces
D = P −1 A P .

Demostración:
a) Supongamos que tiene n vectores linealmente independientes v1 , v2 , ..., vn
respectivamente asociados a los valores propios λ1 , λ2 , ..., λn (no necesariamente diferentes)
de la matriz A. Es decir,
A v1 = λ1 v1 , A v 2 = λ2 v 2 , ... , A v n = λ n v n (1)

Probaremos que la matriz A es diagonalizable. Para ello, sea P ∈ F nxn la matriz cuyas columnas
son las componentes delos vectores propios v1 , v2 , ..., vn de la matriz A, esto es,

 p1 j 
 p11 p12 ⋯ p1 j ⋯ p1n  p 
p p22 ⋯ p2 j ⋯ 
p2 n   2j
P= , con v j =  :  ∈ F nx1 , ∀ j = 1,..., n
21

 ⋮ ⋮ ⋯ ⋮ ⋯ ⋮   
   : 
 pn1 pn 2 ⋯ pnj ⋯ pnn 
 pnj 
 

Si calculamos

 a11 a12 ⋯ a1n   p11 p12 ⋯ p1 j ⋯ p1n 


a  p2 n 
a22 ⋯ a2 n   p21 p22 ⋯ p2 j ⋯
AP =  21
 ⋮ ⋮ ⋯ ⋮  ⋮ ⋮ ⋯ ⋮ ⋯ ⋮ 
  
 an1 an 2 ⋯ ann   pn1 pn 2 ⋯ pnj ⋯ pnn 

podemos observemos que las componentes de la columna j-ésima de A P son iguales a las
componentes del vector A v j , es decir
 p1 j 
 a11 a12 ⋯ a1n     a11 p1 j + a12 p2 j + ... + a1n pnj 
a p2 j  
a22 ⋯ a2 n     a21 p2 j + a22 p2 j + ... + a2 n pnj 
Av j =  21  : =
 ⋮ ⋮ ⋯ ⋮    ⋮ 
  :  
 an1 an 2 ⋯ ann     an1 p1 j + an 2 p2 j + ... + ann pnj 
 
 pnj 
Por lo tanto,

A P =  Av1 Av2 ... Av j ... Avn 

luego, por (1), se tiene

A P = λ1v1 λ2 v2 ... λ j v j ... λn vn  (2)

http://algebra-lineal.blogspot.com Unidad 6 11
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

Por otro lado,si calculamos


λ1 0 ⋯ 0 ⋯ 0
 p11 p12 ⋯ p1 j ⋯ p1n  0 λ2 ⋯ 0 ⋯ 0 
p 
p22 ⋯ p2 j ⋯ p2 n  ⋮ ⋮ ⋯ ⋮ ⋯ ⋮
PD = 
21
 
 ⋮ ⋮ ⋯ ⋮ ⋯ ⋮  0 0 ⋯ λj ⋯ 0
  ⋮
 pn1 pn 2 ⋯ pnj ⋯ pnn  ⋮ ⋯ ⋮ ⋯ ⋮
 
 0 0 ⋯ 0 ⋯ λn 

obtenemos,
 p11λ1 p12 λ2 ⋯ p1 j λ j ⋯ p1n λn 
 
 p21λ1 p22 λ2 ⋯ p2 j λ j ⋯ p2 n λn 
PD = 
 ⋮ ⋮ ⋯ ⋮ ⋯ ⋮ 
 pn1λ1 pn 2 λ2 ⋯ pnj λ j ⋯ pnn λn 

y podemos observar que las componentes de la columna j-ésima de son iguales alas
componenetes del vector , esto es

0  p1 j λ j   p1 j 
:  p λ  p 
   2j j  2j
P λ j  =  :  = λj  :  =λj vj ,
     
:   :   : 
 0   pnj λ j   pnj 
   

por lo tanto podemos escribir simbólicamente,

PD =  λ1v1 λ2 v2 ... λ j v j ... λn vn  (3)

Teniendo en cuenta (2) y (3) se sigue que

P D = A P (4)
y como {v1 , v2 ,..., v n } es linealmente independiente, entonces P es inversible, por lo tanto si
multiplicamos a izquierda en ambos miembros de (4) por P -1 , resulta

D = P −1 A P (5)

Es claro que D es una matriz diagonal semejante a A, ya que existe una matriz P inversible que
verifica la igualdad (5), luego, por Definición 6, A es diagonalizable.

b) Ahora demostraremos el siguiente condicional,

http://algebra-lineal.blogspot.com Unidad 6 12
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

“Si la matriz A es diagonalizable, entonces A tiene n vectores propios que forman un conjunto
linealmente independiente”.

Por hipótesis la matriz A es diagonalizable, entonces por Definición 6 existe una matriz diagonal
D semejante a A, y en consecuencia por Definición 5, existe una matriz P inversible tal que
D = P −1 A P (α)

multiplicamos a izquierda en ambos miembros de (α) por P y resulta


P D = P ( P −1 A P)
aplicando la propiedad asociativa del producto de matrices tenemos
P D = ( P P −1 ) A P
luego
PD= AP (β)

Ahora, si a la matriz diagonal D la representamos por

λ1 0 ... 0
0 λ2 ... 0 
 nxn
D=: : ... :  ∈ F ,
 
: : ... : 
 0 0 ... λn 

donde λ1 , λ2 , ..., λn no son necesariamente diferentes. Y si a la matriz P la expresamos a través de


sus columnas, es decir

P =  v1 v2 ... v j ... vn  ∈F
nxn
, con vj columna de P; ∀j = 1, …, n
entonces los productos PD y AP expresados en términos de sus columnas son

PD =  λ1v1 λ2 v2 ... λ j v j ... λn vn  (δ)


y

A P =  Av1 Av2 ... Av j ... Avn  (ρ)

Luego, de (β), (δ) y (ρ) se sigue que las respectivas columnas de PD y de AP son iguales es
decir
A v1 = λ1 v1 , A v 2 = λ2 v 2 , ... , A v n = λ n v n

Esto nos indica que v1 , v2 , ..., vn son vectores propios de A asociados a los valores propios
λ1 , λ2 , ..., λn respectivamente; y como P es inversible entonces { v1 , v2 , ..., vn } es linealmente
independiente.
Q.E.D.

http://algebra-lineal.blogspot.com Unidad 6 13
Facultad de Ciencias Exactas y Tecnologías - UNSE Álgebra II (LSI y PI)

Corolario
Si A ∈ F nxn admite n valores propios diferentes entonces A es diagonalizable.

Demostración
Por hipótesis la matriz A tiene n valores propios diferentes. Sean λ1 , λ2 , ..., λn los n valores propios
diferentes de la matriz A, y sean v1 , v2 , ..., vn n vectores propios de A asociados a cada uno de los
valores propios respectivamente, esto es
A v1 = λ1 v1 , A v 2 = λ2 v 2 , ... , A v n = λ n v n ,

entonces, por Proposición 2, el conjunto { v1 , v2 , ..., vn } es linealmente independiente.


Esto es, la matriz A tiene n vectores propios que forman un conjunto linealmente independiente,
entonces por la Proposición 8 resulta que A es diagonalizable.

Q.E.D.

Teorema de Cayley-Hamilton (sin demostración)

Toda matriz A ∈ F nxn es un cero de su polinomio característico.

---…---…---

http://algebra-lineal.blogspot.com Unidad 6 14

You might also like