You are on page 1of 23

UNIVERSIDAD DE LAS FUERZAS

ARMADAS
“ESPE”

DEPARTAMENTO DE CIENCIAS EXACTAS

ALGEBRA LINEAL

Ingeniería en Biotecnología

TEMA: VECTORES Y VALORES PROPIOS.

ESTUDIANTE: Hernandez Carrasco Diana Stephanie

DOCENTE: Ing. Juan Carlos Cueva

NRC: 4001

PERIÓDO: Abril-Agosto
2018

SANGOLQUÍ – ECUADOR
VALORES Y VECTORES PROPIOS.

INTRODUCCION

Aunque, en general, la imagen de un vector bajo una transformación de un


espacio vectorial en sí mismo no es un vector paralelo al vector inicial,
existen vectores especiales para los cuales la acción de la transformación es
muy sencilla: el vector y su imagen tienen la misma dirección. Estos vectores
especiales los denominamos vectores propios y permiten un análisis fácil de
la transformación puesto que en la dirección de ellos, la transformación sólo
“encoge” o “dilata” los vectores.

Por la relación entre las transformaciones y las matrices que estudiamos en


el capítulo anterior, estudiaremos los valores y vectores propios de una
transformación como una propiedad de las matrices asociadas. Así por
ejemplo, si v es un vector tal que v = Av, decimos que v es un vector
invariante o estacionario para la trasformación definida por la matriz A. Si
el vector u tiene la propiedad de ser paralelo a su imagen mediante la
transformación definida por la matriz A; digamos que u = 2Au, decimos que
u es un vector propio de la matriz A o equivalentemente, de la transformación
definida por A.

DEFINICIONES:

Como mencionamos en la introducción, aunque los vectores propios son


vectores paralelos a sus imágenes bajo una transformación, por la relación
que existe entre las transformaciones lineales y las matrices, definimos
primero este y otros conceptos relacionados, respecto de una matriz para más
adelante hacerlo respecto de una transformación. Es de anotar que, como
estos conceptos tienen sentido sólo para transformaciones que van de un
espacio vectorial en sí mismos, en este capítulo, estaremos hablando sólo de
matrices cuadradas.

DEFINICIÓN 1

[Vector y Valor Propio de una Matriz ]

Dada A una matriz n × n, decimos que λ ∈ R es un valor propio1 de A y


que v ∈ Rn, v 6= 0, es un vector propio de A asociado a λ, si y solo si, Av
= λv. 2 Observemos que la exclusión del vector cero, como vector propio es
natural, ya que si, en la ecuación vectorial Av = λv, v = 0, entonces λ puede
ser cualquier real.

Teorema 1

Sea A una matriz cuadrada. Entonces

1. Un escalar λ es valor propio de A, si y solo si, det(A − λI) = 0 y λ ∈ R.

2. Un vector v es un vector propio de A asociado al valor propio λ, si y solo


si, v es una solución no trivial de (A − λI)x = 0.

Teorema 2

Una matriz A es invertible, si y solo si, 0 no es un valor propio de A.

Como mencionamos antes, los valores propios de A son las raíces reales de
la ecuación det(A − λI) = 0. Además, se puede demostrar que si A es una
matriz n × n, entonces det(A − λI) es un polinomio de grado n, cuyo
coeficiente principal3 es (−1)n. Por la importancia que tiene este polinomio,
le damos un nombre especial.

DEFINICIÓN 2:
[Polinomio Característico]

Dada una matriz A, decimos que p(λ) = det(A−λI) es el polinomio


característico de A.

DEFINICIÓN 3:

[Multiplicidad Algebraica de un Valor Propio]

A la multiplicidad de una raíz real λ del polinomio característico de la matriz


A le llamaremos multiplicidad algebraica del valor propio λ.

DEFINICIÓN 4

[Espacio propio]

Dada A una matriz de tamaño n×n y λ ∈ R un valor propio de A, definimos


como espacio propio de A asociado a λ al conjunto Eλ, conformado por todos
los vectores propios de A asociados a λ y el vector 0 de Rn; es decir,

Eλ = N(A−λI) .

DEFINICIÓN 5:

[Multiplicidad geométrica]

Dada una matriz A de tamaño n × n y λ un valor propio de A, definimos


como multiplicidad geométrica del valor propio λ a la dimensión del espacio
propio Eλ.

Teorema 3
Si λ es un valor propio de una matriz A, entonces

1 ≤ multiplicidad geométrica de λ ≤ multiplicidad algebraica de λ.

Del Teorema 3, es fácil concluir que si la multiplicidad algebraica de un valor


propio es 1, las dos multiplicidades son iguales.

Procedimiento para encontrar valores y vectores propios de una matriz


A.

1. Se encuentra el polinomio característico p(λ) = det(A − λI).

2. Se encuentran las raíces reales de p(λ) (valores propios de A).

3. Se resuelve el sistema homogéneo (A−λI)x = 0, para cada valor de λ


(vectores propios de A asociados a λ).

Teorema 4

Los valores propios de una matriz triangular son los elementos de la


diagonal.

Demostración: Si A es una matriz triangular, su polinomio característico es

p(λ) = det(A − λI) = (a11 − λ)(a22 − λ)· · ·(ann − λ).

Así que los valores propios de A, que son las soluciones de p(λ) = 0, son a11,
a22, · · · ann.
Las preguntas naturales sobre los vectores propios son si forman un conjunto
de vectores linealmente independientes y si constituyen un conjunto
generador de Rn, cuyas respuestas parciales se encuentran en el siguiente
teorema.

Teorema 5

Si λ1, λ2, . . . , λk son valores propios distintos de una matriz A de tamaño n


× n, entonces:

1. Los vectores propios v1, v2, . . . , vk de A asociados a los valores


propios λ1, λ2, . . . , λk, respectivamente, son l.i
2. Si B1, B2, . . . , Bk son bases de los espacios propios Eλ1 , Eλ2 , . . . ,
Eλk , respectivamente, entonces

B = B1 ∪ B2 ∪ . . . ∪ Bk

es un conjunto l.i.

3. Si B1, B2, . . . , Bk son bases de los espacios propios Eλ1 , Eλk , . . . ,


Eλk , respectivamente, y

B = B1 ∪ B2 ∪ . . . ∪ Bk

tiene n elementos, B es una base de Rn.

Teorema 6
Sea A una matriz de orden n × n y v un vector propio de A asociado al valor
propio λ. Entonces,

1. λ es un valor propio de AT .

2. Si λ 6= 0, entonces A es invertible y v es un vector propio de A−1 asociado


al valor propio 1/λ.

3. v es un vector propio de Ak asociado al valor propio λ k .

DIAGONILIZACIÓN DE MATRICES

En general, hacer aritmética con matrices es costoso, sobre todo si hay que
realizar multiplicaciones entre ellas. Sin embargo, los cálculos se facilitan si
las matrices son triangulares y aún más si las matrices son diagonales. De
otro lado, el cálculo de los valores propios de una matriz triangular y en
especial si es diagonal es trivial; por ello, sería muy conveniente encontrar
un procedimiento que nos permitiera relacionar los valores propios de una
matriz con los de una matriz triangular o diagonal. En el Capítulo 1, vimos
un procedimiento que relacionaba una matriz con una triangular (el Método
de Eliminación de Gauss), pero desafortunadamente los valores propios de
la matriz triangular encontrada por este método no se relacionan con los de
la matriz inicial.
Por ahora, veamos que si dos matrices son semejantes (ver Definición 5 del Capítulo 5),
algunas de sus características o propiedades son iguales; entre otras, sus valores propios
son los mismos y los vectores propios de una se pueden calcular a partir de los de la otra.

Teorema 7

Sean A y B dos matrices semejantes, entonces:

1. det A = det B.

2. Si una de las matrices es invertible, la otra también lo es.


3. A y B tienen el mismo polinomio característico.

4. A y B tienen los mismos valores propios.

5. Existe P, una matriz invertible, tal que si v es un vector propio de A, Pv es un vector


propio de B. 6. A y B tienen el mismo rango.

DEFINICIÓN 6:
[Valor y Vector Propio de una Transformación]

Sean V , un espacio vectorial real finito, y T : V −→ V , una transformación lineal.


Diremos que λ es un valor propio de T y que v ∈ V, v 6= 0 , es un vector propio de T
asociado a λ, si y solo si, T(v) = λv y λ ∈ R.

Teorema 8.

Sean V un espacio vectorial finito, B una base de V , T : V −→ V una transformación


lineal y A la matriz asociada a T en la base B. λ es un valor propio de T y v ∈ V es un
vector propio de T asociado a λ, si y solo si, λ es un valor propio de A y [v]B es un vector
propio de A asociado a λ.

DEFINICIÓN 7:
[Matriz Diagonalizable]

Diremos que una matriz A es diagonalizable, si y solo si, existe una matriz diagonal D
semejante a A; es decir, que existe P, una matriz invertible y D una matriz diagonal, tal
que AP = P D. Al procedimiento de encontrar la matriz diagonal D y la matriz invertible
P lo llamamos proceso de diagonalización y diremos que P y D diagonalizan a A.

Teorema 9

Sea A una matriz n × n.


1. Si P y D son las matrices que diagonalizan a A, los elementos de la diagonal de D son
los valores propios de A y las columnas de la matriz P son los vectores propios de A
asociados a los valores propios, en su orden respectivo.

2. Si {v1, v2, . . . , vn} son n vectores propios l.i. de A asociados a los valores propios λ1,
λ2, . . . , λn, respectivamente, entonces la matriz A se puede diagonalizar con P = [v1 v2
. . . vn] y D, la matriz diagonal tal que dii = λi , para i = 1, 2, . . . , n.

Teorema 10

Sea A una matriz n × n. A es diagonalizable, si y solo si, las multiplicidades algebraicas


y geométricas de los valores propios de A son iguales y la suma de las multiplicidades
algebraicas de los valores propios es n.

Teorema 11

Sean P, una matriz invertible, y D, una matriz diagonal, las matrices que diagonalizan a
A. Entonces

A k = P DkP −1

MATRICE SIMÉTRICAS Y DIAGONALIZACIÓN

Debido a que las matrices simétricas satisfacen los resultados de diagonalización de


manera especial, en esta sección, nos restringiremos a este tipo matrices .

Para comenzar, tenemos que las raíces del polinomio característico de las matrices
simétricas son todas reales, razón por la cual, las matrices simétricas tienen tantos valores
propios (contando multiplicidades) como número de filas. Este resultado lo consignamos
en el siguiente teorema, omitiendo su demostración por no estar al alcance de este texto.

Teorema 12
Toda matriz simétrica de tamaño n × n tiene n valores propios, contando multiplicidades.

Teorema 13

Si A es una matriz simétrica, los vectores propios de A asociados a valores propios


diferentes son ortogonales.

Teorema 14

Si A es una matriz simétrica, las multiplicidades algebraica y geométrica de cada uno de


los valores propios de A coinciden.

DEFINICIÓN 8:
[Matriz Ortogonalmente Diagonalizable]

Diremos que una matriz A es ortogonalmente diagonalizable, si y solo si, existe una
matriz diagonal D tal que QA = DQ, donde Q es una matriz ortogonal. En otras palabras,
A es ortogonalmente diagonalizable, si y solo si, A es diagonalizable mediante una matriz
ortogonal.

Teorema 15

La matriz A es simétrica, si y solo si, es ortogonalmente diagonalizable.

You might also like