Welcome to Scribd, the world's digital library. Read, publish, and share books and documents. See more
Download
Standard view
Full view
of .
Look up keyword
Like this
33Activity
0 of .
Results for:
No results containing your search query
P. 1
resumen diagonalizacion matrices

resumen diagonalizacion matrices

Ratings:

5.0

(1)
|Views: 3,695 |Likes:
Published by apolo456

More info:

Published by: apolo456 on Jul 11, 2008
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

07/25/2013

pdf

text

original

 
ETSII-UPM
Propiedades de losValores y Vectores Propios
Matemáticas de la Especialidad (Mecánica-Máquinas)Madrid, 5 de noviembre de 2002
Javier García de Jalón
ETSII -Departamento de Matemática Aplicadaa la Ingeniería IndustrialETSII-UPM
Problema de valores y vectores propios
Definición del problema de valores y vectores propios (matriz
n
×
n
)que también se puede expresar en la forma
Para que exista una solución
x
distinta de la trivial (
x
=
0
), el valor  propio
λ 
deberá ser raíz del siguiente polinomio de grado
n
Características del problema de valores y vectores propios:
Es un problema
no lineal 
en los valores propios
λ 
y
lineal 
en
x
Los vectores propios pertenecen al subespacionulo de (
Ax
-
λ 
I
) y no estánunívocamente determinados: Si
x
es un vector propio, (
α⋅ 
x
) también lo es
 Siempre
existen
n
valores propios, que pueden ser 
reales
o
complejos
 No siempre
existen
n
vectores propios. Los valores propios de multiplicidad
m
>1 tienen un
 subespacio propio
asociado de dimensión <=
m.
Todos losvectores en este subespaciopropio son vectores propios
λ 
=
Ax x
()
λ 
=
A I x 0
det()0
λ 
=
A I
ETSII-UPM
Interpretación geométrica
Por lo general, el vector 
Ax
no tiene la misma dirección que
x
.
Los
vectores propios
son vectores que se transforman sin cambiar dedirección.
El
valor propio
λ 
determina el cambio de longitud.
2
x
222
λ 
=
Ax x
111
λ 
=
Ax x
1
xxAx
ETSII-UPM
Propiedades de los subespacios propios
Los vectores propios asociados con un mismo valor propio
λ 
formanun subespaciovectorial de
n
Si
x
1
y
x
2
son vectores propios asociados a un mismo valor propio
λ 
,lo que demuestra que una combinación lineal de vectores propios asociadoscon un mismo valor propio es también vector propio.
Los subespacios propios correspondientes a valores propios distintossólo tienen en común el vector nulo
Supóngase que
x
V
1
y al mismo tiempo
x
V
2
Consecuencia: Los vectores propios correspondientes a valores propiosdistintos son linealmente independientes.
()()
α β α β λ α β 
+ = + = +
1 2 1 2 1 2
A x x Ax Ax x x
1122
()
λ λ λ λ 
== ==
Ax x0 x x 0Ax x
ETSII-UPM
Propiedades de los valores propios
Igualando coeficientes en las distintas expresiones del determinantedet(
A
λ 
I
)=0 se deducen las propiedades siguientes:
La
 suma
de los valores propios es igual a la
traza
de la matriz
El
 producto
de los valores propios es igual al
determinante
de la matriz
Propiedad de “
desplazamiento
” de los valores propios:
Si los valores propios de la matriz
A
son
λ 
i
, los valores propios de la matriz(
A
α 
I
) serán (
λ 
i
α 
).
Los vectores propios
x
i
de la matriz
A
siguen siendo losvectores propios de la matriz (
A
α 
I
):
 Diagonalización
: si existen
n
vectores propios independientes queforman las columnas de la matriz
S
:
( )( ) ( )
11121122221212
det()
nnnn n nn
a a aa a aa a a
λ λ λ λ λ λ λ λ λ λ 
= =
A I
( ) ( )
; restando
i i i i i i i
λ α α λ α 
= =
Ax x x A I x x
11
; y
i i i
λ 
=
Ax x AS = S
Λ
S AS =
Λ
A = S
Λ
S
ETSII-UPM
Propiedades de los valores propios (2)
Los valores propios de una matriz
diagonal 
o
triangular 
son loselementos de la diagonal.
Para que una matriz sea:
 Diagonalizable
, debe tener 
n
vectores propios independientes.
 Invertible
, debe tener 
n
valores propios distintos de cero.
Valores y vectores propios de las
 potencias de una matriz 
:
Los vectores propios son los mismos; los valores propios son lascorrespondientes potencias:
Análogamente, para las potencias negativas:
22
; ; ...
n n
λ λ λ λ 
= = = =
Ax x A x Ax x A x x
1111
; ;
λ λ λ 
= = =
Ax x A Ax A x A x x
1112122
; ;
= = =
S AS
Λ
S ASS AS
Λ
S A S
Λ
 
ETSII-UPM
Matrices semejantes
Dos matrices
A
y
B
son “
 semejantes
” si existe una matriz no singular 
M
tal que:
Las matrices semejantes tienen los mismos valores propios:
Partiendo de la definición de valor propio de
A
Multiplicando por la inversa de la matriz
M
luego
λ 
es un valor propio de
B
asociado con el vector propio
M
-1
x
Dos matrices semejantes
A
y
B
tienen el mismo polinomiocaracterístico:
1
=
B M AM
1
λ 
= =
Ax MBM x x
111
()()
λ λ 
= =
B M x M x M x
1111
det()det()det(())detdet()detdet()
λ λ λ λ λ 
= == = =
B I M AM M MM A I M M A I M A I
ETSII-UPM
Matrices simétricas
Los valores propios de una matriz real y simétrica son
reales
Si A es simétrica, el producto es real, pues es igual a su conjugadode donde se deduce que el valor propio
λ 
debe ser real
Los vectores propios correspondientes a valores propios distintos son
ortogonales
A partir de las ecuaciones de dos valores propios distintos
Como por hipótesis los dos valores propios son distintos
22
;
T
λ λ λ 
= = =
Ax x x Ax x x x
( ) ( )
22
T T T T T
conj
λ 
= = = = =
x Ax x Ax x Ax x A x x Ax x
( )
11121121122122212212
0
T T
λ λ λ λ λ λ 
=====
Ax xx Ax x xx xAx xx Ax x x
21
0
=
x x
x Ax
ETSII-UPM
Matrices simétricas (2)
Se verá un poco más adelante que un valor propio de multiplicidad
m
tiene
m
vectores propios asociados, pues las matrices
 simétricas
sonmatrices
normales
, esto es matrices que cumplen la condición:
Por tanto, para una matriz simétrica siempre existen
n
vectores propios linealmente independientes y ortogonales entre sí
Si las columnas de la matriz
S
son los vectores propios ortogonales ynormalizados, y los valores propios se disponen en la diagonal de la matriz
Λ
Estas fórmulas expresan la
diagonalización
de
A
mediante una
transformación de semejanza
, y también la
descomposición espectral 
de
A
Para matrices simétricas los espacios propios asociados con valores propios demultiplicidad
m
tienen también dimensión
m
, y se pueden encontrar en ellos
m
vectores propios que satisfagan las condiciones de ortonormalidad. Puedeutilizarse para ello el método de Gram-Schmidt
111
; ; ;
= = = =
AS S
Λ
S AS
Λ
A S
Λ
S S S
1
;
nT i i ii
λ 
=
= =
A S
Λ
S A x x
T
=
NN N N
ETSII-UPM
Matrices hermíticas
Pueden verse como una
 generalización de las matrices simétricas
El módulo de un complejo se calcula multiplicando por el conjugado
El
 producto escalar de vectores complejos
se define como
El operador hermítico
 produce el
traspuesto-conjugado
de unvector o de una matriz
Matrices
hermíticas
son las matrices que satisfacen
A
 H 
=
A
Si la matriz
A
es
hermítica
el producto
x
 H 
Ax
es
real 
. El operador 
 H 
aplicadoa un escalar produce su conjugado, que sólo es igual al escalar si éste es real
Como consecuencia, los valores propios de una matriz hermíticason
reales
( )
22
 
T T i
 x
= =
x y y x x x x
2
aa a
=
; ; ()
 H T H T H H
=
x x A A AB B A
( )
 H  H H H HH
= =
x Ax x A x x Ax
2
;
 H
λ λ λ 
= = =
Ax x x Ax x x x
x y
ETSII-UPM
Matrices hermíticas (2)
En una matriz hermíticalos vectores propios correspondientes a dosvalores propios distintos son
ortogonales
entre sí
Como los valores propios
λ 
1
y
λ 
2
son distintos, se concluye que
Si los vectores propios se normalizan (
x
 H 
x
=1), la matriz de vectores propios
S
se convierte en una
matriz ortogonal 
Q
(
Q
 H 
Q
=
I
)
( )
11121121122122221221
0
 H  H  H H
λ λ λ λ λ λ 
=====
Ax xx Ax x xx xAx xx A x x x
 H  H 
==
Q AQ
Λ
A Q
Λ
Q
21
0
 H 
=
x x
ETSII-UPM
Matrices unitarias
Las matrices
unitarias
son una
extensión de las matricesortogonales
 para el campo complejo.
Matriz unitaria es una matriz
compleja
con columnas ortonormales:
Propiedades de las matrices unitarias:
 No modifican ni los ángulos ni las distancias:
Todos los valores propios tienen
módulo unidad 
:
Los vectores propios correspondientes a valores propios distintos sonortogonales:
1
 
 H H
= = =
U U UU I U U
( ) ( )
 H  H H
= =
Ux Uy x U Uy x y
22
,
 si
= =
y x Ux x
; 1
λ λ λ 
= = =
Ux x Ux x
( )
1112112112212122221221
0 0
 H  H  H H
λ λ λ λ λ λ 
= == == =
Ux x x Ux x xx x x xUx x x U x x x
 
ETSII-UPM
Lema de Schur 
Para cualquier matriz cuadrada
A
existe una matriz unitaria
U
tal que
T
=
U
 H 
AU
es
triangular superior 
Para cualquier matriz
n
×
n
siempre es posible encontrar un vector propio
x
1
asociado con un valor propio
λ 
1
(aunque
λ 
1
sea un valor propio múltiple susubespaciopropio asociado tendal menos un vector propio). Construyendouna matriz unitaria
U
1
cuya primera columna es
x
1
y eligiendo las demáscolumnas de modo que sean ortogonales, se verificará, para un caso 4×4
A su vez la matriz
B
2
es una matriz (
n
1
) ×(
n
1
) que tendráal menos unvector propio asociado con el valor propio
λ 
2
. Existiráuna matriz unitaria
U
2
cuya segunda columna serádicho vector propio y que cumplirá
Finalmente se llega a
11111112
*********0***0***0 0***0***00***0***0
 H 
λ λ λ 
= = =
AU U U AUB
1122211223
1000***0**0** 0**00**0**00**
 H
 y y y
λ λ 
= =
U U U AU U
321123
 H H
=
U U U AU U U T
ETSII-UPM
Matrices definidas-positivas
Una matriz simétrica es
definida-positiva
si cumple
Se puede demostrar que la condición (1) es
equivalente
a cualquierade las condiciones siguientes:
Todos los valores propios de
A
son positivos.
El determinante de todas las submatricessobre la diagonal de
A
es positivo.
Todos los pivots en la descomposición
A
=
LDL
 H 
son positivos.
La matriz
A
se puede descomponer en la forma
A
=
 H 
, donde
es unamatriz cuyas
n
columnas son independientes.
Existen matrices
 semi-definidas positivas
(
x
 H 
Ax
0) e
indefinidas
1) 0,
 H 
>
x Ax x 0
2) 0,
i
i
λ 
>
3) det()0,
>
A
4) 0,
ii
d i
>
5)
 H 
A = R
ETSII-UPM
Matrices normales
La condición necesaria y suficiente para que una matriz
N
tenga
n
vectores propios independientes y pueda ser diagonalizadapor unatransformación de semejanza es que
N
 H 
N
=
NN
 H 
(matrices
normales
)
Si
N
es normal, por el Lema de Schurexiste una matriz triangular 
T
tal queluego
T
es también normal. Se puede comprobar que para que una matriztriangular pueda cumplir la condición
T
 H 
T
=
TT
 H 
debe ser diagonal. Si
T
esdiagonal, es la matriz de valores propios
Λ
,
 porque tiene los mismos valores propios que
N
, cuyos vectores propios son las columnas de
U
Si
N
tiene
n
vectores propios ortonormales, existirá una matriz
U
tal que:y
N
es normal, pues el producto de matrices diagonales es conmutativo.
 
 H H H  H H H H H H H H H H H
== = = = =
T = U NU T U N UTT U NUU N U U NN U U N NU U N UU NU T T
 
 H H H  H H H H H  H H H H H
== = == = =
N = U
Λ
U N U
Λ
UNN U
Λ
U U
Λ
U U
ΛΛ
UU
Λ Λ
U U
Λ
U U
Λ
U N N
ETSII-UPM
Transformaciones de congruencia
Una
transformación de congruencia
está definida en la forma.
Estas transformaciones surgen de realizar un
cambio de base
en unaforma cuadrática
Las transformaciones de semejanza:
Con matrices ortogonales son también transformaciones de congruencia, pero
 No cualquier transformación de congruencia es de semejanza
 Ley de Inercia de Sylvester 
: “Las transformaciones de congruenciaconservan el signo de los valores propios, es decir, el número devalores propios negativos, iguales a cero y positivos”
Consecuencia:
Para cualquier matriz simétrica
A
=
LDL
los
 signos de los pivots
que aparecenen
D
coinciden con los
 signos de los valores propios
de
A
, pues
A
y
D
estánrelacionadas por una transformación de congruencia
=
B C AC
; ; ;
T T T T
 f
= = = =
x Ax x =Cy y C ACy y By B C AC
ETSII-UPM
Para
matrices hermíticasn×n
existe una matriz ortogonal
Q
tal que
Análogamente, para una
matriz real m×n cualquiera
existe unafactorización en la formadonde
U
y
V
son matrices ortogonales de tamaño
m
×
m
y
n
×
n
,respectivamente, y
D
es una matriz diagonal de tamaño
m
×
n
cuyoselementos son tales que
ii
>0 (
i
=1,2,...,
) y
ii
=0 (
i
>
).
Gráficamente:
A esta factorización se le llama “Descomposición de ValoresSingulares”(Singular Value Decomposition óSVD) y tieneimportantes aplicaciones en Ingeniería
Descomposición de valores singulares
 H 
=
A Q
Λ
Q
=
A UDV
A U DV
=
A U DV
=
ETSII-UPM
Descomposición de valores singulares (2)
Cálculo y existencia de la SVD
La matriz
A
A
es simétrica y por tanto tiene
n
vectores propios ortogonales
v
i
que pueden formar las columnas de la matriz
n
×
n
ortogonal
V
:
El valor propio
λ 
i
es no-negativo y se puede expresar en la forma:
Si
A
tiene rango
la matriz
A
A
tendrá también rango
(
 N 
(
A
)=
 N 
(
A
A
)).Habrá
valores propios
λ 
i
mayores que cero y
n-r 
valores propios cero
Se definen el valor singular 
σ 
 j
y el vector 
u
 j
(
u
 j
m
) en la forma:
Los vectores
u
 j
así formados son ortogonales en el espacio
m
:
Los
vectores ortogonales
u
 j
se pueden completar por medio del método deGram-Schmidt con otros
m
-
vectores ortogonales hasta ser una base de
m
.
Los
m
vectores ortogonales
u
 j
constituyen las columnas de la matriz
m
×
m
U
.
( )
 
T i i i
λ 
= =
A Av v A A V V
Λ
2
=
T T T T i i i i i i i i i i
λ λ λ 
= = =
v A Av v v v A Av Av
1,2,...,
 j j j j j
j
σ λ σ 
= = =
u Av
=0
T T T i j i j i j j i j i j
i j
σ σ λ σ σ 
= =
u u v A Av v v

Activity (33)

You've already reviewed this. Edit your review.
1 hundred reads
1 thousand reads
toscano7z liked this
Eduardo Villagra liked this
Salma Jimenez liked this
ISa Castro liked this
Humberto Chalate liked this

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->