You are on page 1of 5

Problema de valores y vectores propios

ETSII-UPM ETSII-UPM
‰ Definición del problema de valores y vectores propios (matriz n×n)
Ax = λ x
que también se puede expresar en la forma
Propiedades de los ( A − λ I)x = 0
Para que exista una solución x distinta de la trivial (x=0), el valor
Valores y Vectores Propios
‰

propio λ deberá ser raíz del siguiente polinomio de grado n


det( A − λ I ) = 0
Matemáticas de la Especialidad (Mecánica-Máquinas) ‰ Características del problema de valores y vectores propios:
Madrid, 5 de noviembre de 2002 ¾ Es un problema no lineal en los valores propios λ y lineal en x
¾ Los vectores propios pertenecen al subespacio nulo de (Ax-λI) y no están
Javier García de Jalón unívocamente determinados: Si x es un vector propio, (α⋅x) también lo es
ETSII - Departamento de Matemática Aplicada ¾ Siempre existen n valores propios, que pueden ser reales o complejos
a la Ingeniería Industrial
¾ No siempre existen n vectores propios. Los valores propios de multiplicidad
m>1 tienen un subespacio propio asociado de dimensión <=m. Todos los
vectores en este subespacio propio son vectores propios

Interpretación geométrica Propiedades de los subespacios propios


ETSII-UPM ETSII-UPM
‰ Por lo general, el vector Ax no tiene la misma dirección que x. ‰ Los vectores propios asociados con un mismo valor propio λ forman
‰ Los vectores propios son vectores que se transforman sin cambiar de un subespacio vectorial de Rn
dirección. ¾ Si x1 y x2 son vectores propios asociados a un mismo valor propio λ,

‰ El valor propio λ determina el cambio de longitud. A (α x1 + β x 2 ) = α Ax1 + β Ax 2 = λ (α x1 + β x 2 )


lo que demuestra que una combinación lineal de vectores propios asociados
Ax1 = λ1x1 con un mismo valor propio es también vector propio.
‰ Los subespacios propios correspondientes a valores propios distintos
x1
Ax 2 = λ2 x 2
sólo tienen en común el vector nulo
x2 ¾ Supóngase que x∈V1 y al mismo tiempo x∈V2
Ax = λ1x 
 0 = (λ1 − λ2 )x ⇒ x = 0
Ax = λ2 x 
Ax
¾ Consecuencia: Los vectores propios correspondientes a valores propios
x distintos son linealmente independientes.

Propiedades de los valores propios Propiedades de los valores propios (2)


ETSII-UPM ETSII-UPM
‰ Igualando coeficientes en las distintas expresiones del determinante ‰ Los valores propios de una matriz diagonal o triangular son los
det(A−λI)=0 se deducen las propiedades siguientes: elementos de la diagonal.
¾ La suma de los valores propios es igual a la traza de la matriz ‰ Para que una matriz sea:
¾ El producto de los valores propios es igual al determinante de la matriz ¾ Diagonalizable, debe tener n vectores propios independientes.
 a11 − λ a12 " a1n 
¾ Invertible, debe tener n valores propios distintos de cero.
 a a22 − λ " a2 n 
det( A − λ I) =  12 = ( λ − λ1 )( λ − λ2 )" ( λ − λn ) ‰ Valores y vectores propios de las potencias de una matriz:
 # # % # 
  ¾ Los vectores propios son los mismos; los valores propios son las
 an1 an 2 " ann − λ 
correspondientes potencias:
‰ Propiedad de “desplazamiento” de los valores propios: Ax = λ x; A 2 x = λ Ax = λ 2 x; ... A n x = λ n x
¾ Si los valores propios de la matriz A son λi, los valores propios de la matriz
(A−αI) serán (λi−α). Los vectores propios xi de la matriz A siguen siendo los S −1AS = Λ; S −1ASS −1AS = Λ 2 ; S −1A 2S = Λ 2
vectores propios de la matriz (A−αI): ¾ Análogamente, para las potencias negativas:
Axi = λi xi ; restando α xi ⇒ ( A − α I ) xi = ( λi − α ) xi Ax = λ x; A −1Ax = λ A −1x; A −1x = λ −1x
‰ Diagonalización: si existen n vectores propios independientes que
forman las columnas de la matriz S:
Axi = λi xi ; AS = SΛ ⇒ S −1AS = Λ y A = SΛS −1

1
Matrices semejantes Matrices simétricas
ETSII-UPM ETSII-UPM
‰ Dos matrices A y B son “semejantes” si existe una matriz no singular ‰ Los valores propios de una matriz real y simétrica son reales
T
M tal que: ¾ Si A es simétrica, el producto x Ax es real, pues es igual a su conjugado

B = M −1AM Ax = λ x; xT Ax = λ xT x = λ x 2
2

Las matrices semejantes tienen los mismos valores propios: conj ( xT Ax ) = xT Ax = ( xT Ax ) = xT AT x = xT Ax = λ x


‰ T 2

¾ Partiendo de la definición de valor propio de A 2


de donde se deduce que el valor propio λ debe ser real
Ax = MBM −1x = λ x
¾ Multiplicando por la inversa de la matriz M
‰ Los vectores propios correspondientes a valores propios distintos son
ortogonales
B ( M x ) = M λ x = λ (M x )
−1 −1 −1
¾ A partir de las ecuaciones de dos valores propios distintos
luego λ es un valor propio de B asociado con el vector propio M-1x
Ax1 = λ1x1  xT2 Ax1 = λ1xT2 x1 
‰ Dos matrices semejantes A y B tienen el mismo polinomio  ⇒ T  ⇒ ( λ1 − λ2 ) xT2 x1 = 0
característico: Ax 2 = λ2 x 2  x1 Ax 2 = λ2 x1T x 2 
det(B − λ I ) = det(M −1AM − λ M −1M ) = ¾ Como por hipótesis los dos valores propios son distintos

= det(M ( A − λ I )M ) = det M −1 det( A − λ I ) det M = det( A − λ I )


−1 xT2 x1 = 0

Matrices simétricas (2) Matrices hermíticas


ETSII-UPM ETSII-UPM
‰ Se verá un poco más adelante que un valor propio de multiplicidad m ‰ Pueden verse como una generalización de las matrices simétricas
tiene m vectores propios asociados, pues las matrices simétricas son ‰ El módulo de un complejo se calcula multiplicando por el conjugado
matrices normales, esto es matrices que cumplen la condición: 2
NN = N N
T T aa = a
‰ Por tanto, para una matriz simétrica siempre existen n vectores ‰ El producto escalar de vectores complejos se define como xT y
propios linealmente independientes y ortogonales entre sí
¾ Si las columnas de la matriz S son los vectores propios ortogonales y
xT y ≠ y T x (
x T x = ∑ xi2 = x
2
)
normalizados, y los valores propios se disponen en la diagonal de la matriz Λ ‰ El operador hermítico H produce el traspuesto-conjugado de un
AS = SΛ; S −1AS = Λ; A = SΛS −1; S −1 = ST vector o de una matriz
¾ Estas fórmulas expresan la diagonalización de A mediante una x H ≡ xT ; A H ≡ AT ; (AB) H = B H A H
transformación de semejanza, y también la descomposición espectral de A
n ‰ Matrices hermíticas son las matrices que satisfacen AH=A
A = SΛST ; A = ∑ λi xi xTi ¾ Si la matriz A es hermítica el producto xHAx es real. El operador H aplicado
i =1 a un escalar produce su conjugado, que sólo es igual al escalar si éste es real
Para matrices simétricas los espacios propios asociados con valores propios de
(x Ax ) = x H A H x HH = x H Ax
¾ H H
multiplicidad m tienen también dimensión m, y se pueden encontrar en ellos m
vectores propios que satisfagan las condiciones de ortonormalidad. Puede ¾ Como consecuencia, los valores propios de una matriz hermítica son reales
utilizarse para ello el método de Gram-Schmidt 2
Ax = λ x; x H Ax = λ x H x = λ x

Matrices hermíticas (2) Matrices unitarias


ETSII-UPM ETSII-UPM
‰ En una matriz hermítica los vectores propios correspondientes a dos ‰ Las matrices unitarias son una extensión de las matrices
valores propios distintos son ortogonales entre sí ortogonales para el campo complejo.
Ax1 = λ1x1  x 2H Ax1 = λ1x 2H x1  Matriz unitaria es una matriz compleja con columnas ortonormales:
 ( λ1 − λ2 ) x 2 x1 = 0
H ‰

Ax 2 = λ2 x 2  x 2H A H x1 = λ2 x 2H x1  U H U = UU H = I ⇒ U −1 = U H
¾ Como los valores propios λ1 y λ2 son distintos, se concluye que ‰ Propiedades de las matrices unitarias:
x 2H x1 = 0 ¾ No modifican ni los ángulos ni las distancias:
( Ux ) ( Uy ) = x H U H Uy = x H y
H 2 2
‰ Si los vectores propios se normalizan (xHx=1), la matriz de vectores si y = x, Ux = x
propios S se convierte en una matriz ortogonal Q (QHQ=I) ¾ Todos los valores propios tienen módulo unidad:
Q H AQ = Λ Ux = λ x; Ux = λ x ⇒ λ = 1
¾ Los vectores propios correspondientes a valores propios distintos son
A = QΛQ H
ortogonales:
Ux1 = λ1x1  x 2H Ux1 = λ1x 2H x1 

Ux 2 = λ2 x 2 
 ⇒
x 2H U H x1 = λ2 x 2H x1 
(λ − λ ) x
1 2
H
2 x1 = 0 ⇒ x 2H x1 = 0

2
Lema de Schur Matrices definidas-positivas
ETSII-UPM ETSII-UPM
‰ Para cualquier matriz cuadrada A existe una matriz unitaria U tal que ‰ Una matriz simétrica es definida-positiva si cumple
T=UHAU es triangular superior 1) x H Ax > 0, ∀x ≠ 0
¾ Para cualquier matriz n×n siempre es posible encontrar un vector propio x1
asociado con un valor propio λ1 (aunque λ1 sea un valor propio múltiple su
‰ Se puede demostrar que la condición (1) es equivalente a cualquiera
subespacio propio asociado tendrá al menos un vector propio). Construyendo de las condiciones siguientes:
una matriz unitaria U1 cuya primera columna es x1 y eligiendo las demás ¾ Todos los valores propios de A son positivos.
columnas de modo que sean ortogonales, se verificará, para un caso 4×4 2) λi > 0, ∀i
λ1 * * *  λ1 * * * λ1 * * *
0 * * * 0 * * *  0  ¾ El determinante de todas las submatrices sobre la diagonal de A es positivo.
AU1 = U1   U1H AU1 =  = 
0

* * *

0

* * *  0
 
B2 
 3) det( A k ) > 0, ∀k
0 * * * 0 * * *  0 
¾ Todos los pivots en la descomposición A=LDLH son positivos.
¾ A su vez la matriz B2 es una matriz (n−1) ×(n−1) que tendrá al menos un
vector propio asociado con el valor propio λ2. Existirá una matriz unitaria U2 4) dii > 0, ∀i
cuya segunda columna será dicho vector propio y que cumplirá ¾ La matriz A se puede descomponer en la forma A=RHR, donde R es una
1 0 0 0 λ1 * * * matriz cuyas n columnas son independientes.
0 y1 * *  0 λ * *
U2 =  U 2H U1H AU1U 2 =  
A = RH R
2

0

y2 * *

0 0

* *

5)
0 y3 * *  0 0 * *

¾ Finalmente se llega a U3H U 2H U1H AU1U 2 U 3 = T


‰ Existen matrices semi-definidas positivas (xHAx≥0) e indefinidas

Matrices normales Transformaciones de congruencia


ETSII-UPM ETSII-UPM
‰ La condición necesaria y suficiente para que una matriz N tenga n ‰ Una transformación de congruencia está definida en la forma.
vectores propios independientes y pueda ser diagonalizada por una B = CT AC
transformación de semejanza es que NHN=NNH (matrices normales) ‰ Estas transformaciones surgen de realizar un cambio de base en una
¾ Si N es normal, por el Lema de Schur existe una matriz triangular T tal que forma cuadrática
T = U H NU TH = U H N H U f = xT Ax; x = Cy; f = y T CT ACy = y T By; B = CT AC
TT = U NUU N U = U NN U = U H N H NU = U H N H UU H NU = T H T
H H H H H H
‰ Las transformaciones de semejanza:
¾ Con matrices ortogonales son también transformaciones de congruencia, pero
luego T es también normal. Se puede comprobar que para que una matriz
triangular pueda cumplir la condición THT=TTH debe ser diagonal. Si T es ¾ No cualquier transformación de congruencia es de semejanza
diagonal, es la matriz de valores propios Λ, porque tiene los mismos valores ‰ Ley de Inercia de Sylvester: “Las transformaciones de congruencia
propios que N, cuyos vectores propios son las columnas de U conservan el signo de los valores propios, es decir, el número de
¾ Si N tiene n vectores propios ortonormales, existirá una matriz U tal que: valores propios negativos, iguales a cero y positivos”
N = UΛU H N H = UΛ H U H ‰ Consecuencia:
NN = UΛU UΛ U H = UΛΛ H U H =
H H H
¾ Para cualquier matriz simétrica A=LDLT los signos de los pivots que aparecen
= UΛ H ΛU H = UΛ H U H UΛU H = N H N en D coinciden con los signos de los valores propios de A, pues A y D están
relacionadas por una transformación de congruencia
y N es normal, pues el producto de matrices diagonales es conmutativo.

Descomposición de valores singulares Descomposición de valores singulares (2)


ETSII-UPM ETSII-UPM
‰ Para matrices hermíticas n×n existe una matriz ortogonal Q tal que ‰ Cálculo y existencia de la SVD
A = QΛQ H ¾ La matriz ATA es simétrica y por tanto tiene n vectores propios ortogonales vi
‰ Análogamente, para una matriz real m×n cualquiera existe una que pueden formar las columnas de la matriz n×n ortogonal V:
factorización en la forma AT Av i = λi v i ( )
AT A V = VΛ
A = UDV T ¾ El valor propio λi es no-negativo y se puede expresar en la forma:
2
donde U y V son matrices ortogonales de tamaño m×m y n×n, v A Av i = λi v v i =λi
T
i
T T
i λi = v AT Av i = Av i
T
i
respectivamente, y D es una matriz diagonal de tamaño m×n cuyos ¾ Si A tiene rango r la matriz ATA tendrá también rango r (N(A)=N(ATA)).
elementos son tales que dii>0 (i=1,2,...,r) y dii=0 (i>r). Habrá r valores propios λi mayores que cero y n-r valores propios cero
‰ Gráficamente: ¾ Se definen el valor singular σj y el vector uj (uj∈Rm) en la forma:
σ j = λj u j = Av j σ j j = 1, 2,..., r
A = U D VT
VT A = U D ¾ Los vectores uj así formados son ortogonales en el espacio Rm:
uTi u j = vTi AT Av j σ iσ j = λ j vTi v j σ iσ j = 0 i≠ j
¾ Los r vectores ortogonales uj se pueden completar por medio del método de
‰ A esta factorización se le llama “Descomposición de Valores Gram-Schmidt con otros m-r vectores ortogonales hasta ser una base de Rm.
Singulares” (Singular Value Decomposition ó SVD) y tiene ¾ Los m vectores ortogonales uj constituyen las columnas de la matriz m×m U.
importantes aplicaciones en Ingeniería

3
Descomposición de valores singulares (3) Descomposición de valores singulares (4)
ETSII-UPM ETSII-UPM
‰ Propiedades del producto UTAV (se pretende demostrar A=UDVT) ‰ Propiedades de las matrices U y V en A=UDVT
¾ El elemento (i,j) de este producto matricial será: ¾ Las columnas de U son los vectores propios de AAT
( )
UT AV = uTi Av j = uTi u jσ j =δ ijσ j si j ≤ r por la definición de u j
ij ¾
AAT = UDVT VDT UT = UDDT UT = UΛ ( m ) UT
Las columnas de V son los vectores propios de ATA
=0 si j > r pues Av j = 0
En definitiva, el producto UTAV es igual a una matriz m×m D que sólo tiene AT A = VDT UT UDV T = VDT DV T = VΛ ( n ) V T
¾ ¾ Tanto AAT como ATA tienen los mismos valores propios
distintos de cero los r primeros elementos de la diagonal. Estos elementos son λi = σ i2
‰ Relación de las matrices U y V con los subespacios de A
los valores singulares σj. Por tanto:
¾ Las columnas 1 a r de U son una base ortonormal de Im(A)
UT AV = D ¾ Las columnas r+1 a m de U son una base ortonormal de Ker(AT)
¾ Como las matrices U y V son cuadradas y ortogonales se puede escribir: ¾ Las columnas 1 a r de V son una base ortonormal de Im(AT)
A = UDV T ¾ Las columnas r+1 a n de V son una base ortonormal de Ker(A)
que es la expresión de la Descomposición de Valores Singulares (SVD). ‰ Las propiedades anteriores se deducen de las relaciones siguientes:
¾ Como no se ha presupuesto ninguna condición para la matriz A, la SVD existe ¾ Ker(ATA)=Ker(A), pues si Ax=0 también se verifica ATAx=0 y si ATAx=0 se
para cualquier matriz rectangular, cualquiera que sea su rango r. verifica que xTATAx=(Ax)TAx=0, luego Ax=0.
¾ Im(ATA)=Im(AT), pues ambos son los espacios ortogonales complementarios
‰ La SVD tiene propiedades muy importantes, derivadas de la de Ker(ATA) y Ker(A) en Rn.
ortogonalidad de las matrices U y V, y del carácter no negativo de los ¾ Análogamente, Ker(AAT)=Ker(AT), Im(ATA)=Im(A) y Im(AAT)=Im(A)
valores singulares σj.

Matriz seudo-inversa A+ Matriz seudo-inversa A+ (2)


ETSII-UPM ETSII-UPM
‰ A partir de la SVD se puede definir una matriz A+, llamada “seudo- ‰ Resolución del sistema de ecuaciones Ax=b por medio de x+=A+b
inversa” de A, como ¾ La solución de la seudo-inversa tiene como expresión
A + = VD+ UT (siendo A = UDV T ) x + = A + b = VD+ UT b
¾ Cuando el sistema es incompatible, A+b da la solución de mínimos cuadrados
donde D+ es una matriz n×m diagonal cuyos elementos son los y = VT x

inversos de los valores singulares de D (que es una matriz m×n) min Ax − b 2 = min UDV T x − b = min DV T x − UT b = min Dy − UT b
x x 2 x 2 y 2

‰ La matriz A+ tiene algunas propiedades semejantes a las de la matriz min Ax − b 2 = min Dy − UT b y + = D + UT b x + = Vy + = VD + U T b = A + b


x y 2
inversa A−1 (que sólo existe cuando A es cuadrada y no singular)
¾ (A+)+=A ¾ Cuando el sistema es indeterminado, A+b da la solución de norma mínima,
¾ Se puede demostrar que la matriz A+ es única, a pesar de que la SVD de la que pues cualquier solución x es la suma de una solución particular xf∈Im(AT) y
deriva no está completamente definida (se elige parte de V, por ejemplo) una solución de la ecuación homogénea xn∈Ker(A). La solución de mínima
¾ Se verifican las igualdades AA+A=A y A+AA+=A+ norma x+ se obtiene cuando xn=0, es decir cuando x+∈Im(AT). La expresión de
x+ indica que pertenece a Im(AT), pues dicho espacio está generado por las r
¾ Las matrices AA+ y A+A son hermíticas
primeras columnas de la matriz V
¾ Sin embargo, no se cumple que A+A=AA+=I
¾ Cuando A es invertible, A+=A−1, pues x+=A+b debe ser al mismo tiempo la
solución de mínimo error y de mínima norma, luego coincidirá con A−1b

Cociente de Rayleigh Cociente de Rayleigh (2)


ETSII-UPM ETSII-UPM
‰ Para matrices simétricas se define el cociente de Rayleigh como ‰ Expresando x en base de vectores propios x=Qy
λ λ
xT Ax y12 + 2 y22 + ... + n yn2
R(x) = xT Ax y T QT AQy y T Λy λ y 2 + λ y 2 + ... + λn yn2 λ1 λ1
xT x R(x) = = = T = 1 1 2 2 22 = λ1
xT x yT y y y y1 + y2 + ... + yn2 y12 + y22 + ... + yn2
‰ Sustituyendo x por el vector propio xi se obtiene el valor propio λi
‰ Si los valores propios se suponen ordenados de menor a mayor
xTi Axi xTi λi xi
R(xi ) = = T = λi λ1 < λ2 < ... < λn
xTi xi x i xi
‰ Si los valores propios se ordenan de modo que |λ1|< |λ2 |<...< |λn|, el ¾ Todos los cocientes λi/λ1 son mayores que uno, y por tanto el mínimo de R(x)
vale λ1 y se produce cuando el vector x es x1 (y1=1, yj=0, j≠1)
cociente de Rayleigh es mínimo para x=x1, máximo para x=xn y
presenta un valor estacionario para cualquier otro vector propio ‰ De forma análoga, sacando factor común λn, se puede demostrar que
el máximo de R(x) vale λn y se produce cuando x es el valor propio
dR( x) 2 Ax( xT x) − 2(xT Ax) x
= =0 2Ax(x x) − 2( x Ax)x = 0
T T
xn (yn=1, yj=0, j≠n)
dx ( xT x ) 2
‰ De aquí se concluye que la condición de valor estacionario equivale a
que el cociente de Rayleigh cumpla la ecuación de valores propios
xT Ax
Ax − x = Ax − R( x)x = 0
xT x

4
Cociente de Rayleigh (3) Teorema mini-max y maxi-min
ETSII-UPM ETSII-UPM
‰ Si en el cociente de Rayleigh la aproximación en el vector propio es ‰ Teorema maxi-min para los valores y vectores propios
lineal, la aproximación en el valor propio es cuadrática ¾ El máximo de los mínimos de R(x), sujeto a la restricción x⊥w, es λ2 y se
¾ Si x=xi+εv, siendo v el error en xi, se cumple que R(x)=λi+0(ε2) obtiene cuando x=x2
¾ Demostración ¾ En general, para r≥2
(xT + εv T ) A ( x i + εv ) xTi Ax i + 2εxTi Av + ε 2 v T Av  xT Ax 
R (x i + εv ) = i T = λr = max  min  r = 1, 2,...n siendo xT w i = 0, i = 1, 2,..., ( r − 1)
( x i + εv T )(x i + εv ) xTi x i + 2εxTi v + ε 2 v T v wi
 x xT x 
¾ Como el error v no tiene componente en xi, se cumplirán las relaciones ‰ Demostración
v = ∑α j x j Ax i = λx i xTi x j = δ ij xTi Av = 0 vT xi = 0 v T Av = ∑ λ jα 2j ¾ Expresando x en base de vectores propios x = ∑α j x j
j ≠i j ≠i
  α 2λ + ... + α r2λr + α r2+1λr +1 + ... + α n2λn  
¾ Sustituyendo en la expresión del cociente de Rayleigh R = max min 1 1 2  

wi α
 j  α1 + ... + α r2 + α r2+1 + ... + α n2 
λi + 0 + ε 2 ∑ λ jα 2j −1
  
R (x i + εv ) = j ≠i
=  λi + ε 2 ∑ λ jα 2j 1 + ε 2 ∑ α 2j    α 2 (λ − λ ) + ... + α r2−1 (λr − λr −1 ) + α r2+1 (λr − λr +1 ) + ... + α n2 (λr − λn )  
1 + ε ∑α j
2 2
 j ≠i  j ≠i  R = max min λr − 1 r 1 

j ≠i
wi α
 j  α12 + ... + α r2 + α r2+1 + ... + α n2 
¾ Desarrollando en serie el segundo factor y agrupando términos ¾ Las incógnitas de la minimización son los αj, que están restringidos por la
  condición de que x sea ortogonal a los vectores wi
R ( xi + ε v ) = λi + ε  ∑ λ jα 2j − λi ∑ α 2j  + ε 4 (
2
) + ...
 j ≠i j ≠i  w Ti x = w Ti ∑ α j x j = 0

Teorema mini-max y maxi-min (2) Teorema mini-max y maxi-min (3)


ETSII-UPM ETSII-UPM
‰ (cont.) ‰ Enunciado conjunto de los teoremas mini-max y maxi-min
  α 2 (λ − λ ) + ... + α r2−1 (λr − λr −1 ) + α r2+1 (λr − λr +1 ) + ... + α n2 (λr − λn )   ¾ El valor propio λr se puede obtener de las expresiones siguientes
R = max min λr − 1 r 1 

wi α
 j  α12 + ... + α r2 + α r2+1 + ... + α n2 
  xT Ax     xT Ax  
¾ Los valores de αi deben minimizar el paréntesis interior, a la vez que λr = min  max  T   = max  min  T 

wi x⊥wi
 x x  wi
 i  x x 
x ⊥w
satisfacen las restricciones. La fracción, que tiene signo negativo (–), deberá
ser lo mayor posible r = 2,..., n − 1 siendo xT w i = 0, i = 1, 2,..., (r − 1)
¾ Para ello, αr+1=...=αr=0, pues así se anulan los términos negativos (que restan)
del numerador de la fracción donde los wi son conjuntos de r vectores arbitrarios de Rn
¾ Los (r−1) valores de (α1, α2, ..., αr−1) se deben elegir de modo que se cumplan
las (r−1) restricciones
¾ Es evidente que R(x)<λr pues a λr se le está restando algo positivo (>0)
¾ Sin embargo, para wi=xi, se cumple que α1=α2= ...=αr−1=0 y se alcanza la
igualdad R(x)=λr
¾ Con esto queda demostrado el teorema maxi-min
‰ De forma análoga se puede demostrar en teorema mini-max

Interpretación gráfica “Separación” de los valores propios


ETSII-UPM ETSII-UPM
‰ La restricción de ser perpendicular a un vector w: ‰ Si A(m) es la matriz que resulta de suprimir las últimas m filas y
¾ obliga a buscar mínimos en la elipse perpendicular a dicho vector columnas de la matriz A, se cumple que los (n−m−1) valores propios
¾ el máximo de los mínimos se obtiene cuando w=x1 de A(m+1) separan –están entre– los (n−m) valores propios de A(m)
‰ La propiedad anterior se va a demostrar para A y A(1)
¾ A(1) es la matriz que resulta de suprimir λla ≤última
λ(r1) ≤ λfila y columna
r = 1,2,...,de
n −A.
1 Se trata
r r +1
de demostrar que se cumple la relación
¾ Considérense las tres Tcaracterizaciones maxi-min siguientes:
 x Ax 
a) λr +1 = max  min T  xT w i = 0 i = 1, 2,..., r
 x ⊥ wi x x 
wi

 xT Ax   xT w i = 0 i = 1, 2,..., r
b) λ (1)
r = max  min T  
wi
 x ⊥ wi x x   w i arbitrario para i = 1, 2,..., r − 1 w r = en
 xT Ax 
c) λr = max  min T  xT w i = 0 i = 1, 2,..., r − 1
wi
 x ⊥ wi x x 

¾ A más libertad para elegir los vectores wi se podrán encontrar mayores


λr +1 ≥ λ(r1)
máximos de los mínimos λ(r1) ≥ λr
¾ La condición a) deja más libertad para elegir los wi que b), luego