You are on page 1of 12

IDEAS ÚTILES PARA EL REPASO FINAL

Existencia y unicidad de soluciones del sistema Ax=b (Rouché-Frobenius)................................................................. 1


Solución general de un sistema de ecuaciones lineales indeterminado.......................................................................... 1
Solución de mínima norma de un sistema indeterminado.............................................................................................. 2
Determinación de subespacios ....................................................................................................................................... 3
Los 4 subespacios fundamentales relacionados con una matriz A................................................................................. 3
Interpretaciones vectoriales del producto de matrices ................................................................................................... 3
Factorizaciones LU, LDLT y LLT (Cholesky)................................................................................................................ 4
Transformaciones de semejanza y transformaciones de congruencia ............................................................................ 4
Cálculo manual de valores y vectores propios ............................................................................................................... 5
Polinomio mínimo ......................................................................................................................................................... 6
Matrices ortogonales y matrices de columnas ortonormales.......................................................................................... 6
Método de ortonormalización de Gram-Schmidt........................................................................................................... 6
Matrices de rango 1........................................................................................................................................................ 7
Matrices de proyección .................................................................................................................................................. 8
Matrices de simetría (o de reflexión) ............................................................................................................................. 8
Matrices de rotación....................................................................................................................................................... 9
Matrices con los mismos vectores propios..................................................................................................................... 9
Matrices normales.......................................................................................................................................................... 9
Matrices diagonalizables y matrices unitariamente diagonalizables.............................................................................. 9
Descomposición de valores singulares......................................................................................................................... 10
Matrices definidas positivas......................................................................................................................................... 11
Descomposición espectral de una matriz normal ......................................................................................................... 11
DVS de matrices simétricas (hermíticas) ..................................................................................................................... 11

Existencia y unicidad de soluciones del sistema Ax=b (Rouché-Frobenius)


Considérese un sistema lineal general de m ecuaciones con n incógnitas Ax = b . El teorema de
Rouché-Frobenius (Núcleo de Álgebra I, páginas 33-34) establece que:
1. El sistema lineal Ax = b es compatible si y sólo si rango ([ A | b ]) = rango ([ A ]) .

2. El sistema tiene solución única si no hay variables libres (parámetros), es decir, columnas de A
linealmente dependientes de las demás que pueden ser pasadas al segundo miembro multiplica-
das por variables a las que se puede dar un valor arbitrario. Así pues, la solución no es única si
rango ( A ) < n .
⎡ xd ⎤
(b − A x )
−1
Ax = b ⇒ ⎡⎣ A d A i ⎤⎦ ⎢ i ⎥ = b ⇒ A d x d = b − A i xi ⇒ x d = ⎡⎣ A d ⎤⎦ i i

⎣x ⎦

Las variables dependientes x d se eligen de modo que las columnas de A d sean una base de
Im ( A ) . Esto no garantiza que el sistema tenga solución más que en el caso b ∈ Im ( A ) .

Solución general de un sistema de ecuaciones lineales indeterminado


Sea Ax = b un sistema de ecuaciones compatible e indeterminado ( b ∈ Im ( A ) y rango ( A ) < n ).
La solución general de dicho sistema se obtiene sumando una solución particular, es decir, una
solución cualquiera x p del sistema completo Ax p = b y la solución general del sistema homogéneo
Ax k = 0 :
Ax = A ( x p + x k ) = Ax p + Ax k = b + 0 = b

La solución general del sistema homogéneo se puede hallar a partir de una base ( k 1 , k 2 ,..., k n − r ) del
núcleo Ker ( A ) :
x = x p + k 1 z1 + k 2 z2 + ... + k n − r zn − r = x p + Kz, ∀z ∈ R n-r , K ≡ [k 1 | k 2 | ... | k n − r ] (1)

y también a partir de las variables libres xi introducidas anteriormente, calculando las variables x d
en función de ellas para b = 0 :
⎡ xd ⎤ ⎡ − ⎡ A d ⎤ −1 A i ⎤
x = xp + ⎢ i ⎥ = xp + ⎢ ⎣ ⎦ ⎥ xi , ∀xi ∈ R n-r (2)
x
⎣ ⎦ ⎢
⎣ I ⎥

Comparando las expresiones (1) y (2) se ve que la matriz que multiplica a xi en (2) es precisamente
una base de Ker ( A ) .
El ejemplo más sencillo es una recta en R2:
a11 x1 + a12 x2 = b1

La solución general se forma a partir de una solución particular de la ecuación completa (por ejem-
plo x1 = b1 a11 , x2 = 0 , suponiendo a11 ≠ 0 ), más la solución general de la ecuación homogénea
Ax = 0 , es decir, un vector cualquiera perteneciente a Ker ( A ) .
Las ideas anteriores se pueden ver gráficamente por medio de un ejemplo en R2. El vector x p re-
presenta una solución particular de la ecuación completa, mientras que x k representa un vector
cualquiera del núcleo Ker ( A ) . Sumando dos vectores como x p y x k se puede llegar va cualquier
punto de la recta; basta para ello cambiar el valor de x k .

Ax = b
a11 x1 + a12 x2 = b1
x2

Ker ( A ) = Im ( AT )

x = x p + xk
a12
a11x1 +a12x2 =0 ⇒ x1 =− x2
a11
xp xk
x1

Figura 1. Solución general de un sistema de ecuaciones lineales indeterminado.

Solución de mínima norma de un sistema indeterminado


En la Figura 1 puede verse que de todas las soluciones del sistema Ax = b (los puntos de la recta
dada), la de mínima norma x∗ es la que se obtiene trazando la perpendicular a la recta desde el ori-
gen. En términos algebraicos ésta es una solución que no tiene componente según Ker ( A ) , o lo que
es lo mismo, que pertenece a su complemento ortogonal que es Im ( AT ) :
x∗ ∈ Im ( AT ) ⇒ x∗ = AT z ⎫⎪
z = ( AAT ) b x∗ = AT z = AT ( AAT ) b
∗ −1 −1
⎬ Ax = AA z = b ⇒ ⇒
T

Ax = b ⎪⎭

Para poder utilizar esta expresión es necesario que AAT sea invertible, lo cual sucede si el rango de
A es igual a su número de filas m.
Determinación de subespacios
Un subespacio de dimensión r en Rn se puede determinar o definir principalmente de dos formas:
3. Definiendo una base del subespacio por medio de r vectores linealmente independientes.
4. Definiendo n–r condiciones que los vectores del subespacio deben cumplir. Estas condiciones
pueden constituir un sistema de n–r ecuaciones lineales con n incógnitas. Si las ecuaciones son
independientes habrá r variables libres. Dando alternativamente valor uno a cada una de las va-
riables libres y valor cero a las demás, se podrán calcular r vectores independientes del subespa-
cio y formar con ellos una base. De ordinario esta base no será ortonormal, pero podrá ortonor-
malizarse mediante el método de Gram-Schmidt.
Cada una de estas formas de definir un subespacio se corresponde con la forma alternativa de defi-
nir el complemento ortogonal de dicho subespacio.

Los 4 subespacios fundamentales relacionados con una matriz A


Sea A ∈ Cm×n una matriz rectangular, real o compleja, de m filas y n columnas. En relación con esta
matriz se pueden definir los cuatro subespacios vectoriales siguientes:
1. Subespacio de columnas de A o imagen de A: Im ( A ) ⊆ Cm . Está formado por todas las
combinaciones lineales de las columnas de A, es decir, por los vectores Ax, ( ∀x ∈ Cn ) .
2. Subespacio de filas de A o imagen de AT: Im ( AT ) ⊆ Cn . Está formado por todas las combi-
naciones lineales de las filas de A (columnas de AT).
3. Subespacio nulo o núcleo de A: Ker ( A ) ⊆ Cn . Está formado por todos los vectores x tales
que Ax = 0 . Es obvio que esta ecuación implica que todos los vectores de Ker ( A ) son or-
togonales a las filas de A y por lo tanto a Im ( AT ) : Ker ( A ) ⊥ Im ( AT ) . Además, como la
dimensión de Im ( AT ) es el rango r, y de del núcleo Ker ( A ) es el número de variables li-
bres, es decir n–r, ambos subespacios son suplementarios: Im ( AT ) = Ker ( A ) .

4. Subespacio nulo o núcleo de AT: Ker ( AT ) ⊆ Cm . Está formado por todos vectores x tales
que xT A = 0T , o bien que AT x = 0 . Estas ecuaciones implican que los vectores de Ker ( AT )
son ortogonales a las columnas de A: Ker ( AT ) ⊥ Im ( A ) . Cada uno de estos subespacios es
el complemento ortogonal del otro: Ker ( AT ) = Im ( A ) .

Interpretaciones vectoriales del producto de matrices


El producto de matrices se puede interpretar de distintas formas, dos de las cuales están basadas en
el producto interior o escalar y el producto exterior de vectores:
⎡ fa1T ⎤ ⎡ fa1T cb1 fa1T cb 2 " fa1T cb n ⎤
⎢ T⎥ ⎢ T ⎥
⎢ fa2 ⎥ fa cb faT2 cb 2 " faT2 cb n ⎥
AB = [ cb1 cb 2 " cb n ] = ⎢ 2 1
⎢ # ⎥ ⎢ # # % # ⎥
⎢ T⎥ ⎢ T ⎥
⎣⎢fa m ⎦⎥ ⎣⎢famcb1 famcb 2 " famcb n ⎦⎥
T T

⎡fb1T ⎤
⎢ T⎥
fb l
AB = [ca1 ca2 " cal ] ⎢ 2 ⎥ = ca1fb1T + ca2fbT2 + ... + cal fbTl = ∑ cai fbTi
⎢ # ⎥ i =1
⎢ T⎥
⎢⎣fbl ⎥⎦

En la primera forma, el elemento (i, j) de la matriz producto es el producto escalar de la fila i de A


por la columna j de B.
En la segunda forma, el producto matricial se formula como una suma de l matrices de rango uno,
formada cada una de ellas por el producto de una columna de A por la correspondiente fila de B.
Esta segunda forma es muy poco práctica desde el punto de vista del cálculo numérico del producto,
pero arroja más luz sobre los aspectos teóricos del producto de matrices, dando lugar a dos nuevas
interpretaciones. Por ejemplo, si se presta atención a la columna j de la matriz producto se obtiene:
⎡ fa1T ⎤ ⎡ fa1T cb j ⎤
⎢ T⎥ ⎢ T ⎥
fa fa cb
c j ( AB ) = Ac j ( B ) = ⎢ 2 ⎥ cb j = ⎢ 2 j ⎥
⎢ # ⎥ ⎢ # ⎥
⎢ T⎥ ⎢ T ⎥
⎣⎢fa m ⎦⎥ ⎣⎢fa mcb j ⎦⎥
es decir, la columna j de la matriz producto es la matriz A por la columna j de la matriz B.
Si prestamos atención a la fila i de la matriz producto:
f i ( AB ) = f i ( A ) B = faTi [cb1 cb 2 " cb 2 ] = ⎡⎣faTi cb1 faTi cb 2 " faTi cb 2 ⎤⎦

y se ve que es igual a la fila i de la matriz A por la matriz B.

Factorizaciones LU, LDLT y LLT (Cholesky)


Estas factorizaciones están estrechamente relacionadas con el método de eliminación de Gauss (ver
transparencias del Tema 3), pero el modo más eficiente de calcularlas es por medio de una identifi-
cación ordenada de coeficientes. Se explicará con detalle la factorización de Cholesky con un ejem-
plo de matriz 3 × 3 , que debe ser simétrica y definida positiva. Se comienza estableciendo la des-
composición ( aij conocidos y lij desconocidos):

⎡ a11 a12 a13 ⎤ ⎡ l11 0 0 ⎤ ⎡l11 l21 l31 ⎤


⎢a a23 ⎥⎥ = ⎢⎢l21 l22 0 ⎥⎥ ⎢⎢ 0 l22 l32 ⎥⎥
⎢ 21 a22
⎣⎢ a31 a32 a33 ⎦⎥ ⎣⎢l31 l32 l33 ⎦⎥ ⎣⎢ 0 0 l33 ⎥⎦

Ahora puede procederse por identificación directa y ordenada de elementos, empezando por la pri-
mera columna de A (al ser simétrica, basta considerar los elementos que están bajo la diagonal):
a11 = l11l11 + 0 ⋅ 0 + 0 ⋅ 0 = l112 ⇒ l11 = a11
a21 = l21l11 + l22 ⋅ 0 + 0 ⋅ 0 = l21l11 ⇒ l21 = a21 l11
a31 = l31l11 + l32 ⋅ 0 + l33 ⋅ 0 = l31l11 ⇒ l31 = a31 l11

Análogamente se calculan los elementos de las columnas 2ª y 3ª. En todas las expresiones aparece
un único elemento de L que aún no ha sido calculado:
a22 = l21l21 + l22l22 + 0 ⋅ 0 = l212 + l222 ⇒ l22 = a22 − l212
a32 = l31l21 + l32l22 + 0 ⋅ 0 = l31l21 + l32l22 ⇒ l32 = ( a32 − l31l21 ) l22

a33 = l31l31 + l32l32 + l33l33 = l312 + l322 + l332 ⇒ l33 = a33 − l312 − l322

Transformaciones de semejanza y transformaciones de congruencia


Las transformaciones de semejanza tienen la forma B = P −1AP . Por su parte las transformaciones
de congruencia se expresan en la forma B = PT AP . Sobre ambos tipos de transformaciones se debe
tener en cuenta lo siguiente:
1. Su origen es diferente, aunque en ambos casos se puede relacionar con un cambio de base. Las
transformaciones de semejanza surgen al expresar en una nueva base la matriz asociada a una
transformación lineal. Las transformaciones de congruencia aparecen al realizar un cambio de
base en la matriz asociada a una forma cuadrática. En ambos casos P debe ser invertible.
2. Si la matriz P es ortogonal, la transformación que relaciona las matrices A y B es a la vez de
semejanza y de congruencia.
3. Las transformaciones de semejanza conservan los valores propios, pues conservan el polinomio
característico. La ley de inercia de Sylvester establece que las transformaciones de congruencia
conservan sólo los signos de los valores propios (no sus valores).
4. Para diagonalizar una matriz por semejanza es necesario calcular sus valores y vectores propios.
La diagonalización de una forma cuadrática por congruencia es más sencilla, y puede hacerse
mediante los métodos de Lagrange y de las transformaciones matriciales elementales. Se llama
forma canónica a una forma cuadrática asociada con una matriz diagonal en la que los elemen-
tos de la diagonal son +1, –1 ó 0. La forma canónica es única.
5. Para clasificar una cuádrica basta reducir la forma cuadrática a suma de cuadrados mediante
transformaciones de congruencia y luego eliminar los términos lineales mediante traslaciones.
Sin embargo, en general las transformaciones de congruencia no conservan las distancias y
ángulos porque no son transformaciones ortogonales. Como consecuencia, deforman la cuádri-
ca que se ha transformado en suma de cuadrados. Ciertas propiedades como longitud de los se-
miejes, secciones, etc. no se mantienen en estas transformaciones. Si se pretende mantener inal-
terable la geometría de la cuádrica es necesario utilizar transformaciones ortogonales.

Cálculo manual de valores y vectores propios


Si la matriz es de reducido tamaño (hasta orden 3) es fácil calcular los valores propios hallando y
resolviendo el polinomio característico. De todas formas, siempre conviene observar la forma de la
matriz por si se puede encontrar una solución más sencilla.
Cuando la matriz es de orden superior a tres casi siempre hay que recurrir a aprovechar alguna de
sus características para calcular manualmente los valores propios. Recordando las propiedades de
los determinantes, es posible que la matriz cuyo determinante constituye la ecuación característica
pueda ser reducida a forma diagonal o triangular, en cuyo caso el cálculo de los valores propios es
ya inmediato.
Para determinar el polinomio característico de una matriz de orden 3:
λ − a11 − a12 − a13
⎛a a12 a11 a13 a22 a23 ⎞
det ( λ I − A ) = − a21 λ − a22 − a23 = λ 3 − ( a11 + a22 + a33 ) λ 2 + ⎜ 11 + + ⎟ λ − det ( A )
⎝ a21 a22 a31 a33 a32 a33 ⎠
−a31 −a32 λ − a33

Para recordar esta fórmula, téngase en cuenta lo siguiente:


1. El término de mayor grado siempre tiene signo positivo (forma mónica). Los restantes tér-
minos alternan los signos negativos y positivos.
2. El coeficiente de λ n es uno; el coeficiente de λ n −1 es la traza de A, es decir la suma de los
menores principales de orden 1; el coeficiente de λ n − 2 es la suma de los menores principa-
les de orden 2, etc.; el último término es el menor de orden n, es decir, el determinante.
Recuérdese que el polinomio característico no varía con las transformaciones de semejanza: sus
coeficientes son invariantes ante dichas transformaciones. Por eso, la traza (coeficiente de λ n −1 ) y
el determinante (coeficiente de λ 0 = 1 ) se conservan en las transformaciones de semejanza.
Polinomio mínimo
Se llama polinomio mínimo m ( x ) de A al polinomio anulador mónico de mínimo grado. El teore-
ma de Cayley-Hamilton garantiza que gra ( m ( x ) ) ≤ n .
Sobre el polinomio mínimo de una matriz A se pueden recordar los siguientes puntos de teoría:
1. El polinomio mínimo es único (al ser mónico sus coeficientes están determinados).
2. Las raíces del polinomio mínimo son las mismas que las del polinomio característico (es de-
cir, los valores propios de la matriz), aunque la multiplicidad puede ser diferente (menor).
3. En las matrices diagonalizables todas las raíces del polinomio mínimo son simples.
4. En las matrices no diagonalizables la multiplicidad de una raíz del polinomio mínimo es el
tamaño del mayor bloque de Jordan correspondiente a ese valor propio.
Por ejemplo, como una matriz de proyección ortogonal P es diagonalizable y todos los valores pro-
pios valen 1 y 0 (con diversas multiplicidades), el polinomio mínimo será m ( x ) = x ( x − 1) , lo cual
implica la bien conocida condición de que P sea idempotente: P ( P − I ) = P 2 − P = 0 . Análogamen-
te, para una matriz de simetría S, con valores propios 1 y −1, m ( x ) = ( x − 1)( x + 1) = x 2 − 1 , lo que
implica que S es su propia inversa: S 2 − I = 0 .

Matrices ortogonales y matrices de columnas ortonormales


Una matriz ortogonal Q es una matriz cuadrada cuya inversa es igual a su transpuesta: Q–1=QT.
Las columnas (y las filas) de una matriz ortogonal constituyen bases ortonormales de Rn.
Una matriz de columnas ortogonales Q es una matriz rectangular n×r cuyas r columnas son orto-
normales y constituyen una base ortonormal de un subespacio de dimensión r. La matriz QT es una
inversa por la izquierda de la matriz Q, pero no es una inversa por la derecha. La matriz QQT es una
matriz de proyección sobre la imagen de Q:
QT Q = I , QQT = P ≠ I
Esta terminología no está universalmente aceptada, y como consecuencia se utiliza a veces el con-
cepto de “matriz ortogonal” de un modo equívoco. Por este motivo es útil precisar de la forma indi-
cada de qué se está hablando.

Método de ortonormalización de Gram-Schmidt


A partir de las r columnas independientes de una matriz A de tamaño n×r, el método de Gram-
Schmidt permite hallar una matriz de columnas ortonormales Q cuyas columnas generan el mismo
subespacio que las columnas de A.
Para completar una base ortonormal en Rn, en el caso en que r<n, basta añadir a A (n–r) columnas
independientes generadas aleatoriamente (o por cualquier otro procedimiento, como por ejemplo
añadiendo elementos ei de la base estándar, asegurándose de que son independientes de las colum-
nas previas de A) y continuar aplicando el método de Gram-Schmidt.
A partir del método de Gram-Schmidt se deduce la factorización A=QR. Las columnas de Q gene-
ran el mismo subespacio que las columnas de A. Los k elementos distintos de cero de la columna k
de R son los coeficientes que permiten expresar la columna k de A como combinación lineal de las
k primeras columnas de Q. Los k elementos distintos de cero de la fila k de R son las proyecciones
de las filas k, k+1, ..., n sobre el vector normalizado qk.
Matrices de rango 1
Se obtienen como producto de un vector columna por un vector fila: A=uvT. Todas las columnas de
A son múltiplos de u y todas las filas de A son múltiplos de vT, por ejemplo:
⎡ u1 ⎤ ⎡ u1v1 u1v2 u1v3 ⎤
uv = ⎢⎢u2 ⎥⎥ [ v1 v2
T
v3 ] = ⎢⎢u2 v1 u2 v2 u2 v3 ⎥⎥
⎢⎣ u3 ⎥⎦ ⎢⎣ u3v1 u3v2 u3v3 ⎥⎦

Es obvio que sólo hay una fila y una columna linealmente independientes y por tanto el rango es 1.
Como consecuencia de su rango, la matriz A=uvT tendrá un valor propio 0 con multiplicidad n−1 y
un único valor propio distinto de cero.
En una matriz cuadrada cualquiera los vectores propios asociados con valores propios distintos de
cero pertenecen a su imagen (subespacio de columnas Im ( A ) ), pues si en la igualdad Ax = λ x el
miembro izquierdo es una combinación de las columnas de A, también el miembro derecho, esto es
x, pertenecerá a Im ( A ) . En el caso de la matriz A=uvT el vector propio correspondiente al único
valor propio distinto de cero será u, asociado con el valor propio vTu, es decir, se cumplirá:

( uv ) u = u ( v u ) = ( v u ) u
T T T
⇒ λ = vT u
También se puede decir algo acerca de los n−1 vectores propios asociados con el valor propio nulo.
Son todos los vectores del subespacio definido por la ecuación:

( uv ) x = 0
T
⇒ u ( vT x ) = 0 ⇒ vT x = 0

La matriz P = uv T , con v T u = 1 es una matriz de proyección, pues cumple:


P2 = ( uv T )( uvT ) = u ( v T u ) vT = 1 ⋅ uvT = P

Sin embargo, no es una matriz de proyección ortogonal, pues no es simétrica. Se podría hablar de
proyección oblicua. El subespacio sobre el que se proyecta está definido por el vector u (vectores
que no cambian al ser proyectados), mientras que la dirección de proyección (los vectores que se
anulan al ser proyectados) está definida por el complemento ortogonal del vector v:
Pw = ( uvT ) w = u ( vT w ) = 0 ⇒ vT w = 0

El módulo de la proyección de w sobre u se puede cal-


cular matricialmente en la forma:
Pw = uvT w = u v w cos α
w
v π/2−ϕ
Visto de otra forma, aplicando el teorema del seno al
triángulo de la figura: α
ϕ Pw
w Pw
= u
sen (π 2 − ϕ ) sen (π − π 2 + ϕ − ϕ + α )

cos α
v⊥
Pw = w = u v w cos α
cos ϕ
Matrices de proyección
Estas propiedades de las matrices de proyección se siguen de lo visto en el apartado anterior para
las matrices de rango 1.
Las matrices de proyección cumplen la condición de ser idempotentes: P2=P. Esta condición no
garantiza que la proyección sea ortogonal. Para que la proyección sea ortogonal la matriz P debe
cumplir también la condición de ser simétrica: PT=P.
En una matriz de proyección ortogonal los valores propios valen 1 ó 0. Serán vectores propios aso-
ciados con valor propio 1 todos los vectores pertenecientes al subespacio F sobre el que se proyecta.
Todos los vectores pertenecientes al complemento ortogonal de este subespacio F ⊥ tendrán pro-
yección nula y serán vectores propios asociados con valor propio 0.
Las matrices de proyección son singulares, pues tienen valores propios nulos. También se puede
comprender geométricamente, pues a partir de la proyección de un vector es imposible reconstruir
el vector original, de donde se deduce que esta transformación no puede ser invertible.
Los vectores proyectados Pv pertenecen siempre a Im(P). Por otra parte, las columnas de P perte-
necen al subespacio sobre el que se proyecta y son un sistema generador, pero no constituyen una
base porque no son independientes.
Si el subespacio sobre el que se proyecta dispone de una base ortonormal, la proyección sobre di-
cho subespacio es la suma de las proyecciones sobre cada uno de los vectores de la base.
Px = q1 , x q1 + q 2 , x q 2 + ... + q r , x q r

La matriz de proyección P sobre un subespacio de dimensión 1 definido por el vector v viene dada
por:
vvT
= v ( vT v ) vT
−1
P=
v v
T

De forma análoga, la matriz de proyección P sobre un subespacio definido por las r columnas li-
nealmente independientes de la matriz A viene dada por (obsérvese la analogía de las dos fórmu-
las):

P = A ( AT A ) A T
−1

Matrices de simetría (o de reflexión)


Las matrices de simetría respecto a un subespacio se pueden calcular a partir de las matrices de pro-
yección sobre dicho subespacio: H=2P–I. Si la proyección es ortogonal P será simétrica y H tam-
bién lo será. Además, la matriz de simetría siempre es ortogonal y coincide con su inversa:
HH = ( 2P − I )( 2P − I ) = 4P 2 − 4P + I = 4P − 4P + I = I

Geométricamente, la simetría es una transformación invertible: al aplicarla dos veces se vuelve a


la configuración inicial. En R3 la simetría puede ser axial (respecto a un eje) o plana (respecto a un
plano); ambos casos se distinguen por el número de valores propios positivos (1 y 2, respectivamen-
te).
Los valores propios de la matriz de simetría son 1 ó –1. Los valores propios 1 están asociados con
vectores propios pertenecientes al subespacio F respecto al que se realiza la simetría: la imagen de
todos los vectores de dicho subespacio coincide con los propios vectores, luego son vectores pro-
pios asociados con valor propio 1. Los vectores pertenecientes al complemento ortogonal F ⊥ de
dicho subespacio son vectores propios asociados con valor propio –1.
Matrices de rotación
Las matrices de rotación en R3 son matrices ortogonales con determinante igual a +1. Las matri-
ces ortogonales con determinante –1 representan simetrías, que no conservan la circularidad de los
vectores de una base ortonormal. Las matrices de rotación conservan ángulos, distancias y también
el producto vectorial de vectores. Las matrices de simetría conservan ángulos y distancias, pero no
necesariamente el producto vectorial.
Por ser matrices ortogonales, los valores propios de una matriz de rotación tienen módulo unidad.
En general, una matriz de rotación sólo conserva los vectores que tienen la dirección del eje. Esto
quiere decir que estas matrices tienen un valor propio igual a 1 y dos valores propios complejos
conjugados (de módulo unidad) e± iα , donde α es el ángulo girado. Los correspondientes vectores
propios son también complejos conjugados; no pueden ser vectores reales porque en una rotación
arbitraria sólo el eje de giro permanece invariable.

Matrices con los mismos vectores propios


Las matrices A, (A–αI), (αI–A), A–1, (A–αI)–1, p(A), ..., y todos sus productos tienen los mismos
vectores propios que A. Sus valores propios están relacionados con los de A y pueden expresarse en
función de ellos. Más en general, cualquier polinomio de A tiene los mismos valores propios que A.
El producto de cualesquiera de estas matrices también tendrá los mismos vectores propios que A.
Además, dicho producto será conmutativo, porque la condición necesaria y suficiente para que el
producto de dos matrices sea conmutativo es que se pueda elegir una base común de vectores pro-
pios para los correspondientes espacios imagen.

Matrices normales
Las matrices normales cumplen la condición de que conmutan con su transpuesta (o transpuesta-
conjugada, si son complejas): ATA=AAT.
Las matrices simétricas, antisimétricas, hermíticas, antihermiticas, ortogonales y unitarias son
matrices normales. Hay otras matrices normales que no pertenecen a ninguna de estas categorías.
Toda matriz B unitariamente semejante a una matriz normal A es también normal.
Las siguientes proposiciones son equivalentes:
• A es normal.
• A es unitariamente diagonalizable.
• A tiene n vectores propios ortonormales.
• La suma de los cuadrados de los elementos de A es igual a la suma de los cuadrados de sus
valores propios.
Una matriz normal A:
• Es hermítica si y sólo si sus valores propios son reales.
• Es antihermítica si y sólo si sus valores propios son imaginarios puros.
• Es unitaria si y sólo si sus valores propios tienen módulo unidad.

Matrices diagonalizables y matrices unitariamente diagonalizables


Esta primera parte es un repaso de conceptos de Álgebra I. Se llama matriz diagonalizable a aquélla
que se puede reducir a forma diagonal mediante una transformación de semejanza:
P −1AP = D (1)
donde P es no singular y D diagonal. La ecuación (1) también se puede poner en la forma
AP = PD , lo que indica que las n columnas de P son n vectores propios linealmente independientes
de A. Recíprocamente, cualquier matriz cuadrada de orden n que tenga n vectores propios lineal-
mente independientes es diagonalizable.
Con cada valor propio λi hay siempre asociado –al menos– un vector propio xi que se obtiene del
sistema lineal homogéneo ( A − λi I ) xi = 0 . Por eso, toda matriz cuyos valores propios sean simples
es diagonalizable. Sin embargo, si la matriz tiene un valor propio λ j de multiplicidad algebraica
m j , es posible que haya menos de m j vectores propios asociados con λ j , y en este caso la matriz
no sería diagonalizable. El número de vectores propios asociados con λ j es n j , que es la dimensión
del núcleo de A − λ j I ; a esta dimensión se le llama multiplicidad geométrica. Para que la matriz A
sea diagonalizable, es necesario y suficiente que para cada valor propio la multiplicidad geométrica
sea igual a la multiplicidad algebraica.
Una matriz A es unitariamente diagonalizable cuando es semejante a una matriz diagonal a través
de una matriz unitaria U:
U H AU = D (U H
U = UU H = I )

Las matrices unitariamente diagonalizables son un caso particular de las matrices diagonalizables.
La condición necesaria y suficiente para que una matriz sea unitariamente diagonalizable es que sea
una matriz normal. Las matrices simétricas (hermíticas), anti-simétricas (anti-hermíticas) y ortogo-
nales (unitarias) son matrices unitariamente diagonalizables.

Descomposición de valores singulares


La DVS existe para cualquier matriz A, cuadrada o rectangular, invertible o singular, real o comple-
ja. La DVS factoriza A∈Cm×n en la forma:
A = UΣV H (1)
donde U es una matriz unitaria (m×m), V es otra matriz también unitaria (n×n) y Σ es una matriz
rectangular del mismo tamaño (m×n) que A, con todos sus elementos cero excepto r elementos po-
sitivos σi (siendo r el rango de A) que se consideran de magnitud descendente σ 1 ≥ σ 2 ≥ ... ≥ σ 3 ≥ 0.
Considérense los siguientes problemas de valores y vectores propios:

( A A ) V = VD
H
n (2)

( AA ) U = UD
H
m (3)

Las matrices AHA y AAH son hermíticas (simétricas), pero no son iguales; en general ni siquiera
tienen el mismo tamaño, pues la primera es (n×n) y la segunda (m×m). Por ser hermíticas serán uni-
tariamente diagonalizables. Los valores propios distintos de cero de las matrices AHA y AAH son
positivos e iguales. Sus raíces cuadradas son los valores singulares de A (ó de AH).
Sean V y U las matrices unitarias que diagonalizan AHA y AAH. Estas matrices no están determina-
das unívocamente, pues no lo están los vectores propios que pueden determinarse de muchas for-
mas, sobre todo cuando los subespacios propios tienen dimensión superior a la unidad. Incluso en el
caso de valores propios simples hay una indeterminación en el signo del vector propio.
No cualesquiera matrices U y V calculadas con (2) y (3) constituyen la descomposición de valores
singulares (1) de A. Es necesario calcular U y V de modo compatible. Sólo una de las ecuaciones
(2) ó (3) debe ser utilizada para calcular U ó V. La segunda de estas matrices se debe calcular a par-
tir de la ecuación (1) pasando a la izquierda de la ecuación la matriz U ó V ya calculada. Sólo tantas
columnas como valores singulares distintos de cero se podrán calcular directamente con la ecuación
(1). El resto de las columnas deberán ser calculadas completando con vectores ortonormales. Hay
que tener en cuenta que según la ecuación (1), si r es el rango de A y de Σ, las últimas m–r colum-
nas de U y las últimas n–r filas de VT están multiplicadas por ceros, por lo que la única condición
que debe cumplir es garantizar que efectivamente U y V son unitarias.

Matrices definidas positivas


Una matriz simétrica A es definida positiva si cumple cualquiera de las siguientes condiciones
(puede demostrarse que cada una de ellas implica y es equivalente a todas las demás):
1. Se cumple que xT Ax > 0, ∀x ≠ 0 .
2. Todos los valores propios de A son positivos.
3. Los determinantes de todas las matrices Ak formadas por las k primeras filas y columnas de A
son positivos: det ( A k ) > 0, ∀k .

4. Todos los pivots que aparecen sobre la diagonal en la eliminación de Gauss son positivos. De
otra forma, todos los elementos de la matriz D en la factorización A = LDLT son positivos.
5. La matriz A se puede factorizar en la forma A = RT R , donde R es una matriz cuadrada e inver-
tible. La factorización de Cholesky es un caso particular de esta factorización, aunque no es el
único. Cualquier matriz R cuadrada e invertible da lugar a una matriz definida positiva cuando
se multiplica por su transpuesta.

Descomposición espectral de una matriz normal


Si la matriz A es normal, es diagonalizable a través de una transformación de semejanza unitaria:
n
U AU = D ⇔ A = UDU = ∑ λ j u j u Hj
H H
(1)
j =1

La factorización A = UDU se conoce como descomposición espectral, y permite expresar A co-


H

mo suma de matrices de rango uno. Si hay valores propios λ j múltiples, de multiplicidad m j , la


expresión (1) se puede poner en la forma:

( ) ( )
n
A = ∑ λ j u j u Hj = λ1 u1 u1H + ... + u m1 u mH1 + λ2 u m1 +1u mH1 +1 + ... + u m1 + m2 u mH1 + m2 + ... = λ1P1 + λ2 P2 + ...
j =1

Cada una de las matrices Pi es una matriz de rango mi , suma de mi matrices de rango 1. Estas ma-
trices Pi son matrices de proyección ortogonal sobre el subespacio propio correspondiente.

DVS de matrices simétricas (hermíticas)


Sea una matriz simétrica (hermítica) A cuya DVS se puede escribir en la forma general A = UΣV H .
Obviamente se cumplirá también que A H = A = VΣU H .
¿Se puede concluir, a la vista de la simetría (hermiticidad) de A y de las expresiones anteriores, que
U=V en la DVS?
La respuesta es NO. Considérese la DVS de una matriz simétrica muy sencilla:
⎡0 1⎤ ⎡0 1 ⎤ ⎡ 0 1 ⎤ ⎡1 0⎤ ⎡1 0 ⎤
A=⎢ ⎥, AT A = A 2 = ⎢ ⎥⎢ ⎥=⎢ ⎥, ( A A ) V = VD,
T
V=⎢ ⎥
⎣1 0 ⎦ ⎣1 0 ⎦ ⎣1 0 ⎦ ⎣ 0 1 ⎦ ⎣0 1⎦
La matriz U está formada también por vectores propios de AAT = A 2 , pero la DVS exige que U se
calcule de forma compatible con V:
⎡0 1 ⎤ ⎡1 0 ⎤ ⎡1 0 ⎤ ⎡0 1⎤
A = UΣV H , AV = UΣ, ⎢ ⎥ ⎢ ⎥ = [u1 u 2 ] ⎢ ⎥ , U=⎢ ⎥
⎣1 0 ⎦ ⎣ 0 1 ⎦ ⎣0 1 ⎦ ⎣1 0⎦
Es evidente que en este caso U ≠ V , a pesar de la simetría de A.
Puede ser interesante comparar la DVS con la descomposición espectral de A, para lo cual hay que
calcular sus valores y vectores propios:
⎡0 1 ⎤ λ −1 ⎧λ1 = −1
A=⎢ ⎥ , λI − A = = λ 2 − 1 = 0, ⎨
⎣ 1 0 ⎦ − 1 λ ⎩λ2 = 1
⎡1 1⎤ ⎡0⎤ 1 ⎡1⎤ ⎡ −1 1 ⎤ ⎡ 0⎤ 1 ⎡1⎤
[ A − λ1I ] x1 = 0, ⎢1 1⎥ x1 = ⎢0 ⎥ , x1 = ⎢ ⎥; [ A − λ2I ] x2 = 0, ⎢ 1 −1⎥ x 2 = ⎢ 0⎥ , x 2 = ⎢⎥
⎣ ⎦ ⎣ ⎦ 2 ⎣ −1⎦ ⎣ ⎦ ⎣ ⎦ 2 ⎣1⎦

De aquí se deduce que la descomposición espectral de A se puede escribir en la forma:

 = 1 ⎡1 1 ⎤ , D
  T, U
A = UDU  = ⎡1 0 ⎤ ; ⎡0 1 ⎤ 1 ⎡1 1 ⎤ ⎡1 0 ⎤ ⎡1 1 ⎤
⎢1 −1⎥ ⎢0 −1⎥ ⎢1 0 ⎥ = 2 ⎢1 −1⎥ ⎢0 −1⎥ ⎢1 −1⎥
2⎣ ⎦ ⎣ ⎦ ⎣ ⎦ ⎣ ⎦⎣ ⎦⎣ ⎦
Puede comprobarse fácilmente que este resultado final es correcto.
La descomposición espectral obtenida no es única, pues puede cambiarse el orden de los valores
propios y de los vectores propios correspondientes. Tampoco la DVS es única, pues la matriz AT A
tiene un subespacio propio de dimensión 2 en el que se puede elegir una base de vectores propios de
muchas formas diferentes. ¿Se puede elegir una matriz V de forma que la DVS sea más parecida a
la descomposición espectral?
Dado que A es simétrica, sus vectores propios lo son también de las matrices AT A = AAT = A 2 .
 obtenida en la descomposición espectral:
Eligiendo como matriz V la matriz U

 = 1 ⎡1 1 ⎤ , AV = UΣ, 1 ⎡ 0 1 ⎤ ⎡1 1 ⎤ ⎡1 0⎤ 1 ⎡1 −1⎤
V=U ⎢ ⎥ ⎢1 0 ⎥ ⎢1 −1⎥ = U ⎢ 0 1 ⎥ , U= ⎢ ⎥
2 ⎣1 −1⎦ 2⎣ ⎦⎣ ⎦ ⎣ ⎦ 2 ⎣1 1 ⎦
⎡ 0 1 ⎤ 1 ⎡1 −1⎤ ⎡1 0 ⎤ ⎡1 1 ⎤
A = UΣV T , ⎢1 0 ⎥ = 2 ⎢1 1 ⎥ ⎢ 0 1 ⎥ ⎢1 −1⎥
⎣ ⎦ ⎣ ⎦⎣ ⎦⎣ ⎦
Se ha obtenido un mayor parecido con la descomposición espectral, pero no identidad. Tampoco se
puede cumplir que U sea igual a V.
Indudablemente, es imposible hacer coincidir la DVS y la descomposición espectral en los casos –
como éste– en que hay valores propios negativos. Los valores propios de A2 son los cuadrados tanto
de los valores singulares de A como de los valores propios de A, pero éstos no tienen por qué coin-
cidir, pues los valores propios pueden ser negativos y los valores singulares no.
Sin embargo, si la matriz A es también semidefinida positiva está garantizado que sus valores pro-
pios son no negativos y que coinciden con los valores singulares. En este caso ambas descomposi-
ciones coinciden.