You are on page 1of 41

Anlisis Matricial.

a
Jorge Antezana y Demetrio Stojano

Indice General
1 Preliminares. 1.1 Generalidades . . . . 1.2 Matrices Unitarias . 1.3 Matrices normales . . 1.4 Matrices Hermitianas 1.5 Principio minimax. . 1.6 Descomposicin polar o 1.7 Normas en Mn (C). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . y valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 4 6 7 9 11 13 16 16 22 24 27 27 31 31 32 34 36 36 40

2 Mayorizacin y matrices Hermitianas o 2.1 Deniciones y propiedades bsicas . . . . a 2.2 Aplicaciones a matrices Hermitianas. . . 2.3 Normas unitariamente invariantes. . . . . 2.4 Mayorizacin de matrices Hermitianas . o 2.5 Teoremas de Lindskii y sus aplicaciones.

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

3 Desigualdades de matrices. 3.1 Producto de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Partes reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Teor de Perrn-Frobenius. a o 4.1 Matrices de entradas positivas. . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Matrices de entradas no negativas. . . . . . . . . . . . . . . . . . . . . . . . Anlisis Matricial. a

1
1.1

Preliminares.
Generalidades

A lo largo de este trabajo consideraremos a C o R como cuerpo de escalares. Notaremos Mn (C) = Mn = Cnn , las matrices cuadradas de n n sobre C. Anlogamente, Mn (R) = a Rnn. Para denotar las entradas de una matriz Mn(C), usaremos indistintamente, por conveniencia del contexto, las notaciones A = (Aij )ij o A = (aij )ij . 1

Los vectores de Cn sern pensados como vectores columna, es decir que identicamos a C con Cn1. Sin embargo, a lo largo del texto los describiremos como una la (estilo x = (x1 , . . . , xn ) Cn ), para ahorrar espacio. Si A Mn (C), lo pensaremos tambin como un operador (o transformacin lineal) sobre e o Cn por multiplicacin: si x Cn, entonces A(x) = Ax (el producto standard de matrices). o Algunas veces pensaremos a ciertas matrices como operando en espacios vectoriales ms a generales. Por ejemplo, si S Cn es un subespacio y A Mn (C) verica que A(S) S, entonces se puede pensar a A (o su restriccin a S) como un operador en S. En tal caso o diremnos que pensamos a A|S L(S), donde L(S) denotar al conjunto de operadores a lineales en S. En Cn consideraremos el producto interno (o escalar) comn, dado por u
n n

x, y =
k=1

xk y k ,

x, y Cn .

Es claro que , : Cn Cn v, v, w Cn y C, entonces

verica las propiedades de un tal producto: Dados

1. v, v 0 y v, v = 0 si y slo si v = 0. o 2. u, v = v, u . 3. v, (u + w) = v, u + v + w . 4. u, v = u, v . Dado x Cn , deniremos su norma Eucl dea, a la usual:


n

x = x

= x, x

1/2

=(
k=1

|xk |2 )1/2 .

Muchas veces consideraremos otras normas de vectores y matrices. Por ello damos una denicin general: o Denicin 1.1.1. Sea K = C o R y V un K-espacio vectorial. Una norma en V es una o funcin N : V R que verica las siguientes condiciones: Dados v, v V y K, o 1. N (v) 0 y N (v) = 0 si y slo si v = 0. o 2. N (u + v) N (u) + N (v). 3. N (v) = || N (v). Cuando una tal norma proviene de un producto interno, diremos que el par (V, N ), o bien (V, , ) es un espacio de Hilbert (ojo, ac se asume que dim V < ). Usualmente usaremos a letras H o K para tales espacios y notaremos por L(H, K) al espacio de operadores lineales de H en K. Si H = K, escribimos L(H) en lugar de L(H, H). Si A L(H, K) notaremos por N u(A) a su ncleo y R(A) a su imagen. Adems notaremos r(A) = dim R(A) al rango u a (columna) de A. 2

Denicin 1.1.2. Sea H un espacio de Hilbert. Los vectores x1 , ..., xk H forman un o conjunto ortogonal cuando xi , xj = 0, si i = j. Si adems los vectores estn normalizados, a a 2 es decir x = xi , xi = 1, i k, entonces el conjunto se dice ortonormal. Usaremos las siglas bon para denotar a un base ortonormal de H. Denicin 1.1.3. Sean H y K espacios de Hilbert y sea A L(H, K). Se llama adjunto o de A al unico operador A L(K, H) que satisface Ax, z
K

= x, A z

x H, z K.

Observacin 1.1.4. Si, en particular, A L(H), entonces A tambin est en L(H). Para o e a una bon ja B = {e1 , . . . , en } de H, se identica a los operadores de L(H) con matrices en Mn (C) v a Aij = Aej , ei , 1 i, j n. Con esta identicacin, la matriz de A es la traspuesta conjugada de la matriz de A. Es o decir que Aij = Aji , 1 i, j n. Denicin 1.1.5. Dado A L(H) un operador en un espacio de Hilbert, decimeos que A o es: 1. Hermitiano si A = A . 2. anti-Hermitiano si A = A . 3. unitario si AA = A A = I. 4. normal si AA = A A. 5. denido positivo si Ax, x > 0 para todo x H. En tal caso de escribe A > 0. 6. semidenido positivo si Ax, x 0 para todo x H. En tal caso de escribe A 0. Los mismos nombres tendrn las matrices de Mn (C), al ser pensadas cono operadores en H = a n C con el producto escalar y la norma usuales. Adems usaremos las siguientes notaciones: a 1. H(n) = {A Mn (C) : A = A }. 2. U(n) = {U Mn (C) : U es unitaria }. 3. Mn (C)+ = {A Mn (C) : A 0} H(n). 4. Gl (n) = {A Mn (C) : A es invertible }. Denicin 1.1.6. Se llama espectro de una matriz A Mn (C) al conjunto de todos los o autovalores de A: (A) = { C : es autovalor de A} = { C : N u(A I) = {0} }. Notar que A Gl (n) si y slo si 0 (A). o / 3

Observacin 1.1.7. Se sabe que los autovalores de A Mn (C) son las ra del polinomio o ces caracter stico de A. Este polinomio tiene grado n, pero puede tener ra mltiples, por lo ces u que (A) puede tener menos de n elementos (en tanto conjunto, sus elementos slo pueden o contarse de a uno). Muchas veces es necesario usar a cada (A) tantas veces como multiplicidad tiene como ra del caracter z stico. Para hacer eso, diremos que los autovalores de A son 1 , . . . , n , donde estaremos repitiendo cada autovalor de A tantas veces como multiplicidad tiene en el polinomio caracter stico. Por eso quedan n. Denicin 1.1.8. El radio espectral de una matriz A Mn (C) se dene como o (A) = max{|| : (A)}.

1.2

Matrices Unitarias

Las matrices unitarias son de gran importancia ya que, en muchos casos, son la herramienta principal para obtener distintos resultados en el anlisis matricial. En esta seccin veremos a o distintas formas de caracterizarlas y veremos tambin cmo intervienen en una descomposie o cin muy especial para matrices cuadradas dada por el teorema de Schur. o Denicin 1.2.1. Se dice que A es unitariamente equivalente a B y se nota A o U U(n) tal que A = U BU. B si existe

Teorema 1.2.2. Si A = [aij ] y B = [bij ] Mn (C) son unitariamente equivalentes, entonces


n n

|bij | =
i,j=1 n i,j=1

|aij |2 .

Demostracin. Se usa que o


i,j=1

|aij |2 = tr(A A) (Ejercicio: vericarlo). Entonces es suciente

probar que tr(B B) = tr(A A). Sabemos que B = U AU entonces tr(B B) = tr(U A U U AU ) = tr(U A AU ) = tr(A A). La ultima igualdad se deduce de que tr(XY ) = tr(Y X) para todo par X, Y Mn (C). Teorema 1.2.3. Si U Mn (C), las siguientes armaciones son equivalentes: a) U es unitaria. b) U es no singular y U = U 1 .

c) U U = I. d) U es unitaria. e) Las columnas de U forman una bon. f ) Las las de U forman una bon. g) Para todo x Cn , U x
2

= x

(o sea, U es una isometr a).

Demostracin. Ejercicio. Para probar que g) implica lo dems, se usa que, si A Mn (C) y o a Ax, x = 0 para todo x Cn , entonces A = 0. Ojo que esto es falso en Mn (R). El siguiente resultado es de gran importancia ya que arma que cualquier matriz A Mn (C) es unitariamente equivalente a una matriz triangular superior que contiene en su diagonal los autovalores de A. Teorema 1.2.4 (Triangularizacin Unitaria de Schur). Dada A Mn (C) con auo tovalores 1 , ..., n dispuestos en cualquier orden (y contados con multiplicidad). Entonces existen matrices U U(n) y T Mn (C) triangular superior (o sea que tij = 0 si i > j) que verican: 1. tii = i , 1 i n y 2. A = U T U . Si A Mn (R), el teorema sigue valiendo (entre matrices reales) si (A) R. Adems, si a B Mn (C) conmuta con A, se las puede triangular a ambas con la misma matriz unitaria, pero respetando un orden dado para los autovalores en uno solo de los casos (hay que elegir A o B). Demostracin. La prueba del teorema la realizaremos por induccin sobre la dimensin n. o o o Si n = 1, el resultado es trivial. Si n > 1, tomemos x1 N u(A 1 I) con x1 = 1. Completamos a una bon con vectores x2 , . . . , xn , y los ponemos en las columnas de una matriz U1 , que resulta unitaria. Es fcil ver que a
U1 AU1 =

1 0 A2

donde A2 Mn1 (C), con autovalores 2 , . . . , n . Por HI se triangula a A2 con una matriz unitaria V Mn1 (C), que se extiende a otra unitaria U2 Mn (C) poniendo un 1 en el lugar 1, 1 y ceros en los costados. Es fcil vericar que U = U1 U2 triangula a A de la forma a requerida. El caso real sale igual. Notar que el x1 Rn existe si 1 R. El caso de dos matrices que conmutan se deduce de que N u(A 1 I) es invariante para B, por lo que el vector x1 se puede elegir como un autovector de B (aunque no se sabe cuales de los autovalores de B pueden elegirse). El resto de la prueba sigue igual. 5

Corolario 1.2.5. Sea A Mn (C) con autovalores 1 , ..., n dispuestos en cualquier orden.
n n

Entonces tr A =
i=1

i y det A =
i=1

i .

Demostracin. Por el teorema sabemos que podemos escribir A = U T U , con U U(n) o y T triangular superior, con los autovalores de A en su diagonal. Luego tr A = tr T y det A = det T . Corolario 1.2.6. Sea U U(n). Entonces | det U | = 1. Demostracin. Basta vericar que (U ) {z C : |z| = 1}, lo que es un ejercicio fcil. o a

1.3

Matrices normales

Recordemos que una matriz A Mn (C) es normal si A A = AA , es decir si A conmuta con su adjunta. Denicin 1.3.1. Si A Mn (C) es unitariamente equivalente a una matriz diagonal, o entonces se dice que A es unitariamente diagonalizable. Notacn: Si a = (a1 , . . . , an ) Cn , denotaremos por diag (a) a la matriz diagonal o a1 0 0 . . diag (a) = diag (a1 , . . . , an ) = . . . . . Mn (C). . . 0 0 an

Teorema 1.3.2. Si A = [aij ] Mn (C) tiene autovalores 1 , ..., n , las siguientes condiciones son equivalentes: a) A es normal. b) A es unitariamente diagonalizable.
n

c)
i,j=1

|aij |2 =

n i=1

|i |2

d) Para todo x Cn , Ax = A x . Demostracin. La equivalencia entre a) y d) la obtenemos del siguiente hecho: para cada o n xC , Ax 2 = A Ax, x y A x 2 = AA x, x . Recordar que si B Mn (C) cumple que Bx, x = 0 para todo x Cn , entonces B = 0. Por el Teorema de Schur existe una matriz unitaria U y una matriz triangular superior T tal que T = U AU . Adems como A es normal, T es normal, es decir T T = T T y a 6

esto ms el hecho de que T es triangular superior implican que T es una matriz diagonal a (Ejercicio: vericarlo). Entonces A es unitariamente diagonalizable. Por lo tanto a) implica b). Rec procamente si A es unitariamente diagonalizable, A = U T U con U unitaria y T diagonal, por lo tanto T es normal. Entonces A es normal. Luego queda demostrado que a) y b) son equivalentes. Si A es unitariamente diagonalizable, A = U DU con U unitaria y D diagonal y por el
n n i=1

teorema (1.2.2) tenemos que


i,j=1

|aij |2 =

|i |2 .

Asumamos la condicin c). El teorema de Schur nos dice que A es unitariamente equivalente o a una matriz T triangular superior, entonces
n n n

|i | =
i=1 i,j=1

|aij | =
i=1

|i |2 +
i<j

|tij |2 .

Por lo tanto tij = 0 para i < j y T es diagonal. Corolario 1.3.3. Si A Mn (C) es normal, entonces A A sp = max{ Ax : x = 1}.
sp

= (A). Recordemos que

Demostracin. Es fcil vericar que matrices unitariamente equivalentes tienen la misma o a norma espectral. Por el Teorema 1.3.2, A es unitariamente equivalente a diag (1 , . . . , n ). Finalmente, una fcil cuenta muestra que la norma espectral de una matriz diagonal es el a mximo de los mdulos de sus elementos diagonales. a o

1.4

Matrices Hermitianas

La prctica nos ensea que, por lo general, no es fcil calcular los autovalores de una matriz, a n a pero en muchos casos es suciente saber que los autovalores estn en un intervalo especicado. a El objetivo de esta seccin es estudiar algunas de las principales caracter o sticas que distinguen a las matrices Hermitianas y conocer principios variacionales que se utilizan para localizar el espectro de una matriz Hermitiana sin la necesidad de conocer los autovectores asociados en forma exacta. Recordemos las notaciones H(n) = {A Mn (C) : A = A } y Mn (C)+ = {A H(n) : A 0}. Teorema 1.4.1. Si A H(n), entonces A es unitariamente diagonalizable y (A) R. Demostracin. Se deduce del Teorema 1.3.2 o Denicin 1.4.2. Sea A H(n). Por el Teorema anterior, (A) R. Por lo tanto, sus o autovalores pueden ordenarse usando el orden de R. En adelante usaremos las siguientes notaciones: 1. (A) = (1 (A), . . . , n (A)) es el vector de autovalores de A ordenados en forma creciente. 7

2. (A) = (1 (A), . . . , n (A)) es el vector de autovalores de A ordenados en forma decreciente, es decir k (A) k+1 (A), 1 k n 1. Tambin k (A) = nk+1 (A). e 3. Se llamarn a min (A) = 1 (A) = n (A) = min (A) y, anlogamente, a max (A) = n (A) = 1 (A) = max (A) . As cuando escribamos i (A) o, directamente i (si el contexto es claro) estaremos asumiendo , que al enumerar los autovalores de A lo hemos hecho en forma creciente. Y en forma decreciente si escibimos i (A) o i . Para matrices generales la unica caracterizacin conocida de sus autovalores es que son las o ra del polinomio caracter ces stico de la matriz. Pero cuando las matrices son Hermitianas, el hecho de poder establecer un orden entre ellos nos permite obtener caracterizaciones ms a interesantes. El prximo teorema describe el mximo y el m o a nimo de los autovalores de la Ax, x (0 = x Cn ), conocidas como cocientes de matriz en funcin de las expresiones o x, x Rayleig-Ritz. Teorema 1.4.3 (Rayleigh-Ritz). Sea A H(n). Entonces 1. Para todo x Cn , min (A) x 2. max (A) = n (A) = max
x=0 2

Ax, x max (A) x 2 .

Ax, x = max Ax, x . x =1 x, x Ax, x = min Ax, x . x =1 x, x

3. min (A) = 1 (A) = min


x=0

En particular, A Mn (C)+ si y slo si min (A) 0. o Demostracin. Como A es Hermitiana, es unitariamente diagonalizable, es decir A = U DU , o con U U(n) unitaria y D = diag (1 (A), ..., n (A)). Notar que Ax, x = D U x, U x , x Cn . Como U es una isometr a, U {x Mn (C) : x = 1} = {x Mn (C) : x = 1} y, adems, i (D) = i (A), 1 i n, es fcil ver que es suciente probar el Teorema para a a n matrices diagonales. Pero, para x C ,
n

Dx, x =
i=1

i (A)|xi |2 ,

con lo que el resultado se torna inmediato.

1.5

Principio minimax.

Recordemos que, dada A H(n), denotamos a los autovalores de A (contados con multiplicidad) como 1 (A) 2 (A) ... n (A). Teorema 1.5.1 (Courant-Fisher). Sea A H(n) y sea k un entero, 1 k n. Las letras M y S las usaremos para denotar subespacios de Cn , y M1 denotar a los elementos a de M de norma uno. Entonces, k (A) =
dim M=k xM1

min

max Ax, x =

dim S=nk+1 xS1

max

min Ax, x .

Demostracin. Como en el Teorema anterior, se puede suponer (s.p.g.) que A es diagonal, o dado que existe U U(n) tal que, si D = diag (1 (A), ..., n (A)), entonces A = U DU . Como U es unitaria, permuta subespacios de una dimensin ja, y preserva sus vectores o de norma uno. Notar que Ax, x = D U x, U x y (A) = (D). As que suponemos, n directamente, que A = D. Entonces, dado x C ,
n

Ax, x =
j=1

j (A)|xj |2 .

(1)

Dado 1 r n notemos por Hr al subespacio generado por e1 , . . . , er , los primeros elementos de la base cannica de Cn . Si dim S = nk+1, entonces S Hk = {0}. Pero si x (S Hk )1 , o entonces por (1), Ax, x k (A). Esto prueba que k (A)
dim S=nk+1 xS1

max

min Ax, x .

La otra desigualdad resulta de elegir S = (Hk1 ) , y la otra frmula se demuestra en forma o anloga. a Observacin 1.5.2. La versin tradicional de las frmulas de Courant-Fisher ser la siguo o o a iente:
w1 ,w2 ,...,wnk Cn

min

max x=0,xCn
xw1 ,w2 ,...,wnk

x Ax = k (A) x x x Ax = k (A) x x

(2)

w1 ,w2 ,...,wk1 Cn

max

min x=0,xCn
xw1 ,w2 ,...,wk1

(3)

Teorema 1.5.3 (Teorema de Weyl). Sean A, B H(n) y j {1, . . . , n}. Entonces: j (A) + 1 (B) j (A + B) j (A) + n (B) Demostracin. Notar que, por el Teorema 1.4.3, para todo x Cn tal que x = 1, o Ax, x + 1 (B) Ax, x + Bx, x Ax, x + n (B) . Por lo tanto el teorema se puede deducir de las frmulas de Courant-Fischer. o 9

Corolario 1.5.4. Sean A, B H(n) tales que A B. Entonces, para todo 1 j n, j (A) j (B) . Demostracin. Basta aplicar el Teorema de Weyl al par A y B A 0, y notar que, por el o Teorema 1.4.3, n (B A) 0. Como consecuencia del Teorema de Courant-Fisher obtenemos el llamado teorema de entrelace de Cauchy. Este teorema relaciona los autovalores de una matriz Hermitiana con sus correspondientes submatrices principales. Teorema 1.5.5 (Entrelace de Cauchy). Sea A H(n), r un entero tal que 1 r n y Ar Mn1 (C) la submatriz principal de A obtenida al borrar la la y la columna r-simas e de A. Entonces para cada 1 k n 1, k (A) k (Ar ) k+1 (A). Es decir que 1 (A) 1 (Ar ) 2 (A) ... n1 (Ar ) n (A). Demostracin. Supongamos, por simplicidad, que r = n. Fijemos un k tal que 1 k n1. o Trabajando slo con los subespacios M Hn1 que tienen dim M = k (que son menos que o todos los subespacio de dimensin k de Cn ), obtenemos o k (An ) =
dim M=k xM1
MHn1

min

max An x, x

dim M=k xM1

min

max Ax, x = k (A),

porque si x Hn1 , entonces Ax, x = An x, x , dado que xn = 0. Anlogamente, tomando a subespacios S Hn1 tales que dim S = n k, como n k = n (k + 1) + 1 y a la ves, n k = (n 1) k + 1, obtenemos k (An ) =
dim S=nk xS1
SHn1

max

min An x, x

dim S=nk xS1

max

min Ax, x = k+1 (A).

Observacin 1.5.6. En forma anloga se puede probar versiones ms generales del Teorema o a a anterior: 1. Sea A H(n), r un entero tal que 1 r n y Ar H(r) cualquier submatriz principal de A obtenida al borrar n r las y las correspondientes columnas de A. Entonces para cada entero k tal que 1 k r, se tiene k (A) k (Ar ) k+nr (A). 2. Ms en general an, si P Mn (C)+ es un proyector autoadjunto (o sea ortogonal) a u sobre un subespacio S de dim S = r, entonces al producto P AP se lo puede pensar como un operador en el espacio de Hilbert S (para que su vector de autovalores tenga slo r cordenadas, sacando los n r ceros que sobran). Entonces se obtienen o desigualdades anlogas: para cada entero k tal que 1 k r, se tiene a k (A) k (P AP ) k+nr (A).

10

Ejercicio 1.5.7. Escribir expl citamente cmo quedan los resultados de esta seccin (mino o imax, teorema de Weyl y los tres entrelaces) en funcin de los vectores (A) ordenados o decrecientemente. Ahora, como corolario del Teorema de entrelace, veremos una caracterizacin de positividad o de matrices en trminos de submatrices principales. Para ello necesitaremos del siguiente e resultado previo. Lema 1.5.8. Toda submatriz principal de una matriz denida positiva, es denida positiva. Demostracin. Ejercicio. o Teorema 1.5.9. Si A H(n), entonces A es denida positiva (i.e. A > 0) si y slo si o det Ai > 0 para todo 1 i n,

donde Ai es la submatriz principal de A obtenida con las primeras i las y columnas de A. Demostracin. Llamemos Ai a la submatriz principal de orden i de A determinada por las o primeras i las y columnas de A. Por el Teorema anterior si A es denida positiva, Ai es denida positiva para i:1,...,n. Esto signica que los autovalores de cada Ai son todos positivos y por lo tanto el determinante de cada una de ellas tambin lo es. e Para demostrar la rec proca utilizaremos induccin sobre la dimensin n y el Teorema del o o entrelace de Cauchy 1.5.5. Como det(A1 ) > 0 y A1 es de orden 1, A1 es denda positiva. Supongamos entonces Ak denida positiva para algn k < n. Por lo tanto todos los autou valores de Ak son positivos. La desigualdad de entrelace nos dice, entonces, que todos los autovalores de Ak+1 son positivos, excepto quizs el menor de ellos. Pero el producto de los a autovalores de Ak+1 coincide con el determinante de Ak+1 , el cual es positivo por hiptesis. o Por lo tanto, todos los autovalores de Ak+1 (anche el primero) son positivos. Y, del hecho de que Ak+1 H(k + 1), se deduce que Ak+1 es denida positiva. Finalmente, como An = A, hemos probado que A es denida positiva. Ejercicio (dif cil): Probar que, dada A H(n), entonces A 0 si y slo si para todo o J {1, . . . , n}, det AJ 0, donde AJ = (aij )i,jJ H(|J|).

1.6

Descomposicin polar y valores singulares o

Antes de denir los conceptos que dan t tulo a esta seccin, necesitamos hacer las siguientes o observaciones: 1. Dada A Mn (C), es fcil ver que A A 0. En efecto, si x Cn , entonces A Ax, x = a 2 Ax 0. 2. Adems, dada una matriz B Mn (C)+ , existe una unica matriz C Mn (C)+ a 2 tal que C = B. En efecto, Se debe escribir B = U DU , con U U(n) y D = diag (1 (B), . . . , n (B)) Mn (C)+ . Se toma D = diag 1 (B)1/2 , . . . , n (B)1/2 11

Esto es posible por la frase nal del Teorema 1.4.3. Finalmente se dene C = U D U . Es claro que C Mn (C)+ y que C 2 = B. La unicidad es algo ms complicada y se a deja como ejercicio. 3. Dada B Mn (C)+ llamaremos B 1/2 a su raiz cuadrada positiva en el sentido del tem anterior. Denicin 1.6.1. Sea A Mn (C), o 1. Llamaremos mdulo de A a la matriz o |A| = (A A)1/2 Mn (C)+ . 2. Llamaremos valores singulares de A a los autovalores de |A| ordenados en forma decreciente, notndolos s1 (A) sn (A) 0. a 3. Llamaremos s(A) = (s1 (A), . . . , sn (A)) = (|A|) y (A) a la matriz diagonal s1 (A) 0 0 . . . ... . (A) = diag (s(A)) = . . . 0 0 sn (A) Ejemplos 1.6.2. Sea A Mn (C). 1. Si A 0, entonces A = |A| y s(A) = (A). 2. Si A H(n), entonces s(A) = |(A)|, salvo el orden. En efecto, A A = A2 , luego los autovalores de |A| son los mdulos de los de A (si a R, (a2 )1/2 = |a|). o 3. En general, los autovalores y los valores singulares de una misma matriz pueden ser bien distintos. Por ejemplo, si A es un bloque nilpotente de Jordan en Mn (C) (i.e. Aek = ek+1 , 1 k n 1 y Aen = 0), entoces (A) = {0} porque An = 0, pero s(A) = (1, . . . , 1, 0), porque A A es un proyector de rango n 1. Teorema 1.6.3 (Descomposicio polar y en valores singulares). Sea A Mn (C). n Entonces 1. Para todo x Cn , se verica que Ax = |A|x . 2. Existe una matriz unitaria U Mn (C) tal que A = U |A|. 3. Existen dos matrices unitarias V, W Mn (C) tales que A = W (A)V. Demostracin. Ejercicio. o 12

1.7

Se estudiarn en esta seccin distintas normas en el espacio vectorial de matrices Mn (C). a o Muchas de estas normas son utiles en diversas desigualdades matriciales espec cas. Pero no olvidemos que, como dim Mn (C) < , es un resultado conocido que todas las normas en Mn (C) son equivalentes. En los siguientes ejemplos deniremos las normas ms clsicas para matrices. Dejaremos a a como ejercicio para el lector la vericacin (en algunos casos altamente no trivial) de que o son, efectivamente, normas. Ejemplos 1.7.1. 1. La norma espectral denida del siguiente modo A = A
sp

Normas en Mn (C).

= max Ax = s1 (A),
x =1 sp

donde la ultima igualdad surge de que A 2. Las normas de Schatten. Dado 1 p <

|A|

sp

= (|A|).

1/p

A La

=
n=1

si (A)

se llama norma de Frobenius. Ella verica que


n

2
2

= tr A A =
i,j=1

|aij |2

y proviene del producto escalar en Mn (C) denido por A, B = tr B A. 3. Las normas Ky-Fan. Dado k {1, . . . , n}
k

A Notar que A = A y A

(k)

=
i=1

si (A) .
1

(1)

sp

(n)

= A

(de Schatten). |
N

4. Toda norma N en

Cn induce una norma |


| A|
N

en Mn (C) del siguiente modo:

= max N (Ax).
N (x)=1

Estas normas satisfacen que: (a) | I |


N

=1
N N

(b) (A) | A | (c) | AB |


N

| A|

| B|

N.

13

5. | |

es la inducida por la norma | A|

en
i

Cn.

Puede demostrarse que


1

= max Ci (A)

donde Ci (A) simboliza el vector formado por la columna i-sima de A. e 6. Analogamente, | | que

es la inducida por la norma | A|

en

Cn.

Puede demostrarse

= max Fi (A)
i

donde Fi (A) simboliza el vector formado por la la i-sima de A. e Denicin 1.7.2. Una norma o 1. Matricial: si AB A B en Mn (C) se llama:

2. Unitariamente invariante (NUI): si U AV = A para todo U, V U(n). El siguiente es un ejemplo de una norma que no es matricial Ejemplo 1.7.3. Denamos N (A) = max |aij |,
ij

y consideremos la matriz A= 1 1 . 1 1

Entonces A2 = 2A, y en consecuencia N (A2 ) = 2 mientras que N (A) = 1. El lector interesado puede demostrar que n.N () s es una norma matricial en Mn (C). Teorema 1.7.4. Sea A Mn (C) y una norma matricial. Entonces:
n=0 (I

1. A I < 1 implica que A Gl (n) y A1 = 2. Si B Gl (n) y B A B 1


1

A)n

, entonces, A Gl (n).

Demostracin. Comencemos notando que 1 2. En efecto, o B 1 A I = B 1 (A B) B 1 A B < 1.

Por lo tanto B 1 A es inversible y A = B(B 1 A) tambin lo es. Para demostrar (1), llamemos e C = I A. Entonces, C < 1 y C m C m , en consecuencia

C
k=0

k=0

1 1 C

14

Luego,
k=1

C k converge. Por otro lado,


N N

A
k=0

C =A
k=0

(I A)k = 1 C N +1 1
N

y analogamente
k=0

Ck

A = 1.

Lema 1.7.5. Sea P C[x] y A Mn (C). Entonces, (P (A)) = P ( (A)) := {P () : (A)}. Demostracin. Ejercicio. Se sugieren dos maneras de hacerlo: una aplicando el Toerema o 1.2.4. La otra con cuentas de polinomios (que es la que sirve en dimensin innita). o Proposicin 1.7.6. Sea A Mn (C) y una norma matricial. Entonces (A) A . o Ms an, Am 1/m (A) para todo m N. a u Demostracin. Sea (A), x Cn tal que x = 0 y Ax = x. Llamemos X a la matriz o cuyas columnas son todas iguales al vector x. Luego, AX = X, y por ende || X = AX A X ,

de donde se deduce que || A . Como el autovalor era cualquiera, es tiene que (A) A . Adems, por el Lema 1.7.5, se tiene que (Am ) = (A)m . Por lo tanto, usando la parte a ya probada, obtenemos que (A) Am 1/m . Observacin 1.7.7. Dada una norma matricial o A S := SAS 1 es tambin matricial. e y una matriz inversible S, entonces,

Proposicin 1.7.8. Sea A Mn (C) y > 0. Entonces, existe una norma matricial N en o Mn (C) tal que N (A) (A) + . Demostracin. Sea A = U T U con T una matriz triangular superior y U U(n). Luego, o 1 T = U AU . Sea Ds = diag (s, s2 , . . . , sn ). Entonces, Ds T Ds = (tij sij ) y si s
1 Ds T Ds diag (1 (A) , . . . , n (A)) .
En cualquier norma

Como diag (1 (A) , . . . , n (A)) existe s R tal que


1 Ds T Ds sp

sp

1 = (A), entonces, Ds T Ds

sp

(A). Luego,
s

< (A) + . Sea N la norma denida del siguiente modo:


sp

1 N (B) = Ds U BU Ds

B Mn (C).

Por construccin, esta norma satisface la propiedad buscada. o Corolario 1.7.9. Si A Mn (C), entonces Am 0 si y slo si (A) < 1. o 15

Demostracin. Es claro que (A) < 1 si y slo si (Am ) = (A)m 0. Como (Am ) o o Am sp , una implicacin es clara. Para probar la otra, supongamos que (A) < 1 y elijamos o una norma matricial N tal que (A) N (A) < 1. Tal norma existe por la Proposicin 1.7.8. o m m Como N es matricial, deducimos que N (A ) N (A) 0.
m m

Teorema 1.7.10. Sea A Mn (C). Entonces, para toda norma (A) = lim Demostracin. Si o
m

en Mn (C),

Am

1/m

es una norma matricial, se tiene (A) Am 1/m para todo m N. A Sea > 0 y B = . Entonces, (B) < 1 y B m 0. En consecuencia existe (A) + un m0 N tal que, para todo m m0 , se tiene Am < ((A) + )m , lo que prueba el Teorema. El mismo resultado vale para normas no matriciales, por ser todas las normas equivalentes. Ejercicio 1.7.11. Probar que si N es una norma matricial, (A) = inf N (Am )1/m . mN Observacin 1.7.12. Todos los resultados de esta seccin, a partir del Teorema 1.7.4, son o o tambin ciertos en lgebras de Banach, donde las normas son matriciales por denicin. El e a o unico resultado propio de matrices es el Corolario 1.7.9. Sin embargo, hemos incluido las demostraciones anteriores porque tienen un buen sabor matricial, salvo el Teorema 1.7.4, que tiene la prueba standard (y no creo que pueda mejorarse). Ntese que se asumi impl o o citamente que Mn (C) es un espacio completo, porque usamos que una serie absolutamente sumable es convergente.

2
2.1

Mayorizacin y matrices Hermitianas o


Deniciones y propiedades bsicas a

Notaciones: Sea x Rn , x = (x1 , ..., xn ). Notaremos x y x a los vectores obtenidos al reordenar las cordenadas de x en forma decreciente y creciente respectivamente. Es decir, por ejemplo, que x = max xi , x + x = max xi + xj , etc. 1 1 2
i i=j

Por ejemplo, si x es el vector de autovalores de una matriz A H(n), entonces x = (A) y x = (A). Otra notacin: dado x = (x1 , . . . , xn ) Rn , escribiremos o
n

tr x =
i=1

xi .

Con estas notaciones podemos dar la denicin de relacin de mayorizacin, o o o 16

Denicin 2.1.1. Sean x, y o si se verica que tr x = tr y y

Rn .
k

Se dice que x es mayorizado por y, y se nota x


k

x j
j=1

j=1

yj ,

1 k < n,

(4)

Observacin 2.1.2. Dado que o


j=1

x = j

nk

xj
j=1 j=1

x , la relacin x o j

y tambin es equive

alente a las condiciones: tr x = tr y y


k k

x j
j=1

j=1

yj ,

1 k < n,

(5)

Si slo se cumple la condicin (4), se dice que x es submayorizado por y y se nota x w y. o o Por el contrario, si slo se cumple la condicin (5), se dice que x es supramayorizado por o o w y y se nota x y. Ejemplos 2.1.3. 1. Si x Rn , cumple que xi 0 y 1 1 1 ( , , ..., ) n n n (x1 , x2 , ..., xn )
n

xi = 1, entonces
i=1

(1, 0, ..., 0).


k

(6)

Una manera de vericarlo es suponer que existe k < n tal que suceder que x k
n i=1

x < k/n. En tal caso, debe i

< 1/n y, por lo tanto, tambin e


i=k+1 n

x i
n

< (n k)/n. Pero esto contradice el

hecho de que
j=1

1 =1= n

xi .
i=1

La otra mayorizacin es obvia. o 2. Si x y e y x, entonces x e y dieren en una permutacin. o Ejercicio 2.1.4. Sean x, y Rn . Probar que x xTu
w

y si y slo si existe u Rn tal que o

y,

donde x T u signica que xi yi , para todo 1 i n. Se sugiere hacer induccin sobre n, o y hacer el paso inductivo agrandando la cordenada x1 hasta donde se pueda (o se iguala alguna de las sumas parciales, o se llega hasta y1 ). Existe una relacin muy estrecha entre las relaciones de mayorizacin y las matrices dobleo o mente estocsticas. a Notaciones: Si A Mn (C), 17

1. Llamaremos Fi (A) a la la i-sima de A y Cj (A) a la columna j-sima. e e 2. Notaremos A b 0 si Aij 0, es decir, si A tiene entradas no negativas (no el lo mismo que A 0). Denicin 2.1.5. Una matriz A Mn (R) se denomina doblemente estocstica si A b 0 o a y, para todo 1 i n, se verica que tr Fi (A) = 1 y tr Ci (A) = 1.

Al conjunto de matrices doble estocsticas en Mn (C) lo denotaremos por medio de DS (n). a

Ejercicio 2.1.6. Probar que A DS (n) si y slo si o Ab0 , donde e = (1, 1, . . . , 1) Rn . Teorema 2.1.7. A DS (n) si y slo si Ax o x para todo x Rn . Ae = e y A e = e,

Demostracin. Supongamos primero que Ax x para todo x. Sea E = {e1 , . . . , en } la base o cannica de Cn . Entonces, como Aei o ei , 1 i n, podemos deducir que A b 0 y, para 1 i n, 1 = tr ei = tr Aei = tr Ci (A). Por otra parte, tomemos e = (1, 1, . . . , 1). Usando el Ejemplo 2.1.3, como Ae las cordenadas de e son iguales, deducimos que e = Ae = (tr F1 (A), . . . , tr Fn (A)). Rec procamente, supongamos que A DS (n) y llamemos y = Ax. Queremos probar que y x. Se puede suponer que las cordenadas de x y de y estn ordenadas en forma a decreciente, porque si P, Q U(n) son matrices de permutacin, entonces QAP DS (n) o (esto se formaliza fcil con el Ejercicio anterior). Adems, como y = Ax, para 1 k n, a a tenemos
k k n

e y todas

yj =
j=1 k j=1 i=1 n

aij xi .

Si llamamos ti =
j=1

aij , entonces 0 ti 1 y
i=1

ti = k. Luego,

18

yj
j=1 j=1

xj =
j=1 i=1 n

aij xi
i=1 k

xi =
i=1 n

t i xi
i=1

xi

=
i=1 k

t i xi
i=1 n

xi + (k
i=1 k

ti )xk
k n

=
i=1 k

t i xi +
i=k+1

ti xi
i=1 k

xi + kxk
i=1 k n

ti xk
i=k+1

t i xk

=
i=1 k

(ti 1)xi +
i=1 k

xk
i=1

ti xk +
i=k+1 n

ti (xi xk ) ti (xi xk )

=
i=1 k

(ti 1)xi +
i=1

(1 ti )xk +
i=k+1 n

=
i=1

(ti 1)(xi xk ) +
i=k+1

ti (xi xk ) 0,

pues los dos trminos del ultimo rengln son sumas de trminos no positivos. Por lo tanto e o e
k k

yj
j=1 j=1

xj para 1 k n y adems, cuando k = n, obtenemos la igualdad por el hecho a x. (x1 , x2 ),

de que A DS (n). As y ,

Ejemplo 2.1.8. Como motivacin del siguiente resultado, supongamos que (y1 , y2 ) o y1 y2 y x1 x2 . Entonces x2 y 2 y 1 x1 y y1 + y2 = x1 + x2 .

Sea 0 tal que y1 = x1 + (1 )x2 . Entonces, y2 = y1 + y2 y1 = x1 + x2 y1 = x1 + x2 x1 + (1 )x2 = (1 )x1 + x2 . y por lo tanto (y1 , y2 ) = (x1 , x2 ) + (1 )(x2 , x1 ). Teorema 2.1.9. Sean x, y Rn . Entonces, son equivalentes: 1. y x

2. y es una combinacin convexa de permutaciones de x o 3. Existe A DS (n) tal que y = Ax. Demostracin. Claramente 2 3 y por el Teorema 2.1.7 se tiene que 3 1. Luego, solo o resta probar que 1 2. Lo haremos por induccin sobre la dimensin n. Para n = 1 o o es trivial y el caso n = 2 fue probado en el Ejemplo 2.1.8. Sea n > 2. Sin perdida de generalidad podemos suponer que los vectores estan ordenados en forma decreciente. Luego, 19

xn yn y1 x1 . Sea k > 1 tal que xk y1 xk1 y 0 tal que y1 = x1 + (1 )xk . Sea P0 la permutacin tal que o P0 (x1 , . . . , xn ) = (xk , . . . , xk1 , x1 , xk+1 , . . . , xn ). Denamos z = x + (1 )P0 (x). Sean y = (y2 , . . . , yn ) y z = (z2 , . . . , zn ). Vamos a probar que y z : Como tr(z ) = tr(z) y1 = tr(x) y1 y tr(y ) = tr(y) y1 = tr(x) y1 , se tiene que tr(y ) = tr(z ). Si m k 1, entonces, como y1 xk1 ,
m m m

zi =
i=2 i=2

xi (m 1)xk1 (m 1)y1
i=2

yi .

Por otro lado, si m k.


m k1 m

zi =
i=2 i=2 m

xi + (1 )x1 + xk +
i=k+1

xi

=
i=1 m

xi + x1 (1 )xk
m m

=
i=1 s

xi y 1
i=1

yi y1 =
i=2

yi .

Por hiptesis inductiva y = o


i=1

i Pi (z ) para ciertos i 0 que suman uno, y para ciertas

permutaciones i Sn1 (pensadas como biyecciones del conjunto {2, 3, . . . , n}). Llamemos tambin i Sn la extensin de la permutacin i a In poniendo i (1) = 1. Luego y = e o o
s

i Pi (z). Pero entonces


i=1 s s s

y=
i=1

i Pi (z ) =
i=1

i Pi (x) +
i=1

(1 )i Pi P0 (x),

que es una combinacin convexa de permutaciones de x. o Observacin 2.1.10. Un error t o pico en cuentas con mayorizacin, es olvidarse de ordenar o a los vectores antes de sumar sus primeras k cordenadas. De hecho, esto sucede en la prueba anterior con el vector z . Por suerte no es grave en este caso, porque z est del lado a de los mayores, y lo grave es no reordenar del lado de los menores. Ms expl a citamente, si x, y Rn , como
k k

yi
i=1 i=1

yi ,

es imprescindible ordenar a y para vericar que y x, pero no para vericar que x y. Notar que, en la prueba de la relacin y o z , el vector y ya ven ordenado correctamente. a

20

Teorema 2.1.11. Sean x, y Rn . Entonces, son equivalentes: 1. y x 2. tr(f (y)) tr(f (x)) para toda funcin convexa f : o para el vector (f (x1 ), . . . , f (xn )).
n n

R R.

Se usa la notacin f (x) o

3.
i=1

|yi t|
i=1

|xi t| para todo t R.

Analogamente, son equivalentes 1. y


w

x (submayorizacin) o

2. tr(f (y)) tr(f (x)) para toda funcin f : R R convexa y no decreciente. o


n n

3.
i=1

(yi t)
i=1

(xi t)+ para todo t R.

Demostracin. Slo probaremos la primer parte, puesto que los argumentos para probar la o o segunda son similares. Supongamos que y x. Entonces, existe una matriz doble estocstica a A = (aij ) tal que y = Ax. Luego, dada una funcin convexa f , se tiene que o
n n n n n n

tr(f (y)) =
i=1

f (yi ) =
i=1

f
j=1

aij xj

i=1 j=1

aij f (xj ) =
i=j

f (xj )

Es claro que 2 3, as que probemos que 3 1. Supongamos que los vectores x e y estn a ordenados de forma decreciente (ni 3 ni 1 depende del orden de las cordenadas). Tomando t < xn , se verica que tr(y) tr(x), y tomando t > x1 , que tr(y) tr(x). Por otro lado, dado x R, se tiene que x+ = (x + |x|)/2. Luego
n

(yi t)+ =
i=1

n i=1 (yi

t) + 2 t) + 2

n i=1

|yi t| |xi t|

n i=1 (xi

n i=1

=
i=1 n

(xi t)+ .
k k

Tomando t = xk , resulta
i=1 k

(xi t) =
i=1 k

(xi t) =
i=1 k

xi kt. Por lo tanto


n

yi kt =
i=1 i=1 n

(yi t) (xi t)+ =


i=1

(yi t)
i=1 k i=1

(yi t)+

k k

xi kt,
i=1

lo cual muestra que


i=1

yi
i=1

xi . 21

Corolario 2.1.12. Sean x, y Rn tales que x y y sea f : Entonces, (f (x1 ), . . . , f (xn )) w (f (y1 ), . . . , f (yn )). Demostracin. Ejercicio. o

R R una funcin convexa. o

Teorema 2.1.13 (Birkho ). El conjunto de matrices doble estocsticas DS (n) es convexo a y sus puntos extremales son las matrices de permutacin. Es decir que toda A DS (n) es o combinacin convexa de matrices de permutacin. o o Demostracin. Hay dos demostraciones usuales, ambas complicadas, divertidas y polmicas. o e Lamentablemente, no hay espacio en este curso para incluirlas. Pero se puede contar una de ellas: el primer paso es probar que si A DS (n), entonces existe Sn tal que ai(i) > 0, para todo 1 i n. Esto suele llamarse que A tiene una diagonal no nula. Suena razonable, si las y columnas deben sumar 1, pero la prueba no es fcil, y es conocida como a Teorema de los casamientos de Hall. El siguiente paso es hacer induccin en el nmero de entradas no nulas de A (desde o u 2 n hasta n ; porqu vale P(n)?). El paso inductivo se hace restndole a A la matriz de e a permutacin de , multiplicada por a = min ai(i) . Esto queda con entradas positivas (una o menos) y dobleestocatizable (todo suma justo 1 a).

2.2

Aplicaciones a matrices Hermitianas.

Teorema 2.2.1 (Teorema de mayorizacin de Schur). o Sea A H(n). Notamos d (A) = (a11 , . . . , ann ) Rn y (A) Rn el vector de los autovalores de A. Entonces, d (A) (A). Demostracin. Para demostrar que d (A) o (A) vamos a probar que d (A) = B (A), para cierta B DS (n). Como A H(n), si D = diag ((A)), existe U U(n) tal que A = U DU . Mediante cuentas elementales de matrices, se puede vericar que cada entrada de A tiene la forma: dados 1 i, j n,
n n

aij =
k=1

uki k ukj ,

en particular,

aii =
k=1

k |uki |2 .

Consideremos ahora la matriz B = (|uji |2 )ij que, por ser U unitaria, cumple B DS (n). Adems a n |uk1 |2 k k=1 |u11 |2 |un1 |2 1 . . . = . ... = d (A) . . . . B(A) = . . . . . n n |u1n |2 |unn |2 |u |2
kn k k=1

Luego, el Teorema 2.1.9 completa la demostracin. o Como corolario de este teorema encontramos una nueva caracterizacin para los autovalores o de una matriz Hermitiana. En este caso, para la suma de los k-primeros autovalores. 22

Corolario 2.2.2 (Principio del Mximo de Ky Fan). Sea A H(n). Entonces para a todo 1 k n,
k k

j (A) = max
j=1 j=1

Axj , xj ,

donde el mximo se toma sobre todas las k-uplas ortonormales {x1 , ..., xk } en a

Cn.
k

Demostracin. Fijemos 1 k n. Sea {x1 , ..., xk } una k-upla cualquiera de vectores o ortonormales. Sea U U(n) tal que sus primeras k columnas sean los vectores dados. Notemos B = U AU , que verica (B) = (A) y, adems, a Teorema de mayorizacin de Schur 2.2.1, o
k k k k

Axj , xj =
j=1 j=1

bjj . Por el

Axj , xj =
j=1 j=1

bjj
j=1

j (A).

Si consideramos en particular una k-upla ortonormal {x1 , ..., xk } compuesta por autovectores de A correspondientes a los autovalores 1 (A), . . . , k (A), obtenemos
k k k

Axj , xj =
j=1 j=1

xj , j (A)xj =
j=1

j (A).

De esta manera vemos que se alcanza la igualdad cuando se toma el mximo sobre todas las a k-uplas de vectores ortonormales. Como una consecuencia del principio mximo de Ky-Fan, obtenemos una interesante relacin a o de mayorizacin entre los autovalores de las matrices Hermitianas A , B y A + B. o Teorema 2.2.3. Sean A y B H(n). Sean (A), (B) y (A+B) los vectores que contienen los autovalores de A, B y A+B respectivamente, ordenados de manera decreciente. Entonces (A + B) (A) + (B)

Demostracin. Por el principio del mximo de Ky-Fan, para k : 1, ..., n, podemos escribir o a
k k

j (A + B) = max
j=1 j=1 k

xj , (A + B)xj
k

= max{
j=1 k

xj , Axj +
j=1

xj , Bxj }
k

max
j=1 k

xj , Axj + max
j=1 k

xj , Bxj

=
j=1

j (A) +
j=1

j (B).

Finalmente, para k = n hay igualdad, porque tr(A + B) = tr (A) + tr(B). 23

Ejercicio 2.2.4. Dada C Mn (C), sea C= 0 C C 0 M2n (C).

Probar que C = {si (C)} (con las mismas multiplicidades). Es decir, (C) = (s1 (C), , sn (C), sn (C), , s1 (C)). (7)

Corolario 2.2.5. Sean A, B H(n). Entonces s(A + B)


w

s(A) + s(B).

\ Demostracin. Notar que A + B = A+B. Aplicando el Ejercicio anterior y las desigualdades o \ resultantes de la relacin (A + B) (A) + (B) para 1 k n, se obtiene que s(A + o B) w s(A) + s(B).
Observacin 2.2.6. Notar que el resultado anterior es necesario para vericar que las o normas (k) de Ky Fan, denidas en el Ejemplo 1.7.1, cumplen la desigualdad triangular.

2.3

Normas unitariamente invariantes.

Denicin 2.3.1. Una norma | | en Mn (C) se dice que es una norma unitariamente o invariante (NUI) , si cumple que | U AV | = | A | para toda A Mn (C) y U, V U(n). Notar que, en tal caso, por el Teorema 1.6.3 se tiene que | A | = | (A) | . Denicin 2.3.2. Dada una norma N () unitariamente invariante, se dene la funcin o o gN : Rn R como gN (x1 , . . . , xn ) = N (diag (x1 , . . . , xn ))

Proposicin 2.3.3. Sea N una NUI. Entonces, para todo x Rn , o 1. gN es una norma en

Rn .

2. gN (x1 , . . . , xn ) = gN (|x1 |, . . . , |xn |). 3. gN (x1 , . . . , xn ) = gN (x(1) , . . . , x(n) ), para toda Sn . Observacin 2.3.4. Una funcin f : Rn R que cumple los o o tems 1, 2 y 3 de la Proposicin o anterior se denomina gauge simtrica. e 24

Demostracin. o 1. Ejercicio para el lector. 2. Sea xj = j |xj | donde wj = eij . Luego, como diag (1 , . . . , n ) U(n), gN (|x1 |, . . . , |xn |) = N (diag (|x1 |, . . . , |xn |)) = N (diag (1 , . . . , n ) diag (|x1 |, . . . , |xn |)) = N (diag (x1 , . . . , xn )) = gN (diag (x1 , . . . , xn )). 3. Sea P la matriz unitaria tal que
1 P diag (x1 , . . . , xn ) P = diag x(1) , . . . , x(n) .

Entonces, gN (x(1) , . . . , x(n) ) = N (diag x(1) , . . . , x(n) ) 1 = N (P diag (x1 , . . . , xn ) P ) = N (diag (x1 , . . . , xn )) = gN (diag (x1 , . . . , xn )).

Lema 2.3.5. Si g es una funcin gauge simetrica, entonces, g es montona, es decir, si o o |xi | |yi | para todo i {1, . . . , n}, entonces, g(x) g(y). Demostracin. Sin prdida de generalidad, podemos suponer que x, y Rn . Por un arguo e + mento inductivo, es suciente vericar que si t [0, 1], entonces, g(y1 , . . . , tyk , . . . , yn ) g(y1 , . . . , yk , . . . , yn ). En efecto, g(y1 , . . . , tyk , . . . , yn ) = g 1+t 1+t 1+t y1 , . . . , yk , . . . , yn + 2 2 2 1t 1t 1t + y1 , . . . , (yk ), . . . , yn 2 2 2 1t 1+t g(y) + g(y1 , . . . , yk , . . . , yn ) 2 2 1t 1+t = g(y) + g(y) = g(y). 2 2

Teorema 2.3.6. Sea g es una funcin gauge simtrica y x, y o e tonces, g(x) g(y).

Rn +

tales que x

y. En-

25

Demostracin. Como x w y, por el Ejercicio 2.1.4, existe u Rn tal que x T u o y. Por el Lema anterior, g(x) g(u). Dado Sn , notemos y = (y(1) , . . . , y(n) ). Por el Teorema 2.1.9, existe A Sn tal que u = A y para ciertos tales que [0, 1] y A = 1. Luego g(u) = g
A

g(y ) =
A

g(y) = g(y).

Teorema 2.3.7. 1. Si N es una NUI, entonces, gN es una funcin gauge simetrica. o 2. Si g es una funcin gauge simetrica, entonces, o A es una NUI en Mn (C). Demostracin. o 1. Esto es la Proposicin 2.3.3. o
g

= g(s1 (A), . . . , sn (A)) ,

A Mn (C)

2. Slo demostraremos la desigualdad triangular. Las dems propiedades quedan como o a ejercicio para el lector. Sean A, B Mn (C). Como s(A + B) w s(A) + s(B), se tiene A+B
g

= g(s(A + B)) g(s(A) + s(B)) g(s(A)) + g(s(B)) = A g + B g .

Teorema 2.3.8. Sean A, B Mn (C). Entonces, N (A) N (B) para toda NUI N , si y slo si A (k) B (k) para k = 1, . . . , n. o Demostracin. Es consecuencia del Teorema 2.3.6 para funciones gauge simtricas, y del o e Teorema 2.3.7. En efecto, si A (k) B (k) para k = 1, . . . , n, entonces s(A) w s(B). Por lo tanto g(s(A)) g(s(B)) para toda funcin gauge simetrica. La rec o proca es evidente. Corolario 2.3.9. Sean A, B Mn (C)+ tales que A B. Entonces, N (A) N (B) para toda norma unitariamente invariante N . Demostracin. Es consecuencia del Corolario 1.5.4, porque o sk (A) = k (A) k (B) = sk (B) , 1 k n.

26

2.4

Mayorizacin de matrices Hermitianas o

Hasta el momento slo hemos visto resultados relacionados con la mayorizacin de vectores. o o n Pero a cada matriz A H(n) se le puede asociar el vector (A) R formado por todos los autovalores de A. Esto permite la siguiente denicin, o Denicin 2.4.1. Si A, B H(n), se dice que A est mayorizada por B y se escribe A o a si se verica que (A) (B). Es decir, A B si tr A = tr B y
k k

j (A)
j=1 j=1

j (B),

1 k n, .

(8)

Denicin 2.4.2. Sea P H(n) un proyector (o sea P = P 2 = P ) y A Mn (C). Se o dene el pinching de A como la matriz CP (A) := P AP + (I P )A(I P ). Por ejemplo, si P proyecta sobre las primeras k cordenadas en A= B C D E CP (A) =

Cn, si
,

B 0 0 E

donde los bloques tienen los tamaos adecuados (por ejemplo, B Mk (C)). n Proposicin 2.4.3. Sea A H(n) y P H(n) un proyector. Entonces o CP (A) A.

Demostracin. Sea U = P (I P ) U(n). Es fcil ver que o a 2 CP (A) = A + U AU = A + U AU 1 . Pero, como (U AU 1 ) = (A), por el Teorema 2.2.3 se tiene 2 (CP (A)) por lo que CP (A) A. (A) + (U AU 1 ) = 2 (A),

Ejercicio: Claricar en qu sentido la Proposicin 2.4.3 (o mejor su extensin por induccin e o o o a k bloques), es una generalizacin del Toerema de mayorizacin de Schur. o o

2.5

Teoremas de Lindskii y sus aplicaciones.

En esta seccin usaremos la siguiente notacin: Si B Mn (C), llamaremos o o s(B) = (s1 (B), . . . , sn (B)) = (|B|), al vector de valores singulares de B, ordenados en forma decreciente. 27

Teorema 2.5.1 (Lidskii 1). Sean A, B H(n). Entonces (A) (B) (A B) (A) (B).

Ejercicio 2.5.2. 1. Decir porqu es incorrecta la siguiente prueba de la primera parte del e Teorema de Lidskii 1: Si A, B H(n), por el Teorema 2.2.3, (A) (A B) + (B). Por lo tanto, para todo 1 k n,
k k

j (A) j (B)
j=1 j=1

j (A B).

Deducimos entonces que (A) (B) tomando trazas.

(A B). La igualdad, para k = n, sale

2. Demostrar ( bien) la otra parte del Teorema. Teorema 2.5.3 (Lidskii 2). Sean A, B Mn (C). Entonces |s(A) s(B)|
w

s(A B).

Una ves resuelto el Ejercicio 2.5.2, se entender porque es necesaria (y suciente) esta versin a o ms tcnica del Teorema de Lidskii: a e Teorema 2.5.4 (Lidskii 3). Sean A, B H(n) y 1 i1 < . . . < ik n. Entonces
k k k

ij (A + B)
j=1 j=1

ij (A) +
j=1

j (B) .

Lema 2.5.5. Sea A H(n) y S Cn un subespacio de dimensin n-1. Si AS = PS APS : o S S es el comprimido de A a S, entonces: 1. 1 (A) 1 (AS ) 2 (A) 2 (AS ) . . . . 2. Sea v1 , . . . , vn una bon de autovectores de A, asociados a 1 (A) , . . . , n (A) (respectivamente). a. Si v1 , . . . , vk S, entonces, i (A) = i (AS ) para 1 i k. b. Si vk , . . . , vn S, entonces, i1 (AS ) = i (A), k i n. Demostracin. Se deduce de la Observacin 1.5.6 (y su demostracin). o o o Demostracin del Teorema de Lidskii 3. Lo haremos por induccin sobre n. El caso n = 1 o o es trivial. Sea n > 1. Considermos una bon {u1 , . . . , un } de autovectores de A asociados a (A) y {w1 , . . . , wn } una bon de autovectores de A + B asociados a (A + B). Dividiremos la prueba en casos.

28

Caso 1: (ik < n) Sea S el subespacio generador por los vectores w1 , . . . , wn1 . Por el item 2 del lema, para k = 1, . . . , n 1 se tiene que k (A + B) = k ((A + B)S ). Luego
k k

ij (A + B) =
j=1 j=1 k

ij ((A + B)S )
k

j=1 k

ij (AS ) +
j=1 k

j (BS )

j=1

ij (A) +
j=1

j (B) ,

donde, en la primera deisgualdad, se us la HI para AS y BS . o Caso 2: (1 < i1 ) Sea S el subespacio generador por u2 , . . . , un . Entonces,
k k

ij (A + B)
j=1 j=1 k

ij 1 (AS + BS )
k

j=1 k

ij 1 (AS ) +
j=1 k

j (B)

j=1

ij (A) +
j=1

j (B) .

Caso 3: (i1 = 1, ik = n) Sean 1 < l1 < . . . < lnk < n tales que {n l1 + 1, . . . , n lnk + 1} = {i1 , . . . , ik }c . Aplicamos el caso 1 o 2 para l1 , . . . , lnk , A, B y A B. (Notar que j (C) = j (C) = nj+1 (C)). Se tiene que
nk nk nk

lj (A B)
j=1 j=1

lj (A) +
j=1

j (B) .

Luego
nk nk nk

j=1

nlj +1 (A + B)
j=1

nlj +1 (A)
j=1

nj+1 (B) ,

y por lo tanto
nk nk nk

nlj +1 (A + B)
j=1 j=1

muavin lj + 1A +
j=1

nj+1 (B) .

Finalmente, como tr(A + B) = tr(A) + tr(B) se tiene que


k k k

ij (A + B)
j=1 j=1

ij (A) +
j=1

j (B) .

29

Demostracin del Teorema de Lidskii 1. Reemplazando en el tercer Teorema de Lidskii A+B o por A, A por B y B por A B se tiene que
k 1i1 <...<ik n k

max

ij (A) ij (B)
j=1

j=1

j (A B) .

(9)

Entonces, (A) (B)

(A B).

Demostracin del Teorema de Lidskii 2. Si recordamos el Ejercicio 2.2.4, obtenemos, para o 1 k n,


k 1i1 <...<ik 2n k

max

ij A ij B
j=1

=
j=1

|s(A) s(B)| , j

porque si 1 j n, entonces, por la frmula (7), o j A j B = sj (A) sj (B) y 2nj+1 A 2nj+1 B = (sj (A) sj (B)).

\ Por otro lado, aplicando la frmula (9) a A, B y a A B = A B, se tiene o


k 1i1 <...<ik 2n k

max

ij A ij B
j=1 k

j=1 k

\ j A B =

sj (A B) ,
j=1

y podemos concluir que


j=1

|s(A)

s(B)| j

j=1

sj (A B) .

Corolario 2.5.6. Sea | | una NUI en Mn (C) y A, B Mn (C). Entonces | (A) (B) | | A B | . Demostracin. Notar que s((A) (B)) = |s(A) s(B)| . Por lo tanto el Teorema de o Lidskii 2 implica que, para 1 k n, (A) (B) Luego se aplica el Teorema 2.3.8. Corolario 2.5.7. Sea | | una NUI en Mn (C) y A Gl (n). Sea U la unica matriz unitaria 1 tal que A = U |A| (i.e. U = A|A| U(n)). Entonces d | | (A, U(n)) = | A U | = | (A) I | .
(k)

AB

(k)

30

Demostracin. Sea V U(n). Entonces (V ) = I y, por el Corolario anterior, | A V | o | (A) I | . Por otra parte, sea W U(n) tal que |A| = W (A)W . Entonces A U = U W (A)W U W W = U W ((A) I)W . Ejercicio 2.5.8. Sea A Mn (C), y sea Mn (C)1 el conjunto de matrices en Mn (C) de rango uno (o cero). Sea Probar que si N es una NUI, dN (A, Mn (C)1 ) = N (1 (A)) y se alcanza en la matriz A1 = U W diag (s1 (A), 0, . . . , 0) W , donde A = U W (A)W . Probar, aparte, que A1 no depende de la matriz U U(n) elegida para realizar la descomposicin polar de A, pero s puede depender de W (si s1 (A) tiene o multiplicidad mayor que uno para |A|). Mostrar que otra manera de encontrar A1 es tomando A1 = s1 (A)yx , donde x es un vector tal que x 2 = 1 y Ax 2 = A sp = s1 (A), e y = U x . Generalizar el resultado al conjunto de matrices de rango a lo sumo k. 1 (A) = diag (0, s2 (A), . . . , sn (A)) . Dado que | | es una NUI, resulta que | A U | = | (A) I | .

3
3.1

Desigualdades de matrices.
Producto de Hadamard

Denicin 3.1.1. Dadas A, B Mmn (C) se dene el producto de Hadamard A B como o la matriz A B = [aij bij ]ij . Teorema 3.1.2 (Teorema de Schur). Sean A, B Mn (C)+ , entonces A B Mn (C)+ . Adems, si A > 0 y B > 0, entonces A B > 0. a Demostracin. La segunda parte se deduce de la primera. En efecto, si A > 0 y B > 0, o existen nmeros a, b > 0 tales que A aI y B bI. Entonces, aplicando dos veces el caso u que an no hemos probado, obtendr u amos A B aI B aI bI = abI > 0. Supongamos entonces que A, B Mn (C)+ . Es fcil ver que deben existir vectores vi , wi a n C , 1 i n, tales que
n n

Notar que este producto tiene sentido tanto para matrices como para vectores.

A=
i=1

vi vi 1/2

B=
i=1

wi wi .

En efecto, basta tomar como vi = Ci (A ) (resp. wi = Ci (B 1/2 )) y hacer algunas cuentas de matrices. Notar que si x Cn , entonces xx = (xk xl )kl . Por lo tanto,
n n vi vi i,j=1

AB = porque
vi

wj wj

=
i,j=1

(vi wj )(vi wj ) 0,

wj

= (vi wj ) . 31

3.2

Determinantes
n

Teorema 3.2.1 (Desigualdad de Hadamard). Si A Mn (C)+ , entonces det A


i=1

aii .

Si A > 0, la igualdad vale si y slo si A es diagonal. o Demostracin. Podemos suponer que A > 0, y entonces aii > 0, 1 i n. Consideramos o la matriz diagonal 1/2 D = diag a11 , . . . , a1/2 . nn Entonces B = D1 AD1 = (aii
1/2 1/2 ajj aij )ij

tiene unos en la diagonal. Adems, a


n

det B = det A det(D)2 = det A


i=1

a1 . ii

Por lo tanto, ser suciente mostrar que det B 1. Aplicando la desigualdad aritmticoa e 1 geomtrica obtenemos, e 1 det(B) = i (B) n i=1
n n n

i (B)
i=1

= (tr

B n ) = 1. n

y esto prueba el resultado. Con respecto a la igualdad, si la hubiera en la desigualdad aritmtico-geomtrica, entonces los nmeros involucrados deben ser todos iguales. Es decir e e u que todos los i (B) = 1. Pero entonces, como B 0, debe ser B = I, o sea A = D2 . Corolario 3.2.2. Sea A Mn (C). Entonces
n

| det A|
i=1

Ci (A) 2 .

Demostracin. Se aplica la desigualdad de Haramard a la matriz B = A A 0. Notar que o det B = | det A|2 y que Bii = Ci (A) 2 , para 1 i n. 2
detA Lema 3.2.3. Sean A Gl (n)+ , (A) = detA11 donde A11 es la submatriz principal de orden n 1 de A que resulta de borrar la primer la y columna de A y E11 Mn (C) es la matriz cuya entrada (1, 1) es 1 y las dems son todas nulas. Entonces A tE11 0 si y slo si a o t (A).

Demostracin. Es fcil ver, desarrollando por la primera columna, que o a det(A tE11 ) = det A t det A11 .
1 n

(10)

Si a1 , . . . , an > 0, entonces (
i=1

ai )1/n 1/n

ai . Se demuestra rpidamente usando que el log es una a


i=1

funcin cncava. o o

32

Luego, det(A tE11 ) 0 si y slo si t (A). Por otro lado, todas las dems submatrices o a principales de A tE11 obtenidas con las ultimas i las y columnas, son las mismas que las respectivas de A. Por lo tanto, el determinante de cada una de ellas es positivo. Luego, por el Teorema 1.5.9 (hecho desde abajo), tenemos el resultado para desigualdades estrictas. El caso general sale tomando l mite. Teorema 3.2.4 (Desigualdad de Oppenheim). Si A, B Mn (C)+ , entonces
n

det A
i=1

bii det A B

Demostracin. Si det A = 0, el resultado se deduce del Teorema de Schur 3.1.2, que asegura o que A B 0. Supongamos, entonces, que A > 0. La demostracin la realizaremos por o induccin sobre n. Si n = 1, el resultado es inmediato. Sea n 2 y supongamos el resultado o vlido para todas las matrices de dimensin n 1. Entonces, con las notaciones del Lema a o 3.2.3, sabemos que
n

det A11
i=2

bii det A11 B11 .

Por el Lema 3.2.3, si = (det A11 )1 det A, entonces A E11 0. El Teorema de Schur 3.1.2 dice que (A E11 ) B 0. Aplicando la frmula (10), como E11 B = b11 E11 y o (A B)11 = A11 B11 , resulta que 0 det(A B E11 B) = det A B b11 det(A11 B11 ). Aplicando la hiptesis inductiva, obtenemos o
n n

det A B b11 det A11 B11 b11 det A11


i=2

bii = det A
i=1

bii

y el teorema queda demostrado. Teorema 3.2.5 (Desigualdad de Fisher). Si A, P Mn (C)+ , con P un proyector, entonces det A det CP (A). Recordamos que CP (A) = P AP + (I P )A(I P ). Demostracin. Supongamos que dim R(P ) = k. Conjugando a P y a A con alguna matriz o unitaria (lo que no cambia los determinantes), podemos suponer que R(P ) es el subespacio generado por los primeros k elementos de la base cannica de Cn . O, lo que es lo mismo, o que P = diag (1, . . . , 1, 0, . . . , , 0), donde los unos llegan hasta el lugar k. Dado r N, llamemos Er Mr (C)+ a la matriz con todas sus entradas iguales a 1. 2 Notar que Er 0 porque 0 Er Er = Er = rEr . Consideremos la matriz de bloques B= Ek 0 0 Enk 33 Mn (C)+ ,

que verica que A B = CP (A). Ahora, aplicando la desigualdad de Oppenheim, tenemos que
n

det A = det A
i=1

bii det A B = det CP (A).

De los resultados anteriores obtenemos la siguiente relacin para el determinante del producto o convencional de matrices y el producto de Hadamard. Teorema 3.2.6. Si A, B Mn (C)+ , entonces det A det B det A B. Demostracin. El Teorema se deduce de las desigualdades de Hadamard y de Oppenheim. o En efecto,
n

det A det B det A


i=1

bii det A B.

3.3

Partes reales
A + A Re A = . 2

Si A Mn (C), se llama parte real de A a

Si x Cn , Re x es el vector de partes reales de sus cordenadas. Proposicin 3.3.1 (Ky Fan). Dada A Mn (C), sea (A) Cn el vector de autovalores o de A en algn orden. Entonces u Re (A) (Re A)

Demostracin. Ordenemos al vector (A) de tal modo que o Re 1 (A) Re 2 (A) . . . Re n (A) . Sea {x1 , . . . , xn } una base ortonormal respecto a la cual A es una matriz triangular superior (que existe por el Teorema 1.2.4). En particular, Axi , xi = i (A). Dado 1 k n, si S es el subespacio generado por x1 , . . . , xk y P el proyector ortogonal sobre S. Entonces
k k

Re j (A) =
j=1 j=1 k

Re Axj , xj = tr P Re AP
k k

=
j=1

j (P Re(A)P )
j=1

j (CP (Re A))


j=1

j (Re A) .

34

En las ultimas desigualdades se us que j (P Re(A)P ) (CP (Re A)), para 1 j k y, o adems, la Proposicin 2.4.3. La igualdad para k = n se debe a que a o Re tr(A) = tr(A) + tr(A) = tr 2 A + A 2 = tr(Re A).

Proposicin 3.3.2 (Kittaneh 95). Sean A, B Mn (C) tales que AB H(n). Entonces, o AB Re(BA) Demostracin. Comencemos notando que los autovalores de BA son los mismos que los de o AB (Ejercicio: vericarlo) y por ende son todos reales. Luego, usando la Proposicin 3.3.1, o obtenemos que (BA) = Re((BA)) (Re(BA)). Es fcil ver que esto implica que a (AB) = (BA) = max |k (BA)| max |k (Re BA)| = (Re(BA)),
1kn 1kn

(11)

porque si x y, entonces yn x x y1 . Pero maxk |xk | = max{x , x }, y lo mismo 1 1 n n para y. Por lo tanto, Como AB y Re BA H(n),

AB = (AB) (Re(BA)) = Re(BA) .

Proposicin 3.3.3 (Corach-Porta-Recht, 93). Sean T, S H(n) y supongamos que S o es inversible. Entonces, ST S 1 + S 1 T S 2 T Demostracin. Aplicar la desigualdad de Kittaneh a A = T S 1 y B = S. o Observacin 3.3.4. En realidad, la desigualdad de Kittaneh, y por ende tambin la CPR, o e son ciertas para toda NUI. Esto se hace generalizando la ecuacin (11) a una mayorizacin o o dbil e s(AB) = |(AB)| = |(BA)| w |(Re BA)| = s(Re BA), lo que saldr usando Ky Fan 3.3.1 y que f (x) = |x| es una funcin convexa. Se propone la a o vericacin como ejercicio, dado que el Corolario 2.1.12 tambin lo es. o e Notar que se est usando que (AB) = (BA), es decir, no slo tienen los mismos a o autovalores, sino las mismas multiplicidades. Esto es cierto, y es otro ejercicio para el lector.

35

4
4.1

Teor de Perrn-Frobenius. a o
Matrices de entradas positivas.

A lo largo de este cap tulo, usaremos la siguiente notacin: dadas A, B Mn (C) y x Cn : o 1. A b 0 si Aij 0, 1 i, j n. 2. A > 0 si Aij > 0, 1 i, j n. 3. |A| = (|aij |)ij y analogamente |x| = (|x1 |, . . . , |xn |). 4. A T B si aij bij , 1 i, j n. 5. El vector (1, 1, . . . , 1) ser denotado por medio de e. a El objetivo de este cap tulo es la demostracin del Teorema de Perrn, para matrices de o o entradas estrictamente positivas y sus generalizaciones a matrices de entradas no negativas. Teorema 4.1.1 (Perrn). Sea A > 0. Entonces vale: o 1. (A) > 0 y (A) (A). 2. Existe x Rn tal que x > 0 y Ax = (A)x. 3. Si y b 0, y = 0 y Ay = y, entonces, = (A) e y > 0. 4. (A) es raz simple del polinomio caracter stico de A. 5. Si (A) y = (A), entonces, || < (A). 6. Si (A) = 1, entonces, An L = xy t donde x, y > 0 son vectores tales que
n

x, y = 1, Ax = x, y At y = y. Antes de demostrar el Teorema dee Perrn, presentaremos varios resultados generales para o matrices A b 0, su radio espectral y los autovectores correspondientes. Proposicin 4.1.2. Si 0 T A T B, entonces, (A) (B). o Demostracin. Como 0 T A T B, entonces, para todo n 1 se tiene que 0 T An T B n . Por o lo tanto An 1/n B n 1/n y, tomando l mite, se obtiene la desigualdad buscada . 2 2 Corolario 4.1.3. Si 0 < A, entonces (A) > 0. Demostracin. Si 0 < A, existe > 0 tal que I T A. As (A) (I) = > 0. o Corolario 4.1.4. Sean A b 0, J {1, . . . , n} y AJ = (aij )i,jJ . Entonces (AJ ) (A). Demostracin. Basta extender AJ a Mn (C) poniendo ceros en las entradas que le faltan, y o aplicar la Proposicin 4.1.2. o

36

Observacin 4.1.5. Recordemos que, dada A Mn (C), o | A| | A| Si A b 0, entonces Fi (A)


1

= max
x x
=1 1 =1

Ax

= max Fi (A)
1in 1in 1

= max Ax

= max Ci (A)
1

= | At |

= tr(Fi (A)) y Ci (A)

= tr(Ci (A)).

A continuacin vienen tres Lemas que sirven para ubicar el radio espectral de una matriz o A b 0 usando la Observacin anterior: o Lema 4.1.6. Sea A b 0. Si tr(Fi (A)) es constante, entonces, (A) = | A | Demostracin. La desigualdad (A) | A | o | A | e, se tiene que | A | (A). Lema 4.1.7. Sean A b 0, = max tr(Fi (A)) = | A |
1in .

vale siempre. En nuestro caso, como Ae =

= min tr(Fi (A)).


1in

Entonces (A) . Demostracin. La desigualdad (A) es conocida, por lo tanto slo vericaremos que o o (A). Podemos suponer que > 0. Denamos entonces la matriz B Mn (C) cuyas las son: Fi (B) = Fi (A). tr(Fi (A))

Lema 4.1.8. Sea A b 0, x > 0 e y = Ax. Notemos = min Entonces (A) .


1in

De este modo, tr(Fi (B)) = para todo i 1. En consecuencia, usando el Lema 4.1.6 y la Proposicin 4.1.2, = (B) (A), ya que, por su construccin, 0 T B T A. o o yi xi yi . xi

= max

1in

Demostracin. Sea D = diag (x). Entonces, por cuentas elementales, obtenemos que D1 AD = o (x1 xj aij )ij . Adems D1 AD b 0 y (D1 AD) = (A). Por otro lado se tiene que a i
n

tr(Fi (D1 AD)) = x1 i


j=1

aij xj =

yi (Ax)i = . xi xi

Luego basta aplicar el Lema 4.1.7. Teorema 4.1.9. Sean A b 0 y x > 0. 1. Si existen , R tales que x T Ax T x, entonces (A) . 37

2. Si x es un autovector de A (y es x > 0), entonces Ax = (A)x. Demostracin. La primera parte se deduce inmediatamente del Lema 4.1.8. Supongamos o que Ax = x. Como Ax b 0, debe cumplirse que 0, en particular R. Luego se verican las hiptesis de la primera parte con = = . o Observaciones: 4.1.10. 1. Las desigualdades anteriores (para y para ) son independientes. 2. Adems, si x > 0, x < Ax implica < (A) y Ax < x implica (A) < . En a efecto, si en los Lemas 4.1.7 y 4.1.8 se toma estrictamente menor que los m nimos correspondientes, se obtiene < (A). A partir de este momento A > 0. Notar que esto implica que si 0 T x y x = 0, entonces Ax > 0. Este hecho se usar reiteradas veces. a Proposicin 4.1.11. Sea A > 0 y (A) tal que || = (A). Si y = 0 cumple que o Ay = y, entonces: 1. |y| > 0 2. A|y| = (A)|y| Demostracin. Sea x = |y|, entonces por la desigualdad triangular, o Sea z = Ax(A)x b 0. Supongamos que z = 0. Entonces Az > 0. Si llamamos u = Ax > 0, Az = Au (A)u > 0. Por lo tanto, Au > (A)u y, por la Observacin 4.1.10, se obtiene la o contradiccin (A) > (A). Dado que esta provino de suponer que z = 0, se tiene que z = 0 o y por ende Ax = (A)x. Notar que esto implica que |y| = x > 0. Corolario 4.1.12. Si A > 0, entonces, (A) (A) y existe x > 0 tal que Ax = (A)x. Proposicin 4.1.13. Sean A > 0 y (A) tales que || = (A). Si y = 0 cumple que o Ay = y, entonces, existe [0, 2) tal que |y| = ei y. Demostracin. Por la Proposicin 4.1.11 A|y| = (A)|y|. Adems |Ay| = |y| = (A)|y|. En o o a consecuencia, |Ay| = A|y|. Luego, existe [0, 2) tal que yj = ei |yj | para todo j, porque vale la igualdad en la desigualdad triangular (basta mirar las primeras cordenadas de |Ay| y A|y|). Corolario 4.1.14. Si A > 0, entonces (A) es el unico autovalor de mdulo mximo. o a Corolario 4.1.15. Sea A > 0. Entonces dim N u(A (A)I) = 1. Demostracin. Sean x, y N u(A (A)I). Probaremos que son linealmente dependientes. o Por la Proposicin 4.1.13 se puede suponer que x > 0 e y > 0. Sea = min xi /yi , y o
i

(A)x = ||x = |y| = |Ay| T A|y| = Ax.

denamos z = x y. Como xi yi xi (xi /yi )yi = 0, se tiene que z 0. Dado que Az = (A)z, si z = 0, entonces, z > 0. Pero, si = xk /yk , entonces, la coordenada k-sima de z es cero. El absurdo, proviene de suponer que z = 0, por lo tanto, e z = 0 y x = y. 38

Corolario 4.1.16. Sea A > 0 y x Rn tal que x b 0, x = 0 y Ax = x. Entonces, = (A) y x > 0. Demostracin. Como Ax > 0, y por ende x > 0, se puede aplicar el Teorema 4.1.9. o Teorema 4.1.17. Sea A > 0 tal que (A) = 1. Sean x, y Rn tales que x, y = 1, x, y > 0, Ax = x y At y = y. Entonces, Am xy t .
n

Demostracin. Sea L = xy = (xi yj )ij o 1. L2 = Lm = L: En efecto, L2 = xy t xy t = x x, y y t = xy t = L. 2. AL = LA = L: Axy t = xy t = xy t A. 3. (A L)m = Am L: Razonemos por induccin sobre m. Para m = 1 trivial. o (A L)k+1 = (A L)(A L)k = (A L)(Ak L) = Ak+1 AL LAk + L = Ak+1 L L + L = Ak+1 L. 4. (A L) \ {0} (A) {1} (En particular, (A L) < 1.): Sea C = 0 y z Cn z = 0 tales que (A L)z = z. Como L(L A) = 0, se tiene que 1 1 Lz = L(z) = L(L A)z = 0. Luego, Az = z y por lo tanto (A). Si = 1, entonces, z = x y por lo tanto (A L)x = x. Pero Ax = x y Lx = xy t x = x, en consecuencia, (A L)x = 0 = x, absurdo. 5. Como el unico (A) con || = 1 es = 1, se tiene que (A L) < 1 y por ende m A L = (A L)m 0 cuando m . Final de la demostracin del Teorema de Perrn. Slo falta vericar que (A) es ra simple o o o z del polinomio caracter stico de A. Supongamos, sin perdida de generalidad, que (A) = 1. En cierta base de Cn , es decir, para cierta S Gl (n), J1 0 0 . . SAS 1 = . . . . . , . . 0 0 Jr donde J1 es el bloque de Jordan asociado al autovalor 1 de A. Entonces J1 = Ik + Nk , donde Ik es la matriz identidad de Mk (C) y Nk Mk (C) es cierta matriz extrictamente triangular superior. Luego 1 0 1 . . .. . . m . . . . SLS 1 , J1 = . . . . . m 0 0 1 0 0 0 1 pero SLS 1 tiene rango 1. En consecuencia, J1 = 1. 39

4.2

Matrices de entradas no negativas.


0 1 1 0

El Teorema de Perrn falla en general si A b 0 pero A > 0. Por ejemplo, si o A= ,

entonces Am = A o I, segn m sea impar o par. Adems, (A) = {1, 1}. En este u a caso el autovector asociado al 1 es positivo estricto (es e). Pero eso no pasa para la matriz 1 0 A= . Es ms, todas las partes del Teorema pueden hacerse fallar tomando matrices a 0 0 diagonales de bloques adecuadas (Ejercicio). Sin embargo, hay una extensa clase de matrices no negativas en las que el Teorema sigue valiendo: Denicin 4.2.1. Sea A Mn (C) tal que A b 0. Diremos que A es una matriz irreducible o si existe un m 1 tal que Am > 0. Teorema 4.2.2. Sea A b 0 una matriz irreducible. Entonces valen: 1. (A) > 0 y (A) (A). 2. Existe x Rn tal que x > 0 y Ax = (A)x. 3. Si y b 0, y = 0 y Ay = y, entonces, = (A) e y > 0. 4. (A) es raz simple del polinomio caracter stico de A. 5. Si (A) y = (A), entonces, || < (A). 6. Si (A) = 1, entonces, Am L = xy t donde x, y > 0 son vectores tales que x, y = 1, Ax = x y At y = y. Demostracin. Sea m N tal que Am > 0. Por el Lema 1.7.5, o (Am ) = {m : (A)}. Por el Teorema 4.1.1 aplicado a Am , concluimos que (A) = (Am )1/m > 0. Sea (A) tal que || = (A) y x Cn tal que Ax = . Entonces, por lo anterior, m = (Am ) y Am x = (Am )x. De ah podemos deducir que algn mltiplo y de x cumple que y > 0, y u u por ello = (A) y Ay = (A)y. Adems, cada m (Am ) posee una multiplicidad en el polinomio caracter a stico de Am mayor o igual que la de en el de A (esto se ve fcil triangulando con el Teorema 1.2.4). a Por lo tanto (A) posee multiplicidad algebraica uno como autavalor de A. Razonamientos similares permiten concluir que (A) es el unico autovalor de mdulo mximo, y tambin la o a e condicin 3. o Slo falta probar la condicin 5: Supongamos sin prdida de generalidad que (A) = 1. o o e Dado que en la demostracin del Teorema de Perrn no se us que A fuera estrictamente o o o positiva para obtenerlas, siguen valiendo las sigientes relaciones: (A L)m = Am L (A L) \ {0} (A) {1} (12) se deduce que Am L. 40
m

(12) (13)

De (13) se deduce que (A L) < 1, por lo tanto (A L)m 0, mientras que usando

Referencias
[1] R. Bhatia; Matrix Analysis, Springer, Estados Unidos, 1997. [2] A. Benedek y R. Panzone; La matriz positiva y su espectro, Informe Tcnico e interno No.86, INMABB, Bah Blanca, 2003. a [3] M. C. Gonzlez; Relaciones de Mayorizacin para el Producto de Hadamard, a o Tesis de licenciatura, Depto. Mat. FCEA-UNC, Neuqun, 2003. e [4] R. Horn- C. Johnson; Matrix Analysis, Cambridge University Press, Estados Unidos, 1985. [5] R. Horn- C. Johnson; Topics in Matrix Analysis, Cambridge University Press, Estados Unidos, 1991.

41