Jorge Antezana y Demetrio Stojanoff

An´lisis Matricial a

Buenos Aires, Octubre de 2008.

Prefacio
El an´lisis matricial (AM) es una continuaci´n natural del ´lgebra lineal, pero considerando a o a que el cuerpo de escalares son los n´meros reales o los complejos, y con una mirada basada u en la problem´tica de las teor´ de espacios de Hilbert y de sus operadores acotados. a ıas Muchos problemas del an´lisis, la geometr´ diferencial, el an´lisis funcional, los sistemas a ıa a din´micos, la f´ a ısica te´rica y otras importantes teor´ pueden “bajarse” al caso de matrices. o ıas, Y eso sin mencionar todas las ramas de la matem´tica aplicada, que suelen tener a este tipo de a reducciones como herramienta principal. En general, poder reducir y reformular un problema al caso matricial es un ´xito, porque es mucho m´s viable resolver un problema de matrices e a que el problema de origen. Por todo lo anterior, mencionar aplicaciones del AM es innecesario. Cualquier matem´tico a quiere poder aplicarlo, y trata sistem´ticamente de hacerlo. Porque es un contexto donde las a cuentas se pueden hacer (o la mayor´ cree a priori que deber´ poder hacerse). M´s a´n, ıa ıan a u cuando la reducci´n a matrices de un problema P sigue siendo dif´ o ıcil, se puede concluir que P ten´ una dificultad intr´ ıa ınseca. Pero con dificultad o sin ella, el tema es c´mo resolver P en o matrices. Para poder hacerlo, hay que desarrollar a fondo una teor´ de matrices, o al menos una ıa extensa serie de herramientas para trabajar con ellas, que pueda resolver los inmumerables problemas que le “caen” de arriba. Podr´ decirse que eso es el AM. ıa Lo m´s interesante del AM es que es el contexto m´s basico (un alumno de segundo a a a˜o de la licenciatura ya puede entender la mayor´ de los enunciados) en el que se pueden n ıa plantear problemas matem´ticos bien dif´ a ıciles, muchos de ellos no resueltos a´n. Pero para u entender a fondo este tipo de problemas, sus ramificaciones, y las t´cnicas que se suelen e aplicar para resolverlos, hace falta hacer un curso espec´ ıfico de AM, que pueda ser atendido tanto por matem´ticos formados como por estudiantes de la licenciatura. Otra particularidad a remarcable, es que con ese solo basamento, alcanza para leer y entender (y porqu´ no hacer) e una gran cantidad de publicaciones actuales. Un t´ ıpico trabajo final para un curso de AM, es estudiar un paper de los ultimos 2 o 3 a˜os del tema. Y en muchos casos, con los contenidos ´ n de este texto se tienen (casi) todas las herramientas para poder entenderlo a fondo. Por otra parte, como toda teor´ matem´tica, el AM tiene su problem´tica propia. El tema ıa a a m´s t´ a ıpicamente matricial son las desigualdades, que involucran normas, autovalores, valores singulares, determinantes, trazas, etc. El estudio de desigualdades de matrices y operadores es de una gran sutileza y forma una especie de mundo aparte. Sus especialistas son unos tipos especiales, una especie de gremio de artesanos. Las t´cnicas que se usan suelen ser intrincadas e

iii

y de un gran ingenio. Se aplican ideas de toda la matem´tica, pero la teor´ tiene sus reglas a ıa propias y toda una gama de herramientas y m´todos espcec´ e ıficos. Una de esas herramientas, fundamental y no muy conocida, es otro tema central para el AM: La teor´ de mayorizaci´n ıa o (de vectores y matrices), y sus m´ltiples ramificaciones. Esta teor´ elemental pero dif´ u ıa, ıcil, est´ poco difundida entre los matem´ticos, por lo que ha sido y sigue siendo redescubierta a a innumerables veces en distintas ´reas, muchas veces con terminolog´ ad hoc. Si bien la a ıas n mayorizaci´n aparece como una forma de comparar vectores de R , cuando se la piensa en o vectores de autovalores o de valores singulares, se percibe r´pidamente que es una noci´n a o intr´ ınsecamente relacionada con la teor´ de matrices. Estos dos aspectos: mayorizaci´n y ıa o desigualdades, son desarrollados con profundidad en este texto. Una rama muy diferenciada del AM, la de matrices de entradas no negativas, llamada teor´ de Perron y Frobenuis, podr´ tener el rango de ´rea independiente. De ella daremos ıa ıa a un cap´ ıtulo con las bases principales de la teor´ y otro cap´ ıa, ıtulo exponiendo una de sus ramas: las matrices totalmente positivas. Este libro es el resultado de m´s de una decena de cursos, dictados en diversos departaa mentos de matem´tica (FCEN-UBA, FI-UBA, FCE-UNC y, sobre todo, en la FCE-UNLP) y a en varios congresos, en los ultimos a˜os. Es importante aclarar que se asumen como conocidos ´ n (y no se exponen en este texto) todos los contenidos de un curso inicial de ´lgebra lineal. Para a comodidad del lector, y para fijar notaciones y prerrequisitos, se enumeran al pricipio del primer cap´ ıtulo todas las nociones y resultados espec´ ıficos de un tal curso que ser´n usados a a lo largo del texto. Cualquier libro de ´lgebra lineal (y hay miles) sirve como referencia para los a mismos. Si me dan a elegir, yo recomiendo el de K. Hoffman y R. Kuntze [6] para algebristas, y el de P. D. Lax [10] para analistas. Debo mencionar que este libro est´ fuertemente basado en cuatro excelentes textos que a son la bibliograf´ b´sica en el tema: los dos tomos Matrix Analysis [7] y Topics of Matrix ıa a Analysis [8] de R. Horn y C. Johnson, el reciente libro [4] y, sobre todo, el maravilloso libro Matrix Analysis [3], ambos de R. Bhatia. Sin embargo, hay varios aspectos que lo diferencian. Por un lado, el presente texto est´ pensado como base para un curso elemental, y organizado a efectivamente para que todo el material pueda darse en un cuatrimestre. Por otro lado, hay fuertes diferencias en la manera de encarar muchos de los temas, y se incluyen resultados m´s a modernos y numerosas pruebas simplificadas de resultados cl´sicos, en base a publicaciones a recientes o al aporte de alumnos, ayudantes y profesores de todos los cursos antes mencionados. Los temas elegidos son solo una peque˜a parte de la teor´ pero son la base principal sobre n ıa, la que se edifican la mayor´ de las ´reas no incuidas en el texto. Hay muchas t´cnicas de ıa a e an´lisis, funciones anal´ a ıticas y geometr´ diferencial que suelen ser efectivas para problemas de ıa matrices. Ese tipo de interacciones no est´n incluidos porque el texto est´ pensado para una a a audiencia no necesariamente experta. Una referencia escencial para esa clase de recursos son los libros mencionado de R. Bhatia [3] y [4]. Otra teor´ aparte, poco desarrollada aqu´ es la ıa ı, de perturbaciones de matrices (autovalores, autovectores, etc). Sobre estos temas, se podr´ ıan mencionar varios cap´ ıtulos de [3], y tambi´n el monumental tratado de T. Kato [9]. Tampoco e se hace mucho incapi´ en este texto en los m´todos algor´ e e ıtmicos, que vendr´ a ser la otra pata ıan de la teor´ Bajado un problema a matrices, hay dos alternativas: resolverlo te´ricamente ıa. o (para ese lado va este texto) o resolverlo aproximando, dado que en matrices se puede (si no

iv

son muy grandes). La bibliograf´ sobre aproximaci´n mediante algoritmos es inmensa, y nos ıa o limitaremos a citar el excelente tratado Matrix computations [2] de G. Golub y C. F. Van Loan, y la bibliograf´ que all´ aparece. La mayor´ de las herramientas necesarias para los ıa ı ıa algoritmos mencionados, y muchos de los procedimientos espec´ ıficos que ellos usan, s´ est´n ı a expuestos en el texto; pero sin hacer hincapi´ en la ´ptica de la velocidad de convergencia o la e o robustez ante perturbaciones, sin´ en la problem´tica te´rica que presentan. Otros temas que o a o no tratamos son los de matrices diagonalizables, polinomios minimales y formas can´nicas, en o particular la forma de Jordan. Esto es porque ese tipo de resultados no se usar´n en el resto a del texto, y porque suelen estar incluidos en un buen curso b´sico de ´lgebra lineal. Los dos a a libros antes mencionados ([6] y [10]) dan excelentes tratamientos de estos temas. Muchos de los resultados que expondremos siguen siendo v´lidos en contextos m´s gea a nerales que las matrices reales o complejas. Por ejemplo matrices a coeficientes en cuerpos generales o en anillos, ´lgebras de Banach, operadores en espacios de Banach o de Hilbert, a a ´gebras de operadores (C∗ y de von Neumann). Esto sucede particularmente con resultados de los cap´ ıtulos 1 (en las secciones 5, 7 y 9), 3, 6, 7, 8 (secci´n 3), 9, 10 y 12. La decisi´n o o que tomamos para presentarlos fue dar demostraci´nes espec´ o ıficas para el caso matricial y, por lo general, mencionar luego los contextos donde siguen valiendo, y las t´cnicas diferentes e para cada uno de ellos. La principal raz´n que justifica este enfoque es que el libro busca ser o autocontenido en un nivel elemental, y que las teor´ mencionadas son muy variadas, lo que ıas har´ muy dif´ dar las demostraciones generales sin largas secciones introductorias de cada ıa ıcil una de ellas. Adem´s, las pruebas para el caso matricial suelen ser much´ a ısimo m´s simples a y breves, y brindan un manejo interesante de las t´cnicas propias del AM. Por otra parte, e opinamos que es muy util el enfrentarse con una primera versi´n de enunciados complicados ´ o en un ´mbito menos complicado, para despu´s poder entender el significado de esos enunciados a e en los contextos m´s espec´ a ıficos (adem´s de su nueva demostraci´n). a o Sin embargo, este enfoque tiene un l´ ımite. Por lo tanto, una parte importante del AM hemos decidido desarrollarlo en el ambiente m´s general de operadores en espacios de Hilbert. a Se seleccionaron para esa parte aquellos resultados cuyas pruebas difieren poco al aumentar la generalidad, y que forman una rama imporante de la teor´ de operadores, aunque mantengan ıa un esp´ ıritu claramente matricial. Sin embargo, ese trabajo se realizar´ en un segundo volumen, a dado que el contenido del presente libro ya es suficiente para un curso cuatrimestral, y porque la segunda parte requiere una introducci´n espec´ o ıfica de espacios de Hilbert que no consideramos necesaria para este texto puramente matricial.

Los contenidos del libro est´n suficientemente explicitados en los t´ a ıtulos de las secciones del ´ ındice. A continuaci´n haremos algunos comentarios sobre el enfoque aplicado en cada o cap´ ıtulo. Como se dijo anteriormente, al principio del cap´ ıtulo 1 se enumera una serie de notaciones y resultados del ´lgebra lineal elemental. En la secci´n 5 se presentan varias a o f´rmulas elemetales, pero no demasiado conocidas, para operar con matrices. De particular o importancia es el manejo de matrices de bloques y las t´cnicas para operar con ellas. Luego e se presenta el teorema de Schur que muestra la equivalencia unitaria de toda matriz con una triangular superior. Este teorema, si bien suele estar incluido en los textos elementales, es

v

presentado en detalle porque ser´ de importancia clave para numerosos resultados a lo largo a de todo el libro. El cap´ ıtulo culmina con tres secciones de resultados elementales, que tambi´n e ser´n muy usados m´s adelante: polinomios aplicados a matrices, descomposici´n QR y las a a o propiedades b´sicas de las matrices de rango uno. a Los cap´ ıtulos 2 y 3, sobre matrices normales, autoadjuntas y positivas, empiezan con material b´sico, desarrollan en detalle las propiedades variacionales de los autovalores de a matrices autoadjuntas, y dan una versi´n finitodimensional de los principales resultados de la o teor´ de operadores en espacios de Hilbert, pero con las notaciones tradicionales del AM. Se ıa propone un estudio exhaustivo de las propiedades y caracterizaciones de las matrices definidas positivas, dado que suelen ser las protagonistas de las m´s interesantes desigualdades que se a estudiar´n m´s adelante. Por otra parte, muchos problemas generales de matrices pueden a a reducirse al caso positivo, a traves de yeites como tomar partes reales e imaginarias (ah´ se ı cae en las autoadjuntas) y luego positivas y negativas, usando matrices de bloques de 2 × 2, o bien usando la descomposici´n polar. o Los cap´ ıtulos 4 y 5 tratan sobre mayorizaci´n, primero en su versi´n vectorial, y despu´s o o e en sus primeras aplicaciones a las matrices. El tratamiento es muy detallado, porque consideramos que es un tema poco difundido, y que es sumamente util en muchas ramas de la ´ matem´tica, adem´s de ser escencial para el AM. El cap´ a a ıtulo 6, sobre monoton´ y convexidad ıa de operadores, incluye una introducci´n al c´lculo funcional para matrices autoadjuntas, en o a el estilo del de operadores en espacios de Hilbert, pero con pruebas ad hoc. Luego se dan las principales caracterizaciones y propiedades de las funciones mencionadas, que son herramientas escenciales para estudiar desigualdades de matrices y operadores. Este cap´ ıtulo esta fuertemente basado en la exposici´n de estos temas que se hace en el libro de Bhatia [3]. o Sin embargo, hay importantes diferencias de enfoque, se presentan muchas pruebas diferentes, y la selecci´n de resultados presentados es distinta. o En el cap´ ıtulo 7 se da una introducci´n b´sica a la teor´ de productos tensoriales y alo a ıa ternados, como siempre con pruebas adecuadas al contexto matricial. Esta teor´ por ser ıa, bastante ardua de exponer, suele aparecer mencionada sin mucho detalle en los libros, en funci´n de poder aplicar los recursos que brinda (escenciales para entender las propiedades de o los determinantes y como herramienta para probar desigualdades) sin meterse en camisa de once varas. Aqu´ intentamos dar una exposici´n detallada y (casi) autocontenida, dado que ı o el contexto matricial lo permite sin que el esfuerzo sea excesivo, y porque en cap´ ıtulos posteriores necesitaremos trabajar con propiedades muy espec´ ıficas del determinante de matrices y submatrices. El tema es que una buena presentaci´n de los productos alternados permite o justificar completamente todas esas propiedades, trabajo que se inicia en la secci´n 3, y se o contin´a en el cap´ u ıtulo 12. El cap´ ıtulo 8 trata sobre productos de Hadamard. Aqu´ tambi´n el tratamiento es muy ı e detallado, porque es un ´rea que aparece poco en los tratados del tema, es un tema fuerte de a investigaci´n dentro del AM, y tiene adem´s muy intereantes aplicaciones en otras disciplinas. o a Se presenta una pueba completa del teorema de Haagerup que caracteriza la norma del operador de multiplicaci´n (de Hadamard) por una matriz fija, relativa a la norma espectral de o matrices. El cap´ ıtulo 9 presenta una serie de importantes desigualdades de matrices, y puede pen-

sarse como lugar en el que se concentran las t´cnicas y desarrollos realizados en los cap´ e ıtulos anteriores. La lista no es exhaustiva, pero da una idea de las principales l´ ıneas de la teor´ y ıa, presenta la mayor´ de las t´cnicas usuales que se utilizan para mostrar este tipo de desigualıa e dades. En el cap´ ıtulo 10 se estudian las principales propiedades del rango y del radio num´ricos e de matrices. Los teoremas m´s importantes que desarrollamos son el de Hausdorff-Toeplitz a sobre la convexidad del rango num´rico, y el de T. Ando sobre caracterizaciones matriciales e del radio num´rico. e Los ultimos tres cap´ ´ ıtulos enfocan la teor´ de Perron-Frobenius sobre las matrices de ıa entradas positivas, y las totalmente positivas. En el 11 se exponen los resultados cl´sicos a sobre matrices estrictamente positivas, no negativas e irreducibles. En el 12 se introducen los complementos de Schur y numerosas t´cnicas con determinandtes que, adem´s de tener un e a inter´s propio, son la herramienta clave para desarrollar, en el cap´ e ıtulo 13, una introducci´n o a la teor´ de matrices totalmente positivas. Esta cap´ ıa ıtulo se basa en un trabajo de T. Ando [20], y est´ escrito utilizando como punto de partida al trabajo final de A. Iglesias para un a curso de AM dictado en La Plata. Todos los cap´ ıtulos tienen una ultima secci´n de ejercicios. Se proponen adem´s numerosos ´ o a ejercicios a lo largo del texto de cada cap´ ıtulo. Al principio de las secciones finales se los reenumeran, agreag´ndose a continuaci´n series de ejercicios nuevos. a o Qerr´ ıamos agradecer a Gustavo Corach por haber iniciado y habernos incluido en el trabajo de investigaci´n de nuestro grupo del IAM en los temas de An´lisis Matricial. Tambi´n va o a e nuestro agradecimiento a Celeste Gonz´lez, a partir de cuyo trabajo [25] se comenzo a escribir a la primera versi´n de este libro, a Pedro Massey, que nos aport´ invalorables comentarios e o o ideas (adem´s de muchos ejercicios), y a Agust´ Iglesias e Ivan Angiono, de quienes hemos a ın tomado algunos fragmentos de texto. Tambi´n agradecemos a los alumnos de los distintos e cursos que hemos dictado en estos a˜os, que han aportado una infinidad de sugerencias, n correcciones e ideas.

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. . . . . . . .4 Matrices triangulares . . . . . . . . . . . . . . . . 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 Normas en Mn (C) . . . . . . . . . . . . . . 1. . . . . . . . . 3. . . 1. . . . . . . . . . . . . . . . . . . . . . 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 Propiedades b´sicas . . . . . . 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. . . . . . . . . . . . . . . . . . . . . . . . . . .3 Parte positiva y parte negativa . . . . . . . 2 Matrices normales y Hermitianas 2. . 2. . . . . . 1. . . . . . 2. . . . . . . . . . . . . . . . . . . . . . . . .10 Ejercicios . . . . . . . . . 3. . . . . . . . . . . . . . . . . . . . . . . . . .2 Matrices Hermitianas . .1 Matrices normales . .´ Indice General 1 Preliminares 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Matrices definidas positivas 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .9 Matrices de rango uno .8 QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6 El Teorema de Schur y sus corolarios . . . .2 El espectro . . . . . . . . . . . . . . 0 0 6 8 9 10 13 15 17 19 20 25 25 27 28 31 34 37 37 39 42 43 46 48 49 53 . . . . . . . . . . .5 Herramientas para operar con matrices 1. . .5 Algunas caracterizaciones . . . . . . . . . . . . .3 Matrices unitarias . . . . . .5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 Entrelace de Cauchy . . . . . . . . . . . . . . . . . . . . . . . a 3. . . . . . . . . 1. . . . . . . . 1. . . . . . . . . . . . . . . . . . . . . 2. . . . . . . . . . . . . . . . . . . . . . . . . 1. 1. . . . . . .2 Descomposici´n polar y valores singulares o 3. . . . . . . . .7 Polinomios y matrices . . . . . . . . . .1 Generalidades . . . . . . . .8 Cortocircuitos . . . . . . . .6 El producto de Hadamard . . . . . . . . . . . . . . . . . .7 El famoso truco 2 × 2 . . .3 Principio minimax . . . . . . . . . . . . . .

. .5 El teorema de Haagerup . . . . .5 Ejercicios . . . .1 Propiedades b´sicas . . . .1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 Aplicaciones a matrices Hermitianas . . . . . . . . . . . . . . . . . .1 Continuidad del c´lculo funcional . . . . . . . . .4 Mayorizaci´n logar´ o ıtmica . . . . . . . . . . . . a 8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. . . . . . . . . . . . . . 8 Producto de Hadamard 8. . . . . 5. . . . . . . . . 5. . . . . . . . . . a 6. . . . . . . . . . .4 Mayorizaci´n de matrices Hermitianas . . . . . . . . . . . . . .3 Birkhoff. .2 Funciones mon´tonas de operadores . . . . . . . . . .4 Matrices incompletas . . . . . . . . . . . .1 Definiciones y caracterizaciones . 5. . . . . . . .4 Propiedades utiles de los productos alternados ´ 7. 7 Productos tensoriales y alternados 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. . . . . . . . . . . . . . . . . . . . . . a 6. . . . . . . . . . . . . . . . . .1 Producto tensorial de a dos . . . . . . . . . . . . . . . . . . . . . . . . .3 Funciones convexas de operadores . . . . . . . . . . . . . . . . .4 Ejercicios . . . .2 Teorema de Schur-Horn . . . . . . . . . . . . . . . . . . . . . . . . .´ INDICE GENERAL viii 3. . . .3 Normas unitariamente invariantes . . . . . . . . .1 C´lculo funcional . . . . . . . 8. . . . . . . . . . . . . . . . . . . . 6 Funciones mon´tonas y convexas de operadores o 6. . . 5 Mayorizaci´n de autovalores y valores singulares o 5. . . . Hall y los casamientos . . . . . .6 Ejercicios . . 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 5. . . . . . . . . . . . . 7. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. . . . . . . . . . . . . . . .2 Mayorizaci´n y funciones convexas o 4. . . . . . . . . . . . 5. . . . . . . . . . . . . . . .3 Productos alternados y determinantes . . . . . 57 64 64 71 73 76 77 80 80 83 87 91 95 99 106 106 108 109 112 117 123 128 128 130 132 140 142 147 147 149 150 153 155 4 Mayorizaci´n o 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 Diferenciabilidad del c´lculo funcional . . . . . . . . . . . . .3 Funcionales positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 6. . . . . . . . . . . . . . . . . . . . . . .5 Teoremas de Lindskii y sus aplicaciones . . . . . . . . . . . . . . . . . . . a 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. . . . . . . . . . . . . . .2 Potencias tensoriales . . 6. . . . . . . . . . . . . . .1. . . . . . . . . . . 8. . . . . . .5 Ejercicios . . . . . . . . . . . . . . . .2 La norma de un multiplicador Hadamard 8. . . .

.6 La t´cnica alternativa . . . . . . 13 Matrices totalmente positivas 237 13. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10. . .4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .4 Desigualdades de Young para matrices . . 12. . . . . . . . . .2 El Teorema de Hausdorff T¨eplitz o 10. . . . . . .5 Desigualdades tipo H¨lder para matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9. . . . . 10 Rango y Radio Num´ricos e 10. . . . . . . . .3 Ejercicios . . 157 Ejercicios .7 Primeras aplicaciones . 9. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .´ INDICE GENERAL ix 8. . . . . . . . . . . . . . . . . .1 Definiciones y criterios de positividad total . . . . . . . . . . . . . . . . . . . . . . . . 215 11. . . . . . . . . . . . . . . . . . . 237 . . . . . . . . . . . . . . . . . 11 Teor´ de Perron-Frobenius ıa 209 11. . a 12. . 223 12 Complementos de Schur y determinantes 12. . . . . . . . . . . . . . . . . 9. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12. .7 Determinantes . . . . . . . . . . . .8 La exponencial . . . . . . . . 160 163 163 166 167 168 175 179 180 182 184 187 189 192 194 197 197 198 202 204 207 9 Algunas desigualdades de matrices 9. . . . . . .13 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .9 Desigualdades de Araki y Cordes . . . . . . . . . 9. .2 Matrices de entradas no negativas . . . . . . . . . . . . . . . . . . . . . . . . . .1 Notaciones y definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .6 8. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .1 Definiciones y propiedades b´sicas a 10. . 9. . . . . . . . . . .12 Medias de operadores positivos . 9. . . . 9. . . . . . . . . . . . . . . . . . . . . . o 10. .1 Partes reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .10 Desigualades entre exponenciales . . . . . . . . . . . . . . . . . . . . . . . .1 Matrices de entradas positivas . . . . . . . . . . . . . . . . . . . . 225 225 229 232 235 . . . . . . . . . . . . . . . . . . . . . . .4 Comparaci´n con NUI’s . . . . . . . . . .3 Un poco m´s de complementos de Schur . . . . o 9. .2 Identidades asociadas a determinantes . . .3 Desigualdad aritm´tico-geom´trica en matrices e e 9. . . . . . . . . . . . . . . e 9. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .5 Ejercicios . . . . . . . . . .11 Desigualdad de Ando-Johnson-Bapat . . . . . . .2 Desigualdad de Thompson . . . . . . . . 9. . . . . . . . . . . . . . . . . . . 210 11. . . . . . . . .3 Caracterizaciones . . . . . . . 9. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

.6 13. . . . . . . . . . . . . . . . . .3 13. . . . . . . . . . . 242 246 250 253 260 267 271 276 278 281 284 Bibliograf´ ıa ´ Indice alfab´tico e Notaciones y abreviaturas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8 13. . . . . . . . o Totalmente Perron-Frobenius . . . . . . Ap´ndice: La prueba del criterio clave e Ejercicios . . . . . .5 13. . . . . Variaci´n de signos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Algunos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . .9 Permanencia de la positividad total . .7 13. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matrices oscilatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .´ INDICE GENERAL x 13. Factorizaciones LU y UL .2 13. . . . . . . . .4 13. . . . . . . . . . .

1) . 3. si es que hace falta aclarar su tama˜o. para todo i ∈ In y todo j ∈ Ir . Para empezar.n (C). Usaremos a C o R como cuerpo de escalares.m (C) y B ∈ Mm. si A ∈ Mn. . Cuando n = m.m (C). notaremos Mn (C) = Mn = Mn.m (C). las notaciones A = (Aij ) i∈In o A = (aij ) i∈In .n (R). y R∗ al conjunto de n´meros u u + reales positivos. a la matriz identidad. 6.r (C) y sus entradas son m (AB)ij = k=1 Aik Bkj . usaremos indistintamente. . usaremos el s´ ımbolo In para denotar al conjunto {1. n 10. 5. Para matrices reales escribiremos Mn. a entonces AB ∈ Mn. 7. denotaremos por AT ∈ Mm. . a las matrices cuadradas de n×n sobre C. sobre vectores a a y matrices. j∈Im j∈Im 8.m (C) = Cn×m . que usaremos a lo largo de todo el texto: 1. (1. . dada por Iij = 1 si i = j e Iij = 0 si i = j. 4.m (R) = Rn×m y Mn (R) = Mn.n (C) a su matriz traspuesta.Cap´ ıtulo 1 Preliminares 1. ij 9. dada por AT = Aji .1. al espacio de matrices rectangulares de n × m. 2. La suma y producto de matrices (cuando sus tama˜os lo permitan) se hacen con las n definiciones usuales del ´lgebra lineal. Dada A ∈ Mn. Dado n ∈ N. o bien In . Por ejemplo.1 Generalidades 1. Llamaremos Mn. Dado n ∈ N.r (C). Para denotar las entradas de una matriz A ∈ Mn. por conveniencia del contexto. enumeraremos las notaciones y convenciones m´s b´sicas. Llamaremos R+ al conjunto de n´meros reales no negativos. n} ⊆ N.1. 2. denotaremos por I ∈ Mn (C). para i ∈ In y j ∈ Im .

an ) ∈ Cn . Sea A ∈ Mn. 13. para cualquier n ∈ N y cualquier anillo conmutativo A. si tomamos 1 = (1. o 12. Los vectores de Cn ser´n pensados como vectores columna. Asumiremos como conocidas las propiedades del “determinante”. 1. fila) de A.2 (Matrices y operadores). En el Cap´ ıtulo 12 se profundizar´ ese estudio. denotaremos por diag (a)  a1 . . . V). d(A) = (A11 . . a2i . . En el Cap´ ıtulo 7 sobre productos tensoriales. . Dada A ∈ Mn (C). Es un polinomio a o m´nico de grado n. . que denotaremos det : Mn (A) → A. W) al C-espacio vectorial de transformaciones lineales T : V → W. si A ∈ Mn (C). . . Por otra parte. consideremos la matriz xIn − A ∈ Mn (C[x]). . . . es decir que identificamos a n n×1 C con C . Se usar´ la notaci´n Ci (A) ∈ Cn (respectivamente Fi (A) ∈ Cm ) a o para denotar a la i-´sima columna (resp.1. Su neutro es In . e 16. Por ejemplo. . . . El polinomio caracter´ ıstico de A est´ dado por la f´rmula PA (x) = det(xI − A) ∈ C[x]. si B ∈ Mn (C).1. Las columnas de A se pueden pensar como vectores de Cn . xn ) ∈ Cn ). Si V = W. Enumeraremos a continuaci´n las propiedades de las matrices o cuando son vistas como transformaciones lineales: 1. . . Sin embargo. Si a = (a1 . como vectores de Cm . Dada A ∈ Mn (C). que es un grupo (de Lie) con la multiplicaci´n usual de matrices.  ∈ Mn (C) . . ponemos L(V) = L(V. a usaremos desde ahora esas propiedades. se dar´n definiciones precisas. diremos que A es inversible si existe A−1 ∈ Mn (C). 18. . .1 Generalidades 1 11. . 15. si A ∈ Mn (C) e i ∈ In . . Denotaremos por Gl (n) = {A ∈ Mn (C) : A es inversible } . i. la unica matriz ´ −1 −1 que cumple que AA = A A = I. . a lo largo del texto los describiremos como una fila (estilo x = (x1 . su traza es el n´mero tr A = u i=1 Aii . . Ann ). ani ) ∈ Cn . . entonces Ci (A) = (a1i . Usaremos el hecho conocido de que. an ) =  . y se demostrar´n la mayor´ a a ıa de dichas propiedades. . Dada A ∈ Mn (C). o n 14. 0 an Por ejemplo. llamaremos L(V. . entonces diag (e) = In . .m (C). y sus filas. Dados dos C-espacios vectoriales V y W.. . . 1) ∈ Cn . Sin embargo. llamaremos d(A) ∈ Cn al la diagonal de A pensada como vector. diag (a) = diag (a1 . entonces tr AB = tr BA.e. ad referendum de sus pruebas (esperemos que no haya c´ ırculos muy viciosos). . 0 a la matriz diagonal  0 0 . 17. para ahorrar espacio.

.7. (1. entonces se tiene que Aei (m) = Ci (A) ∈ Cn . x. . . y ∈ Cn . si A ∈ Mn (C) o L(Cn ). 6. . 4. entonces A ∈ Gl (n) ⇐⇒ ker A = {0} ⇐⇒ R(A) = Cn . Por ejemplo. . denotaremos por Gen {X} al subespacio de V generado por X. Espacios de Hilbert finitodimensionales 1. Por lo tanto.m (C) es rk(A) = dim R(A) = dim Gen {C1 (A). Cn ) actuando por e m multiplicaci´n: si x ∈ C = Mm. . . o 2. . . . y = k=1 xk yk . · : Cn × Cn → C verifica las propiedades que definen a un tal producto: Dados v. escribiremos tambi´n e Gen {X} = Gen {x1 . la pensaremos tambi´n como un elemento de L(Cm . para todo i ∈ Im . . 5. u. veremos que coincide o e con el rango fila de A.15). entonces se puede pensar a A (o su restricci´n a S) como un operador en S. Cm (A) }. tenemos que R(A) = Gen {C1 (A). dado por u n x. . . 3. Si X = {x1 . En este contexto usaremos las notaciones conocidas: ker A = {x ∈ Cm : Ax = 0} y R(A) = A(Cm ) = Im(A) . . para aclarar el contexto. entonces 1. v = v. El rango de A ∈ Mn. . . M´s a adelante. xm }. usando el producto o de la Eq. Cm (A) }. . . . xm }.m (C).1 (C).m (C). si S ⊆ Cn es un subespacio y A ∈ Mn (C) verifica que A(S) ⊆ S. .3.1. Por el teorema de la dimensi´n. Algunas veces pensaremos a ciertas matrices como operando en espacios vectoriales m´s a generales. en la Observaci´n 3.1. En Cn consideraremos el producto interno (o escalar) com´n. w ∈ Cn y λ ∈ C. u .1). v. . em } a la base can´nica de Cm . . A veces seremos m´s a o a (m) (m) expl´ ıcitos. . .2) Es claro que ·. Si A ∈ Mn.1 Generalidades 2 2. v = 0 si y s´lo si v = 0. Se denotar´ por E = {e1 . que es la dim Gen {F1 (A). (1. . . entonces A(x) = A · x ∈ Cn . 8. Si A ∈ Mn. Dado un C-espacio vectorial V y un conjunto X ⊆ V.4 (ver tambi´n el Ejercicio 1. . 7. . Fn (A) }. v. En tal caso o diremos que “pensamos” a A|S ∈ L(S).1. em }. poniendo Em = {e1 . v ≥ 0 y v. .

entonces . definiremos su norma Eucl´ ıdea. Sea X ⊆ H.1. N (u + v) ≤ N (u) + N (v). 2. Muchas veces consideraremos otras normas de vectores y matrices. para todo i = j. si x = 1. Definici´n 1. 3. pero u.4. u Definici´n 1. tambi´n diremos que V es un “espacio de Hilbert” a secas. Una norma en V es una o funci´n N : V → R que verifica las siguientes condiciones: Dados u.1 Generalidades 3 3. Denotaremos por X ⊥ = {y ∈ H : y ⊥ x para todo x ∈ X}. 2 = xi . con K = C o R. H). . N (v) ≥ 0 y. . λu. Sea H un espacio de Hilbert. · . A x se lo llama unitario. 3. decimos que son ortogonales. diremos que el par (V. N (v) = 0 si y s´lo si v = 0. v. u + v. 4. Si H = K. v .6. λv = λ u. Sin´ hay que pedir que V sea completo.1. Si adem´s los vectores est´n normalizados. a la usual: n 1/2 x = x 2 = x. es decir xi a a el conjunto se dice ortonormal. 4. y N una norma en V. Si A ∈ L(H. ac´ se e a asume que dim V < ∞. Sea K = C o R y V un K-espacio vectorial. K) al espacio de operadores lineales de H en K (acotados. u + w = v. v = λ u. Sean V un K-espacio vectorial. si dim H = ∞). Por ello damos una definici´n general: o Definici´n 1.1. ·. w . xj = 0. v . y = 0. Los vectores x1 . v ∈ V y λ ∈ K. Usualmente usaremos letras H o K para tales espacios y notaremos por L(H. o bien (V. xi = 1 (i ∈ Ik ). Dado x ∈ Cn . y ∈ H.1. . x 1/2 = k=1 |xk | 2 . o 2. Cuando N proviene de un producto interno ·. N ) . N (λv) = |λ| N (v). · ) es un K-espacio de Hilbert . o 1. Dados x. o 1. 4. Cuando K = C.5. adem´s. K) notaremos por ker A a su n´cleo y R(A) a su imagen. . escribimos L(H) en lugar de L(H. y escribimos x ⊥ y si x. al subespacio ortogonal a X. o 1. 3. Ojo. xk ∈ H forman un conjunto ortogonal cuando xi . a o 2.

x > 0 para todo x ∈ H.3) (y la unicidad) se verifican f´cilmente las siguientes propiedades: a 1. Adem´s usaremos las siguientes notaciones: a . . Sean H y K espacios de Hilbert y sea A ∈ L(H. x ∈ H. (AB)∗ = B ∗ A∗ e I ∗ = I. Sean A. Dado A ∈ L(H) un operador en un espacio de Hilbert. definido positivo si Ax. tambi´n R(A) = (ker A∗ )⊥ . ij 2.2).1. o Definici´n 1. (A∗ )−1 = (A−1 )∗ . vi . la base can´nica En es una BON de Cn con el producto interno de la Eq. En otras palabras.1. H) que satisface ´ Ax. Si para cualquier BON fija B = {v1 . K). A∗ = Aji . Usaremos las siglas BON para denotar a una base ortonormal de H. 5. .9.7.1. z ∈ K. ker A = R(A∗ )⊥ y.1. semidefinido positivo si Ax. entonces A∗ = AT . En tal caso de escribe A > 0. En este contexto recordar que. vn } de H. se identifica a los operadores de L(H) con matrices en Mn (C) v´ ıa Aij = Avj . En tal caso. o a ıa ∗ En el caso finitodimensional. unitario si AA∗ = A∗ A = I.8 (Propiedades de la adjunta). si A ∈ Mn (C). 2. 6. al ser pensadas como operadores en a n H = C con el producto escalar y la norma usuales. j ∈ In . B ∈ L(H). 4. Hermitiano si A = A∗ . e 5. entonces la matriz de A∗ es AT . Supongamos que dim H = n. . i. 3.3) La demostraci´n de que A∗ existe es un resultado b´sico de la teor´ de espacios de Hilbert. A es inversible si y s´lo si A∗ es inversible. Dado λ ∈ C. Usando la Eq. j ∈ In . la traspuesta conjugada de la matriz de A. se tiene que (λA + B)∗ = λ A∗ + B ∗ . se puede construir a A usando BONes. En tal caso de escribe A ≥ 0. o Definici´n 1. decimos que A es: o 1. Se llama adjunto de o A al unico operador A∗ ∈ L(K. 4. normal si AA∗ = A∗ A. x ≥ 0 para todo x ∈ H. Los mismos nombres tendr´n las matrices de Mn (C). 6. para todo par i. (A∗ )∗ = A. A∗ z H . . (1. 1.1 Generalidades 4 5. 3. Por ejemplo. (1. z K = x. anti-Hermitiano si A = −A∗ . como veremos. si dim H < ∞. (1.

1.1 Generalidades

5

1. H(n) = {A ∈ Mn (C) : A = A∗ }. 2. U(n) = {U ∈ Mn (C) : U es unitaria }. 3. N (n) = {N ∈ Mn (C) : N es normal }. 4. Mn (C)+ = {A ∈ Mn (C) : A ≥ 0}. 5. Gl (n) = {A ∈ Mn (C) : A es invertible } y Gl (n)+ = Gl (n) ∩ Mn (C)+ . Lema 1.1.10 (Polarizaci´n). Sea H un C-espacio de Hilbert y sea A ∈ L(H). Entonces o 1 Ax, y = 4
4

ik
k=1

A (x + i k y), (x + i k y)

para todo par x, y ∈ H .

(1.4)

Demostraci´n. La cuenta es directa, y se deja como ejercicio. o Proposici´n 1.1.11. Sea H es un C-espacio de Hilbert y sea A ∈ L(H). Luego, las siguientes o condiciones son equivalentes: 1. A = 0. 2. Ax, y = 0 para todo par x, y ∈ Cn . 3. Az, z = 0 para todo z ∈ Cn . Demostraci´n. Es claro que 1 → 2 → 3. La implicaci´n 3 → 2 es consecuencia directa de o o la f´rmula de polarizaci´n (1.4). Si asumimos 2 y, para cualquier x ∈ H, tomamos y = Ax, o o 2 obtenemos que Ax = Ax, Ax = Ax, y = 0, por lo que A = 0. Observaci´n 1.1.12. Es importante se˜alar que el ´ o n ıtem 3 no implica a los otros en el caso de que H sea s´lo un R-espacio de Hilbert. Observar que no puede valer la polarizaci´n. o o 0 −1 Peor a´n, tomando como A = u ∈ L(R2 ) (una rotaci´n de 90 grados), es claro que o 1 0 Ax, x = 0 para todo x ∈ R2 . Veamos ahora una aplicaci´n a matrices: o Corolario 1.1.13. Sea A ∈ Mn (C). Entonces 1. A ∈ H(n) si y s´lo si Az, z ∈ R para todo z ∈ Cn . o 2. Mn (C)+ ⊆ H(n). Demostraci´n. Si A ∈ H(n) y z ∈ Cn , entonces Az, z = z, Az = Az, z . Si suponemos o que Az, z ∈ R para todo z ∈ Cn , entonces Az, z = Az, z = z, Az = A∗ z, z , ∀ z ∈ Cn =⇒ (A − A∗ ) z, z = 0 , ∀ z ∈ Cn .

Por la Proposici´n 1.1.11, deducimos que A = A∗ . Por la definici´n de Mn (C)+ , si se tiene o o + n que A ∈ Mn (C) , entonces Az, z ∈ R+ ⊆ R para todo z ∈ C .

1.2 El espectro

6

Ejercicio 1.1.14. Sean A, ∈ Mm,n (C). Entonces se tiene que A∗ A ∈ Mn (C)+ y
n

(A∗ A)i,j = Cj (A) , Ci (A) Cj (A)
j=1 2 n

,

para todo par i, j ∈ In .

En particular, tr(A∗ A) =

=
i,j=1

|aij |2 .

Ejercicio 1.1.15. Sean A, ∈ Mm,n (C)

L(Cm , Cn ). Mostrar que entonces

ker A = Gen {F1 (A), . . . , Fn (A) }⊥ ⊆ Cn . Deducir que rkF (A) := dim Gen {F1 (A), . . . , Fn (A) } = rk(A), o sea que los rangos fila y columna de A coinciden.

1.2

El espectro

Definici´n 1.2.1. Se llama espectro de una matriz A ∈ Mn (C) al conjunto de todos los o autovalores de A: σ (A) = {λ ∈ C : λ es autovalor de A} = {λ ∈ C : ker(A − λI) = {0} }, que es un subconjunto finito y no vac´ de C. ıo 1.2.2 (Propiedades del espectro de matrices). Sea A ∈ Mn (C). Valen: 1. λ ∈ σ (A) si y s´lo si existe x ∈ Cn tal que x = 0 y Ax = λx. o 2. Si µ ∈ C, entonces σ(A + µI) = σ(A) + µ = {λ + µ : λ ∈ σ(A)}. 3. A ∈ Gl (n) si y s´lo si 0 ∈ σ (A). M´s a´n, λ ∈ σ (A) si y s´lo si A − λI ∈ Gl (n). o / a u / o 4. Sea PA (x) ∈ C[x] el polinomio caracter´ ıstico de A. Luego λ ∈ σ(A) si y s´lo si o PA (λ) = 0, o sea que σ(A) es el conjunto de ra´ de PA (x). ıces 5. Como gr(PA ) = n, se tiene que 0 < |σ(A)| ≤ n. 6. σ(A∗ ) = σ(A). En efecto, usando 1.1.8, tenemos que A − λI ∈ Gl (n) ⇐⇒ (A − λI)∗ = A∗ − λ I ∈ Gl (n) . / / 7. Si A ∈ Gl (n), entonces σ (A−1 ) = σ (A)−1 = {λ−1 : λ ∈ σ(A)}. En efecto, es consecuencia de la igualdad ker(A − λI) = ker(A−1 − λ−1 I) (Ejercicio: probarla). Observaci´n 1.2.3. Vimos que los autovalores de A ∈ Mn (C) son las ra´ o ıces del polinomio caracter´ ıstico PA (x) = det(xI − A) y que gr(PA ) = n. Pero PA puede tener ra´ m´ltiples, ıces u por lo que σ (A) puede tener menos de n elementos (en tanto conjunto, sus elementos s´lo o pueden contarse de a uno). Muchas veces es necesario usar a cada λ ∈ σ (A) tantas veces

1.2 El espectro

7

como multiplicidad tiene como ra´ del caracter´ ız ıstico. Para hacer eso, factorizamos en C[x] a
n n

PA (x) =
i=1

(x − λi ) =
i=1

(x − λi (A) ), y diremos que o “λ(A) = (λ1 (A), . . . , λn (A) )” ,

“los autovalores de A son λ1 , . . . , λn ” ,

donde estaremos repitiendo cada autovalor de A tantas veces como multiplicidad tiene como ra´ de PA , y disponi´ndolos en alg´n orden de C fijado previamente (por ejemplo, el lexız e u icogr´fico en las coordenadas polares, con el cero al final). Por eso quedan n. Al vector a λ(A) ∈ Cn se lo llama “vector de autovalores de A”. Observaci´n 1.2.4. Sean A, B ∈ Mn (C) y S ∈ Gl (n) tales que B = SAS −1 . Luego B difiere o de A en un cambio de base. Se suele decir que A y B son similares y se nota A ∼ B. Por las propiedades del determinante, se tiene que PB (x) = det(xI − SAS −1 ) = det S(xI − A)S −1 = det(xI − A) = PA (x) , por lo que λ(A) = λ(B) y tambi´n σ(A) = σ(B). e Definici´n 1.2.5. Sea A ∈ Mn (C). o 1. El radio num´rico de A se define como e w(A) = m´x{ | Ax, x | : x ∈ Cn , x = 1 } . a 2. El radio espectral de A se define como ρ(A) = m´x{ |λ| : λ ∈ σ (A)} . a 3. La norma espectral de A es su norma como operador, inducida por la norma eucl´ ıdea de Cn . Es decir, A
sp

= m´x{ Ax : x ∈ Cn , x = 1} = m´ a ın{C ≥ 0 : Ax ≤ C x , x ∈ Cn } .

4. La norma 2 o norma Frobenius de A es su norma eucl´ ıdea, si la pensamos como un vector largo. Por el Ejercicio 1.1.14, tenemos que
n

A

2
2

=
i,j=1

|aij |2 = tr(A∗ A) .

(1.5)

Observar que, analizando los autovectores (unitarios) de A, se muestra f´cilmente que a ρ(A) ≤ w(A) ≤ A Tomando la matriz A =
sp

.

(1.6)

0 1 , se ve que las desiguadades pueden ser estrictas. En efecto, 0 0 ρ(A) = 0 , w(A) = 1/2 y A
sp

=1.

Ejercicio: verificarlo.

1.3 Matrices unitarias

8

1.3

Matrices unitarias

Recordemos que U ∈ Mn (C) es unitaria si U U ∗ = U ∗ U = I, y que U(n) denota al conjunto de matrices unitarias en Mn (C). Teorema 1.3.1. Si U ∈ Mn (C), las siguientes afirmaciones son equivalentes: 1. U ∈ U(n). 2. U ∗ ∈ U(n). 3. U ∈ Gl (n) y U −1 = U ∗ . 4. U preserva el producto escalar, o sea que U x, U y = x, y , para todo par x, y ∈ Cn .

5. Si B es una BON de Cn , entonces U (B) tamb´n lo es. e 6. Las columnas de U forman una BON de Cn . 7. Las filas de U forman una BON de Cn . 8. Para todo x ∈ Cn , se tiene que U x = x (o sea que U es una isometr´ ıa). Adem´s, U(n) es un grupo con la multiplicaci´n de matrices. a o Demostraci´n. Ejercicio. Se sugiere usar el Ejercicio 1.1.14 y, para probar que 8 implica todo o lo dem´s, usar la Proposici´n 1.1.11. a o Definici´n 1.3.2. Dadas A, B ∈ Mn (C), se dice que A es unitariamente equivalente a B y o se nota A ∼ B si existe U ∈ U(n) tal que A = U ∗ BU . = Observar que, como U(n) es un grupo, se tiene que ∼ es una relaci´n de equivalencia. o = Teorema 1.3.3. Sean A y B ∈ Mn (C) tales que A ∼ B. Entonces = λ(A) = λ(B) , donde A
2

= B

2

,

A

sp

= B

sp

y

A es

si y s´lo si B es o

,

puede significar: Hermitiana, anti-Hermitiana, normal, definda positiva o unitaria.

Demostraci´n. La primera igualdad se sigue de la Observaci´n 1.2.4. Sea U ∈ U(n) tal que o o B = U AU ∗ . Entonces, por la Eq. (1.5), B
2
2

= tr(B ∗ B) = tr(U A∗ U ∗ U AU ∗ ) = tr(U A∗ AU ∗ ) = tr(A∗ A) = A

2
2

,

donde la pen´ltima igualdad se deduce del hecho de que tr(XY ) = tr(Y X) para todo par u X, Y ∈ Mn (C). Con respecto a las normas espectrales, B
sp

= m´x U A(U ∗ x) = m´x Ay = A a a
x =1 y =1

sp

,

ya que U ∗ {x ∈ Cn : x = 1} = {y ∈ Cn : y = 1}, porque U y U ∗ son isometr´ ıas sobreyectivas. Las afirmaciones sobre se prueban directamente de las definiciones, porque B ∗ = (U AU ∗ )∗ = U A∗ U ∗ , con la misma U ∈ U(n).

1.4 Matrices triangulares

9

1.4

Matrices triangulares

Definici´n 1.4.1. Sea T ∈ Mn (C). Diremos que o 1. T es triangular superior (abreviamos TS) si verifica que Tij = 0 para i > j. Es decir que T tiene ceros por debajo de su diagonal. 2. T es estrictamente TS si Tij = 0 para i ≥ j. Ac´ tambi´n d(T ) = 0. a e 3. An´logamente se definen las matrices triangulares inferiores y estrictamente triangulares a inferiores. 4. Denotaremos por T S(n) = { T ∈ Mn (C) : T es triangular superior }. 1.4.2 (Propiedades de las matrices triangulares). Tenemos las siguientes propiedades (enumeraremos los resultados, y las pruebas no escritas quedar´n como ejercicio para el lector): a 1. Sea E = {e1 , . . . , en } la base can´nica de Cn . Notemos Hk = Gen {e1 , . . . , ek }, para o cada k ∈ In , y H0 = {0}. Dada T ∈ Mn (C) se tiene que T ∈ T S(n) ⇐⇒ T (Hk ) ⊆ Hk , para todo k ∈ In , (1.7)

y T es estrictamente TS ⇐⇒ T (Hk ) ⊆ Hk−1 , para todo k ∈ In . 2. Usando la Eq. (1.7) sale f´cil que T S(n) es un subanillo de Mn (C). Es decir que a T1 , T2 ∈ T S(n) =⇒ T1 + T2 y T1 T2 ∈ T S(n) . (1.8)

Tambi´n son subanillos los otros conjuntos de matrices triangulares, pero las estrictae mente triangulares no tienen uno. 3. Adem´s, dadas S, T ∈ T S(n), se tiene que a d (ST ) = d (S) · d (T ) := (S11 · T11 , . . . , Snn · Tnn ) . Esto se muestra directamente calculando (ST )ii por la f´rmula (1.1). o 4. Si T ∈ Mn (C) es estrictamente triangular, entonces T n = 0. 5. Si T ∈ T S(n), entonces su polinomio caracter´ ıstico cumple que
n

(1.9)

PT (x) = det (xI − T ) =
i=1

(x − Tii ) =⇒ λ(T ) = d(T ) (salvo el orden) .

(1.10)

Lo mismo pasa para su transpuesta T T , que es una trianagular inferior gen´rica. La e prueba es por inducci´n, desarrollando el determinante por la primera columna. o
n n

6. Si T ∈ T S(n), entonces tr T =
i=1

Tii y det T =
i=1

Tii . Para la parte del determinante,

se sugiere mirar la prueba de la Proposici´n 1.5.4. o

1.5 Herramientas para operar con matrices

10

7. Si T ∈ T S(n) es inversible, entonces T −1 ∈ T S(n) y d T −1 = d (T )−1 := (d1 (T )−1 , . . . , dn (T )−1 ) . (1.11)

En efecto, por la Eq. (1.7) y el hecho de que T ∈ Gl (n), sabemos que T (Hk ) = Hk =⇒ T −1 (Hk ) = Hk , para todo k ∈ In =⇒ T −1 ∈ T S(n) . La igualdad d (T −1 ) = d (T )−1 se deduce ahora de la Eq. (1.9).

1.5

Herramientas para operar con matrices

En esta secci´n veremos varias estrategias para operar con matrices: o 1.5.1. Sean A ∈ Mn, m (C) y B ∈ Mm,r (C). Enumeraremos los resultados, y las pruebas no escritas quedar´n como ejercicio para el lector. a 1. La entrada (AB)ij es el producto de la Fi (A) ∈ M1, m (C) , por la Cj (B) ∈ Mm,1 (C). 2. Si x = (x1 , . . . , xm ) ∈ Cm , entonces Ax = A
m m

xi ei
i=1

=
i=1

xi Ci (A).

3. El producto AB ∈ Mn, r (C) representa la composici´n A ◦ B : Cr → Cn , cuando se las o piensa como operadores. Sus columnas se describen por la acci´n de A en las columnas o de B: Ci (AB) = A · Ci (B) ∈ Cn , para todo i ∈ Ir . (1.12) Esto se puede probar directamente por la f´rmula (1.1) del producto, o bien observando o (r) (r) que Ci (AB) = (AB)ei = A · ( Bei ) = A · Ci (B), lo que se sigue de pensar a AB como una composici´n. o 4. An´logamente puede verse que a Fi (AB) = Fi (A) · B ∈ Cr , para todo i ∈ In . (1.13)

5. Si alguna Ci (B) = 0, entonces Ci (AB) = 0 (con el mismo i). An´logamente, si se tiene a que Fi (A) = 0, entonces Fi (AB) = 0. Esto se usa para identificar los ideales (a izq. y der.) del anillo Mn (C), cuando n = m. 6. Fijemos una columna Ci (A). Alguna entrada de Ci (A) aparece al calcular cualquier entrada de AB. Pero siempre multiplicada por alguna entrada de la Fi (B) (recordar la
m

f´rmula (1.1): (AB)st = o
i=1

Asi Bit ).

7. Por lo tanto, si Fi (B) = 0, entonces podemos cambiar la Ci (A) sin que ello afecte al producto AB. An´logamente, si Ci (A) = 0, se puede cambiar impunemente Fi (B) . a 8. Sean λ ∈ Cn y µ ∈ Cm . Si D1 = diag (λ) ∈ Mn (C) y D2 = diag (µ) ∈ Mm (C), entonces D1 A = λi aij
i∈In j∈Im

,

AD2 = aij µj

i∈In j∈Im

y

D1 AD2 = λi µj aij

i∈In j∈Im

.

(1.14)

Luego Cn−k y AJI = A∗ . n}. AJ ∈ T S(n − k) y AJI = 0.4 y.16) que reproduce la f´rmula del producto de matrices en M2 (C). por ejemplo. Cn−k donde AIJ = (Arl )r∈I ∈ Mk. a A−1 = −1 Ik −C 0 In−k = ∈ Gl (n) . Cn−k A∗ A∗ I JI A∗ A∗ IJ J Ck . Cn−k (1. k (C) y AJ ∈ Mn−k (C). A + B = 2. M´s adelante a (en la secci´n 2.5. entonces o W = U 0 0 V ∈ U(n) y W AW∗ = U AI U ∗ U AIJ V ∗ V AJI U ∗ V AJ V ∗ . y en los otros n − k. adem´s . cualquiera sea C ∈ Mk. . . 4. una especie de transpuesta adjuntada.15) Es extremadamente util el hecho de que esta notaci´n es consistente con las operaciones de ´ o matrices. tal que 0 < k < n y llamemos I = Ik y J = In \ Ik = {k + 1. La prueba de esta f´rmula es straightforward.2. sobre todo en los Cap´ o ıtulos 12 y 13) se usar´ una notaci´n m´s detallada. A∗ = AI + BI AIJ + BIJ AJI + BJI AJ + BJ Ck . Otra aplicaci´n: Si U ∈ U(k) y V ∈ U(n − k). Observar que los tama˜os o n de todos los productos que aparecen son los adecuados al bloque donde viven. ı. luego a Ik 0 X In−k Ik 0 −X In−k . A ∈ T S(n) ⇐⇒ AI ∈ T S(k) . Dada A ∈ Mn (C) notaremos su representaci´n en bloques como sigue: o A= AI AIJ AJI AJ Ck .1.18) . n−k (C) .1) para (AB)ij . si X ∈ Mn−k. k (C). Hay que usar la f´rmula (1. Sea k ∈ In . (1. Por ejemplo. a o a tipo AIJ = A[I|J] = A[I|I) y as´ Para fijar ideas observemos que.5 Herramientas para operar con matrices 11 Bloques 1. l∈J y en forma similar se definen AI ∈ Mk (C). La m´s importante es la f´rmula del producto: a o AB = AI BI + AIJ BJI AI BIJ + AIJ BJ AJI BI + AJ BJI AJI BIJ + AJ BJ Ck . (1. IJ A = A∗ ⇐⇒ AI ∈ H(k) . 5. (1. . n−k (C). AJ ∈ H(n − k) 3. AJI ∈ Mn−k. Por ejemplo: Si B ∈ Mn (C): 1. . se tiene que A= Ik C 0 In−k ∈ Gl (n) y. o o dividiendo cada suma en sus primeros k sumandos.17) An´logamente.

λ(D) . ya que a u elegimos una BON cualquiera de S. . o sea pensado en L(S) (sin los tres ceros).18). Proposici´n 1. a 0 0 S⊥ AS = PS APS = PS A S . para cada A ∈ Mn (C) se pueden definir sus r × r bloques relativos a esa partici´n. nuestro AS s´lo depende del subsepacio S.5.19) Por lo tanto λ(A) = λ(B) . .1. Ojo que si k era uno. S AS. . . PA (x) = (x − λ) PA1 (x) y PB (x) = (x − λ) PB1 (x) . . e Al tomar matrices. La manera m´s econ´mica de verlo ıa a o n es tomar una BON {v1 . . . Eligiendo bases de S y S ⊥ . . Si o A= B C 0 D S S⊥ =⇒ det A = det B det D y PA (x) = PC (x)PD (x) . ek }. . queda que A1 = D y que B = [λ] (en ese caso ∗. (1. entonces PS = I 0 S . el laburo anterior se extrapola a cualquier descomposici´n. En particular. S ⊥ AS ⊥ S . en particular o (1. M´s a´n. y usando que la similaridad no cambia ni el det ni el o caracter´ ıstico. Demostraci´n. . Si k > 1. Las dem´s valen tomando coordenadas en cualquer base de aquel tipo. donde k = dim S. . Observaci´n 1. Sea n ≥ 2. Observar que entonces tambi´n se tiene que Ax1 = λx1 . Todo lo que se hizo o reci´n se puede generalizar exactamente igual a una representaci´n de Mn (C) en matrices e o de 2 × 2 de bloques. . vn } = B de C tal que S = Gen {v1 . pero teniendo en cuenta la descomposici´n Cn = S ⊕ S ⊥ . podemos suponer su primer elemento era un autovector x1 ∈ S de B para cierto λ ∈ σ(B).5 Herramientas para operar con matrices 12 6. Tomando coordenadas de las matrices en la base B. . Y valen propiedades an´logas a las del caso o a 2 × 2. . ek }. queda que A= λ 0 A1 y B= λ ∗ 0 B1 con A1 = B1 C1 0 D ∈ Mn−1 (C) . vn } ). . . . pero imitando el producto en o Mr (C). vale algo similar a la f´rmula (1.16). Si uno parte a In en r mitades (con r ≥ 3). pero en tanto operador en L(S). si PS es el proyector ortogonal sobre S. Adem´s. . det B = λ det B1 . . Al operador AS ∈ L(S) se lo llama la compresi´n de A a S. .5. vk } (por lo que S ⊥ = Gen {vk+1 . Sea S ⊆ Cn un subespaceio con dim S = k. A ∈ Mn (C) y S ⊆ Cn un subespacio propio. podemos asumir que S = Gen {e1 . Una f´rmula similar vale si A es triangular inferior de o bloques (para S).4. Su matriz concreta (de k × k) depende de la BON B o elegida. . El caso o anterior corresponder´ a tomar S = Gen {e1 . F´rmulas o o semejantes se tienen para los otros tres bloques de A.3. Pedimos que B sea una BON y no una base cuaquiera o (que empiece por una base de S) para que valgan las f´rmulas relativas a A∗ . B1 y C1 no existen). queda que det A = λ det A1 . La notaci´n a o que usaremos para estas representaciones es A= AS AS ⊥ . S⊥ Observar que. desarrollando por la primer comumna.

va por gustos). sabemos que la matriz o M= I A 0 I ∈ Gl (2n) . nos queda que a o M −1 AB 0 B 0 M = I −A 0 I 0 0 B 0 AB 0 B 0 I A 0 I = I A 0 I 0 0 B BA . entonces σ (AB) = σ (BA). porque las permutaciones que no pasan por el ıa o bloque nulo de abajo. y que M −1 = I −A 0 I .6 El Teorema de Schur y sus corolarios El siguiente resultado. para ver cuanto m´s f´cil puede hacerse con la a a t´cnica de bloques. usando la ecuaci´n (1. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 .1 (Schur 1). por lo que λ(AB) = λ(BA) ∈ Cn . Dadas A.m (C) y B ∈ Mm. Sean A ∈ Mn. es sumamente util. Haciendo 0 xIn−1 − A1 ahora inducci´n en n ≥ 2 (o en k. (1. Adem´s. ´ a a Teorema 1. porque si se tienen dos o polinomios P. Observaci´n 1.6 El Teorema de Schur y sus corolarios 13 x−λ − . estamos hechos. Existen matrices U ∈ U(n) y T ∈ T S(n) que verifican: a. Otra manera de probarlo o es v´ la definici´n con permutaciones de Sn .. e o Proposici´n 1. . AB y BA o a u tienen el mismo polinomio caracter´stico. Con casi la misma o prueba que la Proposici´n 1.5.5 puede mostrarse que σ (BA) = σ (AB) ∪ {0}. ı Demostraci´n. M´s a´n.6. entonces P = Q.6.5.5. = Usando la Proposici´n 1.. el primero de los varios debidos a Schur que enunciaremos.n (C) con m > n. son todas las del tipo σ ∈ Sk × Sn−k . Las dos ultimas salen porque xIn − A = ´ Como ejemplo del uso de estas t´cnicas. Entonces 1. dispuestos en cualquier orden prefijado. mostraremos a continuaci´n la relaci´n que hay entre e o o el espectro del producto de dos matrices.1. y lo mismo para B. en sus dos ´rdenes posibles.16). y ser´ usado sistem´ticamente en todo este trabajo.17). Por la Eq. podemos deducir que PAB = PBA . A = U T U ∗ . B ∈ Mn (C). . y la primera aparici´n del famoso truco de 2 × 2.5. . puesto que sus o polinomios caracter´ ısticos cumplen PBA (x) = xm−n PAB (x). λn ). Q ∈ C[x] que cumplen xn P (x) = xn Q(x). Este camino queda como ejercicio. Se suguiere tratar de o probar el siguiente enunciado directamente.5.4. 1.

El caso de dos matrices que conmutan.6. . Entonces.1. Cn−1 donde A2 ∈ Mn−1 (C). .6. Si B ∈ Mn (C) conmuta con A. 1 0 Podemos extender V a otra matriz U2 = ∈ U(n). el teorema sigue valiendo (con U ∈ Mn (R)) siempre que σ (A) ⊆ R. Si A ∈ Mn (R). Como U1 (e1 ) = x1 y U1 (x1 ) = e1 . Por el Teorema 1. La prueba la realizaremos por inducci´n sobre la dimensi´n n. Luego tr A = tr T y det A = det T .6 El Teorema de Schur y sus corolarios 14 b. Por ∗ a el Teorema 1.3. d (T ) = λ(A).15) sobre productos de matrices de bloques. a Demostraci´n. Si n = 1. pero en un orden que no podremos elegir. Demostraci´n. La d (T2 ) tendr´ a los autovalores de B. usando que las matrices achicadas A2 y B2 siguen conmutando. El caso real sale igual. T2 ∈ T S(n) tales que A = U T1 U ∗ . λn ) ∈ Cn−1 .18) y (1. Si n > 1. el o o o resultado es trivial. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 . . Tii = λi . . Notar que se puede elegir x1 ∈ Rn siempre que λ1 ∈ R. λ(A2 ) ) = λ(A). Por HI. de la prueba sigue igual. se deduce de que ker(A − λ1 I) es invariante para B (cuenta f´cil. Corolario 1. . .1. Entonces n n tr A = i=1 λi y det A = i=1 λi . .e. y T1 . T ∈ T S(n) y d(T ) = λ(A). B = U T2 U ∗ (con la misma U ) y d (T1 ) = λ(A) . . existen V ∈ U(n − 1) y T2 ∈ T S(n − 1) tales que V ∗ A2 V = T2 y d(T2 ) = λ(A2 ). = λ1 0 V ∗ A2 V y se tiene que d(T ) = (λ1 . 2. . sus polinomios caractr´ o ısticos cumplen ∗ PA (x) = PU1 AU1 (x) = (x − λ1 )PA2 (x) =⇒ λ(A2 ) = (λ2 . donde se tiene o que U ∈ U(n). . xn . Sea U = U1 U2 . existen U ∈ U(n). . para todo i ∈ In .2. d(T2 ) ) = (λ1 . .2. a ya que conmutan). Por la Observaci´n 1. λn ). y los ponemos en las columnas de una matriz U1 . por lo que el vector x1 se puede elegir como un autovector de B actuando en ker(A − λ1 I) (no se sabe cuales de los autovalores de B en Cn pueden elegirse ah´ El resto ı).1 sabemos que podemos escribir A = U ∗ T U . Completamos a una BON de Cn con vectores x2 . . usando 0 V las ecuaciones (1. 3. nos queda que ∗ ∗ U ∗ AU = U2 (U1 A U1 ) U2 = 1 0 0 V∗ λ1 ∗ 0 A2 = 1 0 0 V λ1 0 T2 = T ∈ T S(n) .4. U1 ∈ U(n). i. es f´cil ver que ∗ ∗ C1 (U1 AU1 ) = U1 AU1 e1 = λ1 e1 =⇒ ∗ U1 AU1 = λ1 ∗ 0 A2 C . tomemos x1 ∈ ker(A − λ1 I) con x1 = 1.

Sin embargo.20) Demostraci´n. se tiene las siguientes propiedades: a . o por el Teorema 1. B = U T2 U ∗ . Sea U ∈ U(n). En general.4. Pero AB = (U T1 U ∗ )(U T2 U ∗ ) = U (T1 T2 )U ∗ . Basta notar que σ (U ) ⊆ {z ∈ C : |z | = 1}.6. Las cuentas para λ(A + B) son o iguales (y m´s f´ciles). .9). (1. Observaci´n 1. Probaremos solamente la igualdad (1.6. y en el orden que hab´ λ(T1 T2 ) = λ(AB). existen ciertas ordenaciones de los vectores de autovalores λ(A) y λ(B) tales que a u (operando en esos ´rdenes).3.6. tales que AB = BA.10) y (1. . σ(AB) ⊆ σ(A) · σ(B) = {λ · µ : λ ∈ σ(A) y µ ∈ σ(B)}. .6. Entonces 1. B ∈ Mn (C). T2 ∈ T S(n) a a tales que A = U T1 U ∗ . Demostraci´n. no se tiene la menor idea de qu´ o e pueden ser los espectros σ(A + B) y σ(AB). Entonces λ(A∗ ) = λ(A) = (λ1 . Entonces | det U | = 1. con d (T ) = λ(A). Sean U ∈ U(n) y T ∈ T S(n).6. y T1 . Luego. . por lo que λ(A∗ ) = λ(T ∗ ).6. El siguiente resultado vale tambi´n o e el ´lgebras de Banach de dimensi´n infinita. Por el Teorema 1 de Schur 1.7 Polinomios y matrices m Observaci´n 1. Sean A. σ(A + B) ⊆ σ(A) + σ(B) = {λ + µ : λ ∈ σ(A) y µ ∈ σ(B)}. . tales que A = U ∗ T U . tenemos que o T1 · T2 ∈ T S(n) =⇒ λ(T1 T2 ) = d (T1 T2 ) = d (T1 ) · d (T2 ) = λ(A) · λ(B) .7 Polinomios y matrices 15 Corolario 1. Demostraci´n.8).1.5. . . entonces P se puede evaluar en A de la siguiente manera: m P (A) = k=0 bk Ak ∈ Mn (C) . por las f´rmulas (1. λn (A)λn (B) ) . pero con una prueba mucho m´s sofisticada. (1. cuando A y B conmutan. B ∈ Mn (C).20). existen U ∈ U(n). . Adem´s. 1. aunque los ´rdenes en o que aparecen λ(A) y λ(B) no lo sabemos. λn ). ıa.3. d (T1 ) = λ(A) y d (T2 ) = λ(B). dado que U es una isometr´ o ıa.7.1. Si A ∈ Mn (C) y P (x) = o k=0 bk xk ∈ C[x]. Sean A. as´ que tambi´n se ı e ∗ ∗ tiene que λ(T ) = d (T ) = d (T ) = λ(A). Corolario 1. 2. Esto generaliza la igualdad σ(A∗ ) = σ(A) ya vista. λ(A + B) = λ(A) + λ(B) y o λ(AB) = λ(A) · λ(B) = (λ1 (A)λ1 (B). a o a Corolario 1. . Luego o A∗ = U ∗ T ∗ U . Pero en esos ´rdenes. el Teorema 1 de Schur nos da alguna informaci´n al respecto.3. y viven en Mn (C).1. dado que las potencias (enteras) Ak se definen con el producto de matrices. . Pero T ∗ es triangular inferior. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 . . M´s a´n. . λn ) .

para µ ∈ P (σ (A) ) o µ ∈ σ (P (A) ).21) 2 2 3.1. lo que prueba el Corolario en este caso. (1. σ (P (A) ) = P (σ (A) ) := P (λ) : λ ∈ σ (A) . (1. para todo k ∈ N..2. factorizar el polinomio Q(x) = P (x) − µ. Demostraci´n. Tnn ) = d (T )2 . (1. Esto se extinede a potencias enteras. Luego PA (A) es la matriz nula. P (λn ) ) para todo P ∈ C[x] .22) Corolario 1. Supongamos que T ∈ T S(n). la Eq.1. . es f´cil ver que a P (SAS −1 ) = S · P (A) · S −1 . entonces o P (A) = Q(A)R(A). Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 . . . con Q. o Por la Eq. (1. λ(P (A) ) = P (λ(A) ) := (P (λ1 ) . P (Tnn ) ). sabemos que existen o o ∗ U ∈ U(n) y T ∈ T S(n) tales que U T U = A. .10) que d (T ) = λ(T ).22).7 Polinomios y matrices 16 1. sabemos que λ(P (A) ) = λ(P (T ) ) = P (λ(T ) ) = P (λ(A) ) . . Sea A ∈ Mn (C). o P (T ) ∈ T S(n) y P (T )ii = P (Tii ) para todo i ∈ In . Esta prueba es la que sirve en dimensi´n infinita. . aplicando cuentas de polinomios. tenemos que P (A) = U ∗ P (T )U . (1.4. por la Observaci´n 1. para todo P ∈ C[x] . sabemos que P (T ) ∈ T S(n) y d (P (T ) ) = P (d (T ) ). Como las potencias de A conmutan entre s´ se deduce f´cilmente que la aplicaci´n ı. Por lo tanto.21) y la Observaci´n 1.10) . . Luego. En particular. . Entonces. o Corolario 1. Recordemos de la Eq. por inducci´n. sean U ∈ U(n) y T ∈ T S(n) tales que A = U ∗ T U y λ(A) = d(T ) = λ(T ) . 2.6. si se tiene una factorizaci´n P = QR. o sea que d (P (T ) ) = P (d (T ) ) = P (d (T ) ) = (P (T11 ) . Por la Eq. Demostraci´n. Si T ∈ T S(n). λ(P (T ) ) = d(P (T ) ) = P (d (T ) ) = P (λ(T ) ) . a o EA : C[x] → Mn (C) dada por P → P (A) (o sea la evaluaci´n en A) es un morfismo de o anillos. entonces (SAS −1 )k = SAk S −1 . PT (x) = PA (x) y PA (A) = U PT (T )U ∗ . hemos visto que T 2 ∈ T S(n) y que d (T 2 ) = (T11 .2.. Luego.3 (Hamilton-Cayley). . . . Si S ∈ Gl (n).7. Por ejemplo. (1. Por lo tanto. Se sugiere otra manera de hacerlo. Pero tiene el defecto que no da o informaci´n sobre multiplicidades.7. R ∈ C[x]. Por el Teorema 1. . Luego. λn ).2.4 (que dec´ o ıa que cambiar de base no cambia el vector λ) y el caso anterior.21). Si A ∈ Mn (C) es cualquier matriz. y analizar qu´ pasa con e Q(A). ahora con el producto de matrices. . . Luego (1.

El Teorema de Hamilton Cayley vale para matrices en cualquier cuerpo. . Todas las Ti estan en T S(n). An´logamente. 1.8. . Entonces existen Q ∈ U(n) y R ∈ T S(n) tales que a. A = QR. comnutan entre s´ y cumplen que (Ti )ii = 0. si Fi (B) = 0. Ti lo ordenamos as´ T1 T2 . Sea A ∈ Mn (C) y fijemos una columna Ci (A). Tn (total las Ti conmutan).1. o e 1. sabemos que n n PT (x) = i=1 (x − Tii ) =⇒ PT (T ) = i=1 (T − Tii I) . o La prueba anterior es simple. por la Eq. . (1. Luego.5. ı: vemos inmediatamente que Ti (Cn ) = i∈In i∈In Ti (Hn ) ⊆ i∈In−1 Ti (Hn−1 ) ⊆ . ⊆ T1 T2 (H2 ) ⊆ T1 (H1 ) = {0} . “es peor que o pegarle una patada a una vieja en la cara” (sic). Pero siempre multiplicada por alguna entrada de la Fi (B) (recordar que m (AB)st = i=1 Asi Bit ). .4.8 QR Otra aplicaci´n importante de las matrices triangulares es el denominado m´todo QR. si H0 = {0}.1. Teorema 1. para cada i ∈ In .2. Sea A ∈ Mn (C). Observar que alguna entrada de Ci (A) aparece al calcular cualquier entrada de AB. Ti (Hi ) = Ti Hi−1 ⊕ Gen {ei } = Ti Hi−1 + Gen {T ei } ⊆ Hi−1 Si al producto de ellas PT (T ) = i∈In para todo i ∈ In . . se tiene que ı.8. se puede cambiar a impunemente a Fi (B) . En palabras del maestro Enzo Gentile. . Por lo tanto. A nadie se le ocurra postular la siguiente prueba general: PA (A) = det(A · I − A) = det 0 = 0. que o solo vale para cuerpos algebr´icamente cerrados (se necesitan los λi (A) . Observaci´n 1. . Repaso: Recordemos lo visto en los ´ ıtems 6 y 7 de 1.8 QR 17 basta probar que PT (T ) = 0 para matrices T ∈ T S(n).1. O sea que PT (T ) = 0. porque es desastrosamente err´nea.10). Llamemos Ti = (T − Tii I) y Hi = Gen {e1 . . que son las raices que a factorizan a PA (x) ). En este caso.7. . pero para generalizarla hace falta subir a una clausura algebr´ica a (o aun cuerpo de descomposici´n de PA (x) ). entonces podemos cambiar a piacere la Ci (A) sin que ello afecte al producto AB. ei }. si Ci (A) = 0. porque necesita del Teorema 1 de Schur.

si notamos xk = Ck (A). As´ queda que R ∈ T S(n). se pone uk = 0 en la Ck (Q). vk }. se deduce que i i xi = s=1 rsi vs = s=1 rsi cs us =⇒ rii ci = rii =⇒ ci = rii > 0 =⇒ ci = 1 . Esto se ı / arregla de la siguiente mantera: se cambian las Ck (Q) = uk = 0 del proceso anterior por una BON de R(A)⊥ = Gen {uj : uj = 0}⊥ (observar que la cantidad es la correcta). Es f´cil ver que Gen {x1 . (1. Por lo tanto A = QR. . Si A ∈ Gl (n). Y tomemos R ∈ T S(n) dada por R = (rij )i. pero ahora o Q ∈ U(n). A = QR y rii ≥ 0 para todo i ∈ In . a o j−1 xj − uj = xj − i=1 i=1 j−1 xj . ı Como rii > 0. a De ah´ se deduce que existen constantes ci tales que |ci | = 1 y vi = ci ui para todo i ∈ In . . Usando QR. con rjj = i=1 xj − i=1 xj . . . . e a u .5. . . j∈In . .5. cada vez que aparece un / xk ∈ Gen {x1 . . . para todo k ∈ In . entonces tales Q y R son unicas. . probar que n | det A| ≤ i=1 Ci (A) 2 . Luego sigue pasando que A = QR. Como se vi´ o en el repaso 1. el proceso es similar. i ∈ In .23) y del hecho de que A = Q R . por lo tanto R = Q∗ A = R. Ejercicio 1. .8. ui ui > 0 . para todo j ∈ In . xk } = Gen {v1 . . R cumpliendo las hip´tesis. dado que el uk = 0 no aporta para generar a los xj (j ≥ k). en la Eq.8 QR 18 b. Luego Fk (R) = 0. donde ponemos rij = 0 cuando i > j. cada una de las nuevas Ck (Q) s´lo opera con la respectiva Fk (R) = 0. Caso general: Si A ∈ Gl (n). ui ui j j−1 rij ui . k ∈ In (usar la Eq. Caso A ∈ Gl (n): Por el m´todo de Gramm-Schmidt. Unicidad: Si hubiera otro par Q . salvo que. xk } = Gen {u1 . Adem´s. . .23).24) y que son iguales si y s´lo si A∗ A es diagonal (o sea que R lo es). por la construcci´n de B por Gramm-Schmidt. llamemos Ci (Q ) = vi para o cada i ∈ In . ´ Demostraci´n.7) ). xk−1 } . (1.23) Tomemos Q ∈ U(n) con columnas Ci (Q) = ui . Rjj ≥ 0. (1.3.1. Luego Q = Q y.1). (1. un } tal que Gen {x1 . . . al multiplicar la Q cambiada por R. . Como se vi´ en 1. y. ponemos rkj = 0 para todo j ∈ In . pero Q ∈ U(n). . rii para todo i ∈ In . ui ui =⇒ xj = xj .8. (1. uk }. Se sugiere interpretarlo o tambi´n como un c´lculo de vol´menes. . para todo j ∈ In . de la Eq. . .1. . . tenemos que o n j Cj (QR) = Q · Cj (R) = i=1 rij Ci (Q) = i=1 rij ui = xj = Cj (A) . o e existe una BON B = {u1 . Sea A ∈ Mn (C).1 (o bien en 1.

9.27) La segunda igualdad se sigue de un argumento similar al anterior.9.25) como por la Eq. para cada i ∈ Im ). Mn. Luego. podemos concluir que A = x y.m (C) . porque se tiene la igualdad m n A= k=1 Ck (A) ek (m) = j=1 ej (n) Fj (A) .m (C) cumple que su unica columna no nula es Ck (A).m (C) = Gen {x Demostraci´n.  · [ y1 . . Enumeraremos los o resultados. y x para todo z ∈ Cm . o 1. 1.m (C) . . tanto por la Eq. para toda A ∈ Mn. por la Eq. (1.m (C). (1. Estudiaremos a continuaci´n las propiedades de las matrices x y.26) (1. y : x ∈ Cn e y ∈ Cm }.m (C) es el span de este tipo de matrices. . Luego: . Tomemos dos a n m vectores x ∈ C e y ∈ C . para todo z ∈ Cm . y. notamos rk(A) = dim R(A). Dados x ∈ Cn e y ∈ Cm consideremos la matriz o   x1  . (1. ym ] = (xi yj ) i∈In ∈ Mn.m (C) tiene rk(A) ≤ 1. Se deduce de la Eq (1.9 Matrices de rango uno 19 1. y) ≤ 1. A continuaci´n daremos una o caracterizaci´n muy util de las matrices con rango uno. y las pruebas no escritas quedar´n como ejercicio para el lector. .26). para todo z ∈ Cm ´ (basta poner yi = ϕ(ei ). o 1.26). Si A ∈ Mn. si A ∈ Mn. entonces se ve ´ (m) f´cilmente que A = Ck (A) ek .1.3. existen x ∈ Cn e y ∈ Cm tales que A = x 2. j∈Im xn Observar que x x y act´a en Cm de la siguiente manera: u y(z) = (xy ∗ ) z = x (y ∗ z) = z. 2. y . Luego existe una funcional lineal ϕ : Cm → C tal que Az = ϕ(z) · x . Observar a que todo Mn.9. (1.9 Matrices de rango uno Recordemos que. si A ∈ Mn.1. Sea x ∈ Cn tal que R(A) = Gen {x}.27). . o Definici´n 1.  x y := xy ∗ =  . por lo que rk(x Por ejemplo. (1. Proposici´n 1. se tiene que R(x y) ⊆ Gen {x}.25) Por lo tanto. Es sabido que existe un unico y ∈ Cm tal que ϕ(z) = ϕy (z) = z.2.

5.5.1 (Polarizaci´n. y ∈ H . y · x y ∈ Mn (C). se tiene que (x A partir de ahora supondremos que n = m. . o Sea H un C-espacio de Hilbert y sea A ∈ L(H).10. (x + i k y) k=1 para todo par x.10 Ejercicios 20 1.1. ya que ϕy x.1).4. y (adivinen ´ qui´n es el autovector). 1. Si B ∈ Mm (C). Demostrar los 7 items de 1.10.10.3. En efecto. Dados v ∈ Cm y w ∈ Ck . .26) ).10. entonces x x = Px es el proyector ortogonal sobre Gen {x}. a z =1 y)∗ = (xy ∗ )∗ = y x∗ = y 3. y) · B = x (B ∗ y) (usar 2 y 3. y = 4 4 i k A (x + i k y). Demostrar la Proposici´n 1. o sea que x 6. y) · (v w) = v. Si A ∈ Mn (C). con ± 1) de matrices xi xi (elegir los xi entre los autovectores de A y a esperar hasta el Teorema 2.4. x · x.4 usando la definici´n del determinante con permutao o ciones de Sn .10 Ejercicios Ejercicios que aparecen en el texto 1. Para verlo basta tomar e a u la matriz de x y en una base que empiece por x. 8. sp = m´x |ϕy (z)| = y . w ∈ Mn.1 y los 6 items de 1. entonces (x y) = A · x · y ∗ = (Ax) y.10). y usar la Proposici´n 1. Positivos: A ∈ Mn (C)+ si y s´lo si A se descompone como una suma de matrices o xi xi (ver Proposici´n 3. . la conocida f´rmula de dicho proyector (se usa el hecho o ⊥ de que z − z. son todas las del tipo σ ∈ Sk × Sn−k . λ(x y) = ( x.1. El espectro: El unico autovalor de x y que puede ser no nulo es λ1 = x.2. .5. Usar que las permutaciones que no pasan por el bloque nulo de abajo. 0). . x · x ∈ {x} ). se tiene que A · (x 4. si x = 0. el proyector Px = x x x 1 = x x 2 x x.5. El adjunto: (x y sp = x y .5.k (C). 0. Autoadjuntos: Se tiene que A ∈ H(n) si y s´lo si A se descompone como una suma o algebr´ica (i. En general. Si x = 1. o a 1. o la Eq. o 7.6 de bastante m´s adelante).2 (sobre matrices triangulares). y . 9.2 (sobre matrices de bloques). 10. La norma espectral: x 2.2.e. Entonces 1 Ax.5. 1.4. M´s a´n. (1. Lema 1. observar que x x(z) = z. 1. Demostrar los 8 items de 1.

En particular. Deducir que. .10.10. Fn (A) } = rk(A). j ∈ In .10.12. 1. B ∈ Mn (C). . (A∗ A)i. B ∈ Mn (C) cumplen que tr Ak = tr B k para todo k ∈ N. Se sugiere interpretarlo o tambi´n como un c´lculo de vol´menes. Sean A. existe una matriz diagonalizable Dε tal que A − D sp ≤ ε. i i=1 1.1. y no menor.11. 1. Fn (A) }⊥ ⊆ Cn . .9. . λn ).10. . .10. . ∈ Mm.10.10. Demostrar: 1. Demostrar los 10 items de 1. Sea A ∈ Mn (C).9. Deducir que rkF (A) := dim Gen {F1 (A). probar que n | det A| ≤ i=1 Ci (A) 2 . Usando QR. para todo par i. Sea A ∈ Mn (C).10.10 Ejercicios 21 1. Cn ). Mostrar que una matriz diagonalizable A satisface una ecuaci´n polinomial de grado o igual al |σ(A)|.n (C). probar que T −1 ∈ T S(n) y d T −1 = d (T )−1 = λ(T )−1 . 1.6. Si T ∈ T S(n) es inversible. Probar que si C conmuta con A. . entonces C es nilpotente. Usar el Teorema 1 de Schur para probar que si.3 (sobre matrices tipo x 1. 1. 1. tr(A∗ A) = = i.j = Cj (A) . Entonces se tiene que A∗ A ∈ Mn (C)+ y n y). Mostrar que entonces ker A = Gen {F1 (A). entonces λ(A) = λ(B) (si usamos el mismo convenio para ordenarlos). ∈ Mm.5. si A. e a u Ejercicios nuevos 1. notemos C = AB − BA. Dadas A. .7.8.14. Ci (A) Cj (A) j=1 2 n . o sea que los rangos fila y columna de A coinciden. y que son iguales si y s´lo si A∗ A es diagonal (o sea que R lo es). Para todo ε > 0. Sean A. .n (C) L(Cm .13 (Triangulares). para todo k ∈ N.10. 1. . A ∈ Mn (C) tiene vector de autovalores λ(A) = (λ1 .10. . .j=1 |aij |2 . entonces tr Ak = n λk .10.

i=1 j>i Notar que se suman los cuadrados de los m´dulos de las entradas que est´n estrictamente o a sobre la diagonal. Explicitar en el caso m = n = 2. y como los autovalores de q(A) son los q(λ) para cualquier polinomio. El objetivo de este ejercicio es probar que las “matrices de matrices”.18. Una matriz de bloques es una matriz A. por lo tanto.16. de n × m. ¿qu´ se puede decir del σ (A)?.1. 1. Hallar los autovalores de E2 y E3 . Aij ∈ Mni ×mj (C). hay que restringirse a conjuntos de matrices donde las condiciones sobre los tama˜os de los n bloques son m´s espec´ a ıficas.15. Si la matriz es triangular de bloques. j. Como pA (λ) = 0 para cada autovalor λ de A. se sigue que los autovalores de pA (A) son todos nulos. Aii ∈ Mni (C) . . Aii ∈ Mni (C) Mostrar que σ(A) = σ(A11 ) ∪ σ(A22 ). Para todo ε > 0 existe una matriz inversible S tal que T = SAS −1 es una matriz triangular superior que satisface n−1 |Tij |2 ≤ ε. 2. Como pA (t) = det(tI − A). pA (A) = 0. com´nmente u llamadas matrices de bloques.10. por lo que puede decirse que T esta muy pr´xima a ser diagonal.17. e 1. . Explicar cu´l es el error en cada una de las siguientes “demostraciones” (falsas) del a Teorema de Hamilton-Cayley: 1. es decir A= A11 A12 0 A22 . Sea En ∈ Mn (C) la matriz cuyas entradas son todas iguales a 1. Para que tenga sentido multiplicarlas como matrices de bloques. Por lo tanto. Hallar estas condiciones.10 Ejercicios 22 2. 1.10. es decir que valga la f´rmula o n (A · B)ij = k=1 Aik Bkj . Considerar la matriz de bloques A= A11 0 0 A22 . pA (A) = det(AI − A) = det(A − A) = det 0 = 0. tal que sus entradas son matrices: para cada i. o 1. Generalizar para En . se comportan del mismo modo que las matrices con entradas escalares. 2.10.10. pA (A) = 0. i = 1.

1. . usar inducci´n para probar que hay un autovector com´n para todos. Sea A ∈ Mn (C). Si la familia tiene cardinal no finito. . y = z. Definiremos recursivamente tres sucesiones o {Am }m∈N en Mn (C) .21. Sea A ∈ Gl (n). Sean A. Sean A. w =⇒ existe U ∈ U(n) tal que U x = z y Uy = w . C ∈ Mn (C) es llamada o 1.10. Am } es una familia finita de matrices que conmutan dos a dos.2: a ´ 1. Probar que σ(LA ) = σ(A) y que σ(RB ) = σ(B). Hallar un contraejemplo si A y B son singulares. encontrar alg´n curro para que d´. o Probar que siempre existen tales factorizaciones.10. mostrar que BA es diagonalizable.10. {Qm }m∈N en U(n) . mediante los siguientes pasos: u 1. u e 1.10 Ejercicios 23 1. 2. LU -factorizaci´n si B es triangular inferior y C ∈ T S(n). Deducir que las siguientes condiciones son equivalentes: (a) Para todo Y ∈ Mn (C).10. existe un unico X ∈ Mn (C) tal que AX − XB = Y .23. y.20. entonces tienen un autovector en com´n. w ∈ Cn todos vectores unitarios. o 2. Probar que σ(LA − RB ) = {λ − µ : λ ∈ σ(A) y µ ∈ σ(B)}. Definamos las transformaciones lineales LA y RB : Mn (C) → Mn (C) dadas por LA (X) = AX y RB (X) = XB . Una factorizaci´n A = BC con B.19. o u 3. 3. ´ (b) σ(A) ∩ σ(B) = ∅. 1. u 2. X ∈ Mn (C) . . U L-factorizaci´n si C es triangular inferior y B ∈ T S(n). Sean x. . B ∈ Mn (C).24 (Proceso QR). donde todas las factorizaciones que haremos ser´n la unica QR del Teorema 1. y suponer que una de las dos es no singular.22. 1. Probar que si A. Pongamos A1 = A = Q1 R1 . Si AB es diagonalizable. 1.10. Asumiremos que todos los autovalores de A tienen m´dulos distintos. 1. Probar que cualquier familia de matrices que conmutan dos a dos tiene un autovector com´n a todas. Probar que x. B ∈ Mn (C) conmutan. Si F = {A1 . y {Rm }m∈N en T S(n) . z.10.1. . B ∈ Mn (C).8.

1. −→ e −→ (e) T = U AU . As´ seguimos definiendo y factorizando para todo m ∈ N. (a) A2 = Q∗ AQ1 y A3 = Q∗ A2 Q2 = Q∗ Q∗ A Q1 Q2 . y definimos Ak+1 = Rk Qk . Observar a es un algoritmo para realizar el Teorema 1 de Schur 1. por lo que λ(T ) = λ(A). (d) y (e) son bastante dif´ ıciles. Entonces Am+1 = Um A Um . Sugerimos asumir (c) y probar todo lo dem´s. lo factorizamos Ak = Qk Rk . ı Probar que estas sucesiones cumplen lo siguiente. Definimos A2 = R1 Q1 y lo factorizamos A2 = Q2 R2 . m.1.6. por lo que que permite calcular los autovalores de A. porque hacer QR es barato computacionalmente. k. cosa que en general es bien complicada. y tambi´n Am = Qm Rm − − T . −→ a u −→ m→∞ (d) Rm − − T ∈ T S(n). y se enuncian m´s a t´ a ıtulo informativo que como verdadero ejercicio. Definido Ak = Rk−1 Qk−1 . Sin embargo. a m→∞ ∗ m→∞ .10 Ejercicios 24 2. las pruebas de los items (c). Um − − U ∈ U(n). 1 2 2 1 m (b) Dado m ∈ N. (c) Se cumple que Qm − − I. sea Um = k=1 m→∞ ∗ Qk ∈ U(n). Este proceso es f´cil de aplicar. M´s a´n.

.Cap´ ıtulo 2 Matrices normales y Hermitianas 2. . (2.1.. Teorema 2. Si a = (a1 . 2. = 5. recordemos que diag (a) denota la matriz diagonal   a1 0 0 . an ) ∈ Cn . = 4. . Repaso: Sean A ∈ Mn (C) y a = (a1 . . .1. . 0 0 an 3. entonces ıa = λ(A) = λ(B) . Entonces las siguientes condiciones son equivalentes: 1. . Existe una BON B = {v1 . diag (a) = diag (a1 . Para todo x ∈ Cn . vn } de Cn tal que Avi = λi vi para todo i ∈ In . A ∼ D para cierta matriz diagonal D ∈ Mn (C) . .1 Matrices normales 2.3 dec´ que si B ∈ Mn (C) cumple que A ∼ B. . an ) =  . . . A con 2 = B 2 .  ∈ Mn (C). El Teorema 1.1. . . .3.. . . A es normal. . definda positiva o unitaria. normal. A ∼ diag (λ(A) ). 2. 1. . anti-Hermitiana. . . Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 . . λn ). . es decir si A conmuta con su adjunta. A sp = B sp y A es si y s´lo si B es o . Recordemos que una matriz A ∈ Mn (C) es normal si A∗ A = AA∗ . Ax = A∗ x . 3.1) = Hermitiana.2. . an ) ∈ Cn . . . .

obteniendo que D ∼ diag (λ(A) ). (1. . x = 1). vn } es una BON adaptada a λ(A) si B verifica el ´ ıtem 4 del Teorema 2.6. la f´rmula (1. o u reordenamos la diagonal de D.. tomar la U ∈ U(n) dada por Ci (U ) = vi . Como AU = U D.3. Diremos que o B = {v1 . Por el Teorema 2. 2 → 3: Por el Teorema 1 de Schur 1.1.1. si x = (x1 . Por un lado.1 Matrices normales 26 6. es decir que B es una BON de Cn . para todo i ∈ In . .1) muestra que A = 2 2 = diag (λ(A) ) 2 2 n = i=1 |λi |2 . x . entonces n n |λi | = A i=1 2 2 2 = T 2 2 = i=1 |λi |2 + i<j |tij |2 . si existe B como en 5. = D sp ≤ ρ(A). (2. se tiene que o Ax 2 = A∗ Ax. Por otro lado.1. Hemos visto en la Eq. xn ) ∈ Cn es unitario (i. o 3 → 4: Si A ∼ D. Por la Eq. Rec´ ıprocamente. . Si A ∈ Mn (C) es normal. existen U ∈ U(n) y T ∈ T S(n) tales que T = U ∗ AU . = 4 ↔ 5: Llamemos D = diag (λ(A) ). (2. Las otras desigualdades las vimos en la Eq. pues tienen el mismo espectro. la Eq. tambi´n A debe ser (o sea normal). . Conjugando con una matriz de permutaci´n (o sea o que tiene a la base can´nica en alg´n otro orden en sus columnas. por lo que es unitaria). . Aplicando esto a la base e can´nica. .e.1) asegura que A sp = D sp y que ρ(A) = ρ(D). y hacer la misma cuenta. 1 → 2: Para cada x ∈ Cn . λn ) el vector de autovalores de A. existe U ∈ U(n) tal que A = U DU ∗ . con D diagonal. Pero como D es = diagonal. . Llamemos D = o diag (λ(A) ). Pero no es as´ cuando A es normal: ı Corolario 2. . Por lo tanto tij = 0 para i < j..12) dec´ que ACi (U ) = λi Ci (U ) o ıa para todo i ∈ In . y Avi = λi (A) vi para todo i ∈ In . entonces A sp = w(A) = ρ(A). Si existe U ∈ U(n) tal que D = U ∗ AU . .2. . Sea A ∈ Mn (C) una matriz normal.1.1). x y A∗ x 2 = AA∗ x. e Definici´n 2. tambi´n se tiene que T y = T ∗ y . o sea que T es diagonal. . . la Eq.4. . entonces n n Dx por lo que A sp 2 = i=1 |λi | |xi | ≤ m´x |λi | · a i∈In i=1 2 2 2 |xi |2 = ρ(A)2 . λ(D) = d (D) salvo el orden. 4 → 6: Si A ∼ diag (λ(A) ). Demostraci´n. . se deduce inductivamente (fila por fila) que T debe ser diagonal. Cn (U )}. A 2 2 n = i=1 |λi |2 Demostraci´n.6) que si A ∈ Mn (C). para todo y ∈ Cn . 6 → 1: Si U ∈ U(n) y T ∈ T S(n) cumplen T = U ∗ AU y d (T ) = λ(A).1) asegura que λ(D) = λ(A). (2.1. tomemos B = {C1 (U ). (2. y por ende normal. Sea λ(A) = (λ1 .2. y que en general estas desigualdades pueden ser estrictas.6).2. entonces ρ(A) ≤ w(A) ≤ A sp . Luego. (1. la Eq.

σ (A) ⊆ R. . En adelante usaremos las siguientes notaciones: 1. λ(A) ∈ Rn y A ∼ diag (λ(A) ). .6. k ∈ In−1 . sus o autovalores pueden ordenarse usando el orden de R. Sea A ∈ H(n). La equivalencia entre el ´ ıtem 5 y los dem´s se sigue a del Corolario 1.6. .2. Sea A ∈ Mn (C). es decir λk (A) ≤ λk+1 (A). A ∼ B .2. A es normal y σ(A) ⊆ R. se tiene que λ(A) = λ(B) ⇐⇒ existe U ∈ U(n) tal que B = U AU ∗ . Sean A. Rec´ o ıprocamente.2 Matrices Hermitianas 27 Corolario 2. = si D = diag (λ(A) ) = diag (λ(B) ). Pero en muchos casos es a suficiente saber que ellos est´n en un intervalo especificado. .e. se tiene que λ(A∗ ) = λ(A). o vemos que σ(A) ⊆ R. Por el Corolario 1.2. Teorema 2.1. λn (A)) para denotar al vector de autovalores de A ordenados en forma creciente. En el resto de este Cap´ a ıtulo estudiaremos algunas de las principales caracter´ ısticas que distinguen a las matrices Hermitianas. = En otras palabras.13. Definici´n 2. Demostraci´n. B ∈ Mn (C) matrices normales. = 5.1. La Eq.1) asegura que si A ∼ B. si definimos la ´rbita unitaria U(A) := { U AU ∗ : U ∈ U(n)}. A ∈ H(n) . Por lo tanto. sin la necesidad de conocer los autovectores asociados en forma exacta. . (2.1. Por el Teorema anterior.2 dice que A ∼ D ∼ B. Recordemos las notaciones H(n) = {A ∈ Mn (C) : A = A∗ } y Mn (C)+ = {A ∈ H(n) : A ≥ 0} . el Teorema 2. entonces λ(A) = λ(B). 2.2. 3. El resto se deduce del Teorema 2. Demostraci´n. si A ∈ H(n).1. 4. existe U ∈ U(n) tal que U ∗ AU = diag (λ(A) ). Si tomamos un orden fijo en C para ordenar los vectores λ(A) y λ(B). Ax. x ∈ R para todo x ∈ Cn . Escribiremos λ(A) = (λ1 (A). i.1. Por lo tanto.2 y del hecho de que una matriz diagonal en Mn (R) debe ser autoajunta. en particular los principios variacionales que se utilizan para localizar su espectro. Luego son equivalentes: 1. λ(A) ∈ Rn y existe una base ortonormal B adaptada a λ(A). i.e. = = 2.2 Matrices Hermitianas Por lo general no es f´cil calcular los autovalores de una matriz.5. entonces o U(A) = { B ∈ N (n) : λ(B) = λ(A) } .

4.3. iendo que al enumerar los autovalores de A lo hemos hecho en forma creciente. Pero cuando las matrices son Hermitianas. y contiene a los bordes. Se llamar´n a λm´ (A) = λ1 (A) = µn (A) = m´ σ (A) ın ın y λm´x (A) = λn (A) = µ1 (A) = m´x σ (A) .1 (Rayleigh-Ritz). a a As´ cuando escribamos λi (A) o. conocidas como cocientes de Rayleig-Ritz. e 3. a Ax.2. vn } una BON de Cn adaptada a λ(A). tenemos que A ∈ Mn (C)+ ⇐⇒ λm´ (A) ≥ 0 ⇐⇒ σ (A) ⊆ R+ . (2. Sea B = {v1 . x Teorema 2. a (2. Sea A ∈ H(n). 2. x . vi | 2 y Ax. x . o La otra se deduce de que σ(A) ⊆ [λ1 (A). x = i=1 λi (A) | x. la igualdad A sp = ρ(A) se sigue del Corolario 2. si A ∈ H(n). es decir µk (A) ≥ µk+1 (A). . . x . ın x =1 x.2) Demostraci´n. Proposici´n 2. µn (A)) ser´ el vector de autovalores de A ordenados en forma dea creciente.3) . x = m´x Ax. . el hecho de poder establecer un orden entre ellos nos permite obtener caracterizaciones m´s a interesantes. las expresiones x. µ(A) = (µ1 (A). se tiene que n n n x= i=1 x. vi | 2 . x 3. Por lo tanto. para x ∈ Cn \ {0}. x Ax. Y en forma decreciente si escibimos µi (A) o µi . Para todo x ∈ Cn se tiene que λm´ (A) x ın 2. directamente λi (si el contexto es claro) estaremos asumı.1. x = m´ Ax.2. . en funci´n de o o Ax. . . Como H(n) ⊆ N (n). para A ∈ H(n). o sea que Avi = o λi (A)vi para todo i ∈ In . Entonces 1. Entonces se tiene que o A sp = ρ(A) = m´x{λn (A). . Sea A ∈ H(n). Los pr´ximos teoremas describen al vector λ(A). λn (A)] ⊆ R. vi vi .3 Principio minimax Para matrices generales la unica caracterizaci´n conocida de sus autovalores es que son las ´ o ra´ ıces del polinomio caracter´ ıstico de la matriz.3 Principio minimax 28 2. x 2 = i=1 | x.3. −λ1 (A)} . a x =1 x. . k ∈ In−1 . dado x ∈ Cn . λm´x (A) = λn (A) = m´x a a x=0 2 ≤ Ax. ın Demostraci´n. Tambi´n µk (A) = λn−k+1 (A). λm´ (A) = λ1 (A) = m´ ın ın x=0 En particular. x ≤ λm´x (A) x 2 .

.2. notemos por Hr = Gen {v1 .2. Pero si y ∈ (S ∩ Hk )1 . vi | 2 = λn (A) = Avn . x = i=k λi (A) | x. v1 .3. y ≤ λk (A) =⇒ m´ Ax. vi | 2 = 1 . x . y = i=1 λi (A) | y. Sea A ∈ H(n) y sea k ∈ In . Luego dim S=n−k+1 x∈S1 Ay. Sea B = {v1 .1. ın Demostraci´n. n Ax.3. si asumimos que x = 1. Observaci´n 2. las caracterizaciones del Teorema anterior se pueden o reescribir de la siguiente forma: λ1 (A) I ≤ A ≤ λn (A) I. x . cualquier x ∈ Cn verifica la Eq. entonces S ∩ Hk = {0}. vi | 2 y que y 2 k = i=1 | y. ın Por otro lado. Dado r ∈ In . . λ1 (A) = m´x{λ ∈ R : λ I ≤ A} a y λn (A) = m´ ın{λ ∈ R : A ≤ λ I} . ın La otra f´rmula se demuestra en forma an´loga: el m´ se alcanza en M = Hk . x = i=1 λi (A) | x. x = a dim S=n−k+1 x∈S1 m´x a m´ Ax. si dim S = n − k + 1.3) vemos que. Ax. (2. x para todo x unitario en Cn . Notaciones: En el resto de esta secci´n usaremos las siguientes convenciones: o 1. Entonces.3. An´logamente. . λk (A) = dim M=k x∈M1 m´ ın m´x Ax. En efecto. Es claro que estas de- sigualdades muestran los tres ´ ıtems a probar. vn } una BON de Cn adaptada a λ(A). x ≤ λk (A) =⇒ λk (A) ≥ ın x∈S1 dim M=k m´x a m´ Ax. (2. Notar que dim Hr = r y dim Kr = n − r + 1. vi | ≤ λn (A) i=1 n 2 | x. . si x ∈ Kk . .3). tenemos que n n Ax. . . vi | 2 ≥ λ1 (A) = Av1 .3 Principio minimax 29 Luego. escribiremos M1 = {x ∈ M : x = 1} al conjunto de elementos de M de norma uno. vi | 2 =⇒ λk (A) = m´ Ax. C ∈ H(n). vn . para mostrarlo basta recordar que dados B. x . k (2.3) asegura que Ay. . x = a i=1 λi (A) | x. x ≤ ın x∈(Kk )1 dim S=n−k+1 x∈S1 m´x a m´ Ax. y cualquier o a ın otro tal M cumple que M ∩ Kk = {0}. vn }. vale que B ≤ C ⇐⇒ B x . Dado M ⊆ Cn . la Eq. . . . . Las letras M y S denotar´n subespacios de Cn .3 (Courant-Fisher). Teorema 2. Por la Eq. vr } y Kr = Gen {vr . . a 2. Dada A ∈ H(n). Como en la prueba o del Teorema 2. x ≤ C x .

. . x ≥ 0.. Entonces: λj (A) + λ1 (B) ≤ λj (A + B) ≤ λj (A) + λn (B) para todo j ∈ In . (2. matrices muy cercanas tienen autovalores muy cercanos. que A + B = C y. por ultimo. Una reformulaci´n del Teorema de Weyl.wk−1 m´ ın x∗ Ax . entre las autoadjuntas. Por lo tanto el teorema se puede deducir de las f´rmulas de Courant-Fischer. x ≤ Ax.. B ∈ H(n).3. B ∈ H(n).3 Principio minimax 30 Observaci´n 2.x∈Cn x⊥w1 .. tenemos que o λj (A) + λ1 (C) ≤ λj (A + C) = λj (A + (B − A) ) = λj (B) .5) Para mostrarla.8. Por el Teorema 2. aplicar la Eq.w2 .4.4). B ∈ H(n) tales que A ≤ B. x + λn (B) .7. La versi´n tradicional de las f´rmulas de Courant-Fisher ser´ la siguo o o ıa iente: λk (A) = w1 . o Observaci´n 2.4) Demostraci´n..wn−k ∈Cn m´ ın x=0.. x + λ1 (B) ≤ Ax. para todo x ∈ Cn tal que x = 1. Demostraci´n.. es la siguiente: Sean C. para todo j ∈ In .3.3. que es bastante com´n en sus o o u aplicaciones.2. x + Bx.5. Y con cotas bien claras: Corolario 2.3... Sean A.. observar que ambos viven en H(n). Por el Teorema 2.e. como C ∈ Mn (C)+ . Sean A. se tiene que o Ax.3.w2 . i.wk−1 ∈Cn x∗ x x=0.. Entonces: λ(A) − λ(B) ∞ := m´x |λj (A) − λj (B)| ≤ ρ(A − B) = A − B a j∈ In sp .5 (Teorema de Weyl). x∗ x Teorema 2. B − A ∈ Mn (C)+ . ın x =1 Una consecuencia importante del Teorema de Weyl es el hecho de que. Entonces λj (A) ≤ λj (B) para todo j ∈ In .. entonces λ1 (C) = m´ Cx.1.6.x∈Cn x⊥w1 . ´ Corolario 2.. D ∈ H(n).w2 .. Sean A.3.3. (2.w2 . basta tomar A = D y B = C − D. Por otra parte. (2. entonces: λ1 (C − D) ≤ λj (C) − λj (D) ≤ λn (C − D) . Llamemos C = B − A.wn−k m´x a x∗ Ax = m´x a w1 ...

4. Entonces λk (A) ≤ λk (Ar ) ≤ λk+1 (A) . B ∈ H(n).2.9 (Aronszajn). Antes fijaremos nuevas notaciones para estas submatrices: Definici´n 2. S2 y S3 subespacios de Cn .1.5). que relaciona los autovalores de una matriz Hermitiana con los de sus submatrices principales. Demostrar las siguientes afirmaciones: 1.4. se tiene que µi+j−1 (A + B) ≤ µi (A) + µj (B) . Sean A. e Teorema 2. Si J tiene k elementos. probar que dim(S1 ∩ S2 ∩ S3 ) ≥ dim S1 + dim S2 + dim S3 − 2n . j ∈ In tales que i + j ≤ n + 1. Ejercicio 2. (2. 2. Por lo tanto. Con esa o convenci´n.4 Entrelace de Cauchy 31 Demostraci´n. para cada k ∈ In−1 .2 (Entrelace de Cauchy).2.j∈J ∈ Mk (C) y A(J) = {aij }i.j ∈J ∈ Mn−k (C) . a la submatriz principal obtenida de borrar la fila y la columna r-´simas de A. λn (A − B) a = ρ(A − B) .5. Para cada r ∈ In . (2. en su versi´n dada por la Eq. se tiene que o o λ1 (A − B) ≤ λj (A) − λj (B) ≤ λn (A − B) . 2. se obtiene que o λ(A) − λ(B) ∞ para todo j ∈ In . Dados S1 . a veces abreviaremos A[J] = AJ .3. Es decir que λ1 (A) ≤ λ1 (Ar ) ≤ λ2 (A) ≤ · · · ≤ λn−1 (A) ≤ λn−1 (Ar ) ≤ λn (A) . Dados i.6) .4 Entrelace de Cauchy Una consecuencia directa del Teorema de Courant-Fisher es el llamado teorema de entrelace de Cauchy. Por el Teorema de Weyl. (2. Sean A ∈ Mn (C) y J ⊆ In .6) . se tiene que A(J) = AIn \J . notaremos o A[J] = {aij }i. ≤ m´x |λ| : λ ∈ λ1 (A − B). llamaremos Ar = A({r}) = {aij }i=r=j ∈ Mn−1 (C) . aplicando la Proposici´n 2. / Si el contexto lo permite. r ∈ In y Ar ∈ Mn−1 (C) la submatriz principal de A obtenida como en la Eq. como en la secci´n 1. Observar que A[J] es la matriz cuadrada resultante o de borrar de A las filas y columnas con ´ ındices fuera de J.3. Sean A ∈ H(n).

ın lo que prueba el teorema. pero se identifican con todos los de Cn−1 ). Observar que.4. AS = A[Ir ] y se aplica el caso anterior. x = λk+1 (A) . entonces al producto P AP se lo puede pensar como un operador en el espacio de Hilbert S (para que su vector de autovalores tenga s´lo o r coordenadas. a Tomemos ahora subespacios S ⊆ Hn−1 tales que dim S = n − k. Ejercicio 2. 1. .3. se tiene λk (A) ≤ λk A[J] ≤ λk+n−r (A) . Fijemos un k ∈ In−1 . si P ∈ L(H)+ es un proyector autoadjunto (o sea ortogonal) sobre a u un subespacio S de dim S = r. basta cambiar coordenadas a una BON de Cn cuyos primeros r vectores generen S. En esa base. Observaci´n 2. Para ello necesitamos el siguiente resultado e previo. Observar que n−1 A n x 0 . que r = n. Sea a Hn−1 = {en }⊥ = Gen {e1 . del Teorema 2. x = λk (A). xn−1 ) ∈ Cn−1 a su parte significativa. x0 ≥ a dim M=k x∈M1 n M⊆ C m´ ın m´x Ax. A esta compresi´n se la denota o AS = P AP ∈ L(S). Supongamos.4 Entrelace de Cauchy 32 Demostraci´n. Los otros casos se prueban exactao mente igual. por simplicidad. x0 ≤ ın dim S=n−k x∈S1 m´x a m´ Ax. .4. Escribir expl´ ıcitamente c´mo quedan los resultados de esta secci´n (la o o f´rmula minimax. . que λk (An ) = M⊆ Hn−1 dim M=k x∈M1 m´ ın m´x An x0 . Ahora. como en el Teorema 2.4. dado que xn = 0. como corolario del Teorema de entrelace. Entonces se obtienen desigualdades an´logas: a S λk (A) ≤ λk (AS ) ≤ λk+n−r (A) . obtenemos. si r = n − 1. sacando los n − r ceros que “sobran”). x .2 2. En forma an´loga se puede probar versiones m´s generales del Teorema o a a anterior: Dado A ∈ H(n). obtenemos λk (An ) = dim S=n−k x∈S1 S⊆ Hn−1 m´x a m´ An x0 . . para cada k ∈ Ir . Si x ∈ Hn−1 .4. . Como n − k = n − (k + 1) + 1 y a la ves. entonces para cada k ∈ Ir . .3. veremos una caracterizaci´n de positividad de o matrices en t´rminos de submatrices principales. En efecto. . pero con notaciones algo m´s engorrosas. en−1 } = {x ∈ Cn : xn = 0 } .3. M´s en general a´n. Trabajando s´lo con los subespacios M ⊆ Hn−1 que tienen dim M = k (que son menos que los subespacios de dimensi´n k de o todo Cn . entonces k + n − r = k + 1. x0 = i.2. notaremos x0 = (x1 . Si J ⊆ In cumple que |J| = r. n − k = (n − 1) − k + 1.j=1 o Aij xj xi = Ax. . . el teorema de Weyl y los tres entrelaces) en funci´n de los vectores µ(A) o o ordenados decrecientemente.

j∈Ik ∈ Mk (C) . 2. para todo J ⊆ In con |J| = r.7 (dif´ ıcil). entonces tenemos que o A = A[1] = det(A[1] ) > 0. Teorema 2. El Lema 2. Si llamamos A(k) = A(Ik ) = {aij }i.5.3.3).4.2 nos asegura que λ2 (A) ≥ λ1 (A[n−1] ) > 0. Entonces A[J] ∈ Gl (r)+ . 3. Si n > 1.4. porque tiene las mismas submatrices involucradas. Por hip´tesis inductiva. entonces A ∈ Mn (C)+ ⇐⇒ det A[J] ≥ 0 para todo J ⊆ In . entonces det A(k) > 0 para todo k ∈ In−1 ∪ {0} . Probar que. Usando el Teorema 2. A es definida positiva (i. Entonces 0 < Ax. x > 0 para todo x = 0. Demostraci´n. (8.2. es claro que la condici´n 2 se verifica tambi´n para o e A[n−1] . De ah´ deducimos que λ1 (A) > 0. tenemos o que A[n−1] ∈ Gl (n − 1)+ . porque es claro que si B ∈ Gl (r)+ . x = i. o .6. Demostraci´n. A ∈ Gl (n)+ ). o sea que A ∈ Gl (n) . Se suguiere induccionar en n.j∈J Aij xj xi = A[J] xJ . Luego tomar un J de tama˜o m´ximo para que det A[J] = 0 y n a aplicar varias veces la f´rmula det(B + εEii ) = det B + ε det B(i). o Ejercicio 2.4. Sea A ∈ Gl (n)+ .j>k ∈ Mn−k (C) .4. entonces det A[k] > 0 para todo k ∈ In . llamemos xJ ∈ Cr al vector resultante o de sacarle a x los ceros fuera de J.1. Como tales xJ recorren todo Cr \ {0}. La prueba de la equivalencia con el ´ ıtem 3 es exactamente igual.1 sabemos que 0 < λ1 (A[n−1] ) . y por el Teorema 2. entonces o det B > 0. vemos que A[J] ∈ Gl (r)+ . dada A ∈ H(n).j∈In Aij xj xi = i. xJ . Si llamamos A[k] = A[Ik ] = {aij }i. Si n = 1. El Teorema del entrelace de Cauchy 2. podemos concluir r´pidamente ı a + que Ax. Si A ∈ H(n).4. Luego n n 0< k=2 λk (A) y tamb´n e 0 < det A[n] = det A = k=1 λk (A) .5 dice que 1 → 2 y 3.3. como en la Eq.4 Entrelace de Cauchy 33 Lema 2. pero usando para la inducci´n a A(1) ∈ Mn−1 (C) . entonces las siguientes condiciones son equivalentes: 1. Si HJ = Gen {ei : i ∈ J} y 0 = x ∈ HJ . La rec´ ıproca se prueba por inducci´n sobre n.e.

Probar que n−k para todo par i ∈ Ik . a 2. B ∈ H(n). Probar que.2. Para todo j ∈ In .5. entonces A ∈ Mn (C)+ ⇐⇒ det A[J] ≥ 0 para todo J ⊆ In . . dada A ∈ H(n). Sea P ∈ L(H)+ es un proyector autoadjunto (o sea ortogonal) sobre un subespacio S de dim S = r. se tiene que µj (A) + µn (B) ≤ µj (A + B) ≤ µj (A) + µ1 (B) 2.1. En particular. Sea A ∈ H(n) y sea k ∈ In . ellos cumplen que dim(S1 ∩ S2 ∩ S3 ) ≥ dim S1 + dim S2 + dim S3 − 2n . si r ∈ In . entonces µk (A) ≥ µk Ar ≥ µk+1 (A) para todo k ∈ In−1 . la compresi´n de A a S. Si J ⊆ In cumple que |J| = r. se tiene que µi+j−1 (A + B) ≤ µi (A) + µj (B) .5. 3. x . mostrar que: 1. se tiene µk (A) ≥ µk A[J] ≥ µk+n−r (A) .5 (Ejercicio dif´ ıcil).5.5.5. Dado A ∈ H(n). Demostrar las siguientes afirmaciones: 1. Dados i.4. (2. x = ın dim S=n−k+1 x∈S1 m´ ın m´x Ax.7) µi+j−1 (A) ≤ µi (C) + µj (D) 2. Probar que µk (A) = m´x a dim M=k x∈M1 m´ Ax. Sean A.5 Ejercicios 34 2. 2. j ∈ In−k . Luego o µk (A) ≥ µk AS ) ≥ µk+n−r (A) . 2. Sea AS = P AP S ∈ L(S). S2 y S3 subespacios de Cn .3 (Aronszajn). 2. Sea A = C X X∗ D k ∈ H(n). j ∈ In tales que i + j ≤ n + 1. entonces para cada k ∈ Ir . para cada k ∈ Ir .5 Ejercicios Ejercicios del texto 2.2. Dados S1 .

o o 3. Si A es real.10. Sea A ∈ Mn (C) y p(t) un polinomio.9. 1. Mostrar que SAS ∗ es autoadjunta. Si S es invertible. 2. o 2.6.5. La matriz A es autoadjunta si y s´lo si todos sus autovalores son reales. es decir. tr(A) = Aii . B ∈ H(n). SAS −1 ¿ es autoadjunta ? 2. 2. mostrar que se puede elegir e p con coeficientes reales. Si la matriz A es nilpotente. Sea A una matriz normal.5.13 (*). entonces. Probar que si A es normal entonces p(A) tambi´n lo es. La matriz A es unitaria si y s´lo si todos sus autovalores tienen m´dulo 1. o 2. Si p(A) es normal. Dada A ∈ Mn (C). Mostrar: 1. probar que A es normal si y s´lo si hay un polinomio p de grado o ∗ a lo sumo n − 1 tal que A = p(A). de manera que AT = p(A). Mostrar que A es normal si y s´lo si sus partes real e imaginaria conmutan. ¿ puede asegurarse que A lo sea?. Mostrar que si A es similar a una matriz unitaria. 1. Notar que esto da una buena explicaci´n “intuitiva” de o por qu´ una matriz normal conmuta con su adjunto. 2. 2. e 2. 2. Demostrar: .8. 2. A lo largo de este ejercicio consideraremos la traza normalizada de modo que n 1 tr(I) = 1.2.11.5. 1. Considerar la matriz 2 0 0 1/2 y mostrar que el conjunto de matrices que son similares a una matriz unitaria es un subcojunto propio del conjunto de matrices A para las que A−1 es similar a A∗ .12. n k=1 Sean A.5.5 Ejercicios 35 Ejercicios nuevos 2. Mostrar que A es normal sii conmuta con una cierta matriz normal con autovalores distintos.5. dada una matriz A de n × n.7.5. entonces A−1 es similar a A∗ . Mostrar que dos matrices normales son similares sii son unitariamente equivalentes. Sea A ∈ H(n) y S ∈ Mn (C). 2.5. A = 0.5.

si Ri < |aii | para todo i ∈ In . Adem´s. Esto mejora al Ejercicio anterior en dos aspectos: Primero observar que cada ri ≤ Ri . |aij | . Sea A ∈ Mn (C) una matriz normal. aii + ri ] = ∅ .5 Ejercicios 36 1. a . entonces A ∈ Gl (n). n tr A2 (Pista: Usar la desigualdad de Jensen. Probar que w(A) = ρ(A) = A 2. 2.14.5.16 (Este es bien dif´ ıcil). Una tal matriz suele ser llamada “diagonal dominante”. (tr A)2 r(A) ≥ . 2.2.5.) 2. Para cada i ∈ In . tr(AB)2 ≤ tr(A2 B 2 ). entonces. a ubica al menos un autovalor en cada disquito (ac´ son intervalitos). mostrar que si 1/2 ri = j=i |aij | 2 =⇒ σ(A) ∩ [aii − ri . Mostrar que σ(A) ⊆ i∈In {z ∈ C : |z − aii | ≤ Ri } . Deducir que. Sea A ∈ H(n). sea Ri = j=i sp .5. Para cada i ∈ In . Si A = 0. Sea A ∈ Mn (C).15 (Gersgorin).

Entonces o 1. o sea que A es inversible. Sean A. o + 3. se dice que A ≤ B si se tiene que B − A ∈ Mn (C)+ . x ≥ 0.Cap´ ıtulo 3 Matrices definidas positivas 3. ın x =1 2.1. o 1.1. x ≥ Bx. si A ∈ Mn (C)+ .1.2. Dadas A. el Teorema 2. Si A = B ∗ B entonces A ∈ Mn (C)+ . x para todo x ∈ Cn =⇒ A ∈ Mn (C)+ . x ≥ 0 para todo x ∈ Cn . o / como la bola de Cn es compacta.1 asegura que 0 ≤ λ1 (A) x 2 ≤ Ax. S´lo difiere del caso anterior en que en ambas situaciones 0 ∈ σ (A). Notar que si A > 0. / . Si A ∈ H(n) y σ (A) ⊆ R+ . entonces C ∗ AC ≤ C ∗ BC. por lo que σ (A) ⊆ R+ . Si A.1. 4. o 2.1. ın x =1 Luego 0 ∈ σ (A).3.13. x ∈ R para todo x ∈ Cn ).3. Demostraci´n. Por el Teorema 2. Definici´n 3. existe un ε > 0 tal que λ1 (A) = m´ Ax. A ∈ Mn (C)+ si y s´lo si A ∈ H(n) y σ (A) ⊆ R+ . B ∈ H(n) y A ≤ B. B y C ∈ Mn (C). entonces λ1 (A) = m´ Ax. Proposici´n 3. A ∈ Gl (n)+ si y s´lo si A ∈ H(n) y σ (A) ⊆ R∗ . o o sea si Ax. se tiene que. sabemos que Mn (C)+ ⊆ H(n) (para que A ∈ H(n) bastaba que Ax.1 Propiedades b´sicas a Recordemos que A ∈ Mn (C)+ si Ax. x ≥ ε. B ∈ H(n). Por el Corolario 1. x para todo x ∈ Cn .

. . Sea otra C ∈ Mn (C)+ ´ 2 tal que C = A. es claro que V ∗ CV = D1/2 (entre diagonales la unicidad es trivial).4 (El Grammiano). Se toma ´ D1/2 := diag λ1 (A)1/2 . A ∈ Mn (C)+ si y s´lo si existe B ∈ Mn (C) tal que A = B ∗ B. .j=1 = B ∗ B ∈ Mn (C)+ .6.1. Aqu´ usaremos que D1/2 se puede escribir como P (D) para cierto polinomio P ∈ R[X]. entonces. Pero entonces V ∗ U conmuta con P (D) = D1/2 . Como (V ∗ CV )2 = V ∗ AV = D.2. Para lo anterior se usa que N (n) ∩ T S(n) consta de las matrices diagonales. Y que es definida positiva si y s´lo si es una matriz de Gramm de un sistema o linealmente independiente (en nuestro caso. entonces C ∗ (B − A)Cx. Sea A ∈ Mn (C). . Luego basta probar que o si A ∈ Mn (C)+ . y que la tal B es unica. Observaci´n 3. x = Bx. Por ello B = U D1/2 U ∗ = V D1/2 V ∗ = C. para todo i ∈ In . Bx = Bx Por lo tanto B ∗ B ∈ Mn (C)+ . .2. . x = (B − A)Cx. Sabemos que si A = B ∗ B entonces A ∈ Mn (C)+ . Teorema 3.1. . n 2 ≥ 0. λn (A)1/2 ∈ Mn (C)+ . .3 deducimos que una matriz es semi definida positiva si y s´lo si es una matriz o de Gramm. 4.1. Es claro que (D1/2 )2 = D. . En tal caso. La unicidad es algo m´s complicada. esto equivale a que B ∈ Gl (n) ). Para todo x ∈ Cn tenemos que B ∗ Bx. Dada una matriz B ∈ Mn (C). fn . ´ Demostraci´n.3. Por otro lado. . Luego C ∗ (B − A)C ≥ 0. Notar que. el Teorema 1 de Schur 1. es decir C ∗ AC ≤ C ∗ BC. . El a problema es que la matriz U ∈ U(n) que diagonaliza a A no es unica. Esto es posible por la Proposici´n 3. o i ∈ In . como se vi´ en la o prueba del Teorema 2.1 asegura que existe V ∈ U(n) tal que V ∗ AV = D y V ∗ CV ∈ Mn (C)+ es diagonal . Finalmente se define o B = U D1/2 U ∗ . Entonces: 1.1. . Luego B ∈ Mn (C)+ y B 2 = A. G(f1 . basta elegir un P tal que P (λi (A) ) = λi (A)1/2 . llamemos fi = Ci (B).1. o 2. con U ∈ U(n) y D = diag (λ(A) ) ∈ Mn (C)+ . fj i. U DU ∗ = V DV ∗ = A =⇒ (V ∗ U )D = D(V ∗ U ) . como C y A conmutan. Cx ≥ 0. entonces existe una raiz cuadrada B ∈ Mn (C)+ para A. Escribamos A = U DU ∗ . fn ) := fi . Si B − A ≥ 0 y x ∈ Cn .3. Del Teorema 3. Entonces. existe una unica matriz B ∈ Mn (C)+ tal que A = B ∗ B = B 2 . En ı efecto.1 Propiedades b´sicas a 38 3. La matriz anterior es conocida como matriz de Gramm (o Grammiano) de f1 . .

. o 1..8. . 2. Sea B = QT . T ∈ T S(n). .3. not´ndolos s1 (A) ≥ · · · ≥ sn (A) ≥ 0.3. Notar que. para todo i ∈ In . una o descomposici´n de B como en el Teorema 1. . donde n es el n´mero de vectores en cuesti´n.1. Dada A ∈ Mn (C)+ .2. = Ejemplos 3.7.  Σ(A) = diag (s(A)) =  . que es autom´ticamente continuo).1. . Notar a + que la matriz de Gramm sigue estando en Mn (C) (y en Gl (n)+ si el sistema es LI). Llamaremos “m´dulo de A” a la matriz o |A| = (A∗ A)1/2 ∈ Mn (C)+ . a si (A) = µi (|A|) = µi (A∗ A)1/2 .3) si la n-unpa f1 . 0 0 sn (A) Observar que |A| ∼ Σ(A). Sea A ∈ Mn (C)+ .2.2. . Si A = U diag (λ(A) ) U ∗ . . Sea A ∈ Mn (C). . llamaremos A1/2 a la unica raiz cuadrada de A en o ´ + Mn (C) .2 Descomposici´n polar y valores singulares o Definici´n 3. Entonces existe T ∈ T S(n) tal que Tii ≥ 0 para todo i. Q ∈ U(n). fn vive en cualquier espacio de Hilbert H (anche infinitodimensional. .2. o 3.3 se muestran las dos o maneras usuales de describir a A1/2 : 1.5 (Cholewsky). En la prueba del Teorema 3. . Sea A ∈ Mn (C).1.2 Descomposici´n polar y valores singulares o 39 Los mismos resultados son ciertos (la prueba es una ligera variaci´n de la del Teorema o 3. Demostraci´n.4. Sea B ∈ Mn (C) tal que A = B ∗ B. Entonces A = T ∗ Q∗ QT = T ∗ T . . Definici´n 3. . con U ∈ U(n). se tiene que A1/2 = U diag λ(A)1/2 U ∗ . que existe (y es unica) por el Teorema 3. Llamaremos s(A) = (s1 (A).1. Sea A ∈ Mn (C)+ .. 2.2. sn (A) ) = µ(|A|) y Σ(A) a la matriz diagonal   s1 (A) 0 0  .1) 3. (3.3. porque en tal caso B es un operador B : Cn → H. y tal que A = T ∗ T . Llamaremos valores singulares de A a los autovalores de |A| ordenados en forma decreciente.2. u o Corolario 3. ´ Observaci´n 3.1. .2. . por el Corolario 1. . A1/2 = P (A) para culquier P ∈ C[x] tal que P (λ) = λ1/2 para todo λ ∈ σ(A).

porque A∗ A es un proyector de rango n − 1. Si A ∈ Mn (C) es normal. salvo el orden. 0). 1. En particular. Ax = A∗ Ax. |A|x = |A|x 2 .2. entonces s(A) = |λ(A)|. . Las columnas Ci (V ) forman una BON de autovectores de |A| (y A∗ A). Si A ≥ 0.e. entonces A∗ A = U diag λ(A) diag (λ(A) ) U ∗ = U diag |λ(A)|2 U ∗ . si A = U diag (λ(A) ) U ∗ para cierto U ∈ U(n). . o . 2. o 5. Dado x ∈ Cn . de la definici´n de norma espectral y del Corolario 2. . que es la llamada descomposici´n polar (DP) de A. se tiene que Ax 2 = Ax. se tiene que A sp = |A| sp = ρ(|A|) = s1 (A) = µ1 (A∗ A)1/2 . Esto dice que U ∗ es un unitario admisible para la DP de A∗ . Entonces o 1. 3. 3. si A es un bloque nilpotente de Jordan en Mn (C) (i. Teorema 3. . W ∈ U(n) tales que A = W Σ(A)V ∗ . Existe una matriz unitaria U ∈ U(n) tal que A = U |A| . En general (fundamentalmente. x = |A|2 x. aunque no es siempre unica.2 Descomposici´n polar y valores singulares o 40 1. Se deduce de lo anterior. k ∈ In−1 y Aen = 0).4. AA∗ = U A∗ AU ∗ . si A no es normal).1. Existen V. x = |A|x. Cualquier U ∈ U(n) que cumpla A = U |A|. 2.3. Por ejemplo. O sea que A tiene una descomposici´n polar a derecha A = |A∗ | U con el mismo U que la otra. los autovalores y los valores singulares de una misma matriz pueden ser bien distintos. o 1. 6. Para todo x ∈ Cn .5 (Descomposici´n polar y en valores singulares). entoces σ (A) = {0} porque An = 0. pero s(A) = (1. Demostraci´n. U |A|U ∗ = |A∗ | y A = |A∗ | U . verifica que A∗ = U ∗ |A∗ | . y las columnas Ci (W ) forman una BON de autovectores de |A∗ | (y AA∗ ). Sea A ∈ Mn (C). se verifica que Ax = |A|x . o ´ 4. En efecto. entonces A = |A| y s(A) = µ(A). 2. Aek = ek+1 .

podemos extender la isometr´ U1 a una matriz unitaria U ∈ U(n). para todo λ ∈ σ (AA∗ ) = σ (A∗ A) (acabamos de ver que AA∗ ∼ A∗ A). y todas las columnas de V forman una bon. (3. La prueba para W es similar. Sea P (x) ∈ C[x] tal que P (λ) = λ1/2 .4. De hecho. Se usa la Eq.2) Demostraci´n. por lo que cada Ci (V ) es un autovector de |A|. Con las mismas o notaciones (para subespacios) que en el Teorema 2. Podemos definir (con buena definici´n) una isometr´ suryectiva o ıa U1 : R(|A|) → R(A) dada por U1 (|A|x) = Ax. se tiene que sk (A) = m´x a dim M=k x∈M1 m´ Ax = ın dim S=n−k+1 x∈S1 m´ ın m´x Ax a para todo k ∈ In .3.6. Notar que AA∗ = U |A|2 U ∗ = U A∗ AU ∗ . Por la definici´n de U . .2) para calcular sk (AC) y sk (C). para todo k ∈ In se tiene que sk (AC) ≤ A sp sk (C) . x 1/2 y que sk (A) = µk (A∗ A)1/2 .3 para los valores o o singulares de una matriz: Proposici´n 3. Notar que Σ(A) = V ∗ |A|V . Dadas A. Luego = |A∗ | = (AA∗ )1/2 = P (AA∗ ) = U P (A∗ A)U ∗ = U |A|U ∗ .3. tenemos que A = U |A| = U V Σ(A)V ∗ = W Σ(A)V ∗ . e Existe una versi´n de la caracterizaci´n minimax de Courant-Fisher 2. Como dim R(A)⊥ = n − dim R(A) = dim ker(A) = dim ker(|A|) = dim R(|A|)⊥ . 6. Sea V ∈ U(n) tal que |A| = V Σ(A)V ∗ .7. C ∈ Mn (C).4 para traducirlo a µ’es) para A∗ A. o 4. para todo x ∈ Cn . se tiene que A = U |A|.3) Demostraci´n. por lo que tambi´n A∗ = U ∗ |A∗ |. dado que tambi´n Σ(A)2 = W ∗ AA∗ W .3. En particular tr |AC| ≤ A sp tr |C| .3 (y el Ejercicio 2.2 Descomposici´n polar y valores singulares o 41 3.3.2. e 5.3. Si llamamos W = U V ∈ U(n). por ser V unitaria. Luego se o aplica el Teorema 2. operando isom´ıa e ⊥ ⊥ tricamente desde R(|A|) sobre R(A) .2. Luego A = U |A| = U |A|U ∗ U = |A∗ |U . junto con la siguiente o desigualdad: ACx ≤ A sp Cx . |A|x = |A|y ⇐⇒ x − y ∈ ker |A| = ker A ⇐⇒ Ax = Ay. Basta notar que Ax = A∗ Ax. (3. (3. Corolario 3. para todo x ∈ Cn . Sea A ∈ Mn (C) (no necesariamente autoadjunta).

0}. vn } es una BON de Cn adaptada a µ(A). U v k = vk si µk (A) ≥ 0 .5. si denotamos A+ = se prueba f´cilmente que a (a) Ambas matrices A+ . En efecto. . Podemos deducir que −|A| ≤ A ≤ |A|. se tiene que o o µk (A+ ) = m´x { µk (A) . para todo k ∈ In . 4. (3. y tomemos A = U |A|. . k U ∗ = U = U −1 y −I ≤U ≤I . Si B = {v1 . Luego. .3 Parte positiva y parte negativa 42 3. (c) Por la definici´n de A+ y la f´rmula (3. adem´s.4) dado que |A| vk = (µ2 (A) )1/2 vk = |µk (A)| vk para todo k ∈ In . |A|. 0} = − m´ a ın{µn−k+1 (A). Se las llama partes positiva y negativa de la matriz autoadjunta A. (b) (−A)+ = A− y (−A)− = A+ . luego A∗ A = A2 . con U ∈ U(n).4). la matriz de U es diagonal con ±1’s en la diagonal. . Otras propiedades que verifican A+ y A− son: (a) AA+ = A+ A = (A+ )2 (idem con A− ). Luego se verifican las siguientes propiedades: 1. Supongamos. Es f´cil ver que A+ y A− son las unicas matrices que cumples las tres propiedades a ´ anteriores. y U vk = − vk si µk (A) < 0 . Por lo tanto. Por lo tanto conmutan entre ellos (y con A). |A|1/2 U |A|1/2 = A. En la base B. una DP de A. 3. (3. (c) A+ A− = A− A+ = 0. a Una tal U existe por la construcci´n hecha en el Teorema 3.3. que U opera como la identidad en ker A = ker |A| = R(|A|)⊥ . A− ∈ Mn (C)+ . 2. y adem´s es unica (Ejercicio: o a ´ mostrar ambas cosas). 0 } . k ∈ In .5) . M´s espec´ a ıficamente. (b) A = A+ − A− y |A| = A+ + A− .6) A + |A| 2 y A− = |A| − A .3 Parte positiva y parte negativa Fijemos una matriz autoadjunta A ∈ H(n). 5. 2 (3. |A|1/2 y U son diagonales en la base B. a (d) µk (A− ) = µk ( (−A)+ ) = m´x{µk (−A). y −|A| = −|A|1/2 I|A|1/2 ≤ |A|1/2 U |A|1/2 ≤ |A|1/2 I|A|1/2 = |A|.2.

Ella verifica que n A 2 2 = tr A A = i.1. es un resultado conocido que todas las normas en Mn (C) son equivalentes. para todo k ∈ In . normas. dado que (−A)+ = A− . entonces A+ = 0 y la primera desigualdad es obvia. Pero no olvidemos que. . Dado 1 ≤ p < ∞ n = |A| sp = ρ(|A|). Las normas Ky-Fan. C ∈ Mn (C)+ . Si A = B − C con B. B = tr B ∗ A.7) En efecto. 2 se llama norma de Frobenius. como dim Mn (C) < ∞.j=1 ∗ |aij |2 y proviene del producto escalar en Mn (C) definido por A. entonces se tiene que µk (A+ ) ≤ µk (B) y µk (A− ) ≤ µk (C) . Si µ1 (A) ≥ 0. 3.4. efectivamente. 3. Dejaremos a a como ejercicio para el lector la verificaci´n (en algunos casos altamente no trivial. Ejemplos 3. pensada a o futuro) de que son. como B = C + A ≥ A. . Dado k ∈ {1. Luego.3. Las normas de Schatten. 1. n} k A Notar que A (1) (k) = i=1 1 si (A) . = A sp y A (n) = A . En los siguientes ejemplos definiremos las normas m´s cl´sicas para matrices. a x =1 sp donde la ultima igualdad surge de que A ´ 2. .4 Normas en Mn (C) 43 6. por el Teorema de Weyl 2. 1/p A La · p = i=1 si (A) p = (tr |A|p )1/p . (3. a o Muchas de estas normas son utiles en diversas desigualdades matriciales espec´ ´ ıficas.7) se deduce de lo anterior aplicado a la igualdad −A = C − B. (de Schatten). si A < 0.4 Normas en Mn(C) Se estudiar´n en esta secci´n distintas normas en el espacio vectorial de matrices Mn (C). La norma espectral A = A sp · sp .5. La otra desigualdad en (3. definida del siguiente modo = m´x Ax = s1 (A). .3. sea p = m´x{k ∈ In : µk (A) ≥ 0}. se tiene que a µk (A+ ) = µk (A) ≤ µk (B) para k ∈ Ip y µk (A+ ) = 0 ≤ µk (B) para k > p .

Sea N∞ (A) = m´x |aij |.4. 1) ∈ Cn y a ij∈In En = 1n 1n . Una norma o 1. para todo U. Consideremenos en Cn las siguientes normas: n x 1 = i=1 |xi | y x ∞ = m´x |xi | .8) para toda A ∈ Mn (C). ı Teorema 3.4. Sea · una norma matricial en Mn (C). |||A|||∞ = m´x a x Ax ∞ =1 ∞ y |||A|||1 = m´x Ax a x 1 =1 1 . O sea que N∞ no es matricial en Mn (C) para ning´n n > 1. . Unitariamente invariante (NUI): si U AV = A . A − I < 1 implica que A ∈ Gl (n) y A−1 = n=0 (I − A)n 2. . Definici´n 3. para A ∈ Mn (C). 1n = n. (3.4 Normas en Mn (C) 44 4. Si B ∈ Gl (n) y B − A < B −1 −1 . Ejemplo 3. . . V ∈ U(n).5.4. Toda norma N en Cn induce una norma ||| · |||N en Mn (C) del siguiente modo: |||A|||N = m´x N (Ax). El u lector interesado puede demostrar que n N∞ (·) s´ es una norma matricial en Mn (C).3. Como en el Ejemplo anterior. Dada A ∈ Mn (C) se tiene que ∞ 1.2. Como 1n .4. Matricial: si AB ≤ A · B en Mn (C) se llama: 2. ellas inducen en Mn (C) las siguientes normas matriciales: Dada A ∈ Mn (C). conocidas como las normas 1 e ∞. .4. a N (x)=1 Estas normas satisfacen que: (a) |||I|||N = 1 (b) ρ(A) ≤ |||A|||N (c) |||AB|||N ≤ |||A|||N |||B|||N . Probar que estas normas pueden calcularse efectivamente mediante las f´rmulas: o |||A|||∞ = m´x Fi (A) a i∈In 1 y |||A|||1 = m´x Ci (A) a i∈In 1 .3. tenemos que E2 = 1n n 1n · 1n 1n = 1n . 1n 1n 1n = nEn =⇒ N∞ (E2 ) = n . Ejercicio 3. a i∈In para todo x ∈ Cn . n mientras que N∞ (En ) = 1. Sean 1n = (1. A ∈ Gl (n). entonces.

Como el autovalor era cualquiera. .ε en Mn (C) o tal que NA. se tiene que σ (Am ) = σ (A)m . AX = λX. . o M´s a´n.3. . −1 Ds T Ds − − − − − diag (λ1 (A) . Luego. (Ds T Ds )ij = tij si−j para todo par i. . Consideremos ahora la norma −1 NA. define otra norma matricial. ρ(A) ≤ A .4. λn (A)) . Luego. Adem´s. entonces. existe una norma matricial NA.4. Entonces ρ(A) ≤ A . Am 1/m ≥ ρ(A) para todo m ∈ N.8. sn ). (1. En particular.ε = · sp Ds U ∗ 0 sp −1 = ρ(A). y por ende |λ| X = AX ≤ A X . Observaci´n 3. −−−−→ s→∞ En cualquier norma Como diag (λ1 (A) .4 Normas en Mn (C) 45 Demostraci´n. o −1 T = U ∗ AU . Demostraci´n. o B − A < B −1 −1 =⇒ B −1 A − I = B −1 (A − B) ≤ B −1 A−B <1 . . llamemos C = I − A. Sea A = U T U ∗ con T una matriz triangular superior y U ∈ U(n).ε (A) = Ds0 U ∗ A U Ds0 −1 = Ds0 T Ds0 sp < ρ(A) + ε.ε (B) = Ds0 U ∗ B U Ds0 sp . . Sea A ∈ Mn (C) y · una norma matricial. Si valiera 1. .14) ). Luego −→ k→∞ N N N +1 A k=0 C k = (I − C) k=0 ∞ Ck = k=0 Ck − k=1 C k = 1 − C N +1 − − 1 . a por el Corolario 1.4. λn (A)) existir un s0 ∈ R tal que Ds0 T NA. Ds T Ds sp − − ρ(A). usando la parte ya probada. . la serie k=1 N C k converge. obtenemos que ρ(A) ≤ Am 1/m . . Llamemos X a la matriz o cuyas columnas son todas iguales al vector x. s2 . Por e lo tanto.7. o Proposici´n 3. Dada una norma matricial · en Mn (C) y una matriz S ∈ Gl (n). la o f´rmula A S := SAS −1 . y entonces tambi´n ρ(Am ) = ρ(A)m . j ∈ In (eso fue visto en la Eq. Dados A ∈ Mn (C) y ε > 0. Tenemos que ∞ ∞ C < 1 =⇒ ∞ C m ≤ C m ∀ m ∈ N =⇒ k=0 C k ≤ k=0 C k = 1 1− C . B ∈ Mn (C). luego B −1 A ser´ inversible y A = B(B −1 A) tambi´n deber´ serlo. de donde se deduce que |λ| ≤ A . . Luego. En efecto. Sean λ ∈ σ (A) y x ∈ Cn tales que x = 0 y Ax = λx. Por lo tanto.6.ε (A) ≤ ρ(A) + ε. Comencemos notando que 1 ⇒ 2. . . Entonces.7. A ∈ Mn (C). Para probar ıa e ıa el ´ ıtem 1. Proposici´n 3.2. a u Demostraci´n. o sea sp . . C k − − 0. −1 Luego NA. Sea Ds = diag (s. −→ N →∞ Analogamente k=0 C k A = 1. Luego debe −→ s→∞ −1 Ds0 sp < ρ(A) + ε.

que nos permite dar una prueba f´cil ´ o a de la f´rmula del radio espectral (Teorema 3. que es la funci´n o ρA : C \ σ(A) → Gl (n) dada por ρA (z) = (zI − A)−1 . probar que en tal caso. N (Am )1/m ınf a u ρ(A) . es anal´ ıtica. Por la Proposici´n 3.5. Todos los resultados de esta secci´n. Si N es una norma matricial en Mn (C). .5 que dice que dadas A. que tiene la prueba standard (y no creo que pueda mejorarse). por ser todas las normas equivalentes. Demostraci´n. El curro es mostrar que la llamada a resolvente. B ∈ Mn (C). donde las normas son matriciales por definici´n.11. o Demostraci´n.4. En ρ(A) + ε consecuencia existe un m0 ∈ N tal que. Usaremos la e o Proposici´n 1.5. entonces Am → 0 si y s´lo si ρ(A) < 1. mostrando o el Teorema de Schur 2. mostrar que ρ(A) = ´ N (Am )1/m . Sin embargo.4.4. z ∈ C \ σ(A) . consideremos A la matriz B = . La f´rmula dada surge del radio de convergencia de su serie de potencias alrededor o del “infinito”. Supongamos primero que · es una norma matricial. existe una norma matricial N tal que ρ(A) ≤ N (A) < o 1.3.4. A lo largo de ´sta Secci´n abreviaremos A sp = A .4.6. Entonces.10. Al final incluimos una mini-introducci´n al producto de Hadamard. es decir que Am < (ρ(A) + ε)m =⇒ Am 1/m < ρ(A) + ε .4. Para probar la otra. Por la Proposici´n o o m 1/m 3.12.9. m∈N m→∞ Observaci´n 3. Fijado ε > 0. Am 1/m . El primer o enunciado resume varias caracterizaciones ya mencionadas de esta norma. una implicaci´n es clara. deducimos que N (Am ) ≤ N (A)m − − 0. se verifica Bm < 1 . N´tese que se asumi´ impl´ o o ıcitamente que Mn (C) es un espacio completo. hemos incluido las demostraciones anteriores porque tienen un buen sabor matricial. porque usamos que una serie absolutamente sumable es convergente.8. M´s a´n. El mismo resultado vale para normas no matriciales.4. Sea A ∈ Mn (C). Como ρ(B) < 1.4. para todo m ≥ m0 . Ejercicio 3. Sea A ∈ Mn (C). salvo el Teorema 3. Esta f´rmula vale tambi´n en dimensi´n o o e o infinita. Usando que o o −→ ρ(Am ) ≤ Am sp para todo m ∈ N. son o o tambi´n ciertos en ´lgebras de Banach. El e a o unico resultado propio de matrices es la Proposici´n 3. −→ m→∞ m→∞ Teorema 3. 3. el Corolario 3. Es claro que ρ(A) < 1 si y s´lo si ρ(Am ) = ρ(A)m − − 0.5 Algunas caracterizaciones 46 Corolario 3. supongamos o que ρ(A) < 1. Si A ∈ Mn (C).10).4.8.9 asegura que B m → 0.4. entonces σ (AB) = σ (BA).4. Como N es matricial. y la prueba usa herramientas de an´lisis complejo. lo que prueba el Teorema en este caso. a partir del Teorema 3.5 Algunas caracterizaciones A continuaci´n daremos algunas caracterizaciones f´ciles de la positividad y la contractividad o a de matrices. sabemos que se tiene ρ(A) ≤ A para todo m ∈ N. para cualquier norma ρ(A) = lim m→∞ · en Mn (C).5.

4. Por lo tanto. Como |A| y A∗ A ∈ H(n).2. Por lo o a tanto. (3. como vimos en 1.5. . a x =1 Proposici´n 3.10) A1/2 B −1/2 ≤ 1 ⇐⇒ ρ(AB −1 ) ≤ 1 .11) z= i=1 z. M´s a´n.1 y de la Proposici´n 3.7. o a u −λI ≤ A ≤ λ I ⇐⇒ para cialquier λ ∈ R∗ . x = µ1 (A) ≤ λ ⇐⇒ A ≤ λI .12) por lo que {xi xi : i ∈ In } es un sistema de proyectores (ver Definici´n 5. Luego se aplica la Proposici´n 3.1.5.9) Demostraci´n.3. la matriz Px = x x = xx∗ = (xi xj )ij ∈ Mn (C)+ es el proyector ortogonal sobre el subespacio Gen {x}. (3. . Observar que ρ(A∗ A) = ρ(AA∗ ) porque σ(A∗ A) = σ(AA∗ ). Entonces. + Demostraci´n. tenemos que −λ ≤ µn (A) = m´ Ax.5.5). (3.3 y el hecho de que σ B −1/2 AB −1/2 = σ (AB −1 ). o . Si A ∈ Mn (C)+ y B ∈ Gl (n)+ .5 Algunas caracterizaciones 47 Lema 3. usando que |A|2 = A∗ A. Notar que si A ∈ H(n). x ⇐⇒ −λI ≤ A ın x =1 A ≤ λ ⇐⇒ ρ(A) ≤ λ . se tienen las equivalencias o A = s1 (A) ≤ 1 ⇐⇒ |A| ≤ I ⇐⇒ AA∗ ≤ I ⇐⇒ A∗ A ≤ I . Sea A ∈ H(n). vale que n n (3. . Dada A ∈ Mn (C). . Es consecuencia del Lema 3. ρ(A) ≤ λ ⇐⇒ −λ ≤ µn (A) ≤ µ1 (A) ≤ λ.2.5. o o Proposici´n 3.4.5. entonces o A ≤ B ⇐⇒ Demostraci´n. xn } es una BON de Cn . Las igualdades A = |A| = s1 (A) se deducen de que Ax = |A|x para todo x ∈ Cn (´ ıtem 1 del Teorema 3.9.2). y adem´s a m´x Ax. o 3. entonces − A I ≤ A ≤ A I .5. la Proposici´n 2. Demostraci´n.5.m (C) entonces s1 (A) = A = |A| = ρ(|A|) = ρ(A∗ A)1/2 = A∗ A 1/2 = AA∗ 1/2 . −µn (A)}. si B = {x1 . Notemos que o A ≤ B ⇐⇒ B −1/2 AB −1/2 ≤ I ⇐⇒ (A1/2 B −1/2 )∗ A1/2 B −1/2 ≤ I . Proposici´n 3.5.1.3. La igualdad ρ(|A|) = ρ(A∗ A)1/2 se sigue del Corolario 1.5.3.4 asegura que o o |A| = ρ(|A|) = s1 (A) y que ρ(A∗ A)1/2 = A∗ A 1/2 . entonces A = ρ(A) = m´x{µ1 (A). Sea A ∈ Mn. xi xi para todo z ∈ C n =⇒ I= i=1 xi xi . Sea x ∈ Cn con x = 1 (a estos vectores los llamaremos unitarios).3.2.2.1. Por el Teorema 2.

si A > 0 y B > 0. Adem´s. B ∈ Mn (C)+ . tales que A = ∗ vi vi . xi xi = i=1 µi (A) xi xi z . o mirando la Eq. basta mostrar que v v ∗ ◦ B ∈ Mn (C)+ para todo v ∈ Cn y toda B ∈ Mn (C)+ . Existen y1 .m (C) .3).1. La implicaci´n 2 → 1 es clara. le dedicaremos un cap´ e ıtulo entero. Entonces. o e deben existir vectores vi ∈ Cn .6. su producto de Hadamard A ◦ B es la matriz o i∈In j∈Im Notar que este producto tiene sentido tanto para matrices como para vectores. porque es elemental y compete a las matrices positivas. entonces A ◦ B ∈ Gl (n)+ .m (C). 3.6 (ver tambi´n 1. . .2 (Teorema 2 de Schur).6 El producto de Hadamard 48 Proposici´n 3. para todo z ∈ Cn se tiene que o n n n n Az = A i=1 z. En efecto. B ∈ Mn. si A.3. A este producto de matrices. 2. a Demostraci´n.12). B ∈ Mn (C)+ . Por la Proposici´n 3. Sean A. porque cada matriz yi · yi ∈ Mn (C)+ . Como el producto ◦ es distributivo.13) Supongamos entonces que A. . .6 El producto de Hadamard A ◦ B = aij bij ∈ Mn. Sea A ∈ Mn (C). . B ∈ Gl (n)+ . alcanza con hacer la siguiente cuenta: v v∗ ◦ B = vi vj Bij i. Y para ver esto.6. donde la igualdad del medio se testea haciendo la cuenta. Definici´n 3. . A ∈ Mn (C)+ . Pero vamos adelantando un resultado al respecto (otro teorema de Schur). tambi´n llamado producto de Schur. xi xi = i=1 z. Usando la ecuaci´n (3. porque tiene interesant´ ısimas aplicaciones dentro y fuera de la teor´ del An´lisis ıa a Matricial. Las siguientes condiciones son equivalentes: o 1. sea B = {x1 . Rec´ o o + n camente. . (1. yr ∈ Cn tales que A = r r yi i=1 yi = i=1 ∗ yi · yi . xi Axi = i=1 µi (A) z. obtendr´ u ıamos A ◦ B ≥ aI ◦ B ≥ aI ◦ bI = ab I ∈ Gl (n)+ .14).5. Teorema 3. ∗ ıproDemostraci´n. .5. . o existen n´meros a. Luego basta elegir yi = µi (A)1/2 xi para aquellos i ∈ In tales que µi (A) > 0. entonces A ◦ B ∈ Mn (C)+ . Dadas A. xn } es una BON de C adaptada a µ(A).6.9.j∈In i=1 = diag (v) B diag (v)∗ ∈ Mn (C)+ . b > 0 tales que A ≥ aI y B ≥ bI. aplicando dos veces el caso u que a´n no hemos probado. si A ∈ Mn (C) . i ∈ Ir . r (3. La segunda parte se deduce de la primera.

Por una inducci´n directa.3.17) y (1.6. .13). B ∈ Mn (C)+ . (1.5. ∈ Mn (C)+ . Si A ∈ Mn (C)+ .j∈In i. Ejercicio 3. con el famoso truco de matrices de bloques a de 2 × 2. pero aplicando ahora las a desigualdades A ≤ µ1 (A)I y B ≤ µ1 (B)I (tadas fueron vistas en la Observaci´n 2.j∈In ∈ Mn (C)+ .1.7.7 El famoso truco 2 × 2 49 Corolario 3. 3. podemos ver que A[k] = A ◦ A ◦ · · · ◦ A ∈ Mn (C)+ o o (se multiplica k veces) para todo k ∈ N. muchas veces una cuenta inmanejable termina saliendo “m´gicamente” y en un par de renglones. entonces 1. Si tomamos la matriz 1 U=√ 2 −I I I I ∈ U(2n). pero usando que o o A ≥ µn (A)I y B ≥ µn (B)I.16). Mostrar que el resultado anterior falla si uno no eleva los m´dulos al o cuadrado.18). entonces P◦ (A) := P (Aij ) i. A A A A ∈ M2n (C)+ .2). / Corolario 3. 2.4. se usar´n sistem´ticamente los resultados desarrollados en a a la Secci´n 1. e Ejercicio 3. se debe encontrar un ejemplo de una matriz A ∈ Mn (C)+ tal que B = |Aij | i. Demostraci´n. o o 3.6.6. Si A ∈ Mn (C)+ y P (x) ∈ R[x] tiene coeficientes no negativos. Se deduce de que AT = A = Aij o i. Ver.j∈In ∈ Mn (C)+ . En particular. por ejemplo. En otras palabras. entonces eA := ◦ eAij i. La segunda.3.7 El famoso truco 2 × 2 Cuando se trabaja con operadores y matrices.6.6. Sean A.5. de una cuenta an´loga. si A ∈ Mn (C)+ . A ◦ B sp = µ1 (A ◦ B) ≤ µ1 (A)µ1 (B) = A sp B sp .5. Entonces A ∈ Mn (C)+ ⇐⇒ A(2) = En efecto. La primera desigualdad se deduce de la ecuaci´n (3. entonces B = |Aij |2 Demostraci´n. Sea A ∈ Mn (C).5. µn (A)µn (B) ≤ µn (A ◦ B). o Corolario 3. Observar que hay que buscar para n ≥ 3.3.6.7. Demostraci´n. las f´rmulas (1. Probar que. y tratar de probarla de otra manera.j∈In ∈ Mn (C)+ . la Proposici´n 1. Despu´s se usa lo que cumple P (x). En o esta secci´n juntaremos varios resultados que aportan t´cnicas para usar dicho m´todo.j∈In ∈ Mn (C)+ . Para o e e operar entre matrices de bloques.

5.5. Proposici´n 3. Sea A ∈ Mn (C). s(A ) = s(A) (salvo ceros finales).15) muestra o o que ambos rangos son iguales. .7. y que U A(2) U ∗ = U A(2) U = 0 0 0 2A . . Proposici´n 3. Luego la f´rmula (3.2 (o sea que λ(P (A) ) = P (λ(A) ) para todo polinomio P ) y la definici´n de |A|. En efecto.7.m (C) decimos que o rk A = dim R(A) = dim Gen {C1 (A). µ(A ) = (s1 (A). Como vimos en la Observaci´n 1. −sn (A). · · · . En ese caso B ∈ Mn+m (C)+ (Ejercicio). En particular. o ∗ Por la Proposici´n 3.3. lo que usualmente se llama rango columna de A.6. . Si A ∈ Mn (C). a (3. Sea U ∈ U(n) tal que A = U |A|. Es decir. Es f´cil ver que a rk A = rk |A| = rk Σ(A) = m´x{k ∈ Ir : sk (A) = 0} . con esta definici´n. . (3. Dejamos como ejercicio la verificaci´n de ı o o que si A(k) ∈ Mkn (C) se define en foma semejante a A(2) . sea U ∈ U(n) tal que = U |A|U ∗ U |A| |A|U ∗ |A| dado que U |A|U ∗ = |A∗ |.7 El famoso truco 2 × 2 50 cuentas elementales muestran que U = U ∗ = U −1 . entoces B = A = U |A|. entonces A ≥ 0 si y s´lo si A(k) ≥ 0. m}.14) Demostraci´n.7.16) . El mismo resultado sigue valiendo si A ∈ Mnm (C).2.7. (3. µ(AA∗ ) = µ(A∗ A) salvo una cola de o o m − n (o n − m) ceros. sn (A). . si A ∈ Mn. Luego sk (A∗ ) = sk (A) para todo k ∈ Ir . . Cm (A)} .m (C). De ah´ sale que o ı s(A) = s(A∗ ) salvo los ceros finales. Esto muestra la f´rmula (3. Fn (A)} = rk AT = rk A∗ . . Entonces 0 ≤ U 0 0 I |A| |A| |A| |A| = U∗ 0 0 I |A∗ | A A∗ |A| = U |A| U |A| |A| |A| . Entonces o A := 0 A A∗ 0 ∼ = Σ(A) 0 0 −Σ(A) ∈ H(2n) .7. o sea si A es rectangular.15) El rango fila de A es.3.3.7. σ(A ) = {±si (A)} (con las mismas multiplicidades). m}.4 (El rango). y llamemos r = m´ o ın{n. Recordemos que. Llamemos r = m´ ın{n. Ahora s´ es claro que A ≥ 0 si y s´lo si A(2) ≥ 0. la dim Gen {F1 (A). U∗ 0 0 I |A∗ | A A∗ |A| ≥ 0. . vemos que µ(A∗ A) = µ(|A|2 ) = µ(|A|)2 . −s1 (A) ). Sea A ∈ Mn. o Observaci´n 3.14). Usando el Corolario 1. o 3. · · · .

o o a por el simple recurso de agregarle ceros (arriba o a la derecha) para que A quede cuadrada. . En efecto.7 El famoso truco 2 × 2 51 Demostraci´n.7.5. lo que. Proposici´n 3. Por la o Proposici´n 3. Observaci´n 3. V ∗ −V ∗ U∗ U∗ V AU ∗ − U A∗ V ∗ −V AU ∗ − U A∗ V ∗ U A∗ VA U A∗ −V A U A∗ V ∗ + V AU ∗ U A∗ V ∗ − V AU ∗ Σ(A) 0 0 −Σ(A) .2). sp Por la Proposici´n 3. = = como quer´ ıamos demostrar. Sean U. Es f´cil ver que o a 1 W =√ 2 Entonces WA W∗ = 1 2 1 2 V −V U U ∈ U(2n). esto equivale a que A o = s1 (A) = ρ(A) = A sp ≤ 1. se tiene que A1/2 B −1/2 ≤ 1 si y s´lo si A ≤ B. obtenemos que o I A A∗ I ≥ 0 ⇐⇒ I2n + A ≥ 0 ⇐⇒ −A ≤ I2n ⇐⇒ −I2n ≤ A ≤ I2n . entonces son equivalentes 1.7.2.5.7.3. V ∈ U(n) tales que Σ(A) = V AU ∗ = U A∗ V ∗ . Sea A ∈ Mn (C).3.5) o o y luego el Teorema de Rayleigh-Ritz 2. B ∈ Mn (C)+ .1 (o la Observaci´n 2.2. Demostraci´n. Notar que la Proposici´n 3. si B ∈ Gl (n)+ .6.6. por la Proposici´n 3. entonces M ≥ 0 si y s´lo si o 0≤ B −1/2 0 −1/2 0 B B A A B B −1/2 0 −1/2 0 B = I B −1/2 AB −1/2 B −1/2 AB −1/2 I .7. Si A. 2. Usando que σ(A) = σ(−A) (por la Proposici´n 3. La matriz M = B A A B ≥ 0.7. lo que no cambia su norma.3. Un ejercicio f´cil es o o a deducir que la equivalencia sigue valiendo si no se pide que B sea inversible (si uno cambia B por B + εI.8.7. Entonces o A sp ≤1 ⇐⇒ M= I A A∗ I ≥ 0. A ≤ B. 3. Notar que M = I2n + A.7.6 sigue siendo v´lida si A es rectangular. equivale a que A1/2 B −1/2 2 = B −1/2 AB −1/2 ≤ 1. entonces M pasa a ser M + εI2n ).

por las citas que se indican sobre los s´ ımbolos. Se tiene que A∗ (I − AA∗ )1/2 = (I − A∗ A)1/2 A∗ . y lo mismo para (I − A∗ A). 3. se tiene que + M= λIk C C ∗ µIn−k ≥ 0 ⇐⇒ C C ∗ ≤ λ µ Ik ⇐⇒ C 2 ≤ λµ . 2. µ ∈ R∗ . observar que A∗ (I − AA∗ ) = A∗ − A∗ AA∗ = (I − A∗ A)A∗ . es decir que A o 1.7.5. caemos en ∗ C µIn−k 0 µ−1/2 In−k el caso de la Proposici´n 3. In−k ≥ C ε 2 B ≤ B In−k =⇒ λ In−k − B ≥ λ − B In−k . M ≥0 ⇐⇒ DM D = Prop. Entonces las matrices A (I − AA∗ )1/2 ∗ 1/2 (I − A A) −A∗ son unitarias en M2n (C). C ε 2 Para la segunda parte. si M = ≤ A + εIk 0 0 λIn−k .3.7. donde tambi´n es cierto).7.3 λ−1 µ−1 C = λ−1 µ−1 C C ∗ ≤ 1 ⇐⇒ C C ∗ ≤ λ µ Ik . λIk C λ−1/2 Ik 0 .9. Sea A ∈ Mn (C) una contracci´n.n−k (C) rectangular. y represent´mosla por bloques M = e A C C∗ B k . conjugandola con D = .6 λ Ik −1/2 −1/2 µ 2 C ∗ λ−1/2 µ−1/2 C In−k ≥0 Lema 3. n−k 1. 3. en ese caso.6 (para C ∈ Mk. En el caso general. En efecto. si llamamos m = n − k. Luego se usa que a (I − AA∗ )1/2 se lo puede realizar como un polinomio en (I − AA∗ ).5.1 ⇐⇒ Prop.10. o e Luego.7. . 2. y o se deja como ejercicio. y sp ≤ 1. y. dado ε > 0. Por inducci´n vemos o ∗ ∗ k ∗ k ∗ que A (I − AA ) = (I − A A) A para todo k ∈ N ∩ {0}. 3. La verificaci´n la segunda parte es directa. Sea M ∈ H(n). A −(I − AA∗ )1/2 ∗ 1/2 (I − A A) A∗ En efecto. con el mismo polinomio. existe λ > 0 tal que A C C∗ B En efecto. dado que tienen el mismo espectro. basta tomar λ ≥ + B . Si A = λIk y B = µIn−k para ciertos λ.7 El famoso truco 2 × 2 52 3. se aplica el caso anterior a la matriz 0≤ εIk −C ∗ C ε −C 2 Im ≤ εIk −C −C ∗ λ Im − B = A + εIk 0 0 λIm − A C C∗ B .

Asumamos ahora que vale 2. Entonces ker A1/2 ⊆ ker D1/2 . Es f´cil ver que C0 es lineal. 3. o Esto da la equivalencia 1 ↔ 2. Adem´s. Observar que T = A1/2 PM A1/2 ≤ A1/2 I A1/2 = A. a Demostraci´n. 1.5. o podemos definir (con buena definici´n) la funci´n o o C0 : R(A1/2 ) → R(D1/2 ) dada por C0 (A1/2 x) = D1/2 x .2. se cumple que D ≤ T . Observar que D1/2 x 2 = D1/2 x . Ahora a a podemos verificar sin dificultades que D1/2 = CA1/2 y. T ∈ M(A. A ∈ Mn (C)+ . S). Sea A ∈ Mn (C)+ y S ⊆ Cn un subespacio.3. que PM (M⊥ ) = {0} y que PM x = x para todo x ∈ M. Entonces. lo cual muestra que T = m´x M(A. x y lo mismo vale para A. Luego. o Como A1/2 (R(C ∗ ) ) = R(D1/2 ) ⊆ S. Sea M(A. Por el Lema 3. D ≤ A. para cualquier x ∈ Cn . S) en el orden usual de H(n) . Sean D. S). T = A1/2 PM A1/2 es el m´ximo de M(A. S) := {D ∈ Mn (C)+ : D ≤ A y R(D) ⊆ S} . Existe C ∈ Mn (C) tal que C sp ≤ 1 y D1/2 = CA1/2 . las siguientes condiciones son equivalentes: 1. 2. (3. Extend´mosla a una C ∈ Mn (C) poniendo C|ker A1/2 ≡ 0. a Notaci´n: Recordar que. Luego. S).8 Cortocircuitos 53 3.17) Consiredemos el subespacio M = A−1/2 (S) y la matriz T = A1/2 PM A1/2 . a .8. D1/2 x = Dx .1.3). Luego T ∈ M(A. Teorema 3. debe existir una contracci´n C tal que D1/2 = CA1/2 . Para cualquier D ∈ M(A. En otras palabras. Observar que 0 ≤ PM ≤ I. deducimos que R(C ∗ ) ⊆ M.1. en particular D ≤ A.8 Cortocircuitos Lema 3. denotamos por PM ∈ Mn (C)+ o al proyector ortogonal sobre M. Usando que C ∗ C ≤ I (porque C sp ≤ 1). se tiene que o a 1/2 R(T ) ⊆ A (M) ⊆ S. S). 2. S). Si D ∈ M(A. D1/2 x ≤ A1/2 x para todo x ∈ Cn . Luego D = D1/2 D1/2 = A1/2 C ∗ CA1/2 ≤ A1/2 PM A1/2 = T .8. si M ⊆ Cn es un subespacio. El hecho de que 3 → 1 se deduce de que C sp ≤ 1 ⇒ C ∗ C ≤ I (por la Proposici´n 3.8. podemos deducir que C ∗ C = PM C ∗ CPM ≤ PM . el hecho de que o C sp ≤ 1 (ac´ se usa que ker A1/2 = R(A1/2 )⊥ ). o sea que D1/2 = A1/2 C ∗ . o sea PM C ∗ = C ∗ . por la condici´n 2. Demostraci´n.

T ) R(D) ⊆ S}. S) .3. S). Entonces: o 1.8. entonces Σ (A. Σ (A.8. y tambi´n que e R(D) ⊆ S . S ∩ T ). T ). S) ≤ Σ (B. al m´ximo del conjunto M(A. T ) = Σ (A. Sean A ∈ Mn (C)+ y S.5. S) = A. 5. S) = αΣ (A. Pero como D ≤ Σ (A. T ) . En a e efecto. T ) y Σ (A. T ) . dos subespacios . S ∩ T ). Probaremos que estos conjuntos son iguales y por ende sus m´ximos tambi´n lo son. Sean A ∈ Mn (C)+ y S ⊆ Cn . Llamaremos shorted de A o al subespacio S. 6. Entonces o Σ (Σ (A. Sean A ∈ Mn (C)+ y S ⊆ Cn . lo cual muestra que R(D) ⊆ T y en consecuencia R(D) ⊆ S ∩ T . S) ⊆ M(A. T ). entonces M(A. S) ≤ A. sea D ∈ M(A. S ∩ T ) . S) y por lo tanto Σ (A. Consideremos los conjuntos o M(A. S) ≤ Σ (A. Si B ∈ Mn (C)+ cumple que A ≤ B. entonces M(A.3. se tiene que Σ (αA. . T ) . Si S ⊆ T ⊆ Cn . S). Si R(A) ⊆ S. S) . un subespacio. Reciprocamente. S). S) = {D : 0 ≤ D ≤ Σ (A. recopilamos una serie de resultados m´s o menos inmediatos de o a la definici´n y la demostraci´n del Teorema 3. S) entonces D ≤ Σ (A. S) . o Proposici´n 3. 4. a En la siguiente proposici´n. si D ∈ M(Σ (A. Demostraci´n.8. T ) ≤ A se tiene que D ∈ M(A. Σ (Σ (A. y lo notaremos Σ (A. Demostraci´n. T ) . S).8 Cortocircuitos 54 Definici´n 3. S ∩ T ) = {D : 0 ≤ D ≤ A R(D) ⊆ S ∩ T } M(Σ (A. entonces se tiene que R(D) ⊆ T y D ≤ A =⇒ D ≤ Σ (A. un subespacio. 2. En consecuencia. Ejercicio. Para todo α ∈ R+ .2. S) = Σ (A. D ∈ M(Σ (A.8. T ⊆ Cn . S) ⊆ M(B. 3. o o Proposici´n 3.4. S).

7. por la Proposici´n 3.8. se observa que o M= A B B∗ D = A1/2 0 0 D1/2 IS C C ∗ IS ⊥ A1/2 0 0 D1/2 ∈ Mn (C)+ . Si se cumplen las condiciones pedidas. Entonces se verifican las siguientes propiedades: 1.7. que consta o −→ de contracciones. Existe una contracci´n C ∈ L(S ⊥ .m (C). Demostraci´n. si llamamos C = A−1/2 BD−1/2 se tiene que IS C C ∗ IS ⊥ = A−1/2 0 −1/2 0 D A B B∗ D A−1/2 0 −1/2 0 D ∈ Mn (C)+ . B∗ D S⊥ si y s´lo si se verifican las siguientes condiciones: o 1. Asumamos que ambas son inversibles. Haciendo la cuenta anterior al reves. . Para ello necesitamos o seguir haciendo cuentas del estilo 2 × 2. 2. A ∈ L(S)+ y D ∈ L(S ⊥ )+ . o Proposici´n 3.7. Como la bola de Mn (C) es compacta. Sean A ∈ Gl(k)+ . 2.8 Cortocircuitos 55 C´lculo matricial del shorted: complementos de Schur a Se busca dar una expresi´n “en coordenadas” del shorted Σ (A. M ∈ Mk+m (C)+ ⇐⇒ B ∗ A−1 B ≤ C. Luego queda que C sp ≤ 1 y B = A1/2 CD1/2 . Se toma la sucesi´n Cn = (A + n IS )−1/2 B (D + n IS ⊥ )−1/2 .3. C ∈ Mm (C)+ y B ∈ Mk. o En tal caso se tiene que R(B) ⊆ R(A) y que R(B ∗ ) ⊆ R(D). y sea M = o Entonces M ∈ Mn (C)+ A B S ∈ Mn (C) . que son interesantes en s´ mismas. para todo k ∈ N. e o B = (A + 1 1 IS )1/2 Cnk (D + IS )1/2 − − A1/2 CD1/2 .6 y la Observaci´n 3. es claro que o o A ∈ L(S)+ y D ∈ L(S ⊥ )+ . S). S) tal que B = A1/2 CD1/2 . M ∈ Gl(m + k)+ ⇐⇒ B ∗ A−1 B < C (o sea que C − B ∗ A−1 B ∈ Gl(m)+ ). Si suponemos que M ≥ 0. o donde C es tambi´n una contracci´n.8. Sea o M= A B B∗ C Cn Cm ∈ Mk+m (C) . ı Proposici´n 3.6. Sea S ⊆ Cn un subespacio. hay una subsucesi´n Cnk − − C. −→ k→∞ nk nk k→∞ donde la continuidad de tomar raices cuadradas se deduce de que todas las matrices de cada sucesi´n se diagonalizan en la misma base. El caso general sale aplicando lo anterior a 1 1 1 las matrices M + n I. Ahora observamos que.7.

o sea que M x . como Ik −X 0 Im y. . Sean M ∈ Mn (C)+ y S ⊆ Cn . . un subespacio. Entonces.9. en } y que estamos en las condiciones de la Proposici´n 3. . S 2. Σ (M. obteno emos que Ik 0 Ik X A 0 M = .8. por lo tanto. es claro que R(T ) ⊆ S y que 0 C − B ∗ A−1 B S M −T = A B B∗ C − 0 0 0 C − B ∗ A−1 B = A1/2 0 B ∗ A−1/2 0 A1/2 A−1/2 B 0 0 ≥0. . Si ahora o S⊥ 0 0 llamamos T = . Trabajando en o una BON que empiece generando a S ⊥ .8.7 (en particular. S) = 0 0 0 C − B ∗ A−1 B S⊥ .8. Sea X = −A−1 B ∈ Mkm (C). que A ∈ Gl(k)+ ). x > 0 para todo x ∈ S ⊥ \ {0}.8.3. deducimos que M Ik 0 −X ∗ Im A−1 0 0 (C − B ∗ A−1 B)−1 lo que prueba la parte 3. −1 Ik X 0 Im = −1 = Ik −X 0 Im . Dar otra prueba de la Proposici´n 3. + Demostraci´n. Demostraci´n. M ∈ Gl (n)+ ⇐⇒ existe un λ ∈ R∗ tal que λ PS ≤ Σ (M.8. X ∗ Im 0 Im 0 C − B ∗ A−1 B lo que prueba 1 y 2.8 Cortocircuitos 56 3. v´ la Proposici´n 3. = A B B ∗ B ∗ A−1 B . o ıa o Corolario 3. S). Supongamos que M= A B B∗ C S⊥ S y que la compresi´n o A = MS ⊥ ∈ Gl(S ⊥ )+ . haciendo cuentas elementales.7.6. que M −1 = Ik X 0 Im A−1 0 ∗ −1 0 (C − B A B)−1 Ik 0 X ∗ Im = ∗ ∗ ∗ −1 ∗ (C − B A B)−1 .8. Luego se tiene que 1. Pongamos que dim S = m y llamemos k = n − m = dim S ⊥ . Por otra parte. Si M ∈ Gl(m + k). entonces M −1 = ∗ ∗ ∗ −1 ∗ (C − B A B)−1 . podemos asumir que S = Gen {ek+1 . Ejercicio 3.

7.9. que en dimensi´n finita siempre existe (ver el Ejercicios o 3. S). pero necesitan t´cnicas espec´ e ıficas.5 a a da una muestra de que el enfoque basado en maximizar el conjunto M(M. Por la Proposici´n 3. S). Tomemos un Q = tiene que M − Q = A B B∗ C − D 0 0 0 D S⊥ ∈ M(M. a 3. normas. Mostrar que las normas definidas en 3.1 son.3.9. S) = 0 0 0 C − B ∗ A−1 B ≥ 0 0 0 λ IS = λ PS para cierto λ ∈ R∗ .6 (ojo con la bola compacta). se puede dar una f´rmula estilo la del Corolario 3. M´s all´ de esto. La ventaja de la definici´n que surge del Teorema 3. Luego se S ∈ Mn (C)+ . La definci´n m´s tradicional del shorted de un M ∈ Mn (C)+ se suele o o a hacer usando el complemento de Schur. utilizando seudoinversas de MoorePenrose.2.2 es que no o necesita que haya una submatriz inversible.8. en el tomo II.9 Ejercicios Ejercicios del texto 3. Sin embargo.7 vemos que o B ∗ A−1 B ≤ C − D =⇒ D ≤ C − B ∗ A−1 B =⇒ Q ≤ T .9. la simpleza de las pruebas de las Proposiciones 3. para toda A ∈ Mn (C). 3. o Todos los resultados de esta secci´n siguen siendo v´lidos en el contexto de operadores acotados o a en espacios de Hilbert. seg´n la f´rmula que se desarrolla en el Cap´ u o ıtulo 12 y se muestra en el Corolario 3. S) tiene fuertes ventajas metodol´gicas. con mucha mayor profundidad.8.8. Las pruebas son muy similares.4. As´ que T = Σ (M.8. S).8.9 para cualquier M ∈ Mn (C)+ .8. sobre todo para mostrar el Lema 3.8.20 y 3.9.8. o ∗ −1 reemplazando B A B por B ∗ A† B. Consideremenos en Cn las siguientes normas: n x 1 = i=1 |xi | y x ∞ = m´x |xi | . volviendo a aplicar la Proposici´n 3.8.30). a i∈In para todo x ∈ Cn . o + Observaci´n 3.9. . |||A|||∞ = m´x a x Ax ∞ =1 ∞ y |||A|||1 = m´x Ax a x 1 =1 1 . Probar que estas normas pueden calcularse efectivamente mediante las f´rmulas: o |||A|||∞ = m´x Fi (A) a i∈In 1 y |||A|||1 = m´x Ci (A) a i∈In 1 .1. o Estos temas se expondr´n. que inducen en Mn (C) las sendas normas matriciales: Dada A ∈ Mn (C).9 Ejercicios 57 por lo que T ≤ M y T ∈ M(M. efectivamente.10.8. La segunda parte surge de que ı C − B ∗ A−1 B ∈ Gl(S)+ ⇐⇒ Σ (M.1 y la Proposici´n 3.4 y 3.

.9.3. Si A ∈ Mn. yk . vale que k k sj (A) = max j=1 j=1 Axj . . Las matrices A (I − AA∗ )1/2 ∗ 1/2 (I − A A) −A∗ son unitarias en Mn+m (C). Probar que. .5. Mostrar que A ∈ Mnm (C) =⇒ sk (A) = min T ∈Rk−1 A−T para todo k ∈ In . para cualquier A ∈ Mnm (C) y para cada k ∈ In . ∈ Mn+m (C)+ . Mostrar que. Consideremos los conjuntos Rk (n) = {T ∈ Mnm (C) : rk T ≤ k}. donde el m´ximo se toma sobre todas las k−uplas ortonormales x1 . es decir que A o 1.j∈In 3.2 3.10. xk e y1 . para todo j ∈ In−k . entonces sj (A) ≥ sj+k (A + H) . Observar / ∈ Mn (C)+ .9. entoces B = |A∗ | A A∗ |A| agreg´ndole ceros a A para que quede cuadrada. yj .m (C). .j∈In ∈ Mn (C)+ . a eAij i.m (C). Se suguiere aplicar 3.9. o y sp ≤ 1.9. entonces eA := ◦ 3.m (C) una contracci´n.3. i.9. . y rk H = k. Sea A ∈ Mn (C).4. 2. 3. Demostrar los 6 items de la Proposici´n 3. para todo k ∈ In . Probar que A −(I − AA∗ )1/2 ∗ 1/2 (I − A A) A∗ Ejercicios nuevos 3. a 3.9.11.9.9. Encontrar una matriz A ∈ Mn (C)+ tal que B = |Aij | que hay que buscar para n ≥ 3. Sea A ∈ Mn. Si N es una norma matricial en Mn (C).7. Mostrar que si A. si A ∈ Mn (C)+ .9.9. 3. .4. se tiene que sk (A) = m´x a dim S=k x∈S1 m´ Ax = ın dim M=n−k+1 m´ ın x∈M1 m´x Ax . a .9. .12.n (C). Sea A ∈ Mn.9 Ejercicios 58 3. Probar que. H ∈ Mnm (C).8. 3. A∗ (In − AA∗ )1/2 = (Im − A∗ A)1/2 A∗ ∈ Mm.7. 3.6. mostrar que ρ(A) = ´ N (Am )1/m ınf m∈N y que N (Am )1/m m→∞ ρ(A) . .8.

x para cada x ∈ Cn . entonces A∗ A + C ∗ C ≤ 1 (resp. Sean A. o . Existe B ∈ H(n) tal que B ≤ Ak (o sea que A es acotada inferiormente). 2. Se definen DA∗ = (I − AA∗ )1/2 . que A ≤ Ak para −→ k∈N k∈N k→∞ para toda B ∈ Mn (C)+ . y que es un ´ ınfimo por hip´tesis. verificar: −1 −1 (a) Si K = DA C ∗ y L = DA∗ B. AA∗ + BB ∗ ≤ 1).9. aplicar el o ıa Teorema de Weyl 2. o Entonces existe A = inf Ak = lim Ak ∈ H(n). o todo k ∈ N y que. Sea A ∈ Mn (C). para todo k ∈ N. LL∗ ≤ 1) ≤ 1.3. Ak+1 ≤ Ak (es decir que A es decreciente) 2. C ∈ Mn (C) tal que A DA = (I − A∗ A)1/2 1. para construir A y ver que el l´ ımite de arriba camina. 3. Es decir que Ak − − A. si un C ∈ H(n) es menor que todos los Ak .9.9 Ejercicios 59 3. Otro argumento (bien finitodimensional) ser´ diagonalizar a todas. sp sp 3. y extrapolar a Ax .   −2 −1 −1 DA∗ −DA∗ ADA −1 I A .13. Probar que Re A ∈ Mn (C)+ =⇒ Re (A ◦ B) ∈ Mn (C)+ 1. x = lim Ak x . B.15. (b) Demostrar que = A∗ I −1 ∗ −1 −2 −DA A DA∗ DA (c) Sea X ∈ Mn (C).9. y < 1. Observar que esto equivale pedir que la sucesi´n { Ak sp }k∈N sea acotada.5 y usar que U(n) es compacto. (Parrot) Demostrar que las siguientes afirmaciones son equivalentes: (a) Existe X ∈ Mn (C) tal que (b) A B ≤1y A C A B C X ≤ 1.3. 3. sp KK ∗ ≤ 1 (resp.j∈In Aij Bij ≥ 0 para toda B ∈ Mn (C)+ . Sea A = {Ak }k∈N una sucesi´n en H(n) tal que. Suponiendo que A sp sp ≤ 1. Sea A ∈ Mn (C). Probar que A ∈ Mn (C)+ ⇐⇒ i. e Probar un resultado similar si A es creciente y acotada superiormente. Demostar que las matrices     I 0 A B I A 0 B 0   A∗ I C ∗ 0   ∗ I∗ C X    y A B I 0   0 C I X C∗ X∗ 0 I B∗ 0 X ∗ I ⇐⇒ son conjugadas y ambas positivas. Se suguiere definir Ax . entonces tambi´n C ≤ A.14 (Fejer).16. y usando k∈N polarizaci´n.9.

Probar que para cualquier pseudoinversa B de A se cumple que (AB)2 = AB .17. A† = A∗ (AA∗ )† .. las matrices que cumplen las condiciones de la o definici´n anterior se denominan g-inversas reflexivas. Sea A ∈ Gl (n).e. se tiene que o Q2 = Q y R(Q) = S ⇐⇒ 2 sp existe X ∈ L(S ⊥ .9 Ejercicios 60 Pseudoinversas y proyecciones oblicuas Definici´n 3.9.23.9. . R(AB) = R(A) . Sea A ∈ Mn (C) .22. La pseudoinversa de Moore-Penrose A† de A. (A∗ )† = (A† )∗ y (A† )† = A. en ese caso.9. son ortogonales. R(AB) = R(A) y ker BA = ker A . Sea A ∈ Mn (C).9. Demostrar que todas las proyecciones oblicuas sobre S poseen la siguiente representaci´n matricial: Dada Q ∈ Mn (C). 2. probar que Q 3. S) tal que =1+ X 2 sp Q= IS X 0 0 S .20.19. probar que existe una unica pseudoinversa B (de A) tal que AB = P y BA = Q. El m´dulo m´ o ınimo reducido de A como: γ(T ) := m´ ın Ax : x ∈ ker A⊥ x =1 y .9. Sea A ∈ Mn (C). Dadas dos proyecciones oblicuas (o no) P. Sea S un subespacio de Cn . En algunos libros. 3. Probar que. (BA)2 = BA .9. 1. 2.9. 2. Entonces (AB)† = B † A† . Observaci´n 3. o 3. se definen: o 1. Sea B ∈ Mn (C) tal que R(B) = ker A⊥ . Q tales que R(P ) = R(A) y ker Q = ker A. A† = A−1 3.21. Definici´n 3. −1 sp 3. ker AB = ker B y γ(A) = A−1 . como la unica que cumple que las proyec´ † † ciones AA y A A ∈ H(n) i. S⊥ Ya que estamos. Se dice que una matriz B ∈ Mn (C) es una pseudoino versa de A si verifica que ABA = A y BAB = B. Dada A ∈ Mn (C). Demostrar lo siguiente: 1.18.3.

Sean A ∈ Mn (C)+ y S ⊆ Cn un subespacio. 3. a . Dar un ejemplo de una sucesi´n {An } − − L pero tal que {A† } − − L† . x y y : y ∈ S⊥ . −→ n→∞ 1. Sea A ∈ Mn (C). Σ(A).30. S) x . Sea A ∈ Mn (C)+ . A = α n=0 † (I − αA A) A = α n=0 ∗ n ∗ A∗ (I − αAA∗ )n para cualquier 0 < α < 2/ A A1 0 0 0 R(A) . Sean M ∈ Mn (C)+ y un subespacio S ⊆ Cn tales que M = que Σ (M.25.32.9.9. y V . Sea {An } ⊆ Mn (C) una sucesi´n de matrices que poseen el mismo rango.9. Sean A.9.3. 3. Deducir que ker A 2 sp . Probar que A† − − L† .9. x 0 0 = inf A x . B ∈ Mn (C)+ . Probar S 3.9. 3. ε→0 ∞ ∞ 2. γ(A)2 = γ(A∗ A) = γ(AA∗ ) = γ(A∗ )2 . Dado x ∈ S.29. Probar: 1.9. F = Σ (A. 2. Dada A ∈ Mn (C) demostrar las siguientes propiedades: 1.9.31. R(F 1/2 ) ⊆ S y R(G1/2 ) ∩ S = {0} . Probar que A ≤ B ⇐⇒ ρ(AB † ) ≤ 1. S) = 0 0 0 C − B ∗ A† B S⊥ . A† = lim A∗ (εI + AA∗ )−1 . Supongao mos que {An } − − L ∈ Mn (C) y que L posee el mismo rango que las An . Probar que A = A† = A−1 0 1 0 0 R(A) ker A y que γ(A) = m´ ın{λ ∈ σ (A) : λ = 0} . se tiene que Σ (A. M´s aun.9. γ(A) = A† −1 .24. Entonces existen unicos F y G ∈ Mn (C)+ tales que A=F +G . ¿Qu´ relaci´n hay entre los valores singulares de o e o A y los de A† ? 3. 3. o −→ n n→∞ n→∞ 3. S A B B∗ C S⊥ . ´ 3.27. o † Expresar A en funci´n de W . Sea A ∈ Mn (C) tal que su descomposici´n en valores singulares es A = W Σ(A)V ∗ . n −→ n→∞ −→ 2. Sean A ∈ Mn (C)+ y S ⊆ Cn un subespacio.26. S) y G = A − Σ (A.28.9 Ejercicios 61 3. S) .

que denotaremos P(A. Dada una un proyecci´n Q ∈ Mn (C). Sea A ∈ Mn (C). 3. e identificarlo. 3. Consideremos la casimatriz M = P(M. S = Q∈P(A.9.35. El conjunto de las proyecciones A-autoadjuntas con rango S. Dada una matriz W ∈ Gl (n)+ .37. Ahora reemplazar la norma espectral por alguna otra NUI y encontrar C para dicha norma. Dada una matriz A ∈ Mn (C)+ . M´s a´n. T ∈ Mn (C) es A-autoadjunto si y s´lo si T A = A∗ T . o 3. Encontrar C ∈ Mn (C).9. 3.9 Ejercicios 62 3. ¿Qu´ conclusi´n puede sacar?. 3. ¿puede extender su conclusi´n para otras normas unitariamente e o o invariantes?. S ⊥A = A−1 (S ⊥ ) = A(S)⊥ . . construir una o matriz A ∈ Gl (n)+ de modo que Q resulte A-autoadjunta. ın Definici´n 3. encontrar una expresi´n para la Moore-Penrose de o T respecto al ·. S ∈ P(A.33. S) m´ ın Q sp . S definida por o PA. Si A = proyecci´n PA. 3. demostrar que B = (A∗ W A)† A∗ D es una pseudoinversa de A tal que AB es una proyecci´n ortogonal respecto al producto interno o ·. Sea A ∈ Mn (C)+ y S un subespacio de Cn .9. Sea S ∈ Mn (C)+ . tal que AC − B sp = m´ ın X∈Mn (C) AX − B sp . Sea A ∈ Mn (C)+ y S un subespacio de Cn . S) = X ∈ L(S)+ : D B B∗ X D B B∗ ? S⊥ . AQ = Q∗ A y R(Q) = S} = ∅ . y A = Ax. S) = {Q ∈ Mn (C) : Q2 = Q.9. S) y encima PA. S ⊆ Cn un subespacio.34. 2. probar que la S satisface que PA. · A definido por x.9.36. 3. Demostrar las siguientes propiedades: 1. S) = ∅ si y s´lo si R(B) ⊆ R(D1/2 ). no necesariamente ortogonal.40. probar que en tal caso o a u existe X0 = m´ P(M. Dado T ∈ Mn (C) y A ∈ Gl (n)+ . y . · W y BA lo es respecto al producto interno usual.9.9. Sean A.9. B ∈ Mn (C). para todo par x . Probar que P(M.39. · A . y ∈ Cn . S).3. consideraremos en Cn el pseudoproducto o interno ·.38. S = 1 a† b 0 0 S⊥ ∈ Mn (C) S sp a b b∗ c S⊥ .

Dadas A. A† = m´ {B ∈ Mn (C) : ABA = A. (AB)∗ = AB. Q ∈ Mn (C) designan o las proyecciones ortogonales al rango y nucleo de E respectivamente.41. Sea E ∈ Mn (C) una proyecci´n oblicua. se dice que A ≤* B si BA∗ = AA∗ y B ∗ A = A∗ A. ın ≤* 3.9. Demostrar: 1. Si P.). (AB)∗ = AB. A ≤* B ⇐⇒ A† A = B † A y AA† = AB † . a ≤* 3. y (BA)∗ = BA}. B ∈ Mn (C). y (BA)∗ = BA}.3. 2.9 Ejercicios 63 3. A† = m´x {B ∈ Mn (C) : BAB = B. . probar que PQ sp <1 y que E 2 = 1 1 − PQ 2 sp .9.42 (Ljance-Ptak.

. xn ) ∈ Rn . etc. 1 = j=1 xi .1) .1. Denotaremos por 1 = (1. entonces se tendr´ a ↓ ↑ que x = µ(A) y x = λ(A). matrices doblemente estoc´scticas y funciones convexas. Escribiremos tr x = x. o 1. (4. En o a la ultima secci´n introduciremos las propiedades b´sicas de la mayorizaci´n logar´ ´ o a o ıtmica. Se dice que y mayoriza a x. Sean x. a En la secci´n 3 mostraremos el teorema de Birkhoff que asegura que las matrices de pero mutaci´n son el conjunto de puntos extremales de las matrices doblemente estoc´scticas. n n 3. 1) ∈ Rn . escribiremos 1n .. Si hace falta aclarar el tama˜o. . 4. si x es el vector de autovalores de una matriz A ∈ H(n). Es decir. y adem´s a j=1 x↓ j ≤ j=1 ↓ yj para todo k ∈ In . Notaremos x↓ y x↑ a los vectores obtenidos al reordenar las coordenadas de x en forma decreciente y creciente respectivamente. a a 1 1 2 i i=j Por ejemplo. y se nota x k y si se verifica que k tr y = tr x . que x↓ = m´x xi . y ∈ Rn .Cap´ ıtulo 4 Mayorizaci´n o Es este cap´ ıtulo expondremos las nociones b´sicas de mayorizaci´n.1. x↓ + x↓ = m´x xi + xj . Con estas notaciones podemos dar la definici´n de mayorizaci´n: o o Definici´n 4.. . al vector con todas sus entradas iguales a uno. y su relaci´n con combia o o naciones convexas de permutaciones. . ..1 Definiciones y caracterizaciones Notaciones: Sea x = (x1 . 2. 1. por ejemplo. 1.

. Sea x ∈ Rn . Una matriz A ∈ Mn (R) se denomina doblemente estoc´stica si o a A 0 . . Si s´lo se cumple la segunda condici´n (4. y ∈ Rn . j ∈ Im . Si s´lo se cumple la segunda condici´n (4.m (C). entonces x + (tr x. tr Fi (A) = 1 y tr Ci (A) = 1 para todo i ∈ In .2) (aca se permite que tr x > tr y ). Si x ∈ Rn . 0 si A 2. Dado que j=1 x↑ = tr x − j n−k j=1 x↓ para todo k ∈ In . Notaciones: Sea A ∈ Mn.4. 0. Llamemos a = tr x. A tiene entradas no negativas. Por a lo tanto. . i i=1 2. Sean x. Si x. se dice que o o x est´ supramayorizado por y y se nota x w y.1. 3.2) 3. n n n k ka ↓ supongamos que existiera un k ∈ In tal que xi < . 1. 0). . Definici´n 4. y adem´s a j=1 x↑ j ≥ j=1 ↑ yj para todo k ∈ In . o o Existe una relaci´n muy estrecha entre las relaciones de mayorizaci´n y las matrices dobleo o mente estoc´sticas.2. entonces es f´cil ver que x↓ = y ↓ . x e y s´lo difieren en una permutaci´n.. a 4. se o o dice que x est´ submayorizado por y y se nota x w y.1. En efecto. no el lo mismo escribir A 0 (entradas positivas) que A ≥ 0 (semidefinida positiva) . Diremos A 0 si Aij ≥ 0 para todo par i ∈ In . la relaci´n x o j k k y equivale a que tr y = tr x . Si sucediera que x y e y x. a .. a 1.. y ∈ Rn . Al conjunto de matrices doble estoc´sticas en Mn (C) lo denotaremos DS (n).1) (o sea que se permite que tr x < tr y ). Entonces a a a .3. En tal caso.1 Definiciones y caracterizaciones 65 k 2. pondremos x y si se cumple que xi ≥ yi para todo i ∈ In . x↓ i i=1 a =⇒ < n n x↓ i i=k+1 (n − k)a < =⇒ n n x↓ < a . n i=1 a 1= n x↓ k 1 ≤ k k x . En otras palabras. a Ejemplos 4. Ojo con el simbolito. Tambi´n e ∗n escribiremos que x > 0 si x ∈ R+ . . . (4.

es decir e e Sn = {σ : In → In : σ es biyectiva } .3) T para todo k ∈ In . y conjugar con Pσ permuta la diagonal de las matrices. e Observaci´n 4. En resumen. . hacerlo a derecha permuta las columnas (con σ −1 ). B ∈ DS (n). M´s adelante a veremos que UP (n) es ni m´s ni menos que el conjunto de puntos extremales de DS (n). donde 1 = (1.5 (Matrices de permutaci´n). dado x ∈ Rn . Deducir que DS (n) es un conjunto convexo. . . con el producto dado por la composici´n de funciones.1. τ ∈ Sn tales que x↓ = Pσ x y x↑ = Pτ x. . para cada σ ∈ Sn . para todo i ∈ In . Dadas A ∈ Mn (C) y Pσ ∈ UP (n). . Luego (Pσ A)ki = Aσ(k)i .1 Definiciones y caracterizaciones 66 Ejercicio 4. existen σ. Sea A ∈ Mn (R). Dada σ ∈ Sn . a 9.4. Observar que. Dadas σ. τ ∈ Sn . o 2. 6. e 8. multplicar por Pσ a izquierda permuta las filas. tenemos que Ci (Pσ A) = Pσ (Ci (A) ) = Ci (A)σ . e Ck (Pσ ) = Pσ (ek ) = eσ−1 (k) y T Fk (Pσ ) = Ck (Pσ ) = Ck (Pσ−1 ) = eσ(k) . o o 1.1. Por lo tanto. Sea n ∈ N. tambi´n se tiene que UP (n) ⊆ DS (n). las columnas de Pσ est´n dadas por a Ck (Pσ ) = Pσ (ek ) = (ek )σ = eσ−1 (k) . eσ(k) = Aσ(k)σ(k) . 1) ∈ Rn . La seguna sale aplicando la de las filas a (APσ )T = Pσ−1 AT . o 4. 3. k ∈ In . Es claro que esta funci´n es lineal. llamaremos Pσ : Cn → Cn al operador dado por Pσ x = x σ . . dada σ ∈ Sn . x ∈ Cn . para cada k ∈ In se tiene que Fk (Pσ A) = Fσ(k) (A) . El grupo UP (n) = {Pσ : σ ∈ Sn } est´ incluido en U(n). Llamaremos Sn al n-´simo grupo sim´trico. ek = APσ ek . (4. llamaremos xσ = (xσ(1) . y que dadas dos matrices A. Ck (APσ ) = Cσ−1 (k) (A) y ∗ d (Pσ APσ ) = d (A)σ . Dada σ ∈ Sn . . A1 = 1 y A∗ 1 = 1. (4. xσ(n) ). Esto prueba la primera igualdad.4) En efecto. Pσ ek = A eσ(k) . Dados σ ∈ Sn y x ∈ Cn . entonces Pσ Pτ = Pστ . . por lo que pensamos a Pσ ∈ Mn (C) como su matriz o en la base can´nica. En efecto. porque (xτ )σ = xστ para todo x ∈ Cn . entonces tambi´n AB ∈ DS (n). Pσ−1 = Pσ = Pσ = Pσ . Probar que A ∈ DS (n) si y s´lo si o A 0. 5. . La de las diagonales sale porque cada ∗ ∗ ∗ ∗ (Pσ APσ )kk = Pσ APσ ek . Otra forma de verlo es notando que Pσ 1 = Pσ 1 = 1. 7. Por otra parte. dado que cada Pσ es claramente a T ∗ −1 isom´trico.4. para todo i ∈ In . 1.

. Demostraci´n. . . Rec´ ıprocamente.1. Supongamos que Ax x para todo x. supongamos que A ∈ DS (n) y llamemos y = Ax. Por otra parte. (4.2. .5) Fijemos un k ∈ In . queda que 1 = A 1 = (tr F1 (A). Se puede suponer que las coordenadas de x y de y est´n ordenadas en forma decreciente.4). k k k n y i=1 ti = j=1 tr Fi (A) = k . k n k yj − j=1 j=1 xj = j=1 i=1 n aji xi − i=1 k xi = i=1 n ti xi − i=1 xi = i=1 k ti xi − i=1 n xi + (k − i=1 k ti )xk k n = i=1 k ti xi + i=k+1 ti xi − i=1 k xi + k xk − i=1 k n ti xk − i=k+1 ti xk = i=1 k (ti − 1) xi + i=1 k xk − i=1 ti xk + i=k+1 n ti (xi − xk ) ti (xi − xk ) = i=1 k (ti − 1) xi + i=1 (1 − ti ) xk + i=k+1 n = i=1 (ti − 1) (xi − xk ) + i=k+1 ti (xi − xk ) ≤ 0. Si para cada i ∈ In llamamos ti = j=1 n aji . Queremos probar que y x. (4. . . deducimos que 1 A 1. Esto implica que A 0 y que 1 = tr ei = tr A ei = tr Ci (A) para todo i ∈ In .1. . Luego se tiene que A ∈ DS (n) ⇐⇒ Ax x para todo x ∈ Rn . k k n n k yj = j=1 j=1 i=1 aji xi = i=1 j=1 aji xi k para todo k ∈ In . Y como no vale la pena permutar al 1. Sea E = {e1 . entonces k 0 ≤ ti ≤ tr Ci (A) = 1 Luego. a porque si P. tr Fn (A) ) . como todas las coordenadas de 1 son iguales.5).1. Para cada i ∈ In . Sea A ∈ Mn (R). aplicando la Eq. entonces QAP ∈ o o DS (n) (por el Ejercicio 4.6. Q ∈ UP (n) son matrices de permutaci´n (ver Observaci´n 4. en } la base can´nica o o n de C .1. .5). Pero por el Ejemplo 4.1 Definiciones y caracterizaciones 67 Teorema 4. se tiene que Ci (A) = Aei ei . como y = Ax. sabemos que A 1 1.4. Por otra parte. .

se deduce f´cilmente que a tr(y ) = tr(z ). o 3. x1 . Entonces. Luego. . Luergo o Pτ ∈ UP (n) verifica que Pτ x = (xk . o Teorema 4. 1] tal que y1 = λx1 + (1 − λ)x2 . Sea τ ∈ Sn la trasposici´n que permuta 1 con k. supongamos que o x. x2 ) + (1 − λ)(x2 . y2 ) x = (x1 . . como y1 ≤ xk−1 . Existe A ∈ DS (n) tal que y = Ax. . Para n = 1 es trivial y el caso n = 2 fue probado en el o o Ejemplo 4. . xk+1 . As´ llegamos a que Ax = y ı.1. (para k = n. Sean y = (y2 .1. y2 = y1 + y2 − y1 = x1 + x2 − y1 = x1 + x2 − λx1 + (1 − λ)x2 = (1 − λ)x1 + λx2 . Por el o Teorema 4. Ejemplo 4. Entonces. . solo resta probar que 1 ⇒ 2. y por lo tanto y = (y1 . y ∈ R2 cumplen que y = (y1 .1 Definiciones y caracterizaciones 68 pues los dos sumandos del ultimo rengl´n son sumas de t´rminos no positivos. . xn ) . Luego. x2 ) . . debe existir un λ ∈ [0.5) muestra que tr y = tr x ´ x. Sin perdida de generalidad podemos suponer que los vectores estan ordenados en forma decreciente. todos los ti = tr Ci (A) = 1). . Demostraci´n. observar que la Eq. y ∈ Rn .7. Como motivaci´n del siguiente resultado.4. x2 .6 se tiene que 3 ⇒ 1. .8. y1 ≥ y2 y x1 ≥ x2 . . 2.1. Por lo tanto ´ o e k k yj ≤ j=1 j=1 xj para todo k ∈ In . x1 ) = λx + (1 − λ)Pτ x. zn ) ∈ Rn−1 . Definamos z = λx + (1 − λ)Pτ x. Por ultimo. m m m zi = i=2 i=2 xi ≥ (m − 1)xk−1 ≥ (m − 1)y1 ≥ i=2 yi . Si m ≤ k − 1. y2 ) = λ(x1 . donde τ ∈ S2 es la permutaci´n no trivial. y x. . y es una combinaci´n convexa de permutaciones de x. Sean x. obtenemos que 2 ⇒ 3. . (4. .7. Vamos a probar que y z : Como z1 = y1 y tr z = tr x = tr y. Luego. Como DS (n) es convexo y UP (n) ⊆ DS (n). . Sea k > 1 tal que xk ≤ y1 ≤ xk−1 y λ ≥ 0 tal que y1 = λ x1 + (1 − λ) xk . . xk−1 . Sea n > 2.1. esto significa que x2 ≤ y2 ≤ y1 ≤ x1 y que y1 + y2 = x1 + x2 . entonces. . yn ) y z = (z2 . Observar que z1 = λ x1 + (1 − λ) xk = y1 . . En este caso. son equivalentes: 1. xn ≤ yn ≤ y1 ≤ x1 . Lo haremos por inducci´n sobre la dimensi´n n.

es imprescindible ordenar a y para verificar que y x.8. si m ≥ k. w) (y. Pero entonces s y= i=1 µi P σi z = i=1 λ µi Pσi x + i=1 (1 − λ) µi Pσi Pτ x . a . m k−1 m zi = i=2 i=2 m xi + (1 − λ)x1 + λxk + i=k+1 xi = i=1 m xi − λx1 − (1 − λ)xk m m = i=1 xi − y1 ≥ i=1 s yi − y1 = i=2 yi . z) ∈ Rk+m cumplen que (x. el vector y ya ven´ ordenado correctamente.1. Un error t´ o ıpico al tratar de demostrar mayorizaci´n entre dos vectores. . Llamemos tambi´n σi ∈ Sn a la extensi´n de cada permutaci´n σi a todo In . si x. esto sucede en la prueba anterior con los vectores z e y . o Observaci´n 4. . y ∈ Rk tales que x Entonces los vectores (x. como z1 = y1 . Por suerte no es grave en este caso. M´s a a n expl´ ıcitamente. (y. y sean x. w). w). por hip´tesis inductiva. Sean w.10. es f´cil ver que C ∈ DS (k + m) y que C(y.1 Definiciones y caracterizaciones 69 Por otro lado.4. y ∈ R . existen A ∈ DS (k) y B ∈ DS (m) tales que Ay = x y o Bz = w. Luego.9. o es olvidarse de ordenarlos antes de sumar sus “primeras” k coordenadas. ıa Corolario 4. z ∈ Rm tales que w z. como k k yi ≤ i=1 i=1 ↓ yi . y lo grave es no reordenar del lado de “los menores”. Pero si consideramos C= A 0 0 B ∈ Mk+m (C). se tiene que y = i=1 s s µi Pσi z . y para ciertas permutaciones σi ∈ Sn−1 (pensadas como biyecciones del conjunto {2. z). que es una combinaci´n convexa de permutaciones de x. porque z est´ del lado de “los mayores”. y = o i=1 µi Pσi z para ciertos µi ≥ 0 que suman uno. . n}). y. De hecho.1. En y.1. pero no para verificar que x la prueba de la relaci´n y o z . 3. Por el Teorema 4. poniendo e o o s σi (1) = 1. Demostraci´n. . Luego y z y. z) = (x.

y por lo tanto x Proposici´n 4. es decir que agrandamos en d la primera coordenada de x. si r ∈ In−k . Si n > 1. . llamaremos a = (x1 . xk ) y b = (y1 . porque est´n bien ordenados y. el resultado es trivial (en ese caso significa igualdad. w) (a. el Corolario 4. Como x e y est´n ordenados. es claro que si el tal u existe. u↓ . . entonces a r r k+r k+r zi − i=1 i=1 wi = i=1 yi − i=1 xi ≥ 0 . . dados x.1 Definiciones y caracterizaciones 70 Lema 4. Observar que v est´ ordenado decrecientemente. Entonces existe u ∈ Rn tal que x v u y. x w w y si y s´lo si existe v ∈ Rn tal que x o y si y s´lo si −y o w v y. es tambi´n claro que e w w z. . entonces x w y (por el Lema o 4. porque sin´ basta tomar u = x. es claro que x v a y que v w y. podemos asumir que tr x < tr y. Entonces o x w y ⇐⇒ existe u ∈ Rn tal que x u y .1. . Ejercicio 4. u ∈ Rn tales que x x↓ i∈In u. −x si y s´lo si existe w ∈ Rn tal que y o . Es claro que x↓ = m´x xi ≤ m´x ui = u↓ . Sean x. v) (b.4. . Entonces se tiene que y i∈In u↓ x w u. . Por ser d quien es. . Si ambos m´ximos se alcanzan en la o a 1 1 misma coordenada de x y de u. . por hip´tesis inductiva. Por a otra parte. o supongamos que x↓ = xk mientras que u↓ = uj . Entonces basta o tomar u = (a. z) = y. . como a b y v z. un argumento inductivo permite concluir que x↓ u↓ . dado que una ves encontrado el u para este caso. si llamamos w = (xk+1 . Para probar la rec´ ıproca. .1.11 y la transitividad de w ). v) = u. w x. Sin´. luego se lo puede reordenar igual que a x.10 dice que u = (a. v) ∈ Rn que cumple lo pedido. En tal caso. cosideramos dos casos: k k Caso 1: Supongamos que existe k ∈ In−1 tal que i=1 xi = i=1 yi . porque x = (a. . lo que preserva la relaci´n x u y no afecta la relaci´n u y. es claro que a b. debe existir v ∈ Rn−k tal que w v z. y que se realiza en cierto k0 ∈ In . o o Se har´ inducci´n sobre n. bingo). Pero claramente v cae en el Caso 1 (sumando hasta k0 . y ∈ Rn . Si llamamos y ∈ Rn al resultado de permutar 1 1 las cordenadas k y j de x.11. Por otra parte. por estarlo x. Si n = 1. a a Demostraci´n. Ahora bien. Antes que nada. Asumiremos tambi´n que x e y est´n ordenados en forma o e a decreciente. y si k0 era n. yk ) ∈ Rk . porque y j = x k ≤ uk ≤ u ↓ = u j 1 Por el caso anterior. . entoncecs 1. . Tomemos v = x + d e1 .13. . xn ) y z = (yk+1 . Probar que. x↓ = y ↓ mientras que w y k = xj ≤ x↓ = xk ≤ uk . Sean x. Demostraci´n. yn ) ∈ Rn−k .1. sigue pasando que y u.12. x 2. k k Caso 2: Supongamos que d = m´ ın k∈In i=1 yi − i=1 xi > 0. a o y w equivale a ).1. 1 u. y ∈ Rn .1. .

por el Teorema s 4.1. notaremos por o Por otra parte. son equivalentes a 1’. o n n 3. o o + x → (x − t) ) es convexa (resp. b ∈ I y λ ∈ [0.1. . convexa no decreciente) para todo t ∈ R. Sean x.1. La implicaci´n 2 → 3 (respectivamente. . Supongamos que y ´ x. o o Teorema 4. cuando I es un intervalo. y s s s tr f (y) = tr f i=1 λ i Pσ i x ≤ tr i=1 λ i f Pσ i x = i=1 λi tr Pσi f (x) = tr f (x) . i=1 |yi − t| ≤ i=1 |xi − t| para todo t ∈ R. Dado I ⊆ R. Luego s f i=1 λ i Pσi x i=1 λi f Pσi x (en cada coordenada). tr f (y) ≤ tr f (x) para toda funci´n f : I → R convexa y no decreciente. se aplica 1 → 2 y la Proposici´n 4. y ∈ In . una funci´n f : I → R. An´logamente. f (xn ) ) ∈ Rn .2 Mayorizaci´n y funciones convexas o f (x) = (f (x1 ).2 Mayorizaci´n y funciones convexas o 71 4. Sea I ⊆ R un intervalo (semirrecta o todo R) tal que x. tr f (y) ≤ tr f (x) para toda funci´n convexa f : I → R. . o n n 3’.12.2. y = s i=1 λi Pσi (x) para ciertos λi ≥ 0 que suman uno. 2 → 3 ) se deduce de que la funci´n x → |x − t| (resp. que ser´ o a util para funciones no decrecientes). La funci´n f se dice c´ncava si −f es convexa. y ∈ Rn . y un vector x ∈ In . decimos que f es convexa si. puesto que los argumentos para probar o o la segunda son similares (para 1’ → 2’. Demostraci´n. 1]. S´lo probaremos la primer parte. Entonces.4. son equivalentes: 1. y x 2. . y para ciertas σi ∈ Sn . Entonces. y w x (submayorizaci´n) o 2’. i=1 (yi − t) ≤ i=1 + (xi − t)+ para todo t ∈ R. dados a.8. se cumple que f λa + (1 − λ)b ≤ λf (a) + (1 − λ)f (b). .

Por el Teorema 4. y1 } y m = m´ n . Corolario 4. a Luego tr x = tr y.2. Sea f : R → R convexa no decreciente. y tambi´n x e y =⇒ x+ y+. Sean M = m´x{x1 . Sea g : I → R una funci´n convexa (resp.4. la desigualdad 3 para valores de t tales que t < m implica que tr y ≤ tr x.2. Luego la desigualdad 3 para estos valores de t implica que tr x ≤ tr y. . dado x ∈ R. Entonces. Por lo tanto k k k n yi − kt = i=1 i=1 n (yi − t) ≤ (xi − t)+ = i=1 (yi − t) ≤ i=1 k i=1 + (yi − t)+ ≤ k k xi − kt.1. se tiene que 2x+ = x + |x|. w y =⇒ |x| |y|. Tomando t = xk . x w w y) =⇒ w g(x) w g(y). Es f´cil ver. Luego n n n n 2 i=1 (yi − t) = i=1 + (yi − t) + i=1 n |yi − t| = tr y − nt + n i=1 n |yi − t| |xi − t| i=1 ≤ tr x − nt + i=1 n |xi − t| = i=1 (xi − t) + =2 i=1 (xi − t)+ . Sea I ⊆ R un intervalo. Fijemos k ∈ In . resulta que n k k (xi − t)+ = i=1 i=1 (xi − t)+ = i=1 xi − kt . Demostraci´n. que f ◦ g es una o a funci´n convexa. y ∈ I . Deducimos que basta probar 3’ → 1’. si x y. entonces o tr f (g(x)) = tr f ◦ g (x) ≤ tr f ◦ g (y) = tr f (g(y)). i=1 lo cual muestra que i=1 yi ≤ i=1 xi . Supongamos que los vectores x e y est´n ordenados de forma decreciente a (ni 3 ni 1 depende del orden de las coordenadas). entonces. yn }. dados x. convexa o n creciente).2. x En particualr x y (resp. y lo mismo para x. An´logamente.2 Mayorizaci´n y funciones convexas o 72 Probemos 3 → 1. se tiene que n n n |yi − t| = i=1 i=1 t − yi = kt − i=1 yi . Por otro lado. a ın{x Tomando t > M .

.3 Birkhoff. 4. El llamado problema de los casamientos (PC) consiste en encontrar condiciones sobre C que aseguren que exista f : V → M biyectiva. Si g es creciente y x w y. vn } y M = {m1 . . . el problema se traduce a poder casar todos los varones de V con mujeres de M (sin bigamia) y que todas las parejitas sean felices (se gusten mutuamente). o porque va a salir a mano). Dada una relaci´n C ⊆ V ×M . Como siempre. Hall y los casamientos 73 Pero por el mismo Teorema (en su segunda parte). Corolario 4.3. Para describir esas condiciones pongamos un poco de notaci´n: Dado J ⊆ In . deducimos que g(x) w g(y). . donde πM es la proyecci´n sobre M . o e Observar que MJ = πM ([VJ × M ] ∩ C). Observar que este hecho va a explicar una parte del Teorema 4. mn } dos conjuntos de n elementos.12 existe u ∈ Rn tal que x u y. en funci´n de poder probar lo anterior inductivamente. +∞). La o herramienta clave. Luego.8. si x y. u Es claro que esta notaci´n es machista. Sea g(t) = − log t. o “gusta de”) si (vi . g(x) g(u) w g(y). tal que Gr(f ) ⊆ C.2. Para concluir que g(x) w g(y) basta aplicar el Lema 4.1. Sean x. Si pensamos que cada v se casa con f (v). mi ) ∈ C para alg´n j ∈ J} u = { chicas conocidas por alg´n muchacho de VJ } .2. pero en la ´poca de Hall nadie cuestionaba esas cosas. n n n n − log i=1 n xi = − i=1 n log xi ≤ − i=1 log yi = − log i=1 yi . tales que x > 0 e y > 0. se tiene que n n x y =⇒ i=1 xi ≥ i=1 yi . definida en o o I = (0. . y ı el criterio de K¨nig-Frobenius sobre existencia de diagonales sin ning´n cero para matrices. Pensaremos que V es un conjunto de varones (humanos) y M de mujeres. diremos o que vi “conoce a” mj (puede usarse tambien “tiene onda con”. por el caso anterior. como lo anterior vale para toda f : R → R convexa no decreciente. . que es una funci´n convexa (pero decreciente). y ∈ Rn . llamaremos o VJ = {vj : j ∈ J} y MJ = {mi ∈ M : (vj . . o u Empecemos con las “notaciones” para los casamientos: Sean V = {v1 .11. Demostraci´n.1.3 Birkhoff. entonces g(x) w g(y). mj ) ∈ C.1. Entonces. En particular.2.4. Por el Corolario 4. de lo que se concluye que i=1 xi ≥ i=1 yi . por el Corolario 4. Hall y los casamientos El objetivo de esta secci´n es probar el teorema de Birkhoff que asegura que UP (n) es el o conjunto de puntos extremales de DS (n) y por ende (ya sea por el teormea de Krein Millman. . son dos resultados o combinatorios que son interesantes por s´ mismos: El teorema de los casamientos de Hall. que toda A ∈ DS (n) es combinaci´n convexa de matrices o de permutaci´n. o .

∅ = J = In . Probaremos la suficiencia por inducci´n sobre n. Todo es f´cil si n = 1 (ese es o o a el problema de la pareja de n´ufragos). . Sea A ∈ Mn (C). Luego |MI \ MJ | ≥ r = |I|. tenemos una ıa biyecci´n entre VJ y M \ {mj } con gr´fico contenido en C. por la o igualdad (4. En efecto. los conjuntos VJ y M \ {mj } cumplen la condici´n (4. Por otra parte. a saber. (4. o 1. Pero |MI∪J \ MJ | ≥ |MI∪J | − |MJ | ≥ (r + k) − k = r . Pero mucho menos claro es ıa que vale la rec´ ıproca: Teorema 4. (4. notar que si I ⊆ J. ıan porque los k novios solo conoc´ a las k que se casaron con ellos. porque f (VJ ) deber´ estar incluido en MJ .2.7) En tal caso fijamos al vago vn de V y lo casamos con una chica que conozca (mj ∈ Mn . Notar que las diagonales tienen exactamente un elemento de cada fila y uno de cada columna de A. Pegando o e a ambas funciones.6). El PC tiene soluci´n para una o relaci´n C ⊆ V × M si y s´lo si o o |MJ | ≥ |J| para todo J ⊆ In .6) (para aplicarles la HI). .1 (El problema de los casamientos de Hall). Otra forma de verlo es la siguiente: casamos k pibes que conoc´ ıan justo k chicas. es f´cil ver que los conjuntos que quedan. Dados r de los solteros. (4. llamamos al vector (a1σ(1) . observemos que MI∪J \ MJ = MI \ MJ (las o que no conocen los de J deben conocerlas los de I). o |MJ | ≥ |J| + 1 para todo J ⊆ In . tambi´n con gr´fico dentro de C. dados k de los muchachos restantes. Decimos que A tiene una diagonal sin ceros si alguna de las diagonales antes definidas tiene todas sus coordenadas no nulas. Aplicamos nuevamente la ıan HI para definir otra biyecci´n f2 : VJ c → M \ MJ . (4. En efecto.4.7) o asegura que |MI ∩ M \ {mj }| ≥ |MI | − 1 ≥ |I|. Veamos ahora que. . Hall y los casamientos 74 se abrevia Mi = M{i} . o Definici´n 4. Es evidente que si el PC tiene soluci´n. Si n > 1. que se puede extender. junto con los casados conoc´ al menos k + r chicas. debe cumplirse que |MJ | ≥ |J| o para todo J ⊆ In . ıan por lo que los r solteros conoc´ ellos a todas las solteras de este grupo (por lo menos r). VJ c y M \ MJ cumplen tambi´n la a e c condici´n (4.6). 2.8). a todo V sobre todo M . . En otras palabras. anσ(n) ) una diagonal de A. .8) por HI podemos definir una biyecci´n f1 : VJ → MJ con Gr(f1 ) ⊆ C.6) Demostraci´n.3.3. encontramos la biyecci´n buscada. separemos dos casos: a Caso 1: Supongamos que tenemos una condici´n mejor que (4. o sea que (n.3 Birkhoff. Por HI. j) ∈ C). Caso 2: Si existe un J ⊆ In tal que ∅ = J = In y |MJ | = |J| = k < n . Dada σ ∈ Sn . entre todos deben conocer al menos k chicas todav´ solteras. mandando o a n → j. si I ⊆ J tiene |I| = r. entonces la Eq. si J = In−1 .

lo mismo que las r columnas de C. entonces a k + r > n si y s´lo si n − r = |MI | < k. entonces A debe tener alguna diagonal sin ceros. o Corolario 4. Entonces son equivalentes: o 1.3).3. Hall y los casamientos 75 Corolario 4. Supongamos que no. j) ∈ I × J. Que A no tenga ninguna diagonal sin ceros equivale. o o Demostraci´n. j) ∈ In × In : aij = 0}. Es decir que toda o A ∈ DS (n) es combinaci´n convexa de matrices de permutaci´n. El conjunto de matrices doble estoc´sticas DS (n) es convexo y a sus puntos extremales son el conjunto UP (n) de matrices de permutaci´n.4.3.3 Birkhoff. r ∈ In tales que k + r > n y que aij = 0 si i ∈ Ik y j ∈ Ir . Teorema 4. (4. Por la Eq. por o o lo que lo afirmado es trivial en este caso. 2. que existen P. Existen subconjuntos I. entonces es extremal en DS (n). Demostraci´n.r (C). Luego basta o a ver que toda A ∈ DS (n) es combinaci´n convexa de matrices de permutaci´n. En tal caso. es decir que aij = 0 para todo par (i. y que k(A) = n si y s´lo si A ∈ UP (n). para todo i ∈ In . Supongamos que k(A) > n. Pij = 0 si y s´lo si o o j = σ(i). Sea A ∈ Mn (C). Pero entonces la suma de todas las entradas de P AQ (las de D son no negativas) deber´ sumar estrictamente m´s que n. Demostraci´n. las k filas de B deben tener traza uno. por el Teorema 4.3 (K¨nig-Frobenius). Si A ∈ DS (n).3. o o Sea A ∈ DS (n). Observar que n ≤ k(A) ≤ n2 . En otras palabras. C D donde 0k×r es la matriz nula de Mk. Y esto concluye la prueba. Adem´s. Reordenando filas y columnas de A (multiplicando por o matrices de permutacion) podemos suponer. Toda diagonal de A tiene ceros. J ⊆ In tales que |I| + |J| > n y la submatriz AIJ ≡ 0.4. Probaremos el resultado inducci´n en k(A).3. Por el Corolario 4.3. Notaremos k(A) = {(i. Observar que K := In \ MI = {j ∈ In : aij = 0 para todo i ∈ I} es el mayor de los conjuntos J de ´ ındices tales que AIJ ≡ 0. Sea a = m´ aiσ(i) . Consideremos los conjuntos M = V = In y la relaci´n o o C = {(i. Notar que.4 existe σ ∈ Sn tal que aiσ(i) > 0.3. Sea P = Pσ ∈ UP (n) la matriz asociada a la permutaci´n σ. si |K| = r. que existen k. Pero esto contradice el hecho ıa a de que P AQ ∈ DS (n). Es f´cil ver que si P ∈ UP (n).1.3. por el hecho de que k(A) > n. j) ∈ In × In : aij = 0} . Q ∈ UP (n) tales que 0k×r B P AQ = ∈ DS (n) . se debe cumplir que ın i∈In . por el Corolario 4. a que exista I ⊆ In tal que |MI | < |I| = k. Es claro que A tiene alguna diagonal sin ceros si y s´lo si el PC tiene soluci´n para la relaci´n o o o C.5 (Birkhoff).

como en el caso de la mayorizaci´n o log com´n. lo mismo que o hace A. n n (4. w 2. deducimos lo afirmado en el item 2.10) Esto no vale si solo x log w y.4 Mayorizaci´n logar´ o ıtmica 1. entonces x log y implica que xp y p para todo p ∈ R . Demostraci´n. Es decir.2. . Si x. hay una combinaci´n convexa de permutaciones que hace. Por otra e parte. (4.1. y ∈ R+n . Observaci´n 4. Mir´ndolos ahora al reves.8. entonces Pij = 0. y adem´s a i=1 xi = i=1 yi . Si x o n n y entonces.6. Sean x. y el Teorema 4. Pero esta sal´ impl´ o ıa ıcita por el rulo de auqella prueba. se observa que 1−a A = aP + (1 − a)B. entonces. Escribiremos x + k k w log Definici´n 4. o y si x↓ i i=1 ≤ i=1 ↓ yi para todo k ∈ In . Como la funci´n o t → ept es convexa para todo p ∈ R. la implicaci´n 3 =⇒ 2 del Teorema 4. en ese x.1. Sean x.4. Esto dice que k(B) ≤ k(A).2. Sean x. Supongamos que x > 0 e y > 0.2. y ∈ Rn . En efecto.5 no dice que si y x entonces haya una A ∈ DS (n) tal que Ax = y.1. entonces biσ(i) = 0. si o aij = 0. 4. escribimos x log y si se cumple que x log ∗ w y . Si x log w y. Finalmente. Es f´cil ver.3.4 Mayorizaci´n logar´ o ıtmica 76 A − aP ∈ DS (n). Sin embargo. o 0 < a < 1. por lo que tambi´n bij = 0. porque usa la igualdad de los productos hasta n. y > 0.8 dice que para cada a o x ∈ Rn . En efecto.3. Si x. y se aplica la hip´tesis inductiva. no se implican mutuamente. y > 0. u n x↓ i i=k ≥ i=k ↓ yi para todo k ∈ In . El Teorema de Birkhoff est´ intimamente relacionado con el Teorema o a 4. Luego x log y implica que log x log y. o 2. o + 1. con lo que k(B) < k(A) como se afirm´. Proposici´n 4.1. ya que k(B) < k(A). el Teorema 4.4. y ∈ Rn .3. a partir del Corolario 4.4.9) 2. que B = a Observaci´n 4.4. Pero no que haya una que sirva para todos los x a la vez. entonces xp w yp para todo p ∈ R+ . se cumplen desigualdades invesas para las entradas mas peque˜as de x e y.3.8. si a = aiσ(i) = 0.5 da como novedad la implicaci´n 3 =⇒ 2 del Teorema 4.

x 2.5 Ejercicios 77 1. la Proposici´n 4. que k1 = n. w x. o 1. supongamos que x e y est´n ordenados en forma decreciente. en este caso. Es a o n decir que. Sea x ∈ Rn . y se aplica nuevamente el Corolario 4. deb´ cumplirse que x y .5. si hubese quedado x y. en el caso o demostrado. Estamos casi en el caso anterior.2. y ∈ Rn . entonces.5. −x si y s´lo si existe w ∈ Rn tal que y o Ejercicios nuevos 4.4. Deducir que DS (n) es un conjunto convexo.5 Ejercicios Ejercicios del texto 4. a Observar que. B ∈ DS (n). Podemos suponer.5.4. entonces tambi´n AB ∈ DS (n). El caso m´s usado de la Proposici´n 4. entonces x w y implica x w y.3. e 4. Probar que k x↓ = m´ ın i i=1 y 1 +k z ∞ :x=y+z para todo k ∈ In . o Observaci´n 4. entoncecs 1.2.4. sin cambiar la prueba. porque las desigualdades que definen la relaci´n xp w y p ser´n autom´ticas para k > k1 . Notar que. ıa log 2. Probar que.2. Observar que.1. Si x.5. . A1 = 1 y A∗ 1 = 1. porque en tal caso se tiene que la funci´n t → ept es convexa creciente. Probar que A ∈ DS (n) si y s´lo si o A 0.3 se puede generalizar. o a a dado que la unica diferencia es que tenemos log x w log y en lugar de log x ´ log y. Probar los 9 items de la Observaci´n 4. entonces la condici´n (4. y ∈ Rn y x + w log y. Sea A ∈ Mn (R).9) implica que a o yk1 > 0 .4. Esto ser´ sumamente util a log cuando se lo aplique a desigualdades con valores singulares de matrices.5. o 4.4. usando t´cnicas e de productos alternados. Por otra parte. o 4. si x.1.3 nos dice que. si o remplazamos las funciones f (t) = tp por cualquier funci´n f : R+ → R tal que la o aplicaci´n t → f (et ) resulte convexa (o convexa creciente). se usaba esa propiedad para la funci´n t → (et )p = ept . y que dadas dos matrices A. si k1 = m´x{j ∈ In : xj > 0}.3 es cuando p = 1.2. x w w y si y s´lo si existe v ∈ Rn tal que x o y si y s´lo si −y o w v y. el Corolario 4. y ∈ R+ . dados x. Pero esto es suficiente si suponemos que p ∈ R+ .4.

Si x. Si |x| = (|x1 |. Si x.6. |xn |). y ∈ Rn . Probar que son equivalentes a. Demostrar que 1 = ρ(A) = A 4. Si c. (x + y. Sea A ∈ DS (n) . entonces x↓ ◦ y ↑ + 3. w αy y x w y =⇒ αx w αy .5. y ∈ Rn . y ∈ Rn .4. 4. Sean x. 2. 2. demostrar que |Ax| A(|x|) ( significa coordenada a coordenada) .8. probar que A ∈ DS (n) si y s´lo si la transformaci´n lineal A preserva o o positividad. x w w w y =⇒ αx −y. Sean x. x↓ + y ↑ x+y x↓ + y ↓ . entonces x 3.9. Existe w ∈ Rn tal que x 4. y ⇐⇒ −x 4. y ∈ Rn . Dada A ∈ Mn (C).5. x w x◦y w x↓ ◦ y ↓ . .5.7. Sea x ∈ Rn . Demostrar las siguientes propiedades: 1. y es unital. .5.5. preserva la traza.5 Ejercicios 78 4. Se dice unital si A1 = 1. 2. 0) en R2n . 3. entonces (x. b. . w sp . x y si y s´lo si x o w y junto con x w y. Mostrar que A preserva la traza si y s´lo si A∗ es o unital. 4. . se tiene que x y ⇐⇒ αx αy. y w ≤ y. y) + 4. f es creciente (¿es continua?). d ∈ R+ . Para cualquier α ∈ R no nulo. . Se dice que preserva la traza si tr Ax = tr x para todo x. Probar que: o 1. 1. Demostrar que 1 ∈ σ(A) y que 1 admite un autovector de coordenadas positivas. Sea f : R+ → R+ c´ncava y tal que f (0) = 0. Una transformaci´n lineal A en Cn se dice que preserva positividad si lleva vectores de o coordenadas no negativas en vectores de coordenadas no negativas. Si α > 0. Probar que 1. entonces f (c + d) ≤ f (c) + f (d).5. 2.

y ∈ Rn .5 Ejercicios 79 3.5. u ≤ y. Probar que: 1. Sean x. y. + x y =⇒ i∈In f (xi ) ≥ i∈In w f (yi ). i∈In M´s a´n. Si x. u ≤ y. u . x y =⇒ x. f (|yi |) . Si solo pedimos que x y pero tenemos que u ∈ Rn .10. u . y ∈ Rn .4. entonces x. w 2. y. Si x. + . u ∈ Rn tales que sus coordenadas estan ordenadas en forma decreciente. la misma desigualdad sigue valiendo si x a u 4. f (|xi + yi |) ≤ i∈In ij f (|xi |) + 4.

.1. la que presentamos aqu´ (debida a Chi-Kwong Li y R. . Despu´s daremos numerosas propiedades relacionadas con la mayorizaci´n aplie o cada a matrices autoadjuntas. Sea A ∈ H(n). en t´rminos de mayorizaci´n d´bil de vectores de valores e o e singulares. Culminaremos con una prueba bastante reciente y asombrosamente simple del famoso teorema de Lidskii. sobre relaciones de mayorizaci´n entre o vectores de autovalores de restas de matrices autoadjuntas. ann ) ∈ R . particularmente a vectores de autovalores. El teorema de Lidskii fue particularmente famoso porque fue anunciado sin dar detalles de la prueba (en los a˜os 60). Sin embargo. Finalizaremos dando algunas de las n a e importantes aplicaciones del Teorema de Lidskii. lo que da un expectacular avance sobre el teorema de Weyl 5.Cap´ ıtulo 5 Mayorizaci´n de autovalores y valores o singulares En este cap´ ıtulo estudiaremos numerosas apariciones de relaciones de mayorizaci´n entre veco tores reales asociados a matrices. y daremos un criterio para mostrar desigualdades para cualquiera de esas normas. . y usa como unica herramienta importante el teorema de Weyl. Entonces. se tiene que o d (A) λ(A). que hace lo mismo con las sumas. Mathias [28]) es parı ticularmente simple. 5. Esto gener´ pol´micas. que caracteriza todas las posibles diagonales de matrices en la ´rbita unitaria de una matriz A ∈ H(n) como o n aquellos vectores d ∈ R tales que d µ(A). todas bien complicadas).1. que dieron lugar a numerosas demostran o e ciones independientes (en el libro de Bhatia [3] aparecen cuatro. . que ser´n herramientas imprescindibles para atacar distintas a desigualdades en los siguientes cap´ ıtulos. Recoredemos la o n notaci´n d (A) = (a11 .1 (Teorema de mayorizaci´n de Schur 3). Luego nos concentraremos en una caracterizaci´n o de las normas unitariamente invariantes. . que por ´ muchos a˜os fue considerado escencialmente m´s d´bil.1 Aplicaciones a matrices Hermitianas Teorema 5. de valores singulares y a diagonales de matrices. Mostraremos el teorema de Schur-Horn.6.

. para o cierta B ∈ DS (n).   .1.. est´ bien a elegido porque no toda matriz  ∈ DS (n) tiene la suerte de provenir de una matriz unitaria.5. por ser U unitaria. . Sea {x1 . a Demostraci´n. Observaci´n 5. porque no hay modo de a 2 0 1 1 que sus columnas provengan de vectores ortogonales.   n  |u1n |2 · · · |unn |2 λn |u |2 λ kn k k=1 Luego.1. Sea o U ∈ U(n) tal que sus primeras k columnas sean los vectores dados. . Como A ∈ H(n). Mediante cuentas elementales de matrices.3. . Bλ(A) =  . xk } en Cn . Fijemos k ∈ In . conjugandola por una matriz de permutaci´n como se hace en la Observaci´n o o 4. encontramos una nueva caracterizaci´n o o para los autovalores de una matriz Hermitiana.  = d (A) . .  . . para todo k ∈ In .  . Este simp´tico nombre.. pero no es ortoestoc´stica.1.. Consideremos ahora la matriz B = (|uji |2 )ij que.. el Teorema 4.2. Otra demostraci´n del Teorema mayorizaci´n de Schur puede hacerse o o o por inducci´n. xj . ej = j=1 A U ej . xk } una k-upla ortonormal cualquiera. Para demostrar que d (A) λ(A) vamos a probar que d (A) = B λ(A). n n aij = k=1 uki λk ukj . Adem´s a  n  2    |u | λ  k=1 k1 k  |u11 |2 · · · |un1 |2 λ1    . Proposici´n 5.. que proviene de construir elementos de a a DS (n) a partir de matrices unitarias (que en el caso real se llaman ortogonales). . La matriz B = (|uji |2 )ij ∈ DS (n) que aparece en el teorema anterior o (para cierta U ∈ U(n) ). aplicando el Teorema de entrelace de Cauchy 2. Para ello basta reordenar o la diagonal de A. Sea A ∈ H(n). Luego k k k k µ(B) = µ(A) y j=1 bjj = j=1 Bej . o Observaci´n 5. A  1 1 0 1 Por ejemplo A =  1 0 1  ∈ DS(3).  =  . si D = diag (λ(A))..8 completa la demostraci´n. es un tipo especial de matriz doble estoc´stica. En este caso. Entonces o a k k µj (A) = m´x a j=1 j=1 Axj .4. . Como corolario del Teorema mayorizaci´n de Schur. aii = k=1 λk |uki |2 . . U ej = j=1 Axj .1 Aplicaciones a matrices Hermitianas 81 Demostraci´n.1. lo que no cambia sus autovalores. A tales matrices se a las llama ortoestoc´sticas.2.1. . en particular.4 (Principio del M´ximo de Ky Fan). para la suma de los k-primeros.. Sea B = U ∗ AU . donde el m´ximo se toma sobre todas las k-uplas ortonormales {x1 . j ∈ In . existe U ∈ U(n) tal que A = U ∗ DU . .5. xj . cumple B ∈ DS (n). se puede verificar que cada entrada de A tiene la forma: dados i.

Entonces µ(A + B) µ(A) + µ(B)... Luego {v1 .1. Sean A y B ∈ H(n).k (C) : U ∗ U = Ik } es el espacio de isometr´ de Ck en Cn .1. Ejercicios 5.2) donde Uk (n) = {U ∈ Mn.1) 2. Para todo k ∈ In . en la suma µ(A) + µ(B). xj = j=1 j=1 bjj ≤ j=1 d (B)↓ j ≤ j=1 µj (B) = j=1 µj (A) . se tiene que o k k k k k Axj . vn } una BON de Cn adaptada a µ(A). tomemos B = {v1 .6 (Weyl). para todo k ∈ In podemos escribir o o k µj (A + B) = m´x a j=1 P ∈Pk (n) tr P (A + B)P ≤ P ∈Pk (n) k m´x a tr P AP + m´x a k P ∈Pk (n) tr P BP = j=1 µj (A) + j=1 µj (B). Por la f´rmula (5.. . Es importante el hecho de que. . como quer´ ıamos demostrar. Si.1. y con columnas de isometr´ de Ck en Cn . entonces k µj (A) = m´x a j=1 P ∈Pk (n) tr P AP . notamos Pk (n) = {P ∈ H(n) : P 2 = P y rk(P ) = k}.. se tiene que k µj (A) = m´x tr U ∗ AU . Sea A ∈ H(n). para k ∈ In . (5. por el Teorema de mayorizaci´n de Schur 5. Demostraci´n.1. ıas Teorema 5. . Para ver la otra desigualdad.. vj = j=1 µj (A) . xj ≥ j=1 Avj .5. se asume que ambos vectores est´n a ordenados de la misma forma.1).5. vk } es una k-upla ortonormal y k k k k m´x a j=1 Axj . Identificando las k-uplas ortonormales de Cn con bases de rangos de proyectores. a j=1 U ∈Uk (n) (5. vj = j=1 µj (A) vj .1 Aplicaciones a matrices Hermitianas 82 Pero. probar que: ıas 1..

µ(C) = (s1 (C).7.1. entonces si o C= 0 C ∈ M2n (C) . Recordar que en la Proposici´n 3. Por un lado es claro que si A cumple (5. para cada k ∈ N. Luego A cumple (5. Demostraci´n.5) Demostraci´n.4. Entonces s(A + B) w (5. xn } es una BON de Cn . (5.3) y las desigualdades resultantes o de la relaci´n µ(A + B) µ(A) + µ(B) para los n primeros ´ o ındices k ∈ In ⊆ I2n . . .9. Sea x ∈ Cn con x = 1 (a estos vectores los llamaremos unitarios). . entonces A ≥ 0. como vimos en 1. Sea A ∈ Mn (C). .5 probamos que. xn } es una BON de Cn adaptada a µ(A). cumplen la desigualdad triangular. y n´meros λ1 . para todo z ∈ C se tiene que.4) Proposici´n 5. n n n n Az = A i=1 z. xi xi para todo z ∈ C n =⇒ I= i=1 xi xi . se tiene que s(A + B) w s(A) + s(B). Notar que el resultado anterior es necesario para verificar que las normas o · (k) de Ky Fan.3. .5. −sn (C). (5. Entonces.1. la matriz Px = x x = xx∗ = (xi xj )ij ∈ Mn (C) es el proyector ortogonal sobre el subespacio Gen {x}. si B = {x1 . · · · .7. C∗ 0 se tiene que σ C = {±si (C)} (con las mismas multiplicidades). dada C ∈ Mn (C).12). −s1 (C) ) .1. λr ∈ R+ tales que u r r A= i=1 λi x i xi .5). definidas en el Ejemplo 3. Corolario 5.3) s(A) + s(B). Notar que A + B = A + B. . vale que n n z= i=1 z. sn (C). ¿Les hab´ salido el ejercicio? ıa 5. Sean A. . (5. . Es decir.2 Teorema de Schur-Horn 5. si A ∈ Mn (C)+ . . xi Axi = i=1 µi (A) z.5).8. Usando la ecuaci´n o n (3. xi xi = i=1 z. xi xi = i=1 µi (A) xi xi z .1.2. . B ∈ H(n). .2. . Rec´ o ıprocamente. . Por lo tanto.2. sea B = {x1 . o sea que A= i=1 λ i P xi . . Por la Eq. .2 Teorema de Schur-Horn 83 La igualdad para k = n surge de que tr(A + B) = tr(A) + tr(B). . · · · . Se tiene que A ∈ Mn (C)+ si y s´lo si existen vectores o o n unitarios x1 . . Observaci´n 5. xr ∈ C .

que tiene o que ver con lo que ven´ ıamos viendo. Proposici´n 5. Este problema est´ ´ o a ıntimamente relacionado con el llamado Teorema de Schur-Horn. Por lo tanto µ(A) = µ(XX ∗ ) = µ(X ∗ X). Horn. . se tiene que X= k∈In 1/2 Xk . . . que Bii = ci xi 2 = ci . Sean c ∈ Rn y A ∈ Mn (C)+ . Como ingrediente extra (clave a para la prueba) se incluye una tercera condici´n equivalente (en el caso positivo). Son equivalentes: o + n 1. Es claro que todo esto implica que XX ∗ = A. y se verifica como antes que ahora definir xi = Ci (X) n n A = XX = j=1 ∗ cj xj x∗ j = j=1 cj xj xj . sea U ∈ U(n) tal que U ∗ AU = B (se puede hacer. adem´s. ∗ Xk Xj = 0 si j=k ∗ y Xk Xk = ck xk x∗ = ck xk k xk . . . pero Cj (Xk ) = 0 si j = k. lo que prueba 2. Consideremos la matriz X = A1/2 U . ann ) ∈ Cn . Existe B ∈ Mn (C)+ tal que d (B) = c y µ(B) = µ(A). = Demostraci´n.5). y poni´ndolos juntos se los e conoce como el Teorema de Schur-Horn. o sea que B ∼ A.2 Teorema de Schur-Horn 84 Observaci´n 5. Este resultado se debe a R. llamamos d (A) = (a11 . . Adem´s. definiendo yi = λi xi . Recordemos que si A ∈ Mn (C). o sea el expresar una matriz A ∈ Mn (C)+ como suma de m´ltiplos de proyectores unidimensionales. ıproca del Teorema 3 de Schur . pasando por diag (µ(A)) ). . Notar que la m´ o ınima cantidad r de proyectores de rango uno que puede usarse para obtener una representaci´n de A como en (5. xn ∈ C tales que A = j=1 n cj xj xj . Es natural preguntarse. para qu´ sucesiones λ1 . Entonces X ∗ X = B y XX ∗ = A1/2 U U ∗ A1/2 = A.2. k ∈ In .5). Basta Ci (X) . .3. si A ∈ o a 1/2 + Mn (C) cumple (5. u .5. es f´cil ver.5) es r = rk(A). notemos por Xk ∈ Mn (C) a la matriz tal que Ck (Xk ) = Ck (X). Si se verifica 1. λr en e R+ se puede obtener para A una representaci´n como (5. que tiene importantes aplicaciones y generalizaciones a operadores en espacios de Hilbert y a ´lgebras de operadores. lo que prueba 1. se tiene que las matrices yi yi no son m´s a r proyectores. dado A ∈ Mn (C)+ y r ≥ rk(A). sobre mayorizac´n entre la o diagonal y los autovectores. si B ∈ Mn (C)+ cumple µ(B) = µ(A) y d (B) = c. pero s´ son positivos y se verifica que A = ı i=1 yi yi . . mientras que ci = Bii = Ci (X) 2 . .2. a a Rec´ ıprocamente. 2. i ∈ In .4. . sea X ∈ Mn (C) definida por Ck (X) = ck xk . Luego. . o Veamos que XX ∗ = A: Para cada k ∈ In . Ahora s´ podemos probar la rec´ ı. Existen vectores unitarios x1 . Si B = X ∗ X.

deber´ ıamos probar que a d.1 muestra que 2 implica 1. Existen vectores unitarios x1 . Luego la matriz de A1 en la bon B = {y2 . . r−1 r r−1 r−1 r−1 ai = i=1 i=2 ci ≤ i=1 ci ≤ i=1 bi = i=1 di . Notar que. Si n = 1 no hay nada que probar. . cuando b y c tienen entradas no negativas. (bk + bk+1 − c1 ). . como bk ≥ c1 ≥ bk+1 . . ek+1 } tal que A1 y1 = (bk + bk+1 − c1 )y1 y A1 y2 = 0. bk−1 . que 1 implica 3 en el caso en que b y c tienen entradas estrictamente positivas. bn ) .2 Teorema de Schur-Horn 85 Teorema 5. . xn ∈ Cn tales que n diag (b) = j=1 cj xj x∗ . . para ver que el tal x1 existe. . . porque o las tres condiciones son invariantes por permutaciones (en el caso de 2 y 3. podemos tomar un k ∈ In−1 tal que bk ≥ c1 ≥ bk+1 . Lo haremos por inducci´n en n. . La Proposici´n 5. . usando la Observaci´n 4. bk+2 . o Como b1 ≥ c1 ≥ bn . . entoncecs dk−1 = bk−1 ≥ bk ≥ dk ≥ bk+1 ≥ bk+2 = dk+1 .2. t ∈ [0. 1] .2. . Sea n > 1. . b y c tienen entradas no negativas. ek−1 . notemos que se puede suponer que b = b↓ y c = c↓ . (5. y2 } de Gen {ek . Para aplicar la HI al asunto anterior. y con todos no negativos (anche bk − c1 ) en el de A(0). Notemos A = diag (b). dados por a = (c2 . . e1 . .5. definimos x(t) = cos tπ tπ ek + sin ek+1 2 2 y A(t) = A − c1 x(t)x(t)∗ . Verificaremos. ek+1 } de norma uno. (bk + bk+1 − c1 ). Antes que nada. Sean b. v´ conjugar con ıa matrices de permutaci´n adecuadas. .5). . si r ≤ k. . . en } queda A1 B = diag (0. u Es claro que existe una BON {y1 . . . .4 muestra que 2 y 3 o son equivalentes. ek+2 . b1 . bn ) . y1 . .6) Sean a. . . . Luego basta tomar x1 = x(t) para alg´n t ∈ [0. Entonces la curva d(t) = det A(t) es continua. con un s´lo elemento diagonal no positivo (es bk+1 − c1 ) en el caso de o A(1). bk+2 . . Existe B ∈ H(n) tal que d (B) = c y µ(B) = b↓ .1. El o o Teorema 3 de Schur 5. en principio.1. adem´s. Si. bk−1 . cn ) y d = (b1 . d ∈ Rn−1 . 2. Pero d(1) ≤ 0 ≤ d(0) porque A(0) y A(1) son matrices diagonales. c b. c ∈ Rn Entonces son equivalentes: 1. tal que A1 = A − c1 x1 x∗ tiene rango a 1 lo sumo n − 1. . lo anterior equivale a a 3. . En efecto. 1] tal que d(t) = 0. Se afirma: existe x1 ∈ Gen {ek . . . .5. . j Demostraci´n. En efecto.

. Demostraci´n. a n j=2 d. entoces µ(A) = µ(B) = a↓ .7) Si definimos x2 . zj )∗ = diag (0.7) (pensada e o en la base B) a coordenadas en la base can´nica. . . obtenemos o n A1 = j=2 cj xj x∗ ∈ Mn (C)+ j y. j Conclu´ ımos que 1 implica 3.4. resulta que son tambi´n unitarios (los zj lo son y B es una bon). .2. . Luego por el o Teorema de mayorizaci´n de Schur 5. si b y c tienen entradas estricatamente positivas. ahora por la Proposici´n 5. Luego x ∈ {d (U AU ∗ ) : U ∈ U(n)}.1. xn ∈ Cn tales que las coordenadas de cada xj en B sean (0. Sean.2. . por lo tanto. Traduciendo la ecuaci´n (5. n − 1 vectores unitarios z2 . por HI. n A = A1 + c 1 x 1 x ∗ = 1 j=1 cj xj x∗ . zj )(0. d) = A1 j=2 B ∈ Mn (C)+ .2. Por lo tanto debe existir U ∈ U(n) tal que B = U AU ∗ . por el Teorema 5. porque 1 → 3 y 3 ↔ 2 (2 → 1 era el Teorema 3 de Schur). probado 1 ↔ 2 en general.1. con U ∈ U(n). Luego cj (0. {x ∈ Rn : x a} = d ( U AU ∗ ) : U ∈ U(n) . Entonces. entonces d (B + mI) = d (B) + m1 y µ(B + mI) = µ(B) + m1. ya sabemos que 3 es o equivalente a ellas si b y c tienen entradas no negativas. (5. En consecuencia. De lo anterior podemos deducir que 1 ↔ 2 en ese caso (b.2 Teorema de Schur-Horn 86 Si k + 1 ≤ r ≤ n − 1. y que dada B ∈ H(n). zj ).5 existe B ∈ H(n) tal que d (B) = x y µ(B) = a↓ . o Rec´ ıprocamente. r r r−1 r k−1 r r−1 ci ≤ i=1 i=1 bi =⇒ i=1 ai = i=2 ci ≤ i=1 bi + (bk + bk+1 − c1 ) + i=k+2 bi = i=1 di y las trazas andan bien porque c b. Teorema 5. si x ∈ Rn cumple x a. . . Pero esto se generaliza sin dificultad al caso general (con b y c cualesquiera en Rn ) usando que para todo m ∈ R se tiene que x + m1 y + m1 ⇐⇒ x y.6. Sea a ∈ Rn y A ∈ H(n) tal que µ(A) = a↓ .5. . Si B = U AU ∗ . zn ∈ Cn−1 tales que diag (d) = n ∗ cj zj zj ∈ Mn−1 (C)+ . Finalmente. se tiene que d (B) a. c > 0).

i ∈ Im .1. Observaci´n 5. que o a si A ∈ Mn (C)+ . Es claro que si ˜ o P = In 0 0 0 ∈ Mm (C)+ . ˜ + Demostraci´n.n (C) que cumple todo lo siguiente: ∗ T = A1/2 U1 . usando el Teorema 5.2.5. 0) := µ(A) ∈ Rm . . En tal caso. . Por el Teorema 5. . si cumple que N (U AV ) = N (A) para toda A ∈ Mn (C) y todo par U. m m A = TT = k=1 ∗ xk x∗ k = k=1 c k Pk . donde Pk = c−1 xk x∗ es proyector autoadjunto de rango uno. entonces U A1 U ∗ = U P A1 P U ∗ . Entonces existen proyectores + autoadjuntos P1 . Si definimos T = A1/2 U1 ∈ Mn. . es que µ(A) (c. entonces la condici´n necesaria y suficiente para o + r que A pueda ser representado A = k=1 ck Pk para ciertos proyectores Pk de rango uno.5 dice que N (A) = N (Σ(A) ) para toda A ∈ Mn (C). decimos que N es una norma unitariamente o invariante (NUI) . El resultado anterior resulve el problema planteado en el p´rrafo anterior o a a la Proposici´n 5. puede k k tomarse como Pk cualquier cosa). Sea A1 = o c A 0 ∈ Mm (C)+ .2. El hecho de que A = T T ∗ implica que existe una U1 ∈ Mm. . para k ∈ Im (si ck = 0. La rec´ ıproca se prueba definiendo T ∈ Mn. V ∈ U(n) .2. y xi = Ci (T ) ∈ Cn para i ∈ Im . . el Teorema 3.4. ∗ Luego se extiende U1 a una U ∈ U(m).7. con m ≥ n. entonces U1 AU1 = U A1 U ∗ . se tiene que U A1 U ∗ = T ∗ T .2. .n (C) a la parte no nula de U P .m (C). tales que m A= k=1 c k Pk ⇐⇒ c (µ(A).8. 0. Por otro lado.3 Normas unitariamente invariantes Definici´n 5.3 Normas unitariamente invariantes 87 Corolario 5. 5. Es f´cil ver. . rk(A) ≤ r < n y c ∈ Rr . Sean A ∈ Mn (C)+ y c ∈ Rm . ˜ 0 0 µ(A) si y s´lo si existe U ∈ U(m) tal que d (U A1 U ∗ ) = c. . . Pm de rango uno. Luego µ(A1 ) = µ(A). . Dada una norma N en Mn (C). .m (C) tal que 1/2 ∗ tenga columnas xk = ck yk . si llamamos U1 ∈ Mm. 0. al menos para el caso r ≥ n.5.2. con lo que U1 AU1 = U A1 U ∗ .2. . ∗ U1 U1 = In y ∗ d (U1 AU1 ) = d (T ∗ T ) = c . k ∈ Im .3. 0) ∈ Rn . por lo que xi 2 = ci . ∗ Luego. ∗ ∗ Notar que U1 U1 = In . donde yk yk = Pk .6.

e . xσ(n) ).3. . . . . para toda σ ∈ Sn . . . Sea N una NUI en Mn (C) y sea x ∈ Cn . . . . ∗ gN (xσ ) = N (Pσ diag (x) Pσ ) = N (diag (x) ) = gN (x) . . . yn ) 2 2 1+t 1−t = g(y) + g(y) = g(y) . . o 1. . Proposici´n 5. . 2. gN (x) = g(|x|) := gN (|x1 | . Se deduce de que la aplicaci´n Cn o x → diag (x) ∈ Mn (C) es lineal e inyectiva. . entonces g(x) = g 1−t 1+t y + (y1 .3. 2 2 Este Lema nos permitir´ mostrar la relaci´n clave que existe entre estas fgs’s y la mayorizaci´n a o o d´bil de vectores. Demostraci´n. entonces g(y1 . gN es una norma en Cn . |xn |). Sea Pσ ∈ UP (n) la matriz asociada a σ. .5. ωn ) ∈ U(n).5.3.3. tenemos que gN (|x|) = N (diag (|x|) ) = N (W ∗ diag (x) ) = N (diag (x) ) = gN (x) . . Sea N una NUI en Mn (C). entonces.3 Normas unitariamente invariantes 88 Definici´n 5. g(x) ≤ g(y). . g es mon´tona en el siguiente sentido: Si se cumple o que |xi | ≤ |yi | para todo i ∈ In . . yn ). 3. Entonces: o 1. yn ) 2 2 1+t 1−t ≤ g(y) + g(y1 . dada por gN (x) = N (diag (x) ) 2. Por la Proposici´n 5. Una funci´n f : Cn → R que cumple los ´ o o ıtems 1. .2. Consideremos la funci´n o o gN : Cn → R+ para todo x ∈ Cn . En efecto.3. ∗ 3. t yk . Abreviaremos esto escribiendo que f es una fgs. 1] y k ∈ In . . yn ) . . es suficiente verificar que si t ∈ [0. .3. yk .4. . . si tomamos ese x = (y1 . . .3. gN (x) = g(xσ ) = gN (xσ(1) . . Demostraci´n. Entonces. entonces. 2 y 3 de la Proposici´n o anterior se denomina gauge sim´trica. Si g es una fgs. Por un argumento o o + inductivo. . . . Como W = diag (ω1 . . . yn ) ≤ g(y1 . podemos suponer que x. . . Sea xj = ωj |xj | donde wj = ei θj . −yk . . −yk . . . Luego Pσ diag (x) Pσ = diag (xσ ) . Definici´n 5. . . . . . . . . . . t yk . e Lema 5. . y ∈ Rn . . . .

A (k) ≤ B w (k) para todo k ∈ In .12 nos asegura que existe u ∈ Rn tal que o o x u y. para ciertos λσ = 1. B ∈ Mn (C). N (A) ≤ N (B) para toda norma unitariamente invariante N . y en tal caso se tiene que g(s(A) ) ≤ g(s(B) ) para toda fgs. 1.7. 1] tales que σ∈ Sn y.6. Sean A.3. sn (A) ) . Luego g(u) = g σ∈ Sn λσ y σ ≤ σ∈ Sn λσ g(yσ ) = σ∈ Sn λσ g(y) = g(y) . En efecto. 3.5. como u λσ ∈ [0. observar que o A (k) ≤ B (k) para todo k ∈ In ⇐⇒ s(A) w s(B) . Como x w y.7.3.6. Por otro lado. Si g es una fgs en Cn . Sean A.1. Entonces. Entonces son equivalentes: 1. Teorema 5. gN es una fgs en Cn . Demostraci´n. g(x) ≤ g(y). s(A) s(B). 2.3.6 y 5. la Proposici´n 4.3. Las dem´s propiedades quedan como o a ejercicio para el lector.5 garantiza que g(x) ≤ g(u) (recordar que x 0).4. La rec´ ıproca es evidente.3. y ∈ Rn tales que o e + x w y. Ahora bien. ya que s(A + B) w para A ∈ Mn (C) . el Teorema 4. Demostraci´n. o 2. Es consecuencia de los Teoremas 5. Luego Ng (A+B) = g(s(A+B)) ≤ g(s(A)+s(B)) ≤ g(s(A))+g(s(B)) = Ng (A)+Ng (B) . Ahora saldamos otra deuda contraida en el Ejemplo 3. S´lo demostraremos la desigualdad triangular. . .8 (Ky Fan). Sea g es una funci´n gauge sim´trica en Cn y sean x. Si N es una NUI en Mn (C).8 nos dice que u = σ∈ Sn λσ yσ . el Lema 5. . 2. Esto es la Proposici´n 5. Demostraci´n. entonces la funci´n Ng : Mn (C) → R+ dada por o Ng (A) = g(s1 (A) .3 Normas unitariamente invariantes 89 Teorema 5. Teorema 5.1. entonces. es una NUI en Mn (C).1: .3.3.3.3. . o 1. s(A) + s(B) y podemos usar el Teorema 5. B ∈ Mn (C).

N (AB) ≤ A sp para todo k ∈ In . x y =⇒ g(x) ≤ g(y) . Sea g : Rn → R. A sp = s1 (A) = g(s1 (A). . Aplicando el Corolario 2. una funci´n convexa e invariante por permutaciones. Entonces. B ∈ Mn (C). Adem´s. la norma p de Schatten. Se deduce de la desigualdad sk (AB) ≤ A (3.3). o 1. y ∈ Rn .7.10. dada por n 1/p A p = i=1 si (A) p = (tr |A|p )1/p para A ∈ Mn (C) . Para todo n ∈ N y todo p ∈ [1 . ∞).3. o e Corolario 5. 3.3.8.11. . obtenemos que o 0 ≤ A ≤ B =⇒ sk (A) = µk (A) ≤ µk (B) = sk (B) .3 Normas unitariamente invariantes 90 Corolario 5.3. Demostraci´n.7 y el hecho de que la norma p usual en Rn es una o funci´n gauge sim´trica. dados x. Sea g la funci´n gauge simetrica asociada a N . a 2. N es una norma matricial.e. N (E11 ) = 1). Se usa el Teorema 5. sp sk (B) para todo k ∈ In . 3. o o n es decir que si x ∈ R y P ∈ UP (n) . N (A) = g(s(A) ) ≤ a k=1 sk (A)g(ek ) = k=1 sk (A) = A 1 .3. y del Teorema 5. a Demostraci´n. Luego. Proposici´n 5. Dadas A. N (A) ≤ N (B) para toda norma unitariamente invariante N .3. N (B). vista en la f´rmula o 2..3. 0. Como N est´ normalizada. Entonces. . n n An´logamente. A sp ≤ N (A) ≤ A 1 = tr |A|.12. . Sean A. B ∈ Mn (C)+ tales que A ≤ B.8. esto se verifica si g es una fgs. Luego basta aplicar el Teorema 5. En particular. si N es normalizada (i. Es claro usando lo anterior. Sea N una NUI en Mn (C). se tiene que 1.9. 0) ≤ g(s(A) ) = N (A) . . entonces g(x) = g(P x). y adem´s es NUI.3.3. entonces o a g(ek ) = 1 para todo k ∈ In . Demostraci´n.5. Corolario 5. es efectivamente una norma en Mn (C).

si µ(A) norma unitariamente invariante N . aplicado a las fgs’s gk (x) = o i=1 x↓ . Por ejemplo.4. Dadas A. B ∈ H(n). Esto permite la siguiente definici´n. B ∈ H(n). se define el pinching de A como CP (A) := P AP + (I − P )A(I − P ) ∈ H(n) . y el resultado se deduce de la k Porposici´n 5.3. Entonces g(x) = g σ∈ Sn λ σ Pσ y ≤ σ∈ Sn λσ g (Pσ y) = y . Por lo tanto. Definici´n 5. entonces A= B C D E =⇒ CP (A) = B 0 0 E .13 y del Teorema 5.5. 1≤k≤n y tr A = tr B . Dado un proyector P ∈ H(n) (o sea P = P 2 = P ∗ ). se tiene que s(A) = | µ(A)| ↓ .12. se tiene que g(s(A) ) = g(µ(A) ). o 5. Demostraci´n. el Teorema 4.14.7.3.3.8 asegura que x = σ∈ Sn λσ Pσ y . Es decir.4. Si x o [0. o o Pero a cada matriz A ∈ H(n) se le puede asociar el vector µ(A) ∈ Rn formado por todos los autovalores de A. Dadas A. Lo mismo pasa para B. es convexa por ser una norma (homogeneidad + DT). para k ∈ In . . donde los bloques tienen los tama˜os adecuados (por ejemplo. B ∈ H(n). o 1.4 Mayorizaci´n de matrices Hermitianas o 91 Demostraci´n.13. Si A. Corolario 5. i µ(B) entonces N (A) ≤ N (B) para toda Corolario 5. A B si k k B µj (A) ≤ j=1 j=1 µj (B). Como A ∈ H(n). o Definici´n 5.1.3.2. Sea A ∈ Mn (C). B ∈ Mk (C) ). si g es una o fgs. Notar que si g es una fgs.3. Demostraci´n. se dice que A est´ mayorizada por B y se escribe A o a si se verifica que µ(A) µ(B). si uno trabaja en coordenadas de una BON que empiece generando R(P ) y termine generando ker P .1. para ciertos λσ ∈ λσ = 1. Se deduce del Corolario 5.4 Mayorizaci´n de matrices Hermitianas o Hasta el momento s´lo hemos visto resultados relacionados con la mayorizaci´n de vectores. Entonces µ(A) µ(B) =⇒ s(A) w s(B). 1] tales que σ∈ Sn y. La matriz n de CP (A) tiene siempre esa pinta. si P proyecta sobre las primeras k coordenadas en Cn .

4. O sea. un sistema de proyectores en Mn (C) es una conjunto a P = {P1 . A ∈ Mn (C). se obtiene un sistema de proyectores que verifica r (5. en general. . i ∈ Ir .4 Mayorizaci´n de matrices Hermitianas o 92 2. . idempotente (i. ver la Proposici´n 5. Si A ∈ H(n) y σ (A) = {λ1 . . si A es diagonal de o bloques. Pr } en Mn (C). Proposici´n 5. . positivo) entonces CP (A) es autoadjunto (resp. . Sea A ∈ H(n) y P un sistema proyectores en H(n). 3. Dado un sistema de proyectores P = {P1 .4. dado por CP (A) = i=1 Pi APi .5. .e.. positivo). λr } (todos distintos). Verificar que eso sucede en el ejemplo anterior. 2.4. Por lo tanto. . . se tiene que CP (A) = A si y s´lo si A conmuta con todos los Pi de P. y lo mismo en cualquier otro orden entre los CPi . i ∈ Ir . . M´s generalmente.4.9). Pr } ⊆ H(n) . Notar que un proyector P ∈ H(n) define un sistema de dos proyectores P = {P.8) que A = i=1 λ i Pi . CP (A∗ ) = CP (A)∗ . o (c) Si A ∈ Mn (C) es autoadjunto (resp. Entonces o CP (A) A. . . (b) Reduce normas espectrales y preserva trazas (si no sale. Notar que se tiene la siguiente factorizaci´n: o CP = CP1 ◦ CP2 ◦ · · · ◦ CPr . Dado un sistema de proyectores P en Mn (C) y una matriz A ∈ Mn (C). 1. Ejercicios 5. dado un sistema de proyectores P en Mn (C). entonces definiendo Pi como el proyector sobre ker(A − λi I). 3. el operador pinching CP verifica las siguientes propiedades: (a) Es lineal. I − P }.3. . que tambi´n puede verse como una compresi´n a bloques diagonales (operando en una e o BON adecuada). donde los Pi son proyectores no nulos tales que r Pi Pj = 0 si i=j y i=1 Pi = I . . se define el pinching asociado: r CP : Mn (C) → Mn (C) . CP ◦ CP = CP ) y R(CP ) es el subespacio de matrices que conmutan con todos los Pi . Probar que.

Clarificar en qu´ sentido la Proposici´n 5.4 Mayorizaci´n de matrices Hermitianas o 93 Demostraci´n.5.1.6. .4. Dado un espacio vectorial V y un subconjunto C ⊆ V. 1. o {T ∈ H(n) : T O sea que T A} = conv [U(A) ] . Ejercicio 5. ¿Es cierto si no estan ordenados? 3. z = z ↓ y w = w↓ . . Sea U = P − (I − P ) = 2 P − I ∈ H(n).6 (+ inducci´n) que. es decir. . o sea. (5. entonces o m m µ k=1 Ak k=1 µ(Ak ) . Deducir del Teorema 5. .5. entonces se tiene que U = P − (I − P ) = I 0 0 −I S ∈ U(n) =⇒ 2 CP (A) = A + U AU = A + U AU ∗ . Entonces. (5.4. intr´ o ınseca de matrices. el sistema P = {P. .4. Es f´cil a ver que. por el Teorema de Weyl 5. . λ ∈ Rm y λ (1.9) S⊥ Pero. . 0) . Por la Eq. El siguiente teorema da una caracterizaci´n. 0.6 se tiene 2 µ(CP (A)) por lo que CP (A) A. Sea A ∈ H(n). Dados x. y = y ↓ . . si A1 . I − P }. y. probar que z w y x y =⇒ x + z y+w .1. Definici´n 5. o o .4 es una generalizaci´n del e o o Teorema de mayorizaci´n de Schur. Am ∈ H(n).8). basta considerar el caso de pinchings de un solo proyector o P ∈ H(n). de la mayorizaci´n mao tricial: Teorema 5. (5. z.10) A si y s´lo si T es combinaci´n convexa de conjugados unitarios de A. llamaremos conv [C] o a la c´psula convexa de C: a m conv [C] = k=1 λk bk : m ∈ N. si R(P ) = S. w ∈ Rn tales que x = x↓ .4. µ(A) + µ(U AU −1 ) = 2 µ(A) . el conjunto de todas las combinaciones convexas de elementos de C. o 2.7. bk ∈ C. como µ(U AU ∗ ) = µ(A). Denotemos por U(A) = {U AU ∗ : U ∈ U(n)} = {B ∈ H(n) : µ(B) = µ(A)} la ´rbita unitaria de A.

Estas normas se llaman d´bilmente unitariamente invariantes (NDUI). W ∈ U(n) hacen que A = V ∗ DV y T = W diag (µ(T ) ) W ∗ .5. Observaci´n 5.4: a o Proposici´n 5. si V.5. 1] tales que σ∈ Sn λσ = 1. Finalmente. por ejemplo.11) . Luego T ∈ conv [{U AU ∗ : U ∈ U(n)}] = conv [U(A) ]. Por lo tanto. sea T ∈ H(n) tal que µ(T ) µ(A).8 dice que o µ(T ) = σ∈ Sn λσ P σ a = σ∈ Sn λ σ aσ para ciertos λσ ∈ [0. entonces T = W diag (µ(T ) ) W ∗ = σ∈ Sn ∗ λσ W Pσ DPσ W ∗ = σ∈ Sn ∗ λσ (W Pσ V ) A (V ∗ Pσ W ∗ ) . que es NDUI para cualquier NUI N . Para el caso de pinchings. es una tal norma. se tiene que Pσ DPσ = diag (aσ ).5.4. Entonces N CP (A) ≤ N (A) . Con las notaciones de la Observaci´n 4. para toda norma N que sea NDUI en Mn (C) . a C ∈ Mn (C). Notar que el Teorema 5. (5.1.4.10) se tiene que o A B =⇒ N (A) ≤ N (B) para toda norma N que verifique N (U CU ∗ ) = N (C). Por el Ejercicio 5. Tomemos una matriz o m T = k=1 ∗ λk Uk AUk ∈ conv [U(A) ] . donde los Uk ∈ U(n) y λ ∈ Rm cumple que λ + m m ∗ µ(λk Uk AUk ) k=1 e1 (m) .14 en el o siguiente sentido: Si A. pero no es NUI. por la f´rmula (5.4. Notar que. o diag (µ(T ) ) = σ∈ Sn ∗ λσ Pσ DPσ . Notaremos a = µ(A). que se llama radio num´rico de C. x | : x = 1 .1. A.4 Mayorizaci´n de matrices Hermitianas o 94 Demostraci´n.9. Por la Eq. Notemos D = diag (a). el Teorema 4.8.4) de la ∗ Observaci´n 4. Otro ejemplo de este e tipo es M (C) = N (C)+| tr C|. U ∈ U(n).4. se tiene un resultado m´s general que la Proposici´n 5. Sean A ∈ Mn (C) (no necesariamente autoadjunta) y P un sistema o proyectores en H(n). (4. C ∈ Mn (C).4.5.3. µ(T ) = k=1 λk µ(A) = µ(A) =⇒ T Rec´ ıprocamente.7 permite generalizar el Corolario 5.1. e w(C) = m´x | Cx. B ∈ H(n).

D = B 1/2 . y luego iremos armando las pruebas. Comenzaremos enunciando las tres. Con esto.5. por lo que N (T T ∗ ) = N (T ∗ T ). Sea N una NUI.4). Por la Eq. se o o 0 B A 0 tiene que N ≤ N (T T ∗ ) . Observaci´n 5.4. (5. B ∈ Mn (C). en el caso general. por lo que podemos suponer que A. T T ∗ ∼ T ∗ T . Proposici´n 5.5 Teoremas de Lindskii y sus aplicaciones 95 Demostraci´n. Entonces se tienen las desigualo dades 1 A+B 0 A 0 |A| + |B| 0 N ≤N ≤N . aunque A no sea autoadjunta.4. siempre se o verifica que CP (A) ∈ conv [{U AU ∗ : U ∈ U(n)}]. En tal caso. entonces A 0 0 B = U 0 0 V |A| 0 0 |B| =⇒ N A 0 0 B =N |A| 0 0 |B| . Esto se hace eligiendo las matrices unitarias y diagonales de bloques (para P). (5. y por la f´rmula (5. Sean A. o sea U = P − (I − P ) = 2 P − I ∈ U(n). A 0 es un pinching de T T ∗ . 0 A+B 0 B 0 0 2 Demostraci´n.5 Teoremas de Lindskii y sus aplicaciones El teorema de Lidskii tiene tres versiones equivalentes. se tiene que 2 CP (A) = A + U AU = A + U AU ∗ . la desigualdad al tomar N es clara. V ∈ U(n). a = TT∗ = C 2 CD DC D2 = A CD DC B . entonces A+B 0 0 0 = T ∗T .6.10. Otra forma de verlo es observar que. notar que. Adem´s.8) basta probarlo para un solo proyector P ∈ H(n). .4. Para probar la segunda.9. en la Proposici´n 5. 0 B Luego 5.11.9). con ± IR(Pi ) en cada bloque (ver el ejercicio 5. si A = U |A| y B = V |B| con U. B ∈ Mn (C)+ . Por otra parte. v´ la matriz ıa 0 I I 0 ∈ U(n) . Por la Eq. En tal caso. La primera desigualdad se deduce de que o B 0 0 A ∼ = A 0 0 B . y T = C 0 D 0 .11). si C = A1/2 .

µ(A) µ(A − B) + µ(B). . al vector de valores singulares de B.5.5 Teoremas de Lindskii y sus aplicaciones 96 Teorema 5. de hecho.6. Ejercicio 5. se entender´ porque es necesaria (y suficiente) la siguiente a versi´n m´s t´cnica del Teorema de Lidskii. Recordemos que. sn (B)) = µ(|B|). si B ∈ Mn (C). dado que µj (A + B) = µj (A + B − µk (B)I) + µk (B) y µi (B) = µi (B − µk (B)I) + µk (B) . k k µj (A) − µj (B) ≤ j=1 j=1 µj (A − B) . B ∈ H(n). se definen A+ = A+|A| y A− = |A|−A . . Demostrar (bien) la otra parte del Teorema ( ¿quien era µ(−B)?). Sin p´rdida o e de generalidad podemos suponer que µk (B) = 0. para todo k ∈ In . B ∈ H(n). 1. La igualdad.3 que ambas est´n en Mn (C) . que A = A+ − A− y que para todo k ∈ In se tiene a µk (A+ ) = m´x { µk (A) .5.5. ordenados en forma decreciente.1. Decir porqu´ es incorrecta la siguiente prueba de la primera parte del e Teorema de Lidskii 1: Si A.5 (que. Por lo tanto. 0} . (5.5. Una ves resuelto el Ejercicio 5. en principio.1.9. Se probaba en la Secci´n o 2 2 + 3. Sean A.13). para k = n. Entonces |s(A) − s(B)| w s(A − B) . . La prueba. llamamos s(B) = (s1 (B). necesita un o m´ ınimo repaso: Si A ∈ H(n).5. leer la Observaci´n 4. . B ∈ H(n). la desiguadad de la derecha en (5. Deducimos entonces que µ(A) − µ(B) µ(A − B).2. si probaramos el resultado para B − µk (B)I (que cumple lo pedido) y A.13) Demostraci´n.5. por el Teorema 5. Probaremos. Sean A. asombrosamente simple comparada con las que hist´ricamente la precedieron. Obsrvar que puede verse como una generalizaci´n o a e o natural del Teorema de Weyl 2.13). es lo que se usa en su prueba). Si no ven la pifiada. o 2. Teorema 5.2. sale tomando trazas.12) Teorema 5. k ∈ In y J ⊆ In con |J| = k.3. En efecto. B ∈ Mn (C). podr´ ıamos deducir inmediatamente la desigualdad de la derecha en (5.3 (Lidskii 2). Sean A. (5.1 (Lidskii 1).4 (Lidskii 3). . Entonces k k µj (A) + j∈ J i=1 λi (B) ≤ j∈ J µj (A + B) ≤ j∈ J µj (A) + i=1 µi (B) . 0 } a y µk (A− ) = − m´ ın{µn−k+1 (A). Entonces µ(A) − µ(B) µ(A − B) µ(A) − λ(B) .

tambi´n µj (A + B+ ) ≥ µj (A). La otra se deduce de la anterior. (5.5. el hecho de que a A + B ≤ A + B+ =⇒ µj (A + B) ≤ µj (A + B+ ) En consecuencia. 0 } . Demostraci´n del Teorema de Lidskii 1.7.5. pero aplicada al conjunto J = {n − j + 1 : j ∈ J} y las matrices −A y −B. Por el Corolario 2. Por el teorema de Weyl.5 Teoremas de Lindskii y sus aplicaciones 97 para todo j ∈ J e i ∈ In (sobrar´ kµk (B) en ambos t´rminos. obtenemos k k µ(A) − µ(B) j=1 ↓ j = m´x a J⊆In |J|=k j∈ J µj (A) − µj (B) ≤ j=1 µj (A − B) . µj (A + B+ ) − µj (A) . B ∈ H(n).5) ). y se puede cancelar). para todo j ∈ In a =⇒ tr(B+ ) = j=1 µj (B) .3. Esto prueba la desiguadad de la derecha en la Eq. Se usa que µr (−C) = −µn−r+1 (C) = −λr (C) . Sea a e B = B+ − B− la descomposici´n de B en partes positiva y negativa descriptas en el repaso o previo (sino. Usando la formulaci´n (5.5. (3. µj (A + B) − µj (A) ≤ j∈ J j∈ J para todo j ∈ In .3.13) a las matrices B y A − B. m´s especificamente el Corolario 2. (5. (5. k ∈ In y J ⊆ In con |J| = k.14) del tercer Teorema de o o Lidskii.12) se tiene que k µj (B+ ) = m´x { µj (B) . Por lo tanto e n µj (A + B+ ) − µj (A) ≤ j∈ J j=1 µj (A + B+ ) − µj (A) = tr(A + B+ ) − tr(A) k = tr(B+ ) = j=1 µj (B) .13). para todo j ∈ In . ver la Eq. Como µk (B) = 0. para cualquier C ∈ H(n) y para todo r ∈ In .15) . y pasar restando. se tiene que k µj (A) − µj (B) ≤ j∈ J i=1 µi (A − B) ≤ j∈ J µj (A) − λj (B) .4 que tambi´n se usa muo o e cho es la siguiente: Dadas A. aplicando la Eq. basta aplicar la Eq.5. Una formulaci´n equivalente del Teorema 5. Observaci´n 5. (5. (5.14) En efecto.7.

Entonces dN (A.14) a A.16) de Proposici´n 3. Demostraci´n del Teorema de Lidskii 2. Entonces N Σ(A) − Σ(B) ≤ N (A − B) .e. Corolario 5. aplicando la f´rmula (5.5. si j ∈ In se tiene que o o µj A − µj B = sj (A) − sj (B) y µ2n−j+1 A − µ2n−j+1 B = − sj (A) − sj (B) .7. sea W ∈ U(n) tal que |A| = W Σ(A)W ∗ .5. por la f´rmula (3. Sea U la unica matriz unitaria ´ tal que A = U |A| (i.15) o la (5. Por otro lado. entonces o k J⊆I2n |J|=k m´x a µj A − µj B j∈ J = j=1 s(A) − s(B) ↓ j . Entonces Σ(V ) = I. U(n) ) = N (A − U ) = N (Σ(A) − I) = gN (s(A) − 1) .7.6. si k ∈ In . Sean N una NUI en Mn (C) y A. tenemos que o N (A − V ) ≥ N (Σ(A) − I). Veamos en principio que. Por otra parte. Por lo tanto el Teorema de o Lidskii 2 implica que Σ(A) − Σ(B) (k) ≤ A−B (k) para todo k ∈ In . Por el Corolario 5.3.5. En efecto. Luego se aplica el Teorema 5. Sean N una NUI en Mn (C) y A ∈ Gl (n). Como las trazas est´n bien. k y podemos concluir que j=1 s(A) − s(B) ↓ j ≤ j=1 sj (A − B) para todo k ∈ In . Demostraci´n. vemos que o k J⊆I2n |J|=k k m´x a µ j A − µj B j∈ J k ≤ j=1 µj A − B = j=1 sj (A − B) .5. Sea V ∈ U(n).8.5 Teoremas de Lindskii y sus aplicaciones 98 para todo k ∈ In . . Notar que s(Σ(A) − Σ(B) ) = |s(A) − s(B)|↓ . Corolario 5. sale que µ(A) − µ(B) a µ(A − B).6. U = A|A|−1 ∈ U(n)).5. resulta que N (A − U ) = N (Σ(A) − I). B ∈ Mn (C). Entonces A − U = U W Σ(A)W ∗ − U W W ∗ = U W (Σ(A) − I)W ∗ . Dado que N es una NUI. Demostraci´n. B y a A − B = A − B.

µj (A) = m´x a j=1 P ∈Pk (n) tr P AP = U ∈Uk (n) m´x tr U ∗ AU . . . aparte. notamos Pk (n) = {P ∈ H(n) : P 2 = P y rk(P ) = k} Probar que. . . si A es diagonal de bloques. Sean A ∈ Mn (C) y P = {P1 .6. 5. pero s´ puede depender de W (si s1 (A) tiene o ı multiplicidad mayor que uno para |A|). probar que se tiene la siguiente factorizaci´n de su pinching: o CP = CP1 ◦ CP2 ◦ · · · ◦ CPr . .6. 5.3.4. Mostrar que otra manera de encontrar A1 es tomando A1 = s1 (A)x y = s1 (A)yx∗ . sn (A)) . 0.5. Dado un sistema de proyectores P = {P1 . Pr } ⊆ Mn (C) un sistema de proyectores. 0) W ∗ .2. que A1 no depende de la matriz U ∈ U(n) elegida para realizar la descomposici´n polar de A. Probar que ∗ CP (A) = 2−n UJ AUJ = 2−n UJ AUJ . . Generalizar el resultado al conjunto de matrices de rango a lo sumo k. Probar que si N es una NUI.8. Para cada k ∈ In .6 Ejercicios Ejercicios del texto 5.1. dN (A. . se tiene que k y Uk (n) = {U ∈ Mn.5. Deducir que CP (A) ∈ conv [{U AU ∗ : U ∈ U(n)}]. donde x es un vector unitario tal que Ax = A sp = s1 (A).5. . Probar. 5.6 Ejercicios 99 Ejercicio 5. y lo mismo en cualquier otro orden entre los CPi . Si A ∈ H(n) y σ (A) = {λ1 . O sea. . Dada A ∈ Mn (C). s2 (A). J⊆ In J⊆ In donde cada UJ = k∈J Pk − k∈J / Pk ∈ U(n). llamemos Σ1 (A) = diag (0.6. . . se tiene que CP (A) = A si y s´lo si A conmuta con todos los Pi de P. λr } (todos distintos). Dado un sistema de proyectores P en Mn (C) y una matriz A ∈ Mn (C).k (C) : U ∗ U = Ik } .6. 5. Sea A ∈ H(n). . Mn (C)1 ) = N (Σ1 (A)) y se alcanza en la matriz A1 = U W diag (s1 (A). entonces definiendo Pi como el proyector ortogonal sobre ker(A − λi I). . a 5. . o . Pr } en Mn (C). se obtiene un sistema de proyectores que r verifica que A = i=1 λi Pi . . e y = U x. . . .6. i ∈ Ir . . para todo k ∈ In . . donde A = U W Σ(A)W ∗ . Sea Mn (C)1 el conjunto de matrices en Mn (C) de rango uno (o cero).

i ∈ Ir . CP (A∗ ) = CP (A)∗ . todos ordenados en forma decreciente. donde m(·) una norma en Mn (C) y dU refiere a la medida de Haar (normalizada) de U(n). Reduce normas espectrales y preserva trazas (si no sale.5. entonces N (A) ≤ N (B). el operador pinching CP verifica las siguientes propiedades: 1.6.7.6.2.4. 5. 5. Probar que. probar que µ k=1 Ak k=1 µ(Ak ) . Si A ∈ Mn (C) es autoadjunto (resp.10. Si no sale a mano. . z. B ∈ Mn (C). entonces N (A) ≥ esperar hasta el Corolario 10.6. en general. y. Probar que si N es una NDUI.12. Es lineal. N (A) = A + | tr A|. 1.13. w ∈ Rn ..9). idempotente (i. ¿Es cierto si no estan ordenados? m m 5. Dado un sistema de proyectores P en Cn .8. . Si A1 . CP ◦ CP = CP ) y R(CP ) es el subespacio de matrices que conmutan con todos los Pi . Una norma N en Mn (C) es una NDUI si cumple que o N (A) = N (U AU ∗ ) para toda A ∈ Mn (C) y toda U ∈ U(n) . n 5. Probar que las siguientes normas son NDUI’s. 5. . Dadas A. Demostrar que 1. N (A) = U(n) m(U AU ∗ )dU .6.6.11. 2.9. 3. Dados x.e. probar que z w y x y =⇒ x + z y+w . Sea N una NDUI. dado un sistema de proyectores P en Mn (C).6. o 3. Hacer el Ejercicio 5.8 Normas d´bilmente unitariamente invariantes (NDUI’s) e Definici´n 5. . Am ∈ H(n).7. 5.6. e 2.6 Ejercicios 100 5. positivo) entonces CP (A) es autoadjunto (resp. si A B. Por lo tanto. . El radio num´rico. | tr A| N (I).6.6. se tiene que N (CP (A) ) ≤ N (A) para toda A ∈ Mn (C) . ver la Proposici´n 5.5. positivo). 2.

6. . Entonces 1.1 (Lidskii 1). µ(B) . Si AS = PS APS : S → S es el comprimido o de A a S. 5. 2.6. Probar el Teorema de Lidskii 3 (por inducci´n sobre n) usando el ejercicio anterior. para todo k ∈ In−1 . ik = n. y ∈ Rn . y o considerando independientemente los casos: (a) ik < n . entonces µi (A) = µi (AS ) para i ∈ Ik .6 Ejercicios 101 Ejercicios nuevos 5. B ∈ H(n). 5. . Dadas A. se tiene que x↓ − y ↓ x−y x↓ − y ↑ y x↓ + y ↑ x+y x↓ + y ↓ . Sean A. 5. 3.5. mostrando previamente que. . Dados x. vk ∈ S. b.3 implica el Teorema 5. (b) Sea v1 . . vn ∈ S. B ∈ H(n).5. Usar lo anterior para dar una nueva prueba del Teorema 5. mostrar que µ(A) · λ(B) µ(AB) µ(A) · µ(B) .17.3 (Lidskii 2). a. Si v1 . Sea A ∈ H(n) 1.15. . (a) µ(A) − µ(B) (b) µ(A) − µ(B) ∞ 1 ≤ A−B . 2. B ∈ H(n). Por lo tanto g(x↓ − y ↓ ) ≤ g(x − y) para toda f gs.5. µ(A) + λ(B) µ(A + B) µ(A) + µ(A). . vn una BON adaptada a µ(A).16. Dada A ∈ Mn (C). . 1 ≤ A−B = A−B (n) . entonces: (a) µk (A) ≥ µk (AS ) ≥ µk+1 (A).6. (c) i1 = 1. entonces mostrar que o µ(A) . Si vk . Si s´lo tenemos que A. . k ≤ i ≤ n. Mostrar que el Teorema 5. dadas A.6. . A (k) = m´ ın B 1 +k C sp :A=B+C . . λ(B) ≤ tr AB ≤ µ(A) . Sea S ⊆ Cn un subespacio de dimensi´n n−1. . entonces µi−1 (AS ) = µi (A). 2. . (b) 1 < i1 . . probar que 1. B ∈ Mn (C)+ .14.5.

entonces N Ed (A) − Ed (B) ≤ N (A − B) ≤ N Ed (A) − Ec (B) N Ed (A) + Ec (B) ≤ N (A + B) ≤ N Ed (A) + Ed (B) . se realiza en una matriz diagonal D ∈ U(B). Usar lo anterior para probar que para A. 2. Demostrar que existe una matriz doble estoc´stica D ∈ DS (n) tal que a A−B 2 2 y = i. U(B)) (calculada en norma 2. 3. 0) Sugerencia: verificar que (µ(A).19. llamamos Ed (C) = diag (µ(C)) y Ec (C) = diag (λ(C)). para C ∈ H(n). 2. B ∈ Mn (C) matrices normales. representar a A como XX ∗ con cierta X ∈ M2n (C) y recordar que XX ∗ y X ∗ X son unitariamente equivalentes. u 1. A+B 0 A 0 0 In = + 0 0 0 0 In 0 . Si.j |µi (A) − µj (B)|2 Dij . µ(B)) . Sean A. la distancia d2 (C. Sea B ∈ Mn (R) diagonal y definamos U(B) = {U BU ∗ : U ∈ U(n)} ⊂ H(n). 5. U2 ∈ U(2n) tales que ∗ A = U1 B 0 ∗ 0 0 U + U2 U . Sean µ(A) y µ(A) sus vectores de autovalores en alg´n orden. 0 0 B 0 In In 0 .18 (Hoffman-Weilandt y agregados). 0 0 1 0 C 2 Sugerencia: primero notar que C(U ∗ AU ) ≥ 0. Consideremos el pinching C : M2n (C) → Mn (C) ⊕ Mn (C) dado por C X Y X 0 = Z W 0 W B 0 si y solo si 0 C 1. Demostar que dada C ∈ Mn (C).6.6 Ejercicios 102 3.5. Si A ∈ M2n (C)+ entonces: existe U ∈ U(2n) tal que C(U ∗ AU ) = existe unitarios U1 . B ∈ Mn (C)+ se tiene que (µ(A + B). la de Frobenius).6. 5. Probar la siguiente desigualdades: n σ∈Sn n m´ ın i=1 |µi (A) − µσ(i) (B)| ≤ A − B 2 2 2 ≤ m´x a σ∈Sn i=1 |µi (A) − µσ(i) (B)|2 .

xk e y1 . mostrar que o λ↓ (A). B ∈ Mn (C)+ . Probar que λ↓ (A) · λ↑ (B) λ(AB) λ↓ (A) · λ↓ (B). . ıas 5. a 5. . Sea A ∈ H(n). sea Rj = {T ∈ Mn. B ∈ H(n). ın U ∈Uk (n) 2.21. . Para j ∈ {0} ∪ In .m (C) : rk(T ) ≤ j} . H ∈ Mn.23.k (C) : U ∗ U = Ik } es el espacio de isometr´ de Ck en Cn .6. Si s´lo pedimos que A.6 Ejercicios 103 5.6.24. si A es positiva demostrar: k k µj (A) = m´x det(U AU ∗ ) a j=1 U ∈Uk (n) y j=1 λj (A) = m´ det(U AU ∗ ) .m (C) y para cada k ∈ In . .6.5. yk . . .m (C). se tiene que sj (A) = m´ ın T ∈Rj−1 dim S=j m´ ın x∈S. donde el m´ximo se toma sobre todas las k−uplas ortonormales x1 .25. λ↓ (B) .6. entonces sj (A) ≥ sj+k (A + H) . Sean A. yj .20. Probar que para cualquier A ∈ Mn. x =1 Ax A−T . y H tiene rango k.22. Demostrar que k k µj (A) = m´x tr(U AU ) a j=1 U ∈Uk (n) ∗ y j=1 λj (A) = m´ tr(U AU ∗ ) . . ın U ∈Uk (n) Recordar que Uk (n) = {U ∈ Mn. para todo j ∈ In−k . Mostrar que para cualquier j ∈ In . Mostrar que para cualquier A ∈ Mn. x =1 Ax = dim T =n−j+1 m´ ın m´x a x∈T . 5. 5.6. Por otro lado. . λ↑ (B) ≤ tr(AB) ≤ λ↓ (A). 1. 5. .6. vale k k sj (A) = m´x a j=1 j=1 Axj .m (C) vale: sj (A) = m´x a para cualquier j ∈ In . Mostrar que si A.

Y ∈ Mn.6. puntual y d´bil) de m vectores de R .29. . Adem´s. las columnas de X y de Y . Probar que s =⇒ p =⇒ w . muchos vectores de R2 ).m (R) decimos que • Y • Y • Y s p w X si existe D ∈ DS (n) tal que DX = Y X si Y v Xv (mayorizaci´n usual en Rn ) para todo v ∈ Rm o X si existe D estoc´stica por filas tal que DX = Y . Diga algunas en las que s´ vale y otras donde o ı no.26. 1. Probar que Y w X ⇐⇒ las filas de Y son combinaciones convexas de las de X. Sea φ una funcional lineal en Cn .28. a Esta es una manera compacta de describir lo que podr´ ıamos llamar mayorizaci´n conjunta o n (fuerte. porque es bastante complicadito).6. |||B|||=1 Las normas duales aparecen como las normas de los operadores adjuntos de los vectores o matrices. 2. Entonces | det X| ≥ | det Y |. entonces s´ vale que p =⇒ s . para todo y ∈ Cn .6. Sean Φ una norma en Cn y N una en Mn (C). Sean N una NUI y A ∈ Mn (C).6. ı 4. ınf ¿Qu´ matrices A verifican que el ´ e ınfimo es un m´ ınimo para toda NUI? Observar que la conclusi´n anterior no vale para cada NUI sola. Si n = 2 (solo dos filas. ponemos Φ (x) = sup | x. si | det X| = a | det Y | = 0. Probar que si µ(A) es el vector de los autovalores de A y Eig(A) = diag(µ(A) ) ∈ Mn (C). pero no valen las rec´ ıprocas (el contraejemplo de p =⇒ s es opcional.6 Ejercicios 104 5. Dadas X. Normas duales Definici´n 5. o m = n y las matrices son inversibles (esto significa “bases”). Probar que existe un unico ´ x ∈ Cn tal que φ(y) = φx (y) = y. e 1. cuando se los piensa como funcionales seg´n indica el siguiete ejercicio: u 5. y | Φ(x)=1 y N (A) = sup | tr(A∗ B)| . entonces N (Eig(A) ) = ´ { SAS −1 : S ∈ Gl (n)}. Se definen sus normas del o siguiente modo: dados x ∈ Cn y A ∈ Mn (C). 5.5. Supongamos que m = n y Y w X. x . o mejor dicho.27 (Mayo conjunta). 3. entonces existe una matriz P ∈ Sn tal que Y = P X. a saber.

m (C) tal que ϕ(A) = ϕX (A) = tr(X ∗ A) .32.6 Ejercicios 105 2. Ellas inducen normas en las funcionales lineales. definir para las funcionales en Mn (C). en funci´n de c´mo actua en las matrices. 2. y ∈ Cn . Φ = Φ. q. Demostrar que 1. | x. u 1. para todo A ∈ Mmn (C) .5. Φ ≥ c−1 Ψ 5. Dados x ∈ Cn y X ∈ Mn (C). La unica NUI que coincide con su dual es la norma 2. 2. k A (n) }. autoadjunta y positiva. Sean M una norma en Cn y N una en Mn (C). Dados k ∈ In y A ∈ Mn (C). Sea Φ una funci´n gauge simetrica en Cn . o 1. Despu´s comparar lo que o o e haya hecho con la Definici´n 8.6. es decir que es igual a la norma dual de su norma dual.6. Si Φ(x) ≤ cΨ(x) para cierto c > 0 y para todo x ∈ Cn .6. Sean p.3. 5. . Probar que para toda norma unitariamente invariante ||| · ||| se verifica que: ||||AB|r |||1/r ≤ ||||A|p |||1/p ||||B|q |||1/q .35. Sea ϕ una funcional lineal en Mn.36.1. 5. A p = A q .30.6.6.33. donde 1 ≤ p ≤ ∞ y 1 p + 1 q = 1.31. a N (A)=1 5. o 5. Probar que existe una unica ´ X ∈ Mn. y | ≤ Φ(x)Φ (y) para todo x. las nociones de adjunta. Demostrar: 1.34. entonces. r n´meros reales positivos tales que 1/r = 1/p + 1/q. Mostrar que Φ es tambien una fgs. 2. Usando esas identificaciones.m (C). 2. Sea NΦ la NUI en Mn (C) asociada a Φ. Mostrar que para toda norma Φ en Cn . probar que A (k) = m´x{ A a 1 (1) .6. Mostrar que para toda funci´n gauge sim´trica Φ se tiene que o e Φ(|x ◦ y|r )1/r ≤ Φ(|x|p )1/p Φ(|y|q )1/q .6. Probar que NΦ = NΦ . mostrar que M (x) = φx M = m´x |φx (y)| a M (y)=1 y N (X) = ϕX N = m´x |ϕX (A)| . 5. Sean φ y Ψ normas en Cn . ´ 5.

2. Dado un intervalo I ⊆ R. implica que P (A) = Q(A). . cuando I es un conjunto convexo (i.7.. porque o si Q ∈ C[x] cumple lo mismo que P . Fijada o o A ∈ HI (n).1 C´lculo funcional a Notaciones: Diremos que un subconjunto I ⊆ R es un intervalo. y sea f : I → C una funci´n cualquiera. . si B ∈ HI (n) y U ∈ U(n) son tales que B = U diag (µ(B)) U ∗ =⇒ f (B) = U diag (f (µ(B) ) ) U ∗ .1. . para i ∈ Ik . y esto. es decir A = diag (x) para cierto x ∈ I n ⊆ Rn . por el Corolario 1. si I es un intervalo abierto. entonces f (A) = diag (f (x) ) . σ (P (A) − Q(A)) = σ ( (P − Q)(A)) = (P − Q)(σ (A) ) = {0}. Y de esto puede deducirse que. . Sea I ⊆ R un intervalo. acotado.2. La definici´n es buena. λk } (sin repetici´n). llamaremos HI (n) = A ∈ H(n) : σ (A) ⊆ I .1. semirrecta o todo R). donde P ∈ C[x] verifica que P (λ) = f (λ) para todo λ ∈ σ (A). se define f (A) = P (A). f : I → C una funci´n y A ∈ HI (n). dado que P (A) − Q(A) es normal. Sean I ⊆ R un intervalo. Otra manera de ver este c´lculo es la siguiente: Sea σ (A) = {λ1 . a o Llamemos Si = ker(A − λi I).Cap´ ıtulo 6 Funciones mon´tonas y convexas de o operadores 6. entonces.e. Definici´n 6. Es f´cil o o a ver que. semiabierto o cerrado. si A es diagonl. . y Pi a los proyectores ortogonales sobre Si . Observaci´n 6.1.

entonces eA := exp(A) = Am . entonces los polinomios 0 0 P (t) = t y Q(t) = t2 coinciden en σ (A) = {0}. 8. o Ejemplos 6.3. entonces f (A) = A−1 para toda A ∈ Gl (n)+ . f. a u 3. Si U ∈ U(n). Verificar que el c´lculo funcional cumple las siguientes propiedades: Sean a I ⊆ R un intervalo. (f ± g)(A) = f (A) ± g(A) y f g(A) = f (A)g(A).1. Pk } es un sistema de proyectores en H(n) (o sea que son autoadjuntos. En efecto. M´s a´n. Si la matriz de A en alguna BON tiene la forma A= B 0 0 C . o entonces fm (B) − − f (B) para toda B ∈ HI (n). 2. o 3. f (B) ≥ 0 para toda B ∈ HI (n) si y s´lo si f (t) ≥ 0 para todo t ∈ I. Si A ∈ Mn (C)+ . Si f : R∗ → R esta dada por f (t) = t−1 . + √ 2. . Por ejemplo.1.1 C´lculo funcional a 107 Luego P = {P1 . f (A) siempre es una matrix normal.3. que es la unica matriz autoadjunta que ´ verifica la f´rmula eB = A.6.4. o 6. 4. (6. 7. ortogonales 2 a 2 y que suman I) que verifica que k k A= i=1 λi Pi . Entonces se tiene que f (A) = i=1 f (λi ) Pi . La unicidad se deduce de la f´rmula (6. o 5. Si A ∈ Gl (n)+ . Entonces 1. notar que este c´lculo no est´ bien definido en matrices que nos son autoadjuna a 0 1 tas (en realidad. f (t) = t y A1/2 es la unica raiz ´ cuadrada positiva de A definida en la Proposici´n 3. Ejercicios 6. Si tiene sentido la composici´n h ◦ f .3. entonces A1/2 = f (A). m! m=0 ∞ 4. g : I → C dos funciones y A ∈ HI (n). −→ m→∞ 9. y cumple que o a eB = A por 9 del Ejercicio 6. o . si no son normales).1) Por otra parte. entonces f (A) = f (B) 0 0 f (C) . entonces existe B = log A. σ (f (A) ) = {f (λ) : λ ∈ σ (A)}. B = log A est´ bien definida.1. entonces g ◦ f (A) = h(f (A) ). entonces f (U AU ∗ ) = U f (A)U ∗ . Si A ∈ H(n). si A = .1). . µ(f (A) ) = f (µ(A) )↓ . pero P (A) = A mientras que Q(A) = 0.1. 1. f (t) ∈ R para todo t ∈ I si y s´lo si f (A) ∈ H(n) para toda A ∈ HI (n). Si una sucesi´n (fm )m∈N de funciones definidas en I convergen puntualmente a f . . . donde I = R+ .

Luego. ∞ < ε . f (A) − f (Am ) ≤ f (A) − P (A) + P (A) − P (Am ) + P (Am ) − f (Am ) < 2 ε + P (A) − P (Am ) − − 2 ε . Si ε > 0 y g : I → R es otra funci´n tal que o f −g I. se tiene que Ax. para todo i ∈ In . entonces. Entonces o o 1. si m ≥ m0 . el Teorema 5. Notar que σ (f (A) − g(A)) = (f − g) σ (A) y f (A) − g(A) = ρ(f (A) − g(A) ). Dado λ ∈ [0. Si B ∈ H(n) y A − B < ε.1 C´lculo funcional a 108 6. y sea ε > 0 tal que (µn (A) − ε . x ≤ A−B x 2 <ε. para todo x ∈ Cn con x = 1. entonces HI (n) es abierto en H(n). 3. x − Bx. B ∈ HI (n). b ] = J ⊆ I . Si f es continua. b) ∩ I ⊆ [a . HI (n) es un subconjunto convexo de H(n). 1]. existe P ∈ C[x] tal que f − P J. Luego f (A) − f (Am ) − − 0. existe m0 ∈ N tal que Am ∈ H(a. 4. Si I es es un intervalo abierto.1. Sean A. Sea I un intervalo y f : I → R una funci´n. deducimos que µn (A) − ε < µn (B) por lo que σ (B) ⊆ I. o −→ m→∞ se tiene que f (Am ) − − f (A). 2.6.5. Por el item 2. b) ⊆ R un intervalo abierto tal que σ (A) ⊆ (a. ∞ := sup |f (t) − g(t)| : t ∈ I < ε . −→ m→∞ Demostraci´n. Entonces. entonces f (A) − g(A) < ε para toda A ∈ HI (n). por el Teorema 2.1. o 1. 3. Por el teorema de Weierstrass (en el intervalo cerrado J). por el item 3.1.6 asegura que x = µ λA + (1 − λ)B λµ(A) + (1 − λ)µ(B) = y . para todo m ≥ m0 . µ1 (A) + ε) ⊆ I.1 Continuidad del c´lculo funcional a Proposici´n 6. porque el resultado es claro para polinomios. dada una sucesi´n (Am )m∈N en HI (n) tal que Am − − A ∈ HI (n).3. dado ε > 0. Sea A ∈ HI (n).1. Por lo tanto xi ∈ [yn .b) (n)∩HI (n) ⊆ HJ (n). −→ m→∞ . −→ m→∞ y µ1 (B) < µ1 (A) + ε . Sea (a. 4. y1 ] ⊆ I (porque I es convexo). 2.

luego de adaptarlas m´ ınimamente a operadores en espacios de Hilbert. El item 1 de la Proposici´n 6. o con las mismas pruebas. en general. La convergencia util entre funciones no es la puntual.5). Sin embargo.1. 2. el conjunto Mn (C)V = { A ∈ Mn (C) : σ (A) ⊆ V } es abierto. el cual provee una herramienta importante para derivar curvas de matrices producidas con el c´lculo funcinal.6.1 C´lculo funcional a 109 Observaci´n 6. o e 1 En caso de que I sea abierto y que f sea de clase C . o o a es una traducci´n al caso matricial del c´lculo funcional continuo para operadores autoadjuntos o a en espacios de Hilbert. como la Observaci´n 6. o o 3. M´s a´n.1.5 hemos visto que.1. como una demostraci´n o o completa de estos resultados necesita un desarrollo anal´ ıtico bastante extenso. si I un intervalo y f : I → R una funci´n continua. remitimos al Cap´ o ıtulo V del libro de Bhatia [3].6. Tambi´n e son ciertos en general los resultados de las pr´ximas dos secciones. o o entonces la aplicaci´n f : HI (n) → H(n) dada por A → f (A). dado que las nociones de o monoton´ y convexidad de operadores se reducen al caso de matrices (siempre que valga para ıa matrices de cualquier tama˜o). Las unicas diferencias en el caso general son: ´ 1. y mostraremos c´mo calcular sus derivadas direccionales. sino la uniforme en compactos ´ (notar que coinciden en conjuntos finitos). La demostraci´n se deja como ejercicio.1. por lo que se usa el teorema de Weierstrass para definir f (A) (la buena definici´n se prueba como en el item 2 de la Proposici´n 6. que puede interpretarse como una especie de regla de la cadena. [24] (ver tambi´n [8] o a ıi ın e [3]).5 se puede generalizar de la siguiente o o forma: Dado un conjunto abierto V ⊆ C. Las funciones a evaluar deben ser continuas. La unica que necesita m´s cuidado es la identidad σ (f (A)) = f (σ (A)). que es f´cil para poli´ a a nomios. veremos que f es diferenciable. dejando ciertos pasos t´cnicos sin demostrar. este resultado nos permitir´ encontrar una caracterizaci´n de las denominadas a a o funciones mon´tonas de operadores. el mismo resultado es cierto cambiando Mn (C) por L(H). Para simplificar su enuciado usaremos el producto de o . u o o Observaci´n 6. e Para una prueba completa de los resultados de esta secci´n. No existen. n 6. Todos los dem´s resultados y ejercicios presentados en esta secci´n (salvo las menciones esa o pec´ ıficas de vectores de autovalores.1. para cualquier a u espacio de Hilbert H.1. a´n con dimesi´n infinita. pero requiere argumentos especiales para funciones continuas en general.2) son ciertos en el caso general. La noci´n de c´lculo funcional para autoadjuntos que hemos presentado. Daremos adem´s un resultado probado por Daleki˘ y Kre˘ [23].1. es tambi´n continua. A ∈ HI (n). polinomios que coincidan con una f dada en todo el espectro del operador elegido (o del intervalo I).7.2 Diferenciabilidad del c´lculo funcional a En la Proposici´n 6. solo daremos los enunciados y un esbozo de las demostraciones. a M´s adelante.

Sean I ⊆ R un intervalo abierto y f : I → R una funci´n de clase C 1 . la derivada direccional d ∂ g(x0 ) := ∂h dt g(x0 + th) = Dgx0 · h . Sea I un intervalo abierto de R y f : I → R una funci´n de clase C 1 .2) En tal caso se tiene que.m (C). entonces DfB (H) = U ∗ f [1] A ◦ U HU ∗ U .3) Es decir que dados B ∈ HI (n) y U ∈ U(n) tales que A = U BU ∗ es diagonal.m (C) . dj ) i. t=0 Observar que si I es un intervalo abierto. . .5) que.6. el cual ser´ estudiado con m´s detalle en el Cap´ a a ıtulo 8. para todo h ∈ Rn . se dice que g es diferenciable en x0 ∈ U si existe una matriz Dgx0 ∈ Mmn (C) (llamada derivada o diferencial de g en x0 . .1 C´lculo funcional a 110 Hadamard o de Schur de matrices. Denotaremos por f [1] a la funci´n definida sobre I × I dada por o   f (y) − f (x) si x = y   y−x [1] . y) =    f (x) si x = y A esta funci´n se la denomina primera diferencia dividida de f . Luego podemos aplicar las nociones anteriores.4) . − h→0 (6. dada g : U ⊆ Rn → Rm (U abierto). Teorema 6. Recordar (de la Secci´n 3. f (x. se tiene que DfA (H) = f [1] A) ◦ H . Si D = diag (d1 . para todo H ∈ H(n) . j∈Im Definici´n 6. pero reemplazando x0 y h por matrices adecuadas. . dadas A. que es un R-espacio vectorial que identificaremos con un RM . se define el producto de Hadamard o A ◦ B como la matriz A ◦ B = aij bij i∈In ∈ Mn. y que debe tener las derivadas parciales de g en sus columnas) que cumple g(x0 + h) − g(x0 ) − Dgx0 · h h −→ 0 .9. Notationes: Recordemos que.1. Si o tomamos coordenadas en las que A sea diagonal. o 2. dn ) ∈ Mn (C) es una matriz diagonal. llamaremos f [1] (D) = f [1] (di . o o 1. entonces HI (n) es abierto en H(n). B ∈ Mn. (6. (6. o Entonces su extensi´n f : HI (n) → H(n) es diferenciable en todo punto A ∈ HI (n).1.j∈In ∈ Mn (C) . para todo H ∈ H(n) .8.

(6. que su derivada DfB (H) = DfB (H) (o sea que ıa (6. b ∈ R (incluso si a = b). nos queda lo que quer´ ıamos: m m DfA (H) = k=1 A k−1 HA m−k = k=1 ak−1 am−k Hij i j = f [1] A) ◦ H . para m ∈ N ∪ {0}. si uno fija un e ε > 0. i. Mostremos el resultado. f [1] a. En particular. . Fijemos a −→ ahora H ∈ H(n) peque˜o. uno puede diagonalizar a B con una U ∈ U(n). e el t´rmino de la derecha no depende de la U que diagonalice a B. e Sea ahora f una funci´n de clase C 1 en I. . En efecto.4) es cierta). no es dif´ ver que n ıcil DfB (H) = U ∗ f [1] U BU ∗ ) ◦ U HU ∗ U . al cadidato a derivada. y U ∈ U(n) tal que A = U BU ∗ es diagonal. en tal caso. derivar ah´ y desdiagonalizar. (6. que su f´rmula no depende del U elegido. o o Se hace intercalando t´rminos que involucran a los polinomios Pm .6) es una ardua acotaci´n. Llamemos n DfB (H) = U ∗ f [1] A) ◦ U HU ∗ U (para ese U ∈ U(n) fijo).1 C´lculo funcional a 111 Demostraci´n. Usando que f (U (B + H)U ∗ ) = U f (B + H)U ∗ para ı todo H ∈ H(n) peque˜o (para que B + H ∈ HI (n) ). a d f (A + tH) = dt m m k=1 d DfA (H) = dt (A + tH) = t=0 k=1 Ak−1 HAm−k . de la que s´lo mostraremos sus ideas principales.5) por el m´todo directo de calcular el cociente incremental. b = m ak−1 bm−k para todo a . para o el caso en que B ya era diagonal (tomando U = I). como en la Eq. . encuentra un m ∈ N tal que tres cantidades: • f (B + H) − f (B) − (Pm (B + H) − Pm (B) ) • Pm (B + H) − Pm (B) − D(Pm )B (H) 2 2 . Adem´s. Observar que. Es f´cil ver que Pm [1] A) − − f [1] A). −→ H→0 (6. por linealidad podemos asumir que f (x) = x . para todo H ∈ H(n) . . y que se cumple la Eq. t=0 Si ahora usamos que A = diag (a1 .3). para funciones polin´micas.6. en principio. Hay que mostrar que el cociente incremental f (B + H) − f (B) − DfB (H) H 2 2 m→∞ −− 0 . y . En este o o m contexto.j∈In Luego. (6. an ). La prueba de (6. si f es un polinomio y B ∈ HI (n) no es diagonal.2). Usando el teorema de Weierstrass se puede construir o una sucesi´n (Pm )m∈N de polinomios que aproximan uniformemente tanto a f como a f en o cualquier subintervalo cerrado prefijado de J.6) Esto probar´ que f es diferenciable en B.

6. se ve que A ≤ B.1.1. Entonces o 1. . la segunda es la que pide H chico.6. o 2. El ejemplo se puede cambiar. Sea I ⊆ R un intervalo y f : I → R. Notar que las entradas 2. La curva que llamaremos f • γ : I → H(n) dada por f • γ(t) = f γ(t) . tomando n = 1. una funci´n. .2.1. La suavidad de f • γ se deduce de la diferenciablidad de f : HJ (n) → H(n) o (y de la la suavidad de γ). para constantes a ∈ I◦ y ε > 0 convenientes. f (t) = t2 no es mon´tona de operadores (en ning´n intervalo I ⊆ [0. 1. Sean I. b ∈ R. Sea f : J → R otra funci´n de clase C 1 . B ∈ HI (n). pero 1 1 1 1 A2 = 2 2 2 2 ≤ 5 3 3 2 = B2 . Finalmente.2 Funciones mon´tonas de operadores o 112 • DfB (H) − D(Pm )B (H) 2 se pueden hacer menores que ε H 2 . puesto que (f • γ) (t0 ) = Dfγ(t0 ) γ (t0 ) = f γ(t0 ) ◦ γ (t0 ). tama˜o que depende del m. J ⊆ R dos intervalos abiertos y consideremos un curva de clase C 1 γ : I → HJ (n). se ve que f debe ser mon´tona en el sentido usual. an ) para cierto t0 ∈ I. . por un argumento que depende del teorema del valor medio y de la convergencia de las matrices Pm [1] A) (m´s bien de que sean una sucesi´n a o de Cauchy). pero n este m se puede elegir de modo que se cumplan las otras dos.10 (Daleki˘ y Kre˘ ıi ın). (6. para todo n ∈ N y A. Notar que. e 2.9. Diremos que f es o o mon´tona de operadores (MOP) si. .7) se deducen tambi´n del o e [1] Teorema 6. Corolario 6. tomando C = aI + εA y D = aI + εB.2 Funciones mon´tonas de operadores o Definici´n 6. Supongamos que γ(t0 ) = diag (a1 . de acuerdo al intervalo I. es tambi´n de clase C 1 .6) es menor que 3ε para un tal H. Entonces se cumple la siguiente f´rmula: o (f • γ) (t0 ) = f [1] γ(t0 ) ◦ γ (t0 ) . La primera se puede hacer v´lida para todos los m grandes (y a para cualquier H tal que B + H ∈ HJ (n) ). +∞) con m´s de o u a 1 1 2 1 un punto).2. Luego uno se olvida del m y queda que el cociente de (6. se tiene que o A≤B =⇒ f (A) ≤ f (B) . la funcion f (t) = a + bt es MOP si y s´lo si b ≥ 0. tomando A = yB= . 2 de C 2 y D2 siguen coincidiendo. v´ el c´lculo ıa a funcional. La regla de la cadena y la f´rmula (6.7) Demostraci´n. Dados a. Observar que la tercera vale a partir de un m para todo H. En efecto. siempre que H sea chico.2. o Ejemplos 6. .

podr´ deducirse que t → 1/t es MOP. por lo que A−1 ≥ B −1 . Dada una matriz M = a b c d ∈ M2 (R). si 0 < A ≤ B ∈ Mn (C)+ . Sean A. en principio. x . 1]. c + dt t= −c . ε→0 A1/2 x. f (t) = −t−1 es MOP en I = (0. R(t) > 0 para todo t ∈ [0. donde el punto denota derivada respecto de t. Pero si fM fuera o MOP y det M > 0. o 2. que B > 0. +∞).3. +∞). Ejercicio 6. puntualmente −−− Luego A1/2 ≤ (B + εI)1/2 para todo ε > 0.2 Funciones mon´tonas de operadores o 113 3. En efecto. Entonces R(t)2 = C(t) =⇒ ˙ ˙ ˙ R(t)R(t) + R(t)R(t) = C(t) = B − A > 0 .1. d fM (t) = Entonces fM es MOP en ( −c . o 1 ≥ A1/2 B −1/2 sp ≥ ρ(A1/2 B −1/2 ) = ρ(B −1/4 A1/2 B −1/4 ) =⇒ I ≥ B −1/4 A1/2 B −1/4 . entonces. t ∈ [0. Probar que 1. 1] . . que se basa en un resultado del Cap´ ıtulo 9: Suponemos que 0 < A < B. con d = 0.4. o Entonces.5. Si B no es inversible. B ∈ Mn (C)+ tales que A ≤ B. R) > 0. Como (t + ε)1/2 − − − → t1/2 = f (t). Entonces definimos la funci´n o C : [0. La funci´n f (t) = t1/2 es MOP en I = [0.2. La suma y la composici´n (cuando tenga sentido) de MOP´s es MOP.2. por la Proposici´n 3. x − → B 1/2 x. Luego R es creciente y.4. si det M < 0. 1] → Gl (n)+ . o sea µn ((B −1/2 AB −1/2 )−1 ) ≥ 1 =⇒ (B −1/2 AB −1/2 )−1 = B 1/2 A−1 B 1/2 ≥ I . en particular. Luego µ1 (B −1/2 AB −1/2 ) ≤ 1.2.5.4. entonces 0 < B −1/2 AB −1/2 ≤ I.2. Rellenar los detalles de la siguiente prueba alternativa de la Proposici´n o 6. Ejercicio 6.5. o o Demostraci´n. − ε→0 para todo x ∈ Cn . 1]. ıa Proposici´n 6. para cada ε > 0 se toma la matriz B + εI > 0. Por la Observaci´n 9. entonces fM es composici´n de MOP´s. definamos la funci´n o a + bt . dada por C(t) = A + t(B − A) . x ≤ (B + εI)1/2 x.6. 1] . Deducimos que A1/2 ≤ B 1/2 . Por lo tanto B 1/2 ≥ A1/2 . +∞) si y s´lo si det M ≤ 0. Notar que o d fM (t) = det M b + . Supongamos. Sea R(t) = C(t)1/2 . d cd + d2 t Por lo tanto. A1/2 = R(0) < R(1) = B 1/2 . t ∈ [0. t ∈ [0. como R(t) > 0 y o ˙ ˙ ˙ C(t) = S(R.

si A > 0. o Si suponemos el hecho cierto para todo n´mero j/2m . como (A + m I)r ≤ (B + m I)r para todo m ∈ N y la funci´n t → tr es o continua. B r A−1 B r ≥ B r B −1 B r = B 2r−1 . 1]. lo que prueba la desigualdad en el caso general. Por tanto. u m entonces k/2 ≤ 1. deducimos que B ≥ A . Demostraci´n. por inducci´n en m.2. En este caso probaremos.8. se tiene que o o Ak/2 ≤ B k/2 m m =⇒ Ar = (Ak/2 )1/2 ≤ (B k/2 )1/2 = B r . Aplicando −−− h→0 h el item 8 del Ejercicio 6. Como las funciones a o a −→ m→∞ fm (t) = t rm − − − → f (t) = t .1. Entonces Ah − I = log A . −−− e m→∞ puntualmente r r r 1 1 Finalmente. En otras palabras. como k − 2m ≤ 1. o o + dados A ≤ B ambos en Gl (n) . o a m es decir que r = k/2 .6. usaremos que B −1 ≤ A−1 . En otras palabras.3. En efecto. +∞). si m = 1. Proposici´n 6. th − 1 puntualmente − − − → g(t) = log t en todo (0.2. que 0 < A ≤ B ∈ Gl (n)+ y que r es di´dico. Si k ≤ 2m .1.7. m m Si k > 2m . +∞). Luego. +∞). y por ello B r ≥ Ar . tomemos r = k/2m+1 .5 obtenemos que o Ar = lim A + m→∞ 1 I m r ≤ lim B + m→∞ 1 I m r = Br . se tiene que log A ≤ log B.2 Funciones mon´tonas de operadores o 114 Teorema 6. o Si r no es di´dico. para todo r ∈ [0.2.4. si 0 ≤ A ≤ B ∈ Mn (C)+ . Lema 6. +∞). ya lo sabemos por la Proposici´n 6. Observar que.4. Sea A ∈ Gl (n)+ .6. se verifica que o th − 1 eh = lim h→0 h→0 h lim Por lo tanto las funciones fh (t) = log t −1 h = log t . que o Ar ≤ B r .2.2. se culmina la prueba. aplicando la Proposici´n 6. en principio. para todo t ∈ (0.2. Aplicando la Proposici´n 6. por la hip´tesis inductiva tenemos que o 0 < 2r − 1 = 2m (A−1/2 B r A−1/2 )2 = A−1/2 B r A−1 B r A−1/2 ≥ A−1/2 B 2r−1 A−1/2 ≥ A−1/2 A2r−1 A−1/2 = A2(r−1) . h→0 h lim Demostraci´n. . Las funciones f (t) = tr son MOP’s en I = [0. deducimos que A−1/2 B r A−1/2 ≥ Ar−1 . tomemos una sucesi´n de di´dicos rm − − r. para k ∈ I2m . Supongamos. Por la hip´tesis inductiva y la Proposici´n 6. entonces Ar ≤ B r para todo 0 ≤ r ≤ 1.4. tambi´n en este caso. La funci´n f (t) = log t es MOP en I = (0.

el producto entrada a entrada.5. x se tiene que la funci´n g(t) = η(t)x. . Recordemos que por medio o de A ◦ B denotamos al producto de Hadamard. Sea En = 1n 1∗ ∈ Mn (C)+ . f es MOP. 1]. y definamos la curva γ(t) = (1 − t)A + tB. o Luego.1.2 (producto ◦ de positivas es positiva). M´s a´n. tomando h con valores en (0.e. Para todo n ∈ N y toda matriz diagonal D ∈ HI (n).7.6. tiene sentido hacer f ◦ γ. i. . Sean A. Luego. Sea I un intervalo abierto de R. Demostraci´n. derivable o o . Luego. Por la linealidad de la funci´n A → Ax. B ∈ HI (n) tales que A ≤ B. 1 → 2.6 se tiene que Bh − I Ah − I ≤ lim+ = log B . Respecto a este producto. σ (D + t En ) ⊆ I para valores peque˜os de t. γ(t) ∈ HI (n) para todo t ∈ [0.9. o Entonces.1. Sea n γ : (−ε. fijemos x ∈ Cn . Teorema 6. Como HI (n) es convexo (Proposici´n 6. la cual puede interpretarse como an´logo matricial al resultado cl´sico de c´lculo a a a que dice que una funci´n de una variable real derivable es no-decreciente si y s´lo si su derivada o o es no-negativa. .. 1). Observar que para todo t ≥ 0 se tiene que D + t En ≥ D. 1) se tiene que η (t) ∈ Mn (C) . para t ∈ [0. Sea D = diag (d1 . En efecto.2.1. El primer paso ser´ probar que a a + para todo t ∈ (0. como f es de clase C 1 y γ es a u suave. Ahora bien. x es continua en el [0. que f [1] (γ(t) ) ∈ Mn (C)+ y luego el Teorema 2 de Schur 3. f [1] (D) ∈ Mn (C)+ . Por ende. t=0 Usando que En ∈ Mn (C)+ y que f es MOP. 1]. Por la Proposici´n 6. f : I → R una funci´n de clase C 1 . log A = lim+ h→0 h→0 h h Para finalizar daremos una caracterizaci´n de las MOPs en terminos de la primera diferencia o dividida de f . ε) . fijemos un t ∈ (0. por el Corolario 6. se tiene que f [1] (D) ∈ Mn (C)+ . por el o Teorema 6. 2. la nueva curva η(t) = f (γ(t) ) est´ bien definida. lo cual se preserva al tomar l´ ımite.10 se tiene que η (t) = f [1] (γ(t) ) ◦ γ (t) = f [1] (γ(t) ) ◦ (B − A) ∈ Mn (C)+ . Para ello.2.5).9 obtenemos d f (D + t En ) dt = DfD (En ) = f [1] (D) ◦ γ (0) = f [1] (D) ◦ En = f [1] (D) .1. 1]. ε) → H(n) dada por γ(t) = D + t En . 1) cualquiera. donde usamos que A ≤ B. se tiene que el cociente incremental f (D + t En ) − f (D) ∈ Mn (C)+ . podemos derivar la curva f ◦ γ. las siguientes afirmaciones son equivalente: 1. 2 → 1. . Sin p´rdida de generalidad podemos suponer que γ(t) es diagonal (sino se conjuga con una e unitaria).2 Funciones mon´tonas de operadores o 115 Demostraci´n.2. dn ) ∈ HI (n). En se comporta como la identidad. o n para dichos valores de t. Se deduce del Lema 6. t para todo t ∈ (−ε.6. y por el Teorema 6.

dn ) ∈ Rn . x . . el Teorema 6. x dt ≥ 0 .j∈In sen 0 0 donde. .11. Para o ello. Sea D = diag (d1 . .10. g es creciente en el [0. entonces Ke (d) = U ∗ EU ∈ Mn (C)+ .2. Pero entonces. .8) y el lema anterior se tiene que sen(dj − di ) 2π xi xj = dj − di i. . . π). g (t) = η (t)x. la cual o puede testearse a mano muy facilmente: π 1 sen a = eiat dt para todo a ∈ R (incluso si a = 0) .8) a 2π −π En efecto.2. . . Con esta informaci´n. 1].11. Este lema se deduce del anterior si recordamos la siguiente identidad. Entonces la matriz Ks (d) = sen(dj − di ) dj − di ∈ Mn (C)+ . Como x ∈ Cn es arbitrario.j∈In por el Lema 6. dn ) ∈ Rn . Lema 6.12. . . lo cual concluye la demostraci´n.j=1 n π n π n sen(dj − di ) xi xj .j∈In ∈ Mn (C)+ . xn ) ∈ C se tiene que Ks (d) x. o Para ilustrar como se utiliza esta caracterizaci´n para demostrar que una funci´n es mon´tona o o o de operadores. . La funci´n f (t) = tan(t) es MOP en I = (−π/2 .2.2. por lo que acabamos a u de ver. Sea d = (d1 .9 garantiza que f (t) = tan(t) es o MOP en I = (−π. i. Entonces la matricz Ke (d) = ei(dj −di ) i.  2 sec (di ) si di = dj Usando la identidad tan(x) − tan(y) = tan[1] (D)ij = 1 cos(di ) sen(dj − di ) dj − di sen(x − y) se tiene que cos(x) cos(y) 1 cos(dj ) = sec(D) Ks (d) sec(D)∗ ∈ Mn (C)+ . . π/2). Demostraci´n.j=1 n ei(dj −di )t xi xj dt = −π i. probaremos que la funci´n f (t) = tan(t) es MOP en el itervalo (−π. . . x para todo t ∈ (0. necesitaremos un par de lemas previos. dj − di i. 1). 1). Demostraci´n. dn ) ∈ HI (n) y la matriz de diferencias divididas o   tan(dj ) − tan(di ) si d = d i j [1] dj − di tan (D)ij = . En efecto. π). estamos aceptando la convenci´n de que o = 1. o o Demostraci´n. . x = Pero por la formula integral (6.2 Funciones mon´tonas de operadores o 116 en (0. eidn . x = g(0) ≤ g(1) = f (B)x. (6. . . M´s a´n. . Proposici´n 6. . . dado x = (x1 .j=1 −π Ke (d) x. En consecuencia f (A)x. Lema 6. . f (A) ≤ f (B). i. si tomamos E = 1 1∗ ∈ Mn (C)+ (la matriz de cuyas entradas son o todas iguales a 1) y U = diag eid1 . para abreviar notaciones.6.2. Sea d = (d1 .

Diremos que f es c´ncava de operadores (∩OP) si −f es ∪OP. Dados a. B ∈ HI (n) (y todo n ∈ N). dados A.3.2.3 Funciones convexas de operadores 117 6. esta condicion implica que f cumple la Eq. u . 4 4 Como f es continua. f (t) = t3 no es ∪OP en [0.1. se tiene f λA + (1 − λ)B ≤ λf (A) + (1 − λ)f (B) .3. o Ejemplos 6. b ∈ R. para todo n ∈ N.1. Esto se prueba por inducci´n. para verificar que es convexa de operadores. B ∈ HI (n). Tampoco puede ser ∪OP en ning´n intervalo I ⊆ [0.5 dice que (6. 1]. la Proposici´n 6. +∞).9) Notar que. esto prueba que es ∪OP. o es suficiente probar que A+B f (A) + f (B) f . (6. f (t) = t2 s´ es ∪OP en [0. +∞). Diremos que f es convexa o o de operadores (∪OP) si. tomando n = 1. Sea I ⊆ R un intervalo y f : I → R. una cuenta elemental muestra que.3. si I ⊆ R es un intervalo. 2. Si f : I → R es continua. se tiene que ı A+B A2 + B 2 − 2 2 2 = 1 2 1 A + B 2 − AB − BA = (A − B)2 . ≤ 2 2 para todo par A. o Definici´n 6.3 Funciones convexas de operadores Recordemos que la Proposici´n 6. que no es positiva. 1] y A. 3.3. 1. se tiene que la funcion f (t) = a + bt es ∪OP (y ∩OP).9) se cumple para todo λ ∈ [0. se ve que f debe ser convexa en el sentido usual. En efecto. si A= 1 1 1 1 y B= 3 1 1 1 entonces A3 + B 3 A+B − 2 2 3 = 6 1 1 0 .5 asegura que. una funci´n. Por ejemplo. HI (n) es comvexo. 1]. (6. λ ∈ [0.6. En efecto.1. B ∈ Mn (C)+ . +∞).9) para todo λ di´dico en [0. En efecto. a o 1 3 A+ B 4 4 A+B 2 f =f +B 2 f ≤ A+B 2 + f (B) 2 ≤ f (A)+f (B) 2 + f (B) 2 = 1 3 f (A) + f (B) . o Observaci´n 6. 4 4 Como f es continua.

es decir.3 Funciones convexas de operadores 118 4. o o 3. Ejercicio 6. en Mn (C). para cada k ∈ In . con d = 0. Sea I ⊆ R un intervalo tal que 0 ∈ I. d fM (t) = Entonces fM es ∪OP en I = ( −c . x∈S . B ∈ Gl (n)+ .3. En coordenadas de una BON de Cn tal que la I 0 matriz de P en esa base sea P = . definamos la funci´n o a + bt . +∞). Recordemos que. Entonces f no es ∪OP y g no es ∪OP ni MOP. c + dt t= −c . Sean f (t) = |t| y g(t) = t ∨ 0. Por otra parte. f (t) = t−1 es ∪OP en I = (0.6. esto se deduce de la identidad 2(A + B)−1 = A−1 (A−1 + B −1 )−1 B −1 + B −1 (A−1 + B −1 )−1 A−1 . Sea I ⊆ R un intervalo y f : I → R. notamos Uk (n) = {U ∈ Mn. En efecto. una funci´n. ıas Teorema 6. Como f es continua. Llamaremos o compresi´n de A a S. f es o d ∩OP en I si y s´lo si f es MOP en I si y s´lo si det M ≤ 0 . se tiene que 0 0 P AP = AS 0 0 0 y CP (A) = AS 0 0 AS ⊥ . donde las matrices (grandes) viven. Son equivalentes: o 1. f es convexa de operadores. Dada una matriz M = a b c d ∈ M2 (R). o 2. 2 En efecto. . La suma y la composici´n (cuando tenga sentido) de ∪OP´s es ∪OP. +∞) si y s´lo si det M ≥ 0 . ahora. el espacio de isometr´ de Ck en Cn .k (C) : U ∗ U = Ik }.6. pensado en L(S). si A. entonces A+B A−1 + B −1 − 2 2 −1 = (A−1 − B −1 )(A−1 + B −1 )−1 (A−1 − B −1 ) ∈ Mn (C)+ . Definici´n 6. t ∈ I. lo que vimos muestra que es ∪OP.3.4. al operador o AS : S → S Notar que AS = P AP S dado por AS (x) = P A x . Probar que 1.5. Sean A ∈ Mn (C) y P ∈ H(n) un proyector con R(P ) = S.3.

) que trabajamos con un solo proyector P ∈ H(n). podemos suponer (s. un proyector. Dado ∈ Un (2n).p. al mismo V correstringido a su imagen. 2 con U = 2P − I ∈ U(n) . si dim S = k. / 1 → 2. por la Eq. (6. Corolario 6. dado A ∈ HI (n). Para todo n ∈ N y para todo sistema de proyectores P en H(n). A 0 0 B ∈ HI (2n). A ∈ HI (n) y V ∈ Uk (n). Por lo tanto. Dados A. Entonces . 3 → 4. A ∈ HI (n) y S ⊆ Cn un subespacio. B ∈ HI (n).10) de abajo) y el hecho de que HI (n) es convexo. sean µ = 1 − λ y V = λ 2 In 1 µ 2 In 1 y V ∗ f (A)V = V0∗ f (A)S V0 . se tiene que f CP (A) ≤ CP (f (A) ) para todo A ∈ HI (n) . Demostraci´n. Como otras veces.8).7. 3. 1 de la desigualdad f CPS (A) ≤ CPS f (A) . se tiene que f (AS ) ≤ f (A)S . si asumimos que f es ∪OP. (5. entonces AS ∈ HI (k) y tiene sentido calcular f (AS ).4. se verifica que f (V ∗ AV ) ≤ V ∗ f (A)V . De ahi se deduce que. Entonces se tiene que V ∗ AV = V ∗ (P AP )V . Dados n ∈ N. 2 2 2 → 3. entonces f CP (A) ≤ f (A) + f (U AU ∗ ) f (A) + U f (A)U ∗ = = CP f (A) . (6. Sean A ∈ Gl (n)+ y P ∈ H(n). incluso si 0 ∈ I. 4 → 1. Dados k. 1].10) Por lo tanto. V ∗ T V = λA + µB usando que f (T ) = y que f (A) 0 .3. observar que CP (A) ⊆ HI (n) por la Proposici´n 5. n ∈ N tales que k ≤ n. Observar que. Adem´s f (V ∗ AV ) = f (V0∗ AS V0 ) = V0∗ f (AS )V0 por lo que f (V ∗ AV ) ≤ V ∗ f (A)V ⇐⇒ f (AS ) ≤ f (A)S .4 (o la o o Eq. Basta mirar los bloques 1. 4. se tiene que CP (A) = A + U AU ∗ . si denotamos V0 : Ck → S. Antes que nada.6. se tiene que 0 f (B) f λA + µB = f (V ∗ T V ) ≤ V ∗ f (T )V = λf (A) + µf (B). Por todo ello.3 Funciones convexas de operadores 119 2. Una cuenta directa pueba que V ∗ f (T )V = λf (A) + µf (B) .g. tenemos que a V0 es unitario y que V ∗ AV = V0∗ AS V0 ∈ HI (k). Llamemos S = R(V ) ⊆ Cn y P = PS . consideremos el operador T = λ ∈ [0. si f cumple 4.

Dados n ∈ N. pensados como matrices en Mn (C). e ı Proposici´n 6. Por lo tanto. Se deduce de que Gl (n)+ = H(0. f es convexa de operadores y f (0) ≤ 0. en la misma BON.11) se deduce de la teor´ o o a ıa de complementos de Schur. si S = R(P ). =⇒ (A−1 )S −1 = (P A−1 P )−1 = a − bc−1 b∗ . que f (AS ) ≤ f (A)S para todo el mundo. (6.3. Demostraci´n. Es decir que.8.6. . En la Proposici´n 3. equivale a que f sea ∪OP).8. A ∈ HI (n) y P ∈ H(n).11) Demostraci´n.6. las condiciones 1 y 2 son equivalentes. Observaci´n 6.3.3 Funciones convexas de operadores 120 1. Una versi´n m´s detallada de la desigualdad (6. una funci´n. se tiene que (P AP )−1 ≤ P A−1 P.3. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R.3. P f (A)P = f (A)S 0 0 0 . una funci´n. se cumple que f (P AP ) ≤ P f (A)P . +∞). se tiene que 0 0 P AP = AS 0 0 0 =⇒ f (P AP ) = f (AS ) 0 0 f (0)IS ⊥ .3. por serlo 1 y 3 del Teorema 6.3. es f´cil ver que P AP ∈ HI (n). un proyector. Si S = R(P ) entonces. tambi´n as´ se muestra que (P A−1 P )−1 ≤ a = AS .4. Como 0 ∈ I. o o Entonces son equivalentes: 1. f es convexa de operadores y f (0) ≤ 0. Por otra parte. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R. o A= a b b∗ c S .9. Entonces o son equivalentes: 1.7 vimos que. Ejercicio 6. S⊥ En particular. CP (A) ∈ Gl (n)+ y CP (A)−1 ≤ CP (A−1 ). Entonces. pensados como operadores en L(S). dado que t → t−1 o es ∪OP en (0. 2. en o a I 0 coordenadas de una BON de Cn tal que P = .10. 2. AS −1 ≤ (A−1 )S .3.6 (es decir. como se ha observado en el Ejemplo 6.+∞) (n) y del Teorema 6. Sea S = R(P ).

A.10. Sea g(t) = tr−1 .3. g es MOP (porque 0 ≤ r − 1 ≤ 1).3 Funciones convexas de operadores 121 2.12. Notemos P = PS .e. B ∈ HI (n) y C. para todo C ∈ Mn (C) tal que C ≤ 1. Por el Teorema 6. Corolario 6. Supongamos que f es MOP.9. En efecto. llamemos Q = I − P y P Q A 0 tomemos las matrices U = ∈ U(2n) y T = ∈ M2n (C)+ . ya que. usando la Proposici´n 6.3.7.. para todo ε > 0 existe λ > 0 tal que UT U = UT U∗ = P AP P AQ QAP QAQ ≤ P AP + εI 0 0 λI . . y sea S ⊆ Cn un subespacio. +∞) → [0. como 0 ≤ P ≤ I.6. A ∈ HI (n). Por lo tanto.9 bastar´ probar que o o ıa P f (A)P ≤ f (P AP ) . 3. se verifica f (C ∗ AC) + f (D∗ BD) ≤ C ∗ f (A)C + D∗ f (B)D.9. en tal caso. Luego (A1/2 P A1/2 )r−1 ≤ Ar−1 . o Como f (0) ≥ 0 por hip´tesis. En particular. Sea f : [0.2. o Demostraci´n. bastar´ probar que o o ıa (P AP )r ≤ P Ar P . se cumple que f (C ∗ AC) ≤ C ∗ f (A)C. observar que para todo k ∈ N ∪ {0} se tiene que P A1/2 A1/2 P A1/2 A1/2 P = (P AP )k+1 . por lo que P A1/2 A1/2 P A1/2 r−1 A1/2 P ≤ P A1/2 Ar−1 A1/2 P = P Ar P . para todo r ∈ [1. para toda A ∈ Mn (C)+ . De ah´ deducimos que una igualdad similar valdr´ para toda f : [0. . para todo polinomio Q ∈ C[x] vale la igualdad P A1/2 Q A1/2 P A1/2 A1/2 P = Q(P AP ) P AP . Se sugiere usar las matrices unitarias construidas en 3. ∀ n ∈ N . Como f (0) = 0.3. +∞).3. 2]. +∞) una funci´n continua.7. A ∈ Mn (C)+ y P un proyector en H(n) . Para hacerlo. Entonces se tiene o o que f es MOP si y s´lo si f es ∩OP ( i. podr´ ıamos deducir que −f es ∪OP. Como se vi´ en o Q P 0 0 3. o Demostraci´n. −f es ∪OP ). D ∈ Mn (C) tales que C ∗ C + D∗ D ≤ I. Finalmente. tenemos que 0 ≤ A1/2 P A1/2 ≤ A. +∞) → R (eligiendo un ı a Q ∈ C[x] que coincida con f en σ A1/2 P A1/2 = σ (P AP ) ). La funci´n f (t) = tr es ∪OP en I = [0.6.11. Dados n ∈ N. Proposici´n 6. por la Proposici´n 6. Dados n ∈ N. P Ar P ≥ P A1/2 A1/2 P A1/2 r−1 k A1/2 P = (P AP )r .

para r ∈ (0. +∞). Dado λ ∈ (0. 1) . son ∩OP en [0.14. esto nos da que o f (λB) ≥ λf (A) + (1 − λ)f λ (B − A) ≥ λf (A) . por lo anterior sabemos que (Ar )S ≤ (AS )r . f (t) = log t es ∩OP en (0. La primera parte se deduce de los Teoremas 6. Pero. o a Para probar la rec´ ıproca. se tiene que T = f (A) 0 ≤ 0 0 T por T y usando que f es MOP. Demostraci´n.3. Dada A ∈ Gl (n)+ .6 y 6. fijemos un subespacio S de Cn . +∞). es convexa.2. por el Lema 6. o ıa o Corolario 6.6.1. 1.3. +∞). Si r > 1. deber´ ser ∩OP.13. Tomando λ → 1− . r→0 = (log A)S . Para probar la o concavidad de operadores del logaritmo.6. 1−λ para todo λ ∈ (0. Luego. por la Proposici´n 6. f no es MOP. 1). se cumple que P f (A)P ≤ f (P AP + εI) para todo ε > 0. En particular. . Sea f (t) = tr .5 se tiene que P f (A)P ≤ f (P AP ).2.7. log(AS ) = (AS )r − IS r→0 r r A − In = lim + r→0 r lim + ≥ lim + (Ar )S − IS r r ∈ (0. 1). Reemplazando = U T U ∗ ≤ U f (T )U ∗ = f (U T U ∗ ) ≤ f (P AP + εI) 0 0 f (λ)I .3 Funciones convexas de operadores 122 Como f (0) ≥ 0. S Por el Teorema 6.3. como funci´n escalar. 1) . definida en I = [0. podemos escribir λB = λA + (1 − λ) λ (B − A) . Las funciones t → tr . obtenemos que P f (A)P P f (A)Q Qf (A)P Qf (A)Q f (A) 0 0 f (0)I = f (T ) . tomemos A ≤ B ambos en Mn (C)+ .12. deducimos que log es ∩OP. como necesit´bamos. del hecho de que f es continua podemos deducir que f (B) ≥ f (A). Corolario 6. 1−λ Si f es c´ncava (y con valores positivos). Como f es continua. 2. Demostraci´n. Si lo fuera.3.

y uno necesita poder tomar f (λ).6. o e 6. Ah´ el criterio a ı heur´ ıstico (que los autores difund´ ıamos muy confiados hasta que fuimos despabilados por unos alumnos despiertos) es directamente err´neo. Verificar que el c´lculo funcional cumple las siguientes propiedades: Sean I ⊆ R un a intervalo. basta recordar (de la o Proposici´n 6.1. f (A) siempre es una matrix normal.15. o Sin embargo hay que tener mucho cuidado. g : I → C dos funciones y A ∈ HI (n). Porque el Teorema 6. Si una sucesi´n (fm )m∈N de funciones definidas en I convergen puntualmente a f . (ejercicio: probar ∩OP =⇒ o e MOP para f no definida en 0. Si tiene sentido la composici´n h ◦ f . (f ± g)(A) = f (A) ± g(A) y f g(A) = f (A)g(A). 4. −t−1 .12) que la funci´n f : [0. adem´s a de tomar valores positivos. Si la matriz de A en alguna BON tiene la forma A= B 0 0 C . y hasta el infinito. o o siendo a la vez convexa como funci´n num´rica en esa mitad de su dominio. −→ m→∞ 9. porque uno hace tender ε a cero. +∞). se usa tambi´n que exista f (0). Esto se ve claramente mirando bien la prueba. M´s a´n. Entonces 1. pasando por tr ). Esto es coherıan o u ente con los ejemplos: tr para r ≤ 1. f (t) ∈ R para todo t ∈ I si y s´lo si f (A) ∈ H(n) para toda A ∈ HI (n).4 Ejercicios Ejercicios que aparecen en el texto 6. f (B) ≥ 0 para toda B ∈ HI (n) si y s´lo si f (t) ≥ 0 para todo t ∈ I. f. π/2) → [0. Para convencerse. debe estar definida en toda la semirrecta [0.4 Ejercicios 123 Observaci´n 6.3. Si U ∈ U(n). o 6. log t son todas c´ncavas. o 5. entonces f (A) = f (B) 0 0 f (C) . σ (f (A) ) = {f (λ) : λ ∈ σ (A)}. Por ello el Teorema no se puede aplicar directamente a los ejemplos −t−1 y log t (para ver que log t es ∩OP hizo falta el razonamiento de reci´n.6 pide que la f .3. a u 3.3. 7. 8. Ojo con B − A). entonces g ◦ f (A) = h(f (A) ). Y para demostrar la implicaci´n MOP =⇒ ∩OP. o entonces fm (B) − − f (B) para toda B ∈ HI (n). e Pero la cosa es m´s grave si el dominio de f se termina antes del infinito. entonces f (U AU ∗ ) = U f (A)U ∗ .6 da un criterio heur´ o ıstico para dilucidar qu´ funciones e crecientes pueden ser MOP’s: por lo menos deber´ ser c´ncavas de n´meros. El Teorema 6.4. por lo que λ se va a infinito. µ(f (A) ) = f (µ(A) )↓ . +∞) dada por f (t) = tan t es MOP.2. o . 2. incluido el cero.

5. . En particular. La suma y la composici´n (cuando tenga sentido) de MOP´s es MOP.6. 1. entonces f (A) = A−1 para toda A ∈ Gl (n)+ . donde I = R+ . + √ 2. ambos en Gl (n)+ . +∞) si y s´lo si det M ≤ 0. Por la Observaci´n 9. en el orden de H(n).2. Sea R(t) = C(t)1/2 . t ∈ [0. entonces. o 2. entonces e := exp(A) = A Am . 1] .4. d fM (t) = Entonces fM es MOP en ( −c . definamos la funci´n o a + bt . Si A ∈ Gl (n)+ .6. que es la unica matriz autoadjunta que ´ B verifica la f´rmula e = A. f (B + H) − f (B) − (Pm (B + H) − Pm (B) ) 2 ≤ε H 2 para todo H ∈ H(n) tal que B + H ∈ HJ (n) .9.2. Rellenar los detalles de la siguiente prueba alternativa de la Proposici´n 6. En particular. como R(t) > 0 y o ˙ ˙ ˙ C(t) = S(R. o d 6. b] → H(n) una curva suave tal que γ(t) ∈ Mn (C)+ para todo t ∈ (a.4. R(t) > 0 para todo t ∈ [0. deducir que γ(a) ≤ γ(b). 1] . con las o notaciones de all´ mostrar que dado ε > 0. m! m=0 ∞ 4.4 Ejercicios 124 6. 1].4. o 6.3. Entonces definimos la funci´n o C : [0. A1/2 = R(0) < R(1) = B 1/2 .1.1. b). en particular. Se sugiere acotar el incremento de la funci´n o Pk − Pm usando su diferencial en un punto intermedio del segmento entre B y B + H. Si A ∈ Mn (C)+ . Sea γ : [a.4. t ∈ [0. para todo m ≥ m0 . 1].1. entonces A1/2 = f (A). Probar las siguientes afirmaciones. t ∈ [0. Dada una matriz M = a b c d ∈ M2 (R).3. 6. ˙ Probar que γ es creciente. Se suguiere chusmear el Teorema 6. R) > 0. existe m0 ∈ N tal que. con d = 0. Si f : R∗ → R esta dada por f (t) = t−1 . 6. c + dt t= −c . dada por C(t) = A + t(B − A) .4: o Supongamos que A < B. en el sentido de que t ≤ s =⇒ γ(t) ≤ γ(s). donde el punto denota derivada respecto de t.4. Si A ∈ H(n). Probar que 1.9.5. entonces existe B = log A. Entonces R(t)2 = C(t) =⇒ ˙ ˙ ˙ R(t)R(t) + R(t)R(t) = C(t) = B − A > 0 . Luego R es creciente y.4. ı. Completar los detalles de la demostraci´n del Teorema 6.2. y que esas diferenciales convergen uniformemente a cero. o 3. f (t) = t y A1/2 es la unica raiz ´ cuadrada positiva de A definida en la Proposici´n 3. 1] → Gl (n)+ .

Sean f (t) = |t| y g(t) = t ∨ 0. se verifica f (C ∗ AC) + f (D∗ BD) ≤ C ∗ f (A)C + D∗ f (B)D.10.4. +∞) si y s´lo si det M ≥ 0 . La suma y la composici´n (cuando tenga sentido) de ∪OP´s es ∪OP. Probar que 1. para todo C ∈ Mn (C) tal que C ≤ 1. 1) → H(n) una curva C 1 tal que γ(0) = A.4. Dada una matriz M = a b c d ∈ M2 (R). c + dt t= −c .10 siguen siendo v´lidos en este contexto.9.6. Si f : U → R es C 1 . 3. Por otra parte. verificar que si U ⊆ R es abierto. entonces 1. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R. 2. o 2. D ∈ Mn (C) tales que C ∗ C + D∗ D ≤ I. ε) → Cn tal que .9 y el Corolario 6. f es o d ∩OP en I si y s´lo si f es MOP en I si y s´lo si det M ≤ 0 .7.1. A ∈ HI (n). una funci´n. t ∈ I. Entonces f no es ∪OP y g no es ∪OP ni MOP. o 3. y sea x0 ∈ ker(A − λI) un autovector unitario.8. a 6.12) Ejercicios nuevos 6. Sea I ⊆ R un intervalo tal que 0 ∈ I. Se sugiere usar las matrices unitarias construidas en 3. Mostrar que todas las definciones y propiedades del c´lculo funcional no necesitan que a el dominio de f sea un intervalo. Dados n ∈ N. 2.7. o o 3. definamos la funci´n o a + bt . Sea A ∈ H(n) y sea γ : (−1. 6.1.4. (6. d fM (t) = Entonces fM es ∪OP en I = ( −c . se cumple que f (C ∗ AC) ≤ C ∗ f (A)C.9. A. HU (n) := {A ∈ H(n) : σ(A) ⊆ U } es abierto en H(n). Dados n ∈ N. f es convexa de operadores y f (0) ≤ 0.4 Ejercicios 125 6. Sea λ ∈ σ(A) una raiz simple de PA (x). B ∈ HI (n) y C. Entonces son o equivalentes: 1. su extensi´n f : HU (n) → H(n) es diferenciable. El Teorema 6. Probar que existe un ε > 0 y una curva suave x : (−ε. con d = 0.4. En particular.

Tomar g(t) = f (γ(t) ). observar que cada g(t) es un proyector autoadjunto de rango uno (por el Corolario 2. adem´s.6. Sea C ∈ Mn (C) una contracci´n y A ∈ Mn (C)+ . ≤ 1. buscar una coordenada no nula de x0 y dividir ah´ (o tomar λ(t) = tr g(t)γ(t) ).1. Ax. para los o t ∈ (−ε. σ(A) \ {λ} )−1 γ(0) · x0 . es suave. Dados n ∈ N y A ∈ HI (n). diagonalizar adecuadamente a A y ı luego usar el Corolario 6.14. 3. que da el autovalor asociado a cada x(t). . Demostrar que dados r. x ≤ f (A)x.4. Dados n ∈ N y A ∈ HI (n). (6. no hay curvas suaves x(t) a valores en Rn que cumplan lo mismo que en el ejercicio anterior.3. Mostrar. entonces (C A C) ≤ (C ∗ As C)1/s . Sean U (t) = cos t − sen |t| 1 + t2 0 y A(t) = U (t) U (t)∗ para t ∈ R. ε) tales que γ(t) ∈ HU (n). no pedimos ∪OP).4 Ejercicios 126 1. La funci´n (−ε. una funci´n tal que f (0) ≤ 0. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R. 6. 6. pero como A(0) = I tiene multiplicidades. 2. pero hay que ver que no puede haber otra suave.8) y usar la Eq.10. una funci´n convexa creciente o tal que f (0) ≤ 0. ε). o Entonces son equivalentes: 1. y definir all´ la ı funci´n f que vale uno cerca de λ y cero en el resto de U . f es convexa (a secas. Comparar con la Eq. Definir e entonces x(t) = g(t) · x0 . x(0) = x0 . ε) o t → λ(t). o o Sugerencia: Usar minimax. donde C ∈ Mn (C) es una contracci´n. Ojo: La curva x(t) = U (t)e1 no es suave. 2. probar que para todo i ∈ In se verifica que λi (f (C ∗ AC) ) ≤ λi (C ∗ f (A)C) . Dar un contraejemplo si la funci´n no es creciente.11. x para todo vector Sugerencia: Probar que si f es convexa entonces f unitario x y toda matriz A ∈ HI (n).13. a ˙ ˙ Sugerencia: Tomar un abierto U ⊇ σ(A) que separe a λ del resto de σ(A). que x(0) ≤ d (λ . Para obtener λ(t). s ∈ R tales o ∗ r 1/r que 1 ≤ r ≤ s. (6. Para acotar la norma. 6. 6. Todos los λ(t) son autovectores simples de γ(t).4.4.4. x(t) es autovector de γ(t) para todo t ∈ (−ε. 4.12. se cumple que f (C ∗ AC) para todo C ∈ Mn (C) tal que C sp w C ∗ f (A)C.12). sen |t| cos t 0 1 − t2 Mostrar que la curva A(t) es suave cerca de 0.1) para ver qu´ proyector es. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R.

q ∈ [1 . r . r ∈ (1.6. aplicar el ejercicio anterior para los n´meros u 1 o r = q > 1 y α = 2 . relativa al orden ≤ de Mn (C)+ . 6. B ∈ Mn (C)+ . chusmear el Lema 9. Si no sale. chusmear la Proposici´n 9. Sugerencia: Analizar separadamente los casos α = 0 o 1 y α ∈ (0. Usar que t → t r es tanto MOP como ∩OP.6. Sea A.4. Si no sale. Sugerencia: Dados r.5.5. +∞) y α ∈ [0. 1].4 Ejercicios 127 6.3. Sean A.16. B ∈ Mn (C)+ .4. +∞) p −→ Ap + B p 2 1 p 1 1 1 1 es creciente.15. +∞) tales que r < q. Probar que (Ar + B r ) r ≥ α1− r A + (1 − α)1− r B . Probar que la funci´n o [1 . 1).

x v.e. dado por x ⊗ y(u. Denotaremos por (n) (n) e1 . . y) −→ x ⊗ y ∈ Hn ⊗ Hk . 3. v ∈ Hk .k (C) .k (C). y . le asociamos la matriz F = F (ei . Dadas F. y = xT u · y T v = uT xy T v.2) Observar que u. Observar que la aplicaci´n o Hn × Hk (x. (7. Por lo tanto. al llamado tensor elemental.. porque las matrices del tipo xy T son todas las de rango uno. pero s´ sucede que ı toda F es suma de tensores elementales. pensado como C-espacio vectorial de la forma natural. Llamaremos Hn ⊗ Hk al espacio de funcionales F : Hn × Hk → C bilineales (i. u ∈ Hn .1 Producto tensorial de a dos Comenzaremos fijando ciertas convenciones de notaci´n adecuadas para esta teor´ o ıa: 1. definimos F. v) = u. (7. no toda F ∈ Hn ⊗ Hk es elemental. definir el producto interno natural en Hn ⊗ Hk . x ∈ Hn .1) 5. Para cada n ∈ N.k (C). 4. las identificamos con sus matrices en Mn. llamaremos Hn = Cn con el producto interno usual. la matriz de x ⊗ y es xy T ∈ Mn. Esto muestra que podemos identificar naturalmente Hn ⊗ Hk con Mn. Dada F ∈ Hn ⊗ Hk . en a los vectores de la base can´nica de Hn . notaremos por x ⊗ y ∈ Hn ⊗ Hk . y) = i=1 j=1 xi yj Fij = xT F y . Dados x ∈ Hn e y ∈ Hk . x v. . lineales en cada coordenada). o 2. Esto permite.Cap´ ıtulo 7 Productos tensoriales y alternados 7. .j)∈In ×Ik Fij Gij .k (C). G ∈ Hn ⊗ Hk . ademas. ej ) ∈ Mn. . y ∈ Hk . Por lo tanto. G = tr G∗ F = (i. Luego n k (n) (k) F (x.

e2 ⊗ ek . e(n) ⊗ ek . . (7. (b) (αA1 + A2 ) ⊗ B = α(A1 ⊗ B) + A2 ⊗ B. Dados A ∈ L(Hn ) y B ∈ L(Hk ). . u ⊗ v = tr (uv T )∗ xy T = tr u∗ x · y T v = x. e(n) ⊗ e1 .k (C). . M´s a´n. La consideraremos o ordenada alfab´ticamente (ley´ndola por f ilas). . e1 ⊗ ek . . Adem´s. |A ⊗ B| = |A| ⊗ |B|. .1). para x. e e 7. v ∈ Hk . . para F ∈ Hn ⊗ Hk . . podemos definir el operador A ⊗ B ∈ L(Hn ⊗ Hk ).k = {ei (n) (7. . . .1. . ı 8. e2 ⊗ e1 . u · y. A ⊗ B(x ⊗ y) Axy T B T = (Ax) · (By)T Ax ⊗ By . la matriz de A ⊗ B en la base can´nica o o de Hn ⊗ Hk (ordenada por filas) es el llamado producto de Kronecker de A y B que se define como la matriz por bloques   a11 B .1. pero podemos dar un esbozo: La base canonica de o Hn ⊗ Hk se ordena as´ ı: e1 ⊗ e1 . . . .3 y la unicidad de la raiz cuadrada positiva. .k (C) : i ∈ In . y. .  ∈ M (C) . a partir de la Eq. (e) Si existen A−1 y B −1 . a trav´s de la f´rmula A ⊗ B(F ) = AF B T . x ∈ Hn . . El producto tensorial de matrices verifica las siguientes propiedades: (a) Sean In ∈ Mn (C) y Ik ∈ Mk (C). . pensado como una matriz e o en Mn. En particular. 6.4) . an1 B . En particular. (d) (A1 ⊗ B1 )(A2 ⊗ B2 ) = A1 A2 ⊗ B1 B2 .3) ⊗ ej : i ∈ In . Entonces In ⊗ Ik es la identidad de Hn ⊗ Hk . ann B La verificaci´n es sumamente tediosa. . Observar que esta ecuaci´n no define a A ⊗ B en todos los elementos de Hn ⊗ Hk . entonces A−1 ⊗ B −1 = (A ⊗ B)−1 . pero o s´ lo caracteriza completamente (por ser lineal). Observaci´n 7. n n (n) (k) (n) (k) (n) (k) (n) (k) (k) (k) . j ∈ Ik } (k) es una base ortonormal de Hn ⊗ Hk . entonces A ⊗ B ∈ U(nk). si A ∈ U(n) y B ∈ U(k). . (c) (A ⊗ B)∗ = A∗ ⊗ B ∗ . (f) A ⊗ B ≥ 0 si A ≥ 0 y B ≥ 0.. vemos la f´rmula a o x ⊗ y . Se puede deducir que el conjunto En. y ∈ Hk . . u ∈ Hn . que llamaremos base can´nica. v . nk . j ∈ Ik } ∼ {Eij ∈ Mn. .  A⊗B = (7. . . Dados A ∈ L(Hn ) y B ∈ L(Hk ).1. Se usa el Teorema a u 3. para todo α ∈ C. a1n B  . .1 Producto tensorial de a dos 129 es bilineal. .7. .

a continuaci´n. . de un mismo espacio Hn . entonces los autovalores de A ⊗ B son { λ(i. Es decir. muestra que se tiene un isomorfismo natural entre (Hn ⊗ Hk ) ⊗ Hr y Hn ⊗ (Hk ⊗ Hr ). j ∈ In .j) }(i. Se sigue de que |A ⊗ B| = |A| ⊗ |B| y de la Proposici´n 7. y ∈ Hk y z ∈ Hr .2. Si los autovalores de A son la n-upla o {λ1 .j) = λi µj .. Demostraci´n.2 Potencias tensoriales 130 Luego.1.1. que el producto tensorial es asociativo. o o 7. Lamentablemente. a los tensores elementales (x ⊗ y) ⊗ z & x ⊗ (y ⊗ z) se los puede identificar con la misma funcional trilineal. con U. en ese contexto se pierde la representaci´n de las funciones o multilineales como matrices. donde λ(i. sin necesidad de aclarar el orden en que se los define. Por la representaci´n matricial de o T1 ⊗ T2 como producto de Kronecker (que queda tambi´n triangular superior. M´s a´n. ei (n) (n) · Be(k) .s∈Ik Aej . en el sentido tensorial. Usaremos particularmente la asociatividad para definir potencias. el listado de notaciones o y resultados que se siguen naturalmente (y que se prueban planarmente por inducci´n usando o lo anterior y la asociatividad): . j) involucra las filas entre k(i − 1) + 1 y ki.6. 1. el vector ei ⊗ er se ubica en el lugar k(i − 1) + r de la base can´nica.2. y los de B son {µ1 .3. todos contados con multiplicidad.. y a las columnas k(j − 1) + 1 y kj.2). e(k) s r r. . se escribe A ⊗ B(ej ⊗ e(k) ) . Damos..j)∈In ×Im contados con multiplicidad. dados x ∈ Hn . Sean A ∈ Mn (C) y B ∈ Mm (C).. Demostraci´n.j)∈In ×Im . La clave es observar que. T2 triangulares superiores. Como el bloque de k × k ubicado en el jugar (i.1. por lo que σ (A ⊗ B) = σ (T1 ⊗ T2 ) (con multiplicidades). = A sp · B sp . 2. o Esto permite definir productos de varios espacios. y de operadores en Hn . pero con los e productos λi µj en su diagonal). a menos que se quiera pensar en matrices de muchas dimensiones. A ⊗ B sp (n) (n) (n) (k) ⊗ e(k) r = r. y ordenados en forma decreciente. se obtiene la igualdad anunciada. Proposici´n 7. ei s como se afirmaba.2 Potencias tensoriales Una cuenta muy engorrosa. λn }..1. Fijemos un par o i. entonces A ⊗ B = U ⊗ V · T1 ⊗ T2 · (U ⊗ V )∗ . si A = U T1 U ∗ y B = V T2 V ∗ .. aunque elemental. identificando a ambos con las funciones trilineales en Hn × Hk × Hr . los valores singulares de A ⊗ B son a u s(A ⊗ B) = { si (A)sj (B) }(i.7. Corolario 7. Aplicando el Teorema 1 de Schur 1. V o unitarias y T1 . Sean A ∈ Mn (C) y B ∈ Mm (C). por una f´rmula semejante a (7.s∈Ik = aij B . µm }.

k c. A (x1 ⊗ x2 · · · ⊗ xk ) = Ax1 ⊗ Ax2 ⊗ · · · ⊗ Axk . (7. . llamado espacio k-tensorial sobre Hn .6) para x1 . Sean n. para x1 . x i . · · · . Si A ∈ Gl (n). αk ) ∈ Ik . Dados A ∈ L(Hm .2 Potencias tensoriales 131 7. . k k k (7. · · · . 5. 1. . Dados x1 . · · · . .2. est´ determinado por el producto de k-tensores: a k x1 ⊗ x2 · · · ⊗ xk . definido inductivamente en todo par de elementos de k Hn . k ∈ N. entonces U(n). . . por definici´n. El producto interno sobre k Hn . · · · .7. al producto tensorial de Hn k por s´ mismo k veces. Se tienen las siguientes propiedades: a. determinado por la f´rmula o k A : k Hm → k Hn . La aplicaci´n o Hk n (x1 . xk ∈ Hm . A−1 = ( k A)−1 . α2 . . o (n) e(n) ⊗ e(n) ⊗ · · · ⊗ eαk : α = (α1 . . (u1 . y1 ⊗ y2 · · · ⊗ yk = i=1 x i . α1 α2 n Luego dim k Hn = nk . n (7. . 3. k 4. . En particular k A es unitaria si A ∈ . . . yk ∈ Hn . y1 . k 7. yi . .8) A)∗ = k A∗ . (7. Todo operador A : Hm → Hn induce un operador de llamado potencia k-tensorial de A. uk ) ∈ Hk . . se define el k-tensor elemental x1 ⊗ x2 · · · ⊗ xk por la f´rmula o k x1 ⊗ · · · ⊗ xk (u1 . xk ∈ Hn . 2. Hr ).1. xk .2. Los elementos de ı Hn se pueden pensar como funcionales k k-multilineales F : Hn → C. ( k A· B.5) Luego todo elemento de k Hn es suma de k-tensores elementales. Notaremos k Hn .7) (AB) = b. . xk ) → x1 ⊗ · · · ⊗ xk ∈ k Hn es k-multilineal. Hn ) y B ∈ L(Hn . . uk ) = i=1 ui .2. La base can´nica ortonormal de o Hn es.

9) Dados x1 . λn . . · · · . o Definiremos a continuaci´n las nociones b´sicas de productos alternados o a Definici´n 7. que a o (n) Pπ (x1 ⊗ x2 · · · ⊗ xk ) = xπ−1 (1) ⊗ xπ−1 (2) · · · ⊗ xπ−1 (k) .multilineales F : Hn → C. M´s generalmente. · · · . 7.5). porque A = C ∗ C para alg´n C ∈ Mn (C). Si los autovalores de A son λ1 . si A ∈ Mn (C). .3. k A ≥ 0. . . . donde sgn(π) = ±1 de acuerdo a si π es una permutaci´n par o impar. j=1 sij (A) : (i1 .3 Productos alternados y determinantes Sea Sk el grupo sim´trico de grado k. y u k e. contados con multiplicidad. xk ) = F (xπ(1) . En particular se tiene que k k ρ A = ρ(A) k y A sp = A k sp . ik ) ∈ j=1 Ik n resp. Llamaremos espacio k-alternado (o k-´simo Grasso e k mann) sobre Hn . . entonces ⊗k A = (⊗k C)∗ ⊗k C. valores singulares) de son k k A λij : (i1 . se ve que Pπ−1 = (Pπ ) .1. . Si A ∈ Mn (C)+ . se tiene que | a A| = k |A|. . ik ) ∈ Ik n . . por la siguiente f´rmula: Si pensamos o k k a los elementos de Hn como funcionales k. . usando la f´rmula (7.7.3. Despues. . al subespacio de Hn dado por k Λk Hn = F ∈ (n) Hn : Pπ F = sgn(π) F para toda π ∈ Sk . Cada e (n) π ∈ Sk da lugar a un operador linear Pπ ∈ U( k Hn ). xπ(2) .3 Productos alternados y determinantes 132 d. se define (n) Pπ (F ) (x1 . Los elementos de o k k Λ Hn se llaman k-tensores alternados.2. . .10) Observaci´n 7. x2 . los autovalores (resp. esto es el grupo de todas la permutaciones de Ik . · · · . (n) (7. . Se considera a Λ Hn como un espacio de Hilbert con el producto interno de k Hn . Sea n ∈ N y k ∈ In . ah´ ı (n) (n) −1 si por definici´n. . xk ∈ Hn . xk ) ∈ Hk . xπ(k) ) . . x2 . (x1 . n (7. es f´cil ver. El hecho de que Pπ sea unitario se puede probar mostrando primero o (n) ∗ (n) que (Pπ ) = Pπ−1 (esto puede hacerse usando solo los k-tensores elementales). . k f.

j) ∈ Sk . entonces x1 ∧ o · · · ∧ xk = 0 (usando la transposici´n τ = (i.12) En resumen. De la f´rmula (7.5. como para todo par σ. . . . Notar que. xk ∈ Hn y π ∈ Sk . . como cada Pπ ∈ U( k Hn ). . como Λk Hn = Pn Hn .4. entonces (Pπ )∗ = (Pπ )−1 = Pπ−1 . 2. o 4. .3. si existen xi = xj con i = j. x2 . e Observaci´n 7. ya que al adjuntarlo tan solo se reordena la suma (se usa sgn(π −1 ) = sgn(π) ). . .12) puede deducirse que. esto implica que si el conjunto {x1 . . dados x1 . . (x1 . . su a u produco alternado debe ser nulo.11) En efecto. Enumeraremos aqu´ algunas propiedades de los k-tensores elementales: o ı k 1. . M´s a´n. podemos deducir que R(Pn ) ⊆ Λk Hn . a o Productos alternados y el determinante En los cap´ ıtulos anteriores se hizo uso libre de la funci´n determinante o Mn (C) A → det A ∈ C . k k Por otro lado. Definici´n 7.2. xk .3. xEsto se usar´ en la subsecci´n siguiente. xk ) → x1 ∧ · · · ∧ xk es una aplicaci´n k-multilineal alternada. o 3. . se sigue de las definiciones que xπ(1) ∧ xπ(2) ∧ · · · ∧ xπ(k) = sgn(π) x1 ∧ x2 · · · ∧ xk . . . π ∈ Sk se tiene que sgn(σπ) = sgn(σ) sgn(π) y (n) (n) (n) Pσπ = Pσ Pπ . Dados x1 . ⊗ xk ) = k 1 k! π∈ sgn(π) xπ(1) ⊗ xπ(2) · · · ⊗ xπ(k) . xk } es linealmente dependiente. es claro.3 Productos alternados y determinantes 133 Observaci´n 7. Usando el ´ ıtem 5 de 7. o 5.3.7. a partir de la definici´n de Λk Hn . Notaremos por Pn a la proyecci´n ortogonal de o o k n f´cil ver que Pk est´ dada por la f´rmula a a o Pn = k (n) k Hn sobre Λk Hn . xk ) → x1 ∧ · · · ∧ xk es k-multilineal. cuyo sgn(τ ) = −1). .1 y el hecho de que Pn es lineal. Sk (n) (n) (n) (7. . . . k Hn . . o k n k que Pk (F ) = F para toda F ∈ Λ Hn . (7. Por lo tanto (Pn )∗ = Pn . . .3. Es 1 k! π∈ (n) sgn(π) Pπ . . Finalmente. xk ∈ Hn . Sk tambi´n llamado producto alternado de la k-upla ordenada x1 . x2 . y los k-tensores elementales generan k podemos asegurar que los k-tensores alternados elementales generan Λk Hn . Por otra parte. se define el k-tensor alternado elemental : o x1 ∧ x2 · · · ∧ xk := Pn (x1 ⊗ x2 . . . podemos deducir que la k aplicaci´n (x1 .

6. A continuaci´n enumeraremos una serie de propiedades que se siguen f´cilmente de o a esta definici´n del determinante.11 o la Eq. Esto sale por que la unica diagonal sin ceros de Pσ es la producida por ´ la misma σ. 7. si exite alguna Fi (A) = 0 (o bien una columna).σ(j) ∈ C . La funci´n Mn (C) A → det A ∈ C es continua (m´s a´n. u o entonces det A = 0. 1. Empecemos por una de las definiciones. pero sale m´s directo con la a Definici´n 7. Dada σ ∈ Sn y Pσ ∈ UP (n) su matriz de permutaci´n asociada. det AT = det A y det A∗ = det A. esto est´ bastante cerca. (12. Asumimos conocida cierta teor´ b´sica de grupos de permutaciones.3) esto sucede si existe una submatriz nula de tama˜o k × r con k + r > n.3. Eso no o es incorrecto (ver el Ejercicio 7. mostrar su equivalencia. Ac´ se usa solamente que sgn(σ −1 ) = sgn(σ). Sea A = (aij )i. Por ejemplo (usando el Teorema 4.σ(j) = 0 para toda σ = Id. 7. entonces det T = i∈In Tii .j∈In ∈ Mn (C).4). Sin embargo. Si T ∈ T S(n).6. Definimos su determinante por la f´rmula o o n det A = σ∈ Sn sgn(σ) j=1 aj. det I = 1.3. 5.3 Productos alternados y determinantes 134 y de sus conocidas propiedades. Si todas las diagonales de A tienen alg´n cero (en el sentido de la Definici´n 4. por lo que ıa a trataremos de dar las dos definiciones usuales. entonces se tiene que o det Pσ = sgn(σ). (4. porque la unica diagonal sin ceros de T (si es que hay una) es la o ´ producida por σ = Id. ya que el sumando j=1 Ij.3. como se ve en la Eq. porque es un asunto complicado y poco amigable. Las pruebas que no est´n escritas deben considerarse como o e ejercicios: Sea A ∈ Mn (C). Por lo tanto. Esto se ha usado sistem´ticamente en los a cap´ ıtulos anteriores. lo que se usa para definir el polinomio caracter´ ıstico de una matriz). y dar pruebas de sus propiedades m´s importantes.2).13) Con la misma f´rmula se define el determinante de matrices a coeficientes en cualquier anillo o (como en C[X].5. en esta secci´n supondremos que nos olvidamos lo a o que sabemos (y hemos usado) al respecto.3. n 4. y se lo justific´ “desarrollando” por la primera columna. debido a o a u que es un polinomio de grado n en los coeficientes de A. (7. ıa a Definici´n 7. es de clase C ∞ ). En particular.7. 3. a n 2. con la teor´ de productos alternados a mano. . entonces det A = 0.6. Dar una exposici´n completa y formal de dichos resultados o es algo que uno siempre trata de evitar.13) ).3. como hemos hecho hasta ahora.7.

7) y (7.3 Productos alternados y determinantes 135 Para dar la segunda definici´n y probar las principales propiedades del determinante. Sea A ∈ L(Hn . yσ(i) = i=1 1 det k! x i . yj i. .3. . si D x1 ∧ · · · ∧ xk . k Definici´n 7. yσ(1) ⊗ · · · ⊗ yσ(k) k! σ∈S k 1 sgn(σ) = k! σ∈S k k xi . (7. k (7. Λk Hm ) .3.3. . la k-potencia exterior Λk A est´ determinada por la o a f´rmula: o Λk A (x1 ∧ x2 ∧ · · · ∧ xk ) = Ax1 ∧ Ax2 ∧ · · · ∧ Axk .3. y1 ∧ y 2 ∧ · · · ∧ y k = 1 det k! x i . (7. La restricci´n de o o es llamada la k-potencia exterior de A.11). y1 .13) para el determinante es lo siguiente: o Proposici´n 7. Pn y1 ⊗ · · · ⊗ yk k k k 1 = sgn(σ) x1 ⊗ · · · ⊗ xk .3.7) y la Observaci´n 7.14) Demostraci´n. por la f´rmula (7.j∈Ik . xk en Hn . donde la segunda igualdad surge de que Pn es un proyector autoadjunto. . k Potencia alternada de una matriz Observaci´n 7. Por las ecuaciones (7. . Es consecuencia de las ecuaciones (7. . .6) y (7. Entonces.10. v´ la Definici´n 7. necesio tamos desarrollar un poco la teor´ de productos alternados. En efecto. Entonces o x 1 ∧ x 2 ∧ · · · ∧ x k .15) Por lo tanto A Λk Hm ⊆ Λk Hn . Sean x1 . La relaci´n clave entre estos y ıa o la f´rmula (7. . . .16) para toda k-upla x1 . entonces D = Pn x1 ⊗ · · · ⊗ xk . yk ∈ Hn .11). Pn y1 ⊗ · · · ⊗ yk = x1 ⊗ · · · ⊗ xk . yj i.9. y denotada por Λk A ∈ L(Λk Hn . . (7. su k-potencia o (n) (m) tensorial “mezcla” Pπ y Pπ en el siguiente sentido: k (n) Pπ k A = k (m) A Pπ para toda π ∈ Sk . .8.6 para o ıa o el determinante. xk .j∈Ik . Hn ). o Pn k k A mezcla las proyecciones Pn y Pm : k k k k A = A Pm .7.5. . Hm ). A al espacio alternado Λk Hn Por la Eq. si A ∈ L(Hm .10). y1 ∧ · · · ∧ yk .

α2 .3. α ∈ Qk. Λk A es unitaria si A ∈ U(n).3 Productos alternados y determinantes 136 Observaci´n 7. usaremos la abreviaci´n: o e∧ = e(n) α α ∧ (n) := eα1 ∧ e(n) ∧ · · · ∧ e(n) ∈ Λk Hn . Por otro lado.15) dice que Λk Hn reduce a k A. k 2. la Eq. Cuando α = β. llegamos a que Ek.11. De ahi se deducen 0 ∗ Λk Hn f´cilmente las siguientes propiedades: a a. .13. se o sigue de (7. entonces Λk (AB) = Λk A · Λk B y (Λk A)∗ = Λk A∗ . Λk A−1 = (Λk A)−1 . o Proposici´n 7. Otra manera de verlo es Qk.3. Si In es la identidad de Hn . por lo que se Λk Hn Λk A 0 k tiene una identidad matricial del tipo A = ⊥ . Sean A ∈ Mn. (7. si pensamos a los conjuntos J   ordenados en forma creciente.n . por la Proposici´n 7.n | = n k (7.5 (la Eq. Sea n ∈ N y k ∈ In . Λk A ≥ 0 si A ≥ 0. A[α|β] se abreviar´ como A[α].m . Si α = In (resp. El conjunto o √ ∧ Ek. Entonces denotaremos por A[α|β] a la submatriz de k × l de A dada por A[α|β] = Aαi βj (i. tenemos que dim Λk Hn = |Qk. a Definici´n 7. i. si A ∈ L(Hn . (7. α β ∧ Finalmente. β ∈ o Qk.n | = n .12) permite ordenar las coordenadas). es f´cil ver que la matriz eαi .16) que.n } α es una BON de Λk Hn .m (C).n = { k! e∧ : α ∈ Qk. A[α|β] = A[α|−]).n al conjunto de sucesiones estrictamente crecientes de k enteros elegidos en In : Qk.17) Cuando n = m. Dada α ∈ Qk. El hecho de que Ek.n es una BON.3. Adem´s |Λk A| = Λk |A|.n no son iguales. β = Im ). α2 αk A continuaci´n veremos que forman una BON de Λk Hn . entonces Λk In = IΛk Hn . αk ) ∈ Ik : 1 ≤ α1 < α2 < · · · < αk ≤ n n . se tiene que e∧ . como det Ik = 1.n y β ∈ Ql.8 y el ´ u / o ıtem 4 de 7. ∧ Demostraci´n.j∈I debe tener una fila nula (la de a k alg´n αi ∈ β). A ∈ L(Hn ).n genera Λk Hn se deduce de los ´ o ıtems 1. o 1. Luego.e. b. e∧ = 0.3. si α.8) o de (7. Por otra parte.12. Hr ). eβj i. Por lo tanto. (7. Hm ) y B ∈ L(Hm .7. Luego |Qk. 2 y 3 de la Observaci´n 7.3. Notamos por Qk.7.l (C) .3. · · · .n = α = (α1 .18) . 3. c. Si A ∈ Gl (n).j)∈Ik ×Il ∈ Mk. notaremos a A[α|β] = A[−|β] (resp.n = J ⊆ In : |J| = k .

entonces a = a.3.20) En efecto. ´ Determinantes Miremos qu´ es Λn Hn . se tiene que Λk A α.3. si tomamos la matriz X ∈ Mn (C) dada por Fi (X) = xi . eαi = Aαi βj .n . Si en la Proposici´n 7. (7.8 muestra que es equivalente o a la de diagonales y permutaciones.21) Observar que esto brinda un camino directo para probar la igualdad det AB = det A · det B.14.3. eαi i. . en el sentido de que X → det X es la o o unica funci´n n-multilineal alternada (en las filas de X) tal que det In = 1 (esto vale porque la ´ o matriz X asociada a e1 ∧ · · · ∧ en es X = In ). Gl (n) es abierto y denso en Mn (C). ej = Xij . . a ıa o Proposici´n 7.3. en · en . e identificamos L(Λn Hn ) con C o (v´ zI → z). det AB = det A · det B. Entonces se tiene que o 1.3. para todo par i. Dados x1 .13 asegura que el vector en = n! eIn = n! e1 ∧ e2 ∧ · · · ∧ en es una BON de Λn Hn .m .β = Λk A √ k! eβ . eβ α = det A[α|β] . Como√n es el unico elemento de Qn. Sean A. (7.7. . . De acuerdo a las ecuaciones (7. ya que xi . Ah´ podemos aplicar la ı Proposici´n 7. xn ∈ Hn . o La f´rmula (7. o 3.3.β = det A[α|β] . se tiene que o Λk A α.m (C). La Proposici´n 7.m y Ek.15.6. tenemos que ıa Λn A = det A para toda A ∈ Mn (C) .14 consideramos el caso k = n = m. o sea el caso k = n. B ∈ Mn (C).14) y (7. (m) √ k! e(n) = k! Λk A eβ .n .8. o O sea que Λn Hn = C · en .20) es la segunda definici´n para el det X. Identifiquemos Λk A ∈ L(Λk Hm . 2. det A = 0 si y s´lo si A ∈ Gl (n). queda √ n! x1 ∧ x2 ∧ · · · ∧ xn = det X · en . Sea A ∈ Mn. la Proposie I ´ √ ∧ ci´n 7.n y β ∈ Qk. (m) (n) = det Aeβj . que no se ve tan f´cil v´ la Definici´n 7.3. (7.19) Demostraci´n.3 Productos alternados y determinantes 137 Proposici´n 7. Λk Hn ) con su o ∧ ∧ matriz en las bases Ek.18).j∈Ik donde la ultima igualdad se sigue de que Aeβj . j ∈ In . . Dados α ∈ Qk. si abreviamos a = x1 ∧ · · · ∧ xn .

n . n vectores linealmente independientes.4. xi i.22) da otra prueba de que rk A = rk A. sea o k ≤ m´ ın{n.3. La segunda parte se deduce inmediatamente de la o primera.k dada por Ci (X) = xi . Como A → det A es continua. Esto. . porque en Hn puede haber. a lo sumo. es el rango columna de A. por la Proposici´n 7.16. Lo primero se deduce de que Λn AB = Λn A · Λn B v´ la f´rmula (7.3 de m´s adelante).j∈Ik =⇒ det X ∗ X = k! x1 ∧ x2 ∧ · · · ∧ xk 2 . . . xk } ⊆ Hn es linealmente independiente si y s´lo si el producto o alternado x1 ∧ x2 ∧ · · · ∧ xk = 0.m (C) . (7. Sean k. el item 2 implica que Gl (n) = det−1 {z ∈ C : z = 0} es abierto en Mn (C). o Demostraci´n.7. . Observaci´n 7. Cm (A)} . .23) . 1. como asegura 7.r (C) y B ∈ Mr.r det A[α|ω] det B[ω|β] . a su ves. xj i. Recordemos que. Sea X ∈ Mn. .3 Productos alternados y determinantes 138 Demostraci´n. Pero. tenemos que o X ∗X = x j . El siguiente resultado generaliza la Proposici´n 7.17. .3. equivale a que X ∗ X ∈ Gl (k) o ∗ (porque ker X X = ker X).20) y el ultimo punto de la Observaci´n 7.3.3. el α Corolario 7. (7. Luego se aplica la Eq. i ∈ Ik .3.16 muestra que rk A = m´x{k ∈ N : Λk A = 0} a (7.3. El espacio Λk Hn = {0} si y s´lo si k ≤ n. Si A ∈ Gl (n). Como Λk A (e∧ ) = Cα1 (A) ∧ · · · ∧ Cαk (A). tenemos que det A · det A = det In = 1 = 0. Luego {x1 . β ∈ Qk.m (C) decimos que o rkA = dim R(A) = dim Gen {C1 (A).15 a determinantes de submatrices: o Corolario 7. pero sale m´s f´cil viendo que. . n ∈ N. Usando que Λk A∗ = (Λk A)∗ . m}. x2 . . Luego aplicamos la Proposici´n 7. Dadas A ∈ Mn.3.7. xk } es o linealmente independiente si y s´lo si ker X = {0}. .m se tiene que det(AB)[α|β] = ω∈Qk. a a existen matrices A + εI ∈ Gl (n) para ε arbitrariamente peque˜o. entonces sus / columnas deben ser un conjunto linealmente dependiente (porque ker A = {0}).15. Un conjunto {x1 .3.j∈Ik = x i . y el hecho de ´ o que det A = det AT . La densidad podr´ probarse usando ıa la multilinealidad de A → det A.m . Luego. para todo α ∈ Qk.3. . x2 .18 (F´rmula de Cauchy-Binnet). 2. para cada par α ∈ Qk.21).22) (ver tambi´n el Corolario 7. para cualqueir A ∈ Mn (C).8. r. Si o ıa o −1 A ∈ Gl (n). si A ∈ Mn. n Corolario 7.5 a la matriz AT . la f´rmula e a o ∗ (7. .

18.3. Proposici´n 7. Luego basta probar que det λC + (1 − λ)I ≥ (det A)λ (det B)1−λ det B −1 = (det A)λ (det B)−λ = (det C)λ .3. Es decir.7.24) que resulta de operar con todas las submatrices cuadradas de tama˜o m´ximo de A (eligiendo n a columnas) y de B (eligiendo las mismas filas).3.17) y la Proposici´n 7.20.r det A[α|ω] det B[ω|β] . la aplicaci´n Gl (n)+ o A → log det A es c´ncava. con lo cual el resultado quedar´ probado. Tambi´n vale la rec´ e ıproca.14. o ∗ podemos llamar µ(C) = µ(B −1/2 AB −1/2 ) ∈ R+n . En efecto. la funci´n f (t) = ct es convexa en todo R. dado c > 0. −] ∈ Mk. Aplicando lo anterior a cada c = µi (C). Por la ley de multiplicaci´n (7. con k ≤ r. Observaci´n 7.18. veremos que λµi (C) + 1 − λ ≥ µi (C)λ para cada i ∈ In .3. Adem´s. det AB = ω∈Qk. β] ∈ Mr. Es claro que (7.3.r (C) y B ∈ Mr. por lo que (7. La versi´n m´s cl´sica de la F´rmula de Cauchy Binnet es la siguiente: o o a a o Sean A ∈ Mk. .r det A[−|ω] det B[ω|−] .r . Luego. Sean A. basta ver que n n λµi (C) + 1 − λ ≥ i=1 i=1 µi (C)λ . tenemos que o o o det(AB)[α|β] = (Λk AB)αβ = Λk A · Λk B = ω∈Qk. Sea C = B −1 A. ω ∈ Qk.19.24) para A0 y B0 . Notar ıa o que f (0) = 1 y f (1) = c. Finalmente. las matrices A0 = A[α.24) se deduce del Corolario 7.k (C) .r (C) y B0 = B[−.k (C) cumplen que A0 B0 = (AB)[α|β] . B ∈ Gl (n)+ y λ ∈ [0.3 Productos alternados y determinantes 139 Demostraci´n. (7.r αβ Λ A k αω Λ B k ωβ = ω∈Qk. Como σ (C) = σ B −1/2 AB −1/2 (con multiplicidades). o Demostraci´n. porque dadas A y B como en el Corolario 7. Entonces o det λA + (1 − λ)B ≥ (det A)λ (det B)1−λ . a det λA + (1 − λ)B = det B λB −1 A + (1 − λ)I = det B det λC + (1 − λ)I . Por lo tanto λc + 1 − λ = λf (1) + (1 − λ)f (0) ≥ f (λ1 + (1 − λ)0) = f (λ) = cλ . En otras palabras. 1]. A0 [−|ω] = A[α|ω] y B0 [ω|−] = B[ω|β] . lo que prueba lo afirmado.23) para A y B se reduce a (7. obtenemos el resultado.

Sea T ∈ T S(n). De paso. si J ∈ Qk. puesto que T [J] ∈ T S(k). J] no tiene ninguna diagonal sin ceros. Por otra parte. . ordenada lexicogr´ficamente. para U ∈ U(n) tal que U HU ∗ = 2 no cambia.3. ıa a αi > βr para todo par (i. . hacer un cambio de variables diag (µ(H)). πn = det H e− Hx.21.1. u ∧ 1. λn en su diagonal. . Como U es unitaria. Si I = (α1 . J ∈ Qk. αk ) o y J = (β1 . debe existir alg´n j ∈ Ik tal que u αj > βj (sino valdr´ que I ≤ J en el lexicogr´fico). Demostraci´n. Para cada J ∈ Qk. .3. Luego usar que Rn e−at dt = es integrable en Rn (notar que el cambio mismo para matrices complejas? 2. por la Proposici´n 7. Debemos probar que o (Λk T )IJ = det T [I. 1.4.4 Propiedades utiles de los productos alternados ´ 140 Ejercicio 7.3.n . o o 7. Como T ∈ T S(n).20 usando lo anterior (y la desigualdad de H¨lder ! ). · · · . esto prueba que e− Hx. J] = 0 . . Aplicando K¨nig-Frobenius (Corolario 4. .n . Esto implica que det T [I.3. ¿Vale lo y = U x. si bien es algo t´cnico. tenemos que Tαi βr = 0 para todos esos pares. triangular superior.x de variables manda bolas en bolas). . tambi´n. como se afirm´. e 2. Sea k ∈ In .7. r) tal que 1≤r≤j≤i≤k.n de la Eq. (7. Entonces. J] = 0. con los n´meros λ1 . .18). En t´rminos de la BON Ek.3. se tiene que (Λk T )JJ = i∈ J λi . n o deducimos que T [I. Por lo tanto.3).14. Probar la Proposici´n 7. J] tiene una submatriz nula de tama˜o (k − j + 1) × j. Es decir que T [I.4 Propiedades utiles de los productos alternados ´ El siguiente resultado. . la integral π 1/2 a−1/2 . la matriz de e a k Λ T es. Rn Para probarlo. βk ) (vectores ordenados en forma creciente). Sean I.x dx . Sea H ∈ Gl (n)+ (en principio real). es la llave para la caracterizaci´n completa de e o los autovalores de un producto alternado: Lema 7.n tales que I > J. donde la primea igualdad sabemos que es cierta por la Proposici´n 7.14 sabemos que o o (Λk T )JJ = det T [J] = i∈ J λi .

4. Demostraci´n.2.4. −→ −→ m→∞ m→∞ 2. A2 = A). para todo r ∈ R+ se tiene que (Λk A)r = Λk (Ar ) .n . . . Proyector (i.4. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 (A). . . ı d. A2 = A = A∗ ). c. Demostraci´n. Sea A ∈ Mn (C). Adem´s.4. contados con multiplicidad.4.. Proposici´n 7. λn (A) ).1.4. Si A ∈ Mn (C)+ entonces. Si Am − − A.e. Corolario 7. Entonces los valores singulares de Λk A son s Λk A = sJ Λk A J∈Qk. . pero usando ahora el Lema 7.e. . Entonces los autovalores de Λk A est´n dados por a λJ (Λk A) = i∈ J λi (A) . Autoadjunto. entonces Λk Am − − Λk A.. o A continuaci´n veremos algunas propiedades funtoriales de los productos alternados. normal o unitario.1.4 Propiedades utiles de los productos alternados ´ 141 Teorema 7. entonces Λk A es del mismo tipo.2 y del hecho de que Λk A = Λk |A|. Sea A ∈ Mn (C) y k ∈ In . Idempotente (i. Si A es alguna de estas cosas: a. y ordenados en forma decreciente. si ordenamos a los a autovalores λ1 (A). λn (A) de A con m´dulos decrecientes. Sea k ∈ In . que ser´n o a necesarias para las aplicaciones a desigualdades. Sea k ∈ In .n = i∈ J si (A) J∈Qk. AA∗ y A∗ A son proyectores). b. . contados con multiplicidad. Isometr´a parcial (i. .1 y el hecho de que Λk U es unitaria si U ∈ U(n). Se deduce del Teorema 7. o 1. 3. Es similar al caso de los productos tensoriales (Proposici´n 7.7. J ∈ Qk. Se aplica el o o Teorema 1 de Schur 1. se tiene que o k k ρ Λk A = i=1 |λi (A)| y Λk A sp = s1 Λk A = i=1 si (A) .n .3.e..2). .6.

Como Λk U es isometr´ parcial.5 Ejercicios Ejercicios del texto 7.5. ıa entonces (7. entonces Λk A = Λk U Λk |A| es una descomposici´n polar de Λk A. tenemos que o (Λk Am )αβ = det Am [α|β] − − det A[α|β] = (Λk A)αβ . Ya hemos visto (o podemos deducir de lo anterior) que |Λk A| = Λk |A|.11.). Por la f´rmula (7. .3). para todo α ∈ C.19). 7.7.1) y (7.5 Ejercicios 142 4.n .1. por lo que la funci´n B → det B es continua. y en Hn ⊗ Hk = se usa el producto escalar definido en las Eqs.25) es una DP de Λk A. para todo par α. Como (Λk A)2 = Λk (A2 ). (A1 ⊗ B1 )(A2 ⊗ B2 ) = A1 A2 ⊗ B1 B2 . 3. el caso general se obtiene por continuidad (y el item 1. (A ⊗ B)∗ = A∗ ⊗ B ∗ . 3. o Demostraci´n. basta notar que si m ∈ N − {0} entonces: (Λk A1/m )m = Λk [(A1/m )m ] = Λk A . o 1. Todas estas propiedades se deducen directamente de las propiedades vistas en la Observaci´n 7. Finalmente. (7. 1.25) Observar que el determinante de una matriz es un polinomio en sus entradas. Si A = U |A| es una DP de A.3. o 2. 2. o 4.25) se tiene que cumplir a partir de que A = U |A|. Entonces In ⊗ Ik es la identidad de Hn ⊗ Hk . es claro que tambi´n vale si o e r ∈ Z. Recordando que (Λk A)−1 = Λk (A−1 ). −→ m→∞ (7. (αA1 + A2 ) ⊗ B = α(A1 ⊗ B) + A2 ⊗ B. la veracidad del enunciado cuando r ∈ N se deduce a trav´s de e una simple inducci´n. y la igualdad (7. 4. Probar que el producto tensorial de matrices verifica las siguientes propiedades: Fijemos A ∈ Mn (C) y B ∈ Mk (C). β ∈ Qk. Se considera que A ⊗ B ∈ L(Hn ⊗ Hk ) ∼ Mnm (C). Para extender el resultado a los r ∈ Q. Sean In ∈ Mn (C) y Ik ∈ Mk (C).

|A ⊗ B| = |A| ⊗ |B|.8.6 de una (esto es parte del Ejercicio anterior). Probar que det Pσ = sgn(σ) de las tres maneras propuestas: o 1. Usando que Pσ tiene filas Fi (Pσ ) = eσ(i) .5.3.5. La f´rmula (7. si A ∈ U(n) y B ∈ U(k). (7. definida en la Obsero vaci´n 4.3. y que la flecha σ → det Pσ es un morfismo.7. (4. probar los 5 items (n) 7. Dados n.10.2.1. Si existen A−1 y B −1 .1. Probar las siguentes propiedades: 1. Mostrar que Pπ (n) (n) ∈ L( k Hn ). 7.5. Dar los detalles de las pruebas de los 5 items de la Observaci´n 7.5. entonces det Pτ = −1.3. k Hn . Sk 7.2. Probar que Gl (n) es denso en Mn (C). Se usa el Teorema 3. Completar los detalles de la prueba de la Eq.5. en los tensores elementales. Mostrar que si τ ∈ Sn es una trasposici´n.6.5.3) ).4).9. En particular.4. y usar que sigma es o producto de trasposiciones.12) y (7.1 y los 6 de 7. Ejercicios nuevos 7.3.7.7 (sobre determinantes). Sea σ ∈ Sn y Pσ ∈ UP (n) su matriz de permutaci´n asociada.2. mostrar que (Pπ )∗ = Pπ−1 = (Pπ )−1 . tomemos el operador de permutaci´n Pπ o definido en la Eq. Hacer el Ejercicio 7. (7. Probar todos los resultados enunciados en la Observaci´n 7. y aplicando luego las ecuaciones (7. k ∈ N y π ∈ Sk . . 7. Sea Pn la proyecci´n ortogonal de o k demostraci´n de la Eq.5. entonces A ⊗ B ∈ U(nk).5. 3. Usando la Definici´n 7. Completar los detalles de la definici´n inductiva del espacio o de 7. 6.3 y a u la unicidad de la raiz cuadrada positiva. Probar los 7 items de 7.11): o Pn = k Hn sobre Λk Hn . o 2.21. sobre las propiedades o de las k-potencias alternadas (o exteriores) de matrices.5. M´s a´n.3.20).5.5.11. sobre las o propiedades de los k-tensores elementales. (n) (n) (n) es untario. 7. (7.5 Ejercicios 143 5. 7. a u k 3.3. Completar los detalles de la 1 k! π∈ (n) sgn(π) Pπ . 7.10) sobre como act´a Pπ o u 2.9).5. A ⊗ B ≥ 0 si A ≥ 0 y B ≥ 0.2. 7. M´s a´n. entonces A−1 ⊗ B −1 = (A ⊗ B)−1 . i ∈ In (por la Eq.

. . Sea F : Mn (C) → R+ dada por F (C) = i f (si (C)). n 4. . o sea F (A + B) ≤ F (A) + F (B). . s(B)) (s(|A| + |B|). para A ∈ Mn (C). 7.26) Se sugiere usar la multilinealidad de B → det B (tanto para filas como para columnas) y calcular det B en el caso de que alguna fila o columna de B est´ en la base can´nica de Cn . Si z ∈ C.11. det(I + |A + B|) ≤ det(I + |A|) det(I + |B|).5. 6. . Alguna otra que se les ocurra. .  . desarrollando por alguna fila o columna de A. B ∈ Mn (C). det(I + zA) = k=0 z k tr(Λk A).7.  ∈ Mn (C) .13. . . Probar: 1. . 0) en R2n . .  1 t2 .12.13). 1 tn . . (7. 0) en R2n . . | det(I + A)| ≤ det(I + |A|). | det(I + A + B)| ≤ det(I + |A|) det(I + |B|). (12. o 3. 7. (s(A). . tn ) ∈ Cn .j∈In . Demostrar el algoritmo usual para calcular det A. o 7. por lo que V (t) ∈ Gl (n) si los ti son todos distintos. (s(A). . s(B)) 2. Sea t = (t1 . w (s(A + B). i  . 8. i. 7. . 5.  V (t) = tj−1 = . . Se llama matriz de  1 t1 . Probar que det V (t) = i<j Vandermonde de t a  n−1 t1 n−1 t2   .5. e o Otra opci´n es esperar hasta la Eq. Sean A.5 Ejercicios 144 4.. Por ejemplo la fila r-´sima: e det A = i∈In (−1)r+i Ar. para una f : R+ → R+ c´ncava tal que f (0) = 0. Probar que F es subaditiva.5. i det A(r| i) . PA (x) = xn + n−1 k=0 (−1)n−k tr(Λn−k A) xk .. n−1 tn (tj − ti ) .

per In = 1. tenemos que (n) Pπ (x1 ⊗ x2 · · · ⊗ xk ) = xπ−1 (1) ⊗ xπ−1 (2) · · · ⊗ xπ−1 (k) .j∈Ik . j) ∈ I × J. definimos su permanente por la f´rmula o n per A = σ∈ Sn j=1 aj. 3.7. . . 4. . Probar que. . y)|2 ≤ det G(x. Si B. . xk ∈ Hn y π ∈ Sk . pero sin signos negativos. yj i. Los elementos de ∨k Hn se llaman k-tensores sim´tricos. . . .σ(j) ∈ C . . Deducir que si A ∈ DS (n). .14. dados x1 . (7. xk . x) det G(y. . Llamaremos espacio k-sim´trico sobre Hn . y1 . yk ∈ Hn . yj i. . ∈ Mk (C) a la matriz que se us´ en el Ejercicio anterior. . . mostrar que per A = 0 ⇐⇒ existen subconjuntos I. xk ∈ Hn . . y 1 ∨ y2 ∨ · · · ∨ yk = 7.j∈Ik 1 per k! x i . .5. Se considera a ∨k Hn como un espacio e de Hilbert con el producto interno de k Hn . Dados x1 .5. Dados x1 . es decir que aij = 0 para todo par (i. y) . Probar que x1 ∨ x2 ∨ · · · ∨ xk . y1 . entonces per A = 0. . En particular. probar que 0 ≤ per C ≤ per B. entonces per T = i∈In Tii .5. . yk ∈ Hn . si T ∈ T S(n).27) Es decir que es como el determinante. . Sean x1 . Recordemos que. Si A 0. C ∈ Mn (C)+ cumplen que C ≤ B. Dada A ∈ Mn (C). 2. xk . 7. 1. J ⊆ In tales que |I| + |J| > n y la submatriz AIJ ≡ 0.15. n ∈ N.5 Ejercicios 145 Productos sim´tricos e Sean k. Dado k ∈ In . .16. Sk 7. . y) = x i . se define el k-tensor sim´trico elemental: e x1 ∨ x2 · · · ∨ xk := 1 k! π∈ xπ(1) ⊗ xπ(2) · · · ⊗ xπ(k) ∈ ∨k Hn . Probar que | det G(x. o 1. . llamemos G(x. . . al subespacio de k Hn dado por e k (n) (n) (n) ∨ Hn = k F ∈ (n) Hn : Pπ F = F para toda π ∈ Sk . donde Pπ es un operador unitario que cumple (Pπ−1 ) = (Pπ )−1 .

Tambi´n que |per G(x. per A ≥ det A (se sugiere usar el teorema de Cholewsky. Sea A ∈ Gl (n)+ . Deducir que. Llamemos ri = tr(Fi (A) ) . Probar que sn · per A ≥ n! · ij∈ In i ∈ In y s = r1 + · · · + rn = A1 . y)|2 ≤ per G(x. (Otro teorema de Schur) Si A ∈ Mn (C)+ .5 Ejercicios 146 2. 7. e 3.17.k (C). 1 . Traducir a que si A.5. Corolario 3. x) per G(y. y) . B ∈ Mn. si A ∈ DS (n) ∩ Gl (n)+ . entonces per A ≥ n! n−n . . 2. 1. |ri |2 .1.5).7. entonces |per A∗ B|2 ≤ per A∗ A per B ∗ B 4.

entonces A ◦ B ∈ Mn (C)+ .2 o Corolario 8. . Dadas A.5 o Definici´n 8. T ∈ L(Hn ⊗ Hn ) . entonces A ◦ B > 0.1 Propiedades b´sicas a Recordemos algunas nociones adelantadas en la Secci´n 3.Cap´ ıtulo 8 Producto de Hadamard 8.4.1. si A > 0 y B > 0. Proposici´n 8.2 (Teorema 2 de Schur).1. Sean A. Sea S = Gen {ei ⊗ ei : i ∈ In } ⊆ Hn ⊗ Hn . entonces 1. Adem´s. a Demostraci´n.1. Sean A. Ya fue demostrado en 3.m (C) . B ∈ Mn (C)+ . A ◦ B = µ1 (A ◦ B) ≤ µ1 (A)µ1 (B) = A Demostraci´n.3.m (C) se define el producto de Hadamard A ◦ B como o la matriz A ◦ B = aij bij i∈In ∈ Mn.1. j∈Im Notar que este producto tiene sentido tanto para matrices como para vectores. Teorema 8. Entonces. B ∈ Mn. Identificaremos L(S) con o Mn (C) en la manera obvia. µn (A)µn (B) ≤ µn (A ◦ B). B . dados A. o Ahora empezamos a mostrar novedades sobre el producto de Hadamard. 2. B ∈ Mn (C)+ . Definamos el operador lineal Φ : L(Hn ⊗ Hn ) → Mn (C) dado por Φ(T ) = TS .6. se verifica que Φ(A ⊗ B) = A ◦ B . B ∈ Mn (C). Ejercicio.1.

3. y ∈ Cn de vectores unitarios. mientras que A−1 ◦ B −1 lo es de A−1 ⊗ B −1 = (A ⊗ B)−1 . . Sean A. Entonces o A◦B sp ≤ C(A)F (B) ≤ A sp B sp . . y | : x = y = 1 .6. F (A)2 = AA∗ ◦ In sp . En efecto. Representemos A ⊗ B como producto de Kronecker.1. o Proposici´n 8. 2). Se deduce de la Observaci´n 8. (2.3.1. 1).j = i. .1.1. tambi´n. Demostraci´n.j (aij xj ) (bij yi ) |bij |2 |yi |2 (por Cauchy-Schwarz) |bij |2 j 2 ≤ = j i. Para cada par x ∈ Cm . es f´cil ver que. como se afirmaba.5.7). esto es un caso particular del Corolario 6. y F (A) ≤ A Proposici´n 8. (n. el resultado est´ demostrado. A ◦ A−1 ≥ I ≥ (A ◦ A−1 )−1 . caracterizarse por las f´rmulas u e o C(A)2 = A∗ A ◦ Im Por lo tanto C(A) ≤ A sp sp sp y .8. como en la Observaci´n o o 7. y 2 2 2 = i. Entonces se verifica que o 1. Dada A ∈ Mn. B ∈ Mn. se tiene que o A ◦ B x. B ∈ Gl (n)+ . ya que que A ◦ B o o o es una submatriz principal de A ⊗ B. n) ⊆ In × In .1.12.m (C).8. . si tomamos o a α = (1.1. entonces Φ(A ⊗ B) = (A ⊗ B)S = (A ⊗ B)[α] = A ◦ B .7. Demostraci´n. con |J| = k.1. Con las notaciones de submatrices de la Definici´n 7. (A ◦ B)−1 ≤ A−1 ◦ B −1 .j aij bij xj yi |aij |2 |xj |2 i.7 (o de la Proposici´n 3. Sean A.m (C). a a Observaci´n 8.8. llamaremos o C(A) = m´x Ci (A) a i ∈ Im 2 y F (A) = m´x Fi (A) a i ∈ In 2 . = m´x | A ◦ B x. Sean A ∈ Gl (n)+ y J ⊆ In . . Luego se tiene que o A[J] = (aij )i.4.j |xj |2 i 2 2 |aij |2 i |yj |2 2 ≤ C(A) x Como A ◦ B sp F (B) y 2 = C(A) F (B)2 . 2.7 y de la Proposici´n 8. Notar que estos n´meros pueden. Definici´n 8.1. para los mismos ´ ındices.j∈ J ∈ Gl (k)+ y A−1 [J] ≥ A[J]−1 .1 Propiedades b´sicas a 148 Demostraci´n.

Notar que (Mn (C). ın En el caso de que N sea la norma espectral. Sea A ∈ Mn (C).6.1. y A ◦ B ≤ F (A)C(B) ≤ F (A) B . para cualquier A ∈ Mn (C). Algo m´s complicado es probar que. . donde se identifica a Mn (C) con Mn (C) a trav´s de la aplicaci´n C → ϕC = tr( · C t ) e o (ver los Ejercicios 5.2. 2. a i. y definamos el operador de multiplicaci´n o o Fijada una norma N en Mn (C). N ) es un espacio de Hilbert. Fijemos A ∈ Mn (C).2 La norma de un multiplicador Hadamard MA : Mn (C) → Mn (C) dado por MA (B) = A ◦ B . de la Proposici´n 8.3.6 se puede deducir que o KA ≤ m´ C(A). An´logamente. 1. entonces m´x |aij | ≤ KN (A) . y KN (A) = MA sp . escribiremos KA en lugar de K · sp (A). Por otra parte. Esto ultimo se deduce de la identidad ´ tr (A ◦ B)C t = i. a i.j En efecto. Observaci´n 8. Si N = · 2 (la norma de Frobenius). tenemos que A ◦ B ≤ C(A)F (B) ≤ C(A) B ya que Ci (B) 2 sp .1. denotaremos KN (A) a la norma inducida para MA : KN (A) = m´x N (A ◦ B) : B ∈ Mn (C) es tal que N (B) = 1 a = m´ k ≥ 0 : N (A ◦ B) ≤ k N (B) para toda B ∈ Mn (C) .j∈ In A ∈ Mn (C) . j ∈ In se tiene N (A ◦ Eij ) = |aij |N (Eij ) = |aij | y N (Eij ) = 1 . B ∈ Mn (C) .2. entonces KN (A) = m´x |aij | . F (A) ≤ A ın En efecto. notar que para todo i. y que el operador “adjunto” de MA es el mismo MA .j∈ In aij bij cij = tr B(A ◦ C)t . a K · 1 (A) = KA .6.2. Definici´n 8. a Ejercicios 8. para la norma espectral.29 al 5. F (B) ≤ B .8. MA es un operador diagonal.33) . = Bei ≤ B para todo i ∈ In . pensada en los valores singulares). Debe usarse que · 1 es la norma “dual” de la espectral (esto es del mismo tipo que ( 1 )∗ = ∞ . notar que para toda B ∈ Mn (C). Si N es una norma unitariamente invariante tal que o N (E11 ) = 1.2 La norma de un multiplicador Hadamard 149 8.2.

PM ≤ Conjugando con F = C(D)2 I M ◦ A (M ◦ A)∗ C(B)2 I = RM . Por el Teorema 8. o sea ≤ 1 =⇒ M ◦A ≤ C(D)C(B) . ∈ M2n (C)+ . i ∈ In .3 Funcionales positivas 150 Teorema 8. Corolario 8.2. Entonces KA = m´x{Aii : i ∈ In }. Por ende. sp F RM F = I C(D)−1 C(B)−1 (M ◦ A) C(D)−1 C(B)−1 (M ◦ A)∗ I sp Esto nos dice que C(D)−1 C(B)−1 (M ◦ A) M sp = C(D)−1 C(B)−1 M ◦ A sp ≤ 1. Notemos M = m´x{Aii : i ∈ In }.4. y an´logamente a ∗ 2 se ve que I ◦ B B ≤ C(B) I. en tal caso. Aii = Ci (B) 2 para todo i ∈ In . En otras palabras. KA ≤ C(D)C(B). 8. tenemos que PM = P ◦ ≤ 1.1. dado A ∈ Mn (C). Su formulaci´n o y demostraci´n original utilizaba profundas nociones y resultados de ´lgebras de operadores. podemos deducir que I ◦ D∗ D ≤ C(D)2 I. Esto dice que a M = C(B)2 . existe una factorizaci´n A = D∗ B. y por el Teorema Fijemos M ∈ Mn (C) tal que M 2 de Schur 8. Luego I M M∗ I = I ◦ D∗ D M ◦ A (M ◦ A)∗ I ◦ B ∗ B ∈ M2n (C)+ .4 deducimos que KA ≤ C(B)2 = M . Dada una factorizaci´n A = D∗ B.3 Funcionales positivas El teorema de Haagerup (1983) dice que. o se verifica que KA ≤ C(D)C(B) . Como (D∗ D)ii = Ci (D) 2 . obtenemos que ∈ M2n (C)+ .4. con B.2. Sea A ∈ Mn (C)+ . tal que se obtiene la igualdad KA = C(D)C(B). o a . o como en el Teorema 8. Por otra parte. sabemos que existe B ∈ Mn (C) tal que A = B ∗ B.2. D ∈ Mn (C). a Demostraci´n. C(D)−1 I 0 0 C(B)−1 I . Consideremos la siguiente matriz: o P = D∗ 0 B∗ 0 D B 0 0 sp = D∗ D A A∗ B ∗ B I M M∗ I ∈ M2n (C)+ . Sea A ∈ Mn (C).2.2. Demostraci´n. Es f´cil ver que. como A ∈ Mn (C)+ .8. Hemos visto que M ≤ KA (porque o a Aii = A ◦ Eii ).5 (Schur 4).

Decimos que ϕ es autoadjunta si ϕ∗ = ϕ. 3. Definici´n 8. fueran apareciendo o a a numerosas pruebas simplificadas del teorema de Haagerup. By . se define la siguiente funcional en Mn (C): ϕB : Mn (C) → C Verificar que (a) Para toda funcional ϕ en Mn (C) existe una unica matriz B ∈ Mn (C) tal que ´ ϕ = ϕB . Dada B ∈ Mn (C). a Ejercicios 8.3. | tr B| ≤ tr |B|. e (d) Toda funacional autoadjunta en S es resta de dos positivas.9. 4. A ∈ S. Es decir. Una f uncional en S es una aplicaci´n lineal ϕ : S → C. De todas ellas hemos seleccionado la obtenida por Paulsen. 2. Es decir ϕ = m´x{|ϕ(A)| : A ∈ S . sin embargo.1. A ∈ S. A sp = 1} .2.3. Se considera la norma inducida en las funcionales por la norma espectral de las matrices.3 Funcionales positivas 151 Esto motiv´ que. Se definen los o o siguientes tipos de funcionales: 1. es decir. si ϕ(A∗ ) = ϕ(A). T ∈ S si o o ∗ y s´lo si T ∈ S. definida en la dada por ϕB (A) = A. 2. entonces Re A ∈ S e Im A ∈ S. y = xy ∗ ∈ Mn (C) . Power y Smith en [29]. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n. Notamos ϕ∗ (adjunta de ϕ) a la funcional dada por ϕ∗ (A) = ϕ(A∗ ). propiedades y criterios de existencia de funcionales positivas. (b) ϕ es autoadjunta si y s´lo si ϕ(A) ∈ R para toda A ∈ S ∩ H(n). o Proposici´n 8. o (d) ϕB es positiva si y s´lo si B ∈ Mn (C)+ . a Fundamentalmente. Sea B ∈ Mn (C). Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n. Se usa que si A ∈ S. desde el ´mbito de los especialistas en an´lisis matricial. adaptar al contexto de matrices ciertas nociones y resultados elementales de ´lgebras de operadores. Entonces o 1. entonces es tambi´n autoadjunta. Necesitaremos.8. La funcional ϕ se llama positiva si ϕ(A) ≥ 0 cuando A ∈ S ∩ Mn (C)+ .3. A ∈ Mn (C). y por lo tanto ϕB es autoadjunta si y s´lo si B ∈ H(n). (c) (ϕB )∗ = ϕB ∗ . o 1. o . o (c) Si ϕ es positiva. B = tr(AB ∗ ) . Sea ϕ una funcional en S. (b) Dados x. y ∈ Cn consideremos la matriz x secci´n 1. Se tiene que ϕB (xy ∗ ) = x. Probar que (a) ϕ = ϕ∗ .3.

entonces n n n sk (B) = tr |B| = tr B = k=1 k=1 Bvk . 2. Dado que | U vk . Entonces |ϕB (A)| = | tr(A|B|U ∗ )| = | tr(U ∗ A |B|)| ≤ U ∗ A para toda A ∈ Mn (C). o 1. | tr(AC)| ≤ tr |AC| ≤ A para todo par A. .8. . Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n tal que I ∈ S. por el item anterior y el Corolario 5.3 Funcionales positivas 152 2. vk ≤ k=1 sk (B) = tr |B| . vk | ≤ 1 para todo k ∈ In . Si tr B = tr |B|. ϕ = ϕ(I). si B = U |B| es la DP de B.3. tr B = tr |B| si y s´lo si B ∈ Mn (C)+ . todos los n´meros complejos U vk . 3. 2. se debe verificar que u U vk . vk . . vk = 1 para todo k ∈ In . vk ≤ k=1 sk (B) U vk . Luego las siguientes condiciones son equivalentes: 1. Existe B ∈ Mn (C)+ tal que ϕ es la restricci´n de ϕB a S . o sp sp tr |C| . | tr B| = k=1 U |B|vk . Notar que tr |B| = tr(U |B|U ∗ ) = tr(U B ∗ ) = ϕB (U ) ≤ ϕB . vk deben u tener el mismo argumento. 3. Luego. ϕ es positiva. De ello se deduce que U = I y que B = |B| ∈ Mn (C)+ . . Por otro lado. ϕB = B Demostraci´n. Pero un unitario con unos en la diagonal (en nuestro caso la matriz de U en la base B) debe ser la identidad. La rec´ ıproca es obvia. Por lo tanto ϕB ≤ tr |B|. Sea ϕ o una funcional en S. con U ∈ U(n). tr |B| = (tr |B|) A sp .4. o Demostraci´n. Teorema 8. n n n 1 = tr |B|. vk = k=1 sk (B) U vk .11. C ∈ Mn (C). Sea B = {v1 . por el caso en que se obtiene igualdad en la desigualdad de Cauchy Schwarz. Como la suma da un n´mero positivo. vn } una bon de vectores propios de |B| asociada a s(B). .3. o 3.

3. se tiene que − A en S. o 1. Luego. Como ϕ es autoadjunta y ϕ(A0 ) ∈ R. 2π) tal que ϕ(A) = eiθ |ϕ(A)|.j∈ J . o 8. Una matriz incompleta asociada al conjunto J es un “cacho” de matriz A = (aij )i. tenemos − A sp sp I≤A≤ A sp I. Por la Proposici´n 8. Sea J ⊆ In × In . Corolario 8. Si A = A∗ . / 2. |ϕ(A)| = ϕ(A0 ) = ϕ(Re A0 ) ≤ Re A0 sp ϕ(I) ≤ A0 sp sp ϕ(I) = A sp ϕ(I) . Luego existe B ∈ Mn (C) o tal que Φ = ϕB . Por el teorema de Hahn Banach (en dimensi´n finita se lo puede probar por inducci´n con la prueba tradicional). ϕ(I) ≤ ϕ(A) ≤ A sp ϕ(I) =⇒ |ϕ(A)| ≤ A sp Si A = A∗ .4 Matrices incompletas Sea J ⊆ In × In . denotaremos A ◦ C = B ◦ C. deducimos que o tr |B| = ϕB = Φ = ϕ = ϕ(I) = ϕB (I) = tr B . Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n tal que I ∈ S. j) ∈ J . 3 → 1 Sea B ∈ Mn (C)+ tal que ϕ es la restricci´n de ϕB a S. y o ϕ una funcional positiva en S. deducimos que ϕ(A0 ) = ϕ(Re A0 ). donde B ∈ Mn (C) a es cualquier completaci´n de A. j) ∈ J. Si A est´ definida solo en J. Notar que. Luego ϕ ≤ ϕ(I).4 Matrices incompletas 153 1 → 2 Sea A ∈ S. y C ∈ SJ . Luego existe Φ funcional positiva en Mn (C). y por lo tanto B ∈ Mn (C)+ . Por todo esto. como C ∈ SJ . o . O sea que no se pone nada en las entradas (i. j) ∈ J.3. porque B 1/2 AB 1/2 ∈ Mn (C)+ y la funcional tr es positiva. sea θ ∈ [0.4. Llamenos A0 = e−iθ A.5. si ϕ es positiva ϕ(I) .3.8. o Definici´n 8. La otra desigualdad es obvia ( I = 1).1. existe una o o extensi´n Φ de ϕ a todo Mn (C) que tiene la misma norma. 2 → 3 Sea ϕ una funcional en S tal que ϕ = ϕ(I). la definici´n no depende de o o la completaci´n elegida. o sea que ϕ(e−iθ A) = |ϕ(A)|. Una matriz B ∈ Mn (C) / es una completaci´n de A si bij = aij para todo (i. tenemos o que ϕ(A) = tr AB = tr B 1/2 AB 1/2 ≥ 0 . Si A ∈ S ∩ Mn (C)+ . con la misma norma. tal que ϕ es la restricci´n de Φ a S. Llamaremos SJ ⊆ Mn (C) al subespacio SJ = C ∈ Mn (C) : cij = 0 para todo (i.

j)∈ J por lo que ϕA es positiva. i) ∈ J. . . Demostraci´n. e = aij cij = ϕA (C) = ϕA (C). si C ∈ SJ ∩ Mn (C)+ . si J cumple (P). 1) ∈ Rn . entonces la condici´n o es tambi´n suficiente: e Teorema 8. si J es sim´trico y contiene a la diagonal (reflexivo). Sea A = (aij )i. e Existen numerosos resultados sobre matrices incompletas.4 Matrices incompletas 154 3. Diremos que J cumple (P) si (a) (i. En efecto. .4 (es cerrado o por adjunci´n e I ∈ SJ ).13.1) Esto nos da una condici´n necesaria sobre A para que pueda existir una completacion poo sitiva. por el Teorema 2 de Schur 3. El siguiente teorema da una respuesta al problema de cuando se puede completar una casimatriz A para que quede positiva (semidefinida). Si llamamos e = (1.3. Verifiquemos ahora que ϕA es positiva en SJ . Para toda matriz C ∈ SJ ∩ Mn (C)+ se verifica A ◦ C ∈ Mn (C)+ . Esta condici´n ser´ muy pobre si J no cumple (P). Existe una completaci´n B de A tal que B ∈ Mn (C)+ . siempre que el conjunto J en el que est´ a + definida tenga la propiedad (P). luego tambi´n e T + + C = C ∈ SJ ∩ Mn (C) . En otras palabas. j) ∈ J =⇒ (j. o entonces 0 ≤ (A ◦ C) e. Luego las siguientes condiciones son equivalentes: 1. gracias a que J cumple (P). debe cumplirse que A ◦ C = B ◦ C ∈ Mn (C)+ para toda C ∈ SJ ∩ Mn (C)+ .j)∈ J aij cij . En la Eq.2. fundamentalmente relativos a preguntas del tipo: ¿que debe cumplir A para que se la pueda completar a una matriz que cumpla una propiedad dada? Un ejemplo de este tipo de resultados. es el llamado teorema de Parrot. Por hip´tesis A ◦ C ∈ Mn (C) .9. que describe algunos casos de matrices incompletas que pueden completarse a una contracci´n.2. C = (cij ) ∈ SJ . (8. o 2. (b) (i.8. obtenemos una matriz B ∈ o .6. Luego. Observar que SJ verifica las hip´tesis del Teorema 8.4. i) ∈ J para todo i ∈ In . Sea ϕA : SJ → C la funcional definida por ϕA (C) = (i. entonces. (8. (i. Supongamos que J ⊆ In × In cumple (P). Pero veremos que. Una versi´n de o o aquel resultado aparece en el Ejercicio 3.j∈ J una matriz definida solo en J.1) vimos que la ida es consequencia del Teorema 2 de Schur. o Supongamos entonces que A cumple 2. . porque en tal caso habr´ muy o ıa ıa pocas matrices en SJ ∩ Mn (C)+ . Observemos que si B ∈ Mn (C) es una completaci´n de un o tal A.

El resultado Teorema 8. j) ∈ J. 1 → 2: Sea J ⊆ I2n × I2n dado por o J = {(i.5 El teorema de Haagerup ∗ Lema 8. Demostraci´n. Luego las siguientes condiciones son equivalentes: 1. i) : i ∈ I2n } ∪ {(i. dada por   1 ? D A   . n + j) : i. Luego. Sean T ∈ Mn (C) y λ. por la Proposici´n 3.5. µ ∈ R+n . 0 D2 −1/2 M D1 0 −1/2 0 D2 −1/2 = I D1 −1/2 ∗ −1/2 D2 T D1 −1/2 −1/2 T D2 I −1/2 . donde D =   . . Y ∈ Mn (C)+ tales que (a) X ◦ I ≤ I e Y ◦ I ≤ I. j ∈ In }. 3. KA ≤ 1. Luego.6. Observar que J cumple (P). a bij = tr (BEij ) = ϕB (Eij ) = ϕA (Eij ) = aij Eso dice que B es una completaci´n positiva de A. entonces Eij ∈ SJ . j) ∈ J . (b) C(B) ≤ 1 y C(D) ≤ 1. Existen B. Por otra parte. (b) La matriz N = X A A∗ Y ∈ M2n (C)+ . M ∈ M2n (C)+ si y s´lo si D1 o o −1/2 −1/2 = L ◦ T. ∗ A D ? 1 . Notar que.5 El teorema de Haagerup 155 Mn (C)+ tal que ϕB S = ϕA . Existen X. 2. Notemos D1 = diag (λ) . es decir A ◦ C ≤ C para todo C ∈ Mn (C). D2 = diag (µ) ∈ Gl (n)+ y L ∈ Mn (C) la matriz con entradas Lij = λi M= Demostraci´n. j ∈ In } ∪ {(n + i. es J f´cil ver que tr (BEij ) = bji = bij . Observar que o D1 0 −1/2 −1/2 −1/2 µj . Entonces D1 T T ∗ D2 ∈ M2n (C)+ ⇐⇒ L◦T ≤1 ..7.2. queda probado con s´lo observar que D1 T D2 o T D2 −1/2 ≤ 1.8.5. D ∈ Mn (C) tales que (a) A = D∗ B. Sea A ∈ Mn (C). P = .1. (i. j) : i. o . 8.. Consideremos la matriz P de tama˜o 2n × 2n. definida s´lo en n o J. si (i.

Usando nuevamente el Lema 8. una desigualdad se deduce del Teorema 8.2. el Lema 8. D2 son estrictamente positivas. como M ∈ M2n (C)+ . D2 = diag (µ) son matrices T ∗ D2 diagonales positivas en Mn (C).2. y D1 = diag (λ) .8. n Clamor: Si M ∈ SJ ∩ M2n (C)+ . entonces por la Observaci´n 8.2. Demostraci´n. 2 → 3: Como N ∈ M2n (C)+ . Como KA ≤ 1. La implicaci´n 3 → 1 fu´ probada en el Teorema 8. como X ◦ I ≤ I e Y ◦ I ≤ I. −→ m→∞ Como M2n (C)+ es cerrado. tomando la sucesi´n o Mm = M + 1 I2n m en SJ . Si la escribimos en bloques de n × n.5).1.2.2. . entonces P ◦ M ∈ M2n (C)+ . por lo tanto.4.5 El teorema de Haagerup 156 que es una matriz de tama˜o n × n definida solamente en la diagonal. deducimos que P ◦ M ∈ M2n (C)+ . donde T ∈ Mn (C).1 nos dice que. o e Corolario 8. M = . tenemos que existe una completaci´n N de P tal que o N= X A A∗ Y ∈ M2n (C)+ y. tenemos que L ◦ (A ◦ T ) = A ◦ (L ◦ T ) ≤ 1.2. entonces C(D)2 = D∗ D ◦ I = X ◦ I ≤ 1 y C(B)2 = B ∗ B ◦ I ≤ (B ∗ B + G∗ G) ◦ I = X ◦ I ≤ 1 . Por el Teorema 8. existe una matriz K ∈ M2n (C) triangular superior tal que N = K ∗ K. Si KA = 0.5. Si suponemos que D1 . Entonces M2n (C)+ P ◦ Mm − − P ◦ M . el clamor queda demostrado.5. Entonces KA = m´ ın C(B)C(D) : B. Observar que P ◦M = D1 A◦T ∗ (A ◦ T ) D2 . K= D B 0 G =⇒ K ∗ K = D∗ D B∗D D∗ B B ∗ B + G∗ G = X A A∗ Y = N. y −1/2 −1/2 notamos L ∈ Mn (C) la matriz con entradas Lij = λi µj . −1 basta cambiar A por KA A y aplicar 1 → 3 del Teorema 8. D1 T En efecto.5. por el teorema de Cholewsky (Corolario 3.3 (Teorema de Haagerup (1983)). para probar la otra. se tiene que A = 0 y el resultado o o es trivial. X ◦I =Y ◦I =I . Y ∈ Mn (C)+ cumplen lo pedido. El resultado se sigue de que A = D∗ B y. El caso general (sin suponer que D1 y D2 son inversibles) se deduce del anterior.4.1. Si KA > 0. Sea A ∈ Mn (C).5.4 y. D ∈ Mn (C) y A = D∗ B . Luego las matricecs X. entonces L ◦ T ≤ 1.

8. . 0        ∗ A(k) =  . 0 Pero es claro que C(Bk ) = C(B) y C(Dk ) = C(D). am > 0. si B. entonces    ∗   A . Notemos A(k) ∈ Mkn (C) la matriz con k × k bloques de n × n iguales a A.   .. Es evidente que KA ≤ KA(k) (trabajando con matrices de n × n rellenadas o con ceros). 0 0 . Entonces B = D−1 AD−1 = (aii −1/2 −1/2 ajj aij )ij tiene unos en la diagonal. Consideo ramos la matriz diagonal 1/2 1/2 D = diag a11 . Es decir que e e u todos los λi (B) = 1.5. para todo i ∈ In .  = Dk Bk . . . 1 m 1 Si a1 . Adem´s. D ∈ Mn (C) cumplen que A = D∗ B y KA = C(B)C(D).. . As´ KA(k) ≤ C(B)C(D) = KA . ii Por lo tanto. A .. Rec´ ıprocamente.6. . . ...6 Determinantes 157 Corolario 8. Pero entonces. y esto prueba el resultado.   .. Si A ∈ Mn (C)+ .. Demostraci´n.. entonces i=1 aim ≤ 1 m m ai .. 8. .. a n −2 det B = det A (det D) = det A i=1 a−1 .. A 0 . . . . y entonces aii > 0. o o i=1 . 0   0 . . . . B  A . . o sea A = D2 . . entonces los n´meros involucrados deben ser todos iguales.1 (Desigualdad de Hadamard).. ...   .   . e n det(B) = i=1 λi (B) ≤ 1 n n n λi (B) i=1 = tr B n n =1. = .. Entonces KA = KA(k) . debe ser B = I. . . Sea A ∈ Mn (C). o Demostraci´n. Con respecto a la igualdad. entonces det A ≤ det (A ◦ I) = i=1 aii . Podemos suponer que A > 0.6 Determinantes n Teorema 8. D B . . si la hubiera en la desigualdad aritm´tico-geom´trica. .. . A   0 . dado que tienen las mismas columnas (salvo ceros). La igualdad vale si y s´lo si A es diagonal. . Aplicando la desigualdad aritm´ticoıa e 1 geom´trica obtenemos. ser´ suficiente mostrar que det B ≤ 1.. . . .4. . ann . . A D . Sale usando que el log es una funci´n c´ncava. ı. como B ≥ 0. ..

detA Lema 8. tenemos el resultado para desigualdades estrictas.6. Probar el Teorema 8.2) Demostraci´n. Supongamos.1 y el Corolario 4. (8. el resultado se deduce del Teorema 2 de Schur 8. Sea E11 = e1 et ∈ Mn (C). La demostraci´n la realizaremos por o inducci´n sobre n. son las mismas que las ´ respectivas de A. que A > 0. todas las dem´s submatrices o a principales de A − tE11 obtenidas con las ultimas i filas y columnas. El caso general sale tomando l´ ımite.1 usando el Teorema 3 de Schur 5.j≤n ∈ Mn−1 (C). Probar el Corolario 8. Es f´cil ver.2 usando la descomposici´n QR (Teorema 1. 2. con las notaciones del Lema a o 8. donde A11 = (aij )2≤i.5 (Desigualdad de Oppenheim).6. det(A − tE11 ) ≥ 0 si y s´lo si t ≤ α(A). (8. Entonces A − tE11 ≥ 0 si y s´lo si t ≤ α(A). B ∈ Mn (C)+ .6. Sean A ∈ Gl (n)+ y α(A) = detA11 .2.6 (hecho desde abajo).3) Luego.4. Luego.2 implica la desigualdad de Hadamard.6. Sea n ≥ 2 y supongamos el resultado o v´lido para todas las matrices de dimensi´n n − 1.2) de A ∈ Mn (C). Se aplica la desigualdad de Haramard a la matriz B = A∗ A ≥ 0.6. Si det A = 0.1.4. Veremos tres demostraciones alternativas de estas desigualdades. 2 Ejercicio 8.6 Determinantes 158 Corolario 8. Por lo tanto. Si A.6. Si n = 1. 4.6.4. Teorema 8.6. para todo i ∈ In . entonces. Sea A ∈ Mn (C). Notar que o det B = | det A|2 y que Bii = Ci (A) 2 .2) es trivial para matrices triangulares. Entonces.2.2 usando la interpretaci´n del determinante como un ´rea o o a volumen. que o a det(A − tE11 ) = det A − t det A11 . .6.2. sabemos que n det A11 · i=2 bii ≤ det A11 ◦ B11 . el determinante de cada una de ellas es positivo. entonces n det A · i=1 bii = det A · det B ◦ I ≤ det A ◦ B Demostraci´n. Por otro lado. desarrollando por la primera columna. o Observar que (8. que asegura o que A ◦ B ≥ 0. el resultado es inmediato.8. Probar que el Corolario 8.8. 1. o 1 Demostraci´n. 3. Probar el Corolario 8. Entonces n | det A| ≤ i=1 Ci (A) 2 .3. por el Teorema 2.3.1.

llamemos Er ∈ Mr (C)+ a la matriz con todas sus entradas iguales a 1. con las notaciones de 8. .6. Otra demostraci´n del Teorema anterior puede hecerse usando las Proo o posiciones 5. Recordamos que CP (A) = r i=1 Pi APi . . O.1.2 dice que (A − αE11 ) ◦ B ≥ 0.4 y 4.6. I − P }.6. .6 Determinantes 159 Por el Lema 8. Entonces det A ≤ det(CP (A)). que o P = diag (1. entonces tambi´n µn (CP (A)) > 0 y e n n det A = i=1 µi (A) ≤ i=1 µi (CP (A)) = det CP (A) . Sea A ∈ Mn (C)+ . El Teorema 2 de Schur 8. . Demostraci´n. . . podemos suponer que R(P ) es el subespacio generado por los primeros k elementos de la base can´nica de Cn . (5. .6. 0). Dado r ∈ N. . 0. que verifica que A ◦ B = CP (A). De los resultados anteriores obtenemos la siguiente relaci´n para el determinante del producto o convencional de matrices y el producto de Hadamard. si α = (det A11 )−1 det A. 1. para P ∈ H(n) o un proyector. . y sea P un sistema de proyectores en H(n). Aplicando la f´rmula (8. basta probar el caso P = {P. Consideremos la matriz de bloques B= Ek 0 0 En−k ∈ Mn (C)+ .2. Si µn (A) = 0. pero CP (A) ≥ 0. . Supongamos que dim R(P ) = k.3. Aplicando la hip´tesis inductiva. como µ(CP (A)) µ(A). entonces det A = 0.4. . donde los unos llegan hasta el lugar k. como E11 ◦ B = b11 E11 y o (A ◦ B)11 = A11 ◦ B11 . resulta que 0 ≤ det(A ◦ B − αE11 ◦ B) = det A ◦ B − αb11 det(A11 ◦ B11 ). Notar ∗ 2 que Er ≥ 0 porque 0 ≤ Er Er = Er = rEr . Pr }. Observaci´n 8. si P = {P1 .8). Teorema 8. . entonces A − αE11 ≥ 0.3). obtenemos o n n det A ◦ B ≥ α b11 det A11 ◦ B11 ≥ α b11 det A11 i=2 bii = det A · i=1 bii y el teorema queda demostrado.8. si µn (A) > 0.7.6 (Desigualdad de Fisher). . . por lo que det CP (A) ≥ 0. En efecto.6. lo que es lo mismo. tenemos que n det A = det A i=1 bii ≤ det A ◦ B = det CP (A).4. Por la Eq. Aplicando la desigualdad de Oppenheim. Conjugando a P y a A con alguna matriz unitaria (lo que no cambia los determinantes).

El Teorema se deduce de las desigualdades de Hadamard y de Oppenheim. o 1. det A B = det A det B ≤ det A i=1 bii ≤ det A ◦ B. Probar que el operador “adjunto” de MA ∈ L(Mn (C) ) es el mismo MA . Si A. Sea A ∈ Mn (C).3. se cumple que tr (A ◦ B)C T = i. e (d) Toda funacional autoadjunta en S es resta de dos positivas. B ∈ Mn (C)+ . T ∈ S =⇒ T ∗ ∈ S). Deducir que m´x C(A) . entonces det A B ≤ det A ◦ B. F (A) = m´x Fi (A) a i ∈ In 2 = AA∗ ◦ In 1/2 sp .7. o (c) Si ϕ es positiva. (A) = KA . En o n efecto. . Demostraci´n. C ∈ Mn (C). Probar que K · 1 C −→ ϕC = tr( · C T ) ∈ Mn (C) . a trav´s de la aplicaci´n e o Mn (C) 4. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n (i. 8.3. 2. entonces es tambi´n autoadjunta.j aij bij cij = tr B(A ◦ C)T .8.2. F (A) ≤ A a sp 8. Sea ϕ una funcional en S (usaremos notaciones de la Definici´n 8.1.j A ∈ Mn (C) . Dadas B.m (C). entonces KN (A) = m´x |aij | . a i.7 Ejercicios Ejercicios del texto 8.8. idenficando Mn (C) con Mn (C). Probar que o (a) ϕ = ϕ∗ . Si N = · 2 (la norma de Frobenius).7.e. 3.7.7 Ejercicios 160 Teorema 8.6. Porbar las siguientes afirmaciones: 1.1). (b) ϕ es autoadjunta si y s´lo si ϕ(A) ∈ R para toda A ∈ S ∩ H(n). 8. mostrar que C(A) = m´x Ci (A) a i ∈ Im 2 = A∗ A ◦ Im 1/2 sp y . Dada A ∈ Mn.

se define la siguiente funcional en Mn (C): ϕB : Mn (C) → C Verificar que (a) Para toda funcional ϕ en Mn (C) existe una unica matriz B ∈ Mn (C) tal que ´ ϕ = ϕB .6.2 usando la interpretaci´n del determinante como un ´rea o o a volumen. Dar los detalles de la prueba del Lema 8. (b) Dados x. 8. entonces Re A ∈ S e Im A ∈ S.6.7. Probar el Corolario 8. Distintas pruebas de la desigualdad de Hadamard: 1. definida en la (c) (ϕB )∗ = ϕB ∗ .1. o 8.6.7. A ∈ Mn (C).9. Si ϕ = m´x{|ϕ(A)| : A ∈ S y A sp = 1}.7. Probar el Corolario 8. existe una extensi´n Φ de ϕ a todo a o Mn (C) que tiene la misma norma. i=1 8.2. y sea ϕ : S → C una funcional lineal.7 Ejercicios 161 Se usa que si A ∈ S.4 (Hahn Banach finito).9.1 usando el Teorema 3 de Schur 5.2) de A ∈ Mn (C).8. Sea S ⊆ Mn (C) un subespacio. .3.7.6. Dada G ∈ Mn (C)+ .7.4.5. 4.2 implica la desigualdad de Hadamard. 3. y ∈ Cn consideremos la matriz x secci´n 1. entonces i=1 ain ≤ 1 n n ai .8. 2.6. Definici´n 8.2 usando la descomposici´n QR (Teorema 1. an > 0.8. o 8. Probar el Teorema 8.1 y el Corolario 4. By . B = tr(AB ∗ ) . y ∈ Cn y G ∈ Mn (C). Ejercicios nuevos 8. se define: o 1. 2. y por lo tanto ϕB es autoadjunta si y s´lo si B ∈ H(n). o Observar que (8. n 1 dada por ϕB (A) = A. El ´ ındice minimal de G como I(G) = max{λ ≥ 0 : G ◦ B ≥ λB para todo B ∈ Mn (C)+ } .2) es trivial para matrices triangulares. . Se tiene que ϕB (xy ∗ ) = x. . Si a1 . . Probar que el Corolario 8.7.6. Probar que G◦x y = diag (x) G diag (y)∗ . o (d) ϕB es positiva si y s´lo si B ∈ Mn (C)+ . Dada B ∈ Mn (C). y = xy ∗ ∈ Mn (C) .7. Sean x. .

El ´ ındice de G asociado con la norma espectral · = · sp se denota Isp (G). se define el ´ ındice N de Hadamard para G como IN (G) = max = min λ ≥ 0 : N (G ◦ B) ≥ λN (B) para todo B ∈ Mn (C)+ N (G ◦ B) : B ∈ Mn (C)+ y N (B) = 1 . c}.j=1 (G−1 )ij −1 = det G . Dada una norma N en Mn (C). 1. O sea. IN (D) = N (D−1 )−1 . En part. y =1 M´s a´n. c}.7 Ejercicios 162 2. Isp (A) = ´ { Isp (D) : A ≤ D y D es diagonal }. IN (G) = 0 ⇐⇒ G ◦ I = 0 ⇐⇒ Gii = 0 para todo i ∈ In . entonces Isp (A) = .7. . I(G) = 0 si y s´lo si 1 ∈ R(G). n I(D) = Isp (D) = i=1 d−1 i −1 n e I2 (D) = i=1 d−2 i −1/2 . 1 −1 = ρ(G E) † −1 = min { Gz. Si x ∈ Cn . Sean G ∈ Mn (C)+ . det(G + E) − det G 2. c}. I(G) ≤ IN (G) para cualquier norma unitariamente invariante N . 5. ın i∈In ∈ M2 (C)+ . entonces Isp (x 8. mientras que el asociado a la norma Frobenius · 2 ser´ denotado por I2 (G). 1 = (1. se tiene que I(G) = i. z : i=1 zi = 1 } n Y si G > 0. Los indices I2 e Isp se alcanzan en matrices B ∈ Mn (C)+ de rango 1. Si y ∈ Cn cumple que Gy = 1. . 3. . se tiene que Isp (A) = m´ ın{a. ınf 7. . 0). Si D = diag (d) ∈ Gl (n)+ es diagonal. ambos minimos se alcanzan en vectores x a u 6. 1) ∈ Cn y E = 1 · 1T . (b) Si |b| ≥ m´ ın{a.8. Sea N una norma. 4. Sea A = a b b c x) = m´ |xi |2 . I2 (G) = min G ◦ xx∗ x =1 2 e Isp (G) = min 0 (o y G ◦ yy ∗ .10. . entonces o m −1 n I(G) = i=1 yi = y. Probar que ac−|b|2 a+c−2|b| (a) Si |b| < min{a. a 8.

Si A ∈ Mn (C). . para todo k ∈ In . µ(A∗ A) ). . . . . formadas por autoveco tores de Re A (resp. Existe U ∈ U(n) tal que Re A ≤ U |A|U ∗ .3.2 (Fan-Hoffman). Dado k ∈ In . . A∗ A) adaptadas a µ(Re A) (resp. por el Teorema de Courant-Fisher 2. sea x ∈ Gen {x1 . . o µk (Re A) ≤ Re A x. Sean x1 . wn } . 2. La segunda parte se deduce de la primera.6. Sea A ∈ Mn (C). dado que diag (µ(Re A) ) ≤ Σ(A).1 Partes reales A + A∗ ∈ H(n). 2 Definici´n 9. . xn y w1 . . Entonces u Re µ(A) µ(Re A) .1. . Entonces. Proposici´n 9.1.2. Demostraci´n. x = Re Ax. x ≤ | Ax.1. . x 1/2 ≤ µk (A∗ A)1/2 = µk (|A|) = sk (A) .3 y la Proposici´n 3. x | ≤ Ax = A∗ Ax. notaremos Re x ∈ Rn al vector de las partes reales de sus coordenadas. wn bases ortonormales de Cn . µk (Re A) ≤ µk (|A|) = sk (A). se llama parte real de A a o Re A = Si x ∈ Cn . . . Entonces o 1. Proposici´n 9. un vector unitario (debe existir por las dimensiones de los subespacios). Dada A ∈ Mn (C). . sea µ(A) ∈ Cn el vector de autovalores de o A en alg´n orden. . xk } ∩ Gen {wk .Cap´ ıtulo 9 Algunas desigualdades de matrices 9. .3 (Ky Fan).1.

B) ≥ 0.4). Sea {x1 . B)x. Como B ∈ H(n). 1. Notar que. Si A ∈ Mn (C) cumple que A + A∗ > 0. Sean A. . B) > 0. B ∈ H(n).1). Probar que.4. se tiene que a o k k k k k Re µ(A)↓ j j=1 = j=1 Re µj (A) = j=1 Re Axj . Ejercicio 9. x = 2 Re Ax.1 Partes reales 164 Demostraci´n.1.4.6. B) = AB + BA ∈ H(n) . Sean A. B ∈ H(n).1. Bx . para cada x ∈ Cn . Por el Corolario 9. se tiene S(A. B ∈ Mn (C) tales que AB ∈ H(n).1. 2. B) > 0 =⇒ B > 0. Dado k ∈ In . B) + 2εB > 0 (porque Gl (n)+ es abierto en H(n) ) . . y tambien A ≥ 0 + S(A. Proposici´n 9. Ordenemos al vector µ(A) de tal modo que o Re µ1 (A) ≥ Re µ2 (A) ≥ . ≥ Re µn (A) . .1. Se llama producto simetrizado de A y B a o S = S(A. xj ≤ j=1 µj (Re A) . . se puede cambiar Re z > 0 por µn (Re A) ≤ Re z ≤ µ1 (Re A). se tiene que σ (C) = σ (B) ⊆ R∗ . . Para k = n hay igualdad porque Re tr(A) = tr A + tr A A + A∗ = tr = tr Re A. En realidad. Sean A. Supongamos que A > 0 y S = S(A.1. o |||AB||| ≤ ||| Re BA||| para toda NUI ||| · ||| en Mn (C).9. Dar un ejemplo de matrices positivas A y B tales que S(A. entonces σ (A) ⊆ {z ∈ C : Re z > 0} . y tal que Axi . xn } una base ortonormal respecto a la cual A es una matriz triangular superior. B) = S(A. por el Principio del m´ximo de Ky Fan (Proposici´n 5. xj = j=1 Re A xj .5. Si + A ∈ Mn (C)+ no es inversible. debe ser B > 0.6. 0 < A−1/2 SA−1/2 = A1/2 BA−1/2 + A−1/2 BA1/2 = Re C . . se tiene que S(A + εI. notar que dado ε > 0 bien chico. Entonces.1. si C = A−1/2 BA1/2 . . 2 2 Corolario 9. xi = µi (A) (que existe por el Teorema 1 de Schur 1.7 (Kittaneh ’95). Observaci´n 9. Luego se aplica el caso anterior.

5.3. e entonces |||ST S + S −1 T S −1 ||| ≥ 2 |||T ||| para toda NUI ||| · ||| en Mn (C). Otra manera de probar la desigualdad CPR (la original) es (a) Primero reducir al caso en que S es diagonal.9. Demostraci´n. Se sugiere usar las matrices 0 T T = ∈ M2n (C) T∗ 0 y una adecuada S1 ∈ H(2n) invertible.1. ’93). e (c) Verificar que la matriz que multiplica Hadamard. Verificar. ¿Para qu´ matrices e S lo ser´? (esto ultimo es dif´ pero es f´cil encontrar familias razonablemente grandes a ´ ıcil. entonces para toda B ∈ Mn (C) y para toda nui ||| · ||| en Mn (C). adem´s. Usando el famoso truco de las matrices de 2 × 2.9.5. Sean T. Como AB y Re BA ∈ H(n). Comencemos notando que los autovalores de BA son los mismos que los de o AB y por ende son todos reales. (d) Aplicar el siguiente resultado: Si A ≥ 0. se tiene que |||A ◦ B||| ≤ m´x { aii : i ∈ In } |||B||| . (b) Despu´s escribir ST S −1 + S −1 T S como un producto de Hadamard. 2.8 (Corach-Porta-Recht. luego de “pasarla dividiendo”. podemos aplicar el Corolario 5. no necesariamente autoadjunta. a Esto es conocido como el Teorema de Schur (ver Corolario 8. en la Proposici´n 1. M´s a´n.3. probar tambi´n que. . |||ST S −1 + S −1 T S||| ≥ 2 |||T ||| para toda NUI ||| · ||| en Mn (C). Schur 4). que la constante 2 es ´ptima en el primer caso (fijando S y moviendo a o todos los T ∈ Mn (C) o H(n) ).1. o Ejercicios 9. Con el mismo truco. Ojo con los sk (T ). obtenemos que o µ(AB) = µ(BA) = Re µ(BA) µ(Re BA). 1. si T ∈ Mn (C) y S ∈ H(n) es inversible. Entonces. que son los de T .5 vimos que µ(AB) = µ(BA). usando la Proposici´n 9.2. por lo que |||AB||| ≤ ||| Re(BA)||| para toda NUI. pero no siempre lo es en el segundo. S ∈ H(n) y supongamos que S es o inversible. al menos para la norma espectral).14 (usando que t → |t| es convexa) y deducir que s(AB) = |µ(AB)|↓ w |µ(Re AB)|↓ = s(Re AB).1. pero repetidos dos veces cada uno. a de ejemplos donde vale. 4.1 Partes reales 165 Demostraci´n. a u o Luego. Aplicar la desigualdad de Kittaneh a A = T S −1 y B = S. extender la desigualdad CPR a cualquier T ∈ Mn (C). es semi definida positiva. Proposici´n 9. 3.

con W ∈ U(n). Luego W ∗ A = Re W ∗ A = U |A|U ∗ ∈ Mn (C)+ . o o 2. (9. Esto muestra que C = W ∗ A ∈ H(n).2 Desigualdad de Thompson 166 9. V ∈ U(n) tales que Re W ∗ A = Re C ≤ U |A|U ∗ y Re D ≤ V |B|V ∗ . Hagamos la descomposici´n polar A+B = W |A+B|. Esto sucede porque sus partes unitarias pueden mezclar ı tama˜os en forma aleatoria. B tales que |A + B| ≤ |A| + |B| (Ejercicio: encontrar un par as´ en M2 (C) ). con W ∈ U(n). Veremos que o W A ≥ 0 y W B ≥ 0. Dadas A.2 (Thompson).2. las siguientes afirmaciones son equivalentes: 1. V ∈ U(n) tales que Re W ∗ A ≤ U |W ∗ A|U ∗ = U |A|U ∗ y Re W ∗ B ≤ U |W ∗ B|U ∗ = U |B|U ∗ .2 Desigualdad de Thompson Observaci´n 9. V ∈ U(n) tales que |A + B| ≤ U |A|U ∗ + V |B|V ∗ .1) Demostraci´n. A diferencia del m´dulo de n´meros. Por lo tanto. Analogamente se prueba que W ∗ B ∈ Mn (C)+ . la igualdad se da si y s´lo si ambos n´meros e o u poseen igual argumento. .2). (9. Algo similar vale en el caso matricial: Teorema 9. la hip´tesis de que s´lo puede darse la igualdad en (9. S´lo la igualdad puede darse en la ecuaci´n (9. existen U. el de matrices no cumple la deo o u sigualdad triangular. e Demostraci´n.1) o o ∗ ∗ fuerza a que Re C = U |A|U y Re D = V |B|V . por lo que la Eq. Ahora bien. Como en la Eq. existen U. Existe W ∈ U(n) tal que A = W |A| y tambi´n B = W |B|. tr (Re C)2 = tr |A|2 = tr A∗ A = tr AA∗ + tr A∗ A tr CC ∗ + tr C ∗ C = .1.2. Luego tr (C − C ∗ )(C ∗ − C) = tr CC ∗ + tr C ∗ C − tr C 2 − tr(C ∗ )2 = 0 . Entonces o o |A + B| = W ∗ (A + B) = Re W ∗ (A + B) = Re W ∗ A + Re W ∗ B . (9. existen U. por la Proposicion 9.2) porque (W ∗ A)∗ W ∗ A = A∗ W ∗ W A = A∗ A y entonces |W ∗ A| = |A| (lo mismo para B).1. (9.2. 2 2 (9.3) Observar que 4 tr (Re C)2 = tr CC ∗ + tr C ∗ C + tr C 2 + tr(C ∗ )2 . Dadas A.1). Llamemos C = W ∗ A y D = W ∗ B. n donde uno corrige ese problema: Teorema 9.3) se traduce como tr CC ∗ + tr C ∗ C = tr C 2 + tr(C ∗ )2 . O sea que existen matrices A. se tiene que |A + B| = Re W ∗ A + Re W ∗ B . por la Proposicion 9. Lo mejor que se tiene para ese lado es el siguiente resultado.2 (Fan-Hoffman).9. o 1 ⇒ 2 Sea A + B = W |A + B| la descomposici´n polar de A + B. B ∈ Mn (C). Siguiendo el razonamiento anterior. En el caso de la desigualdad triangular num´rica.2 (Fan-Hoffman). B ∈ Mn (C).1.3. Por otra parte.

B ∈ Mn (C). Sea X = o X ∗X = Sean P = I 0 0 0 AB ∗ = yU= 1 si (A∗ A + B ∗ B) 2 para todo i ∈ In . porque usa una t´cnica interesante que es e bueno ver c´mo funciona.4) Es la llamada desigualdad aritm´tico-geom´trica. Luego. . .1).b de la Secci´n 3.9. y se demuestra r´pidamente usando que el e e a logaritmo es una funci´n creciente y c´ncava (de n´meros).3 Desigualdad aritm´tico-geom´trica en matrices e e 167 2 ⇒ 1 Supongamos ahora que A = W |A| y B = W |B| para la misma W ∈ U(n). la Eq.6. la matriz M ∈ Mn (C)+ y tiene traza nula. daremos versiones matriciales de ella. Cuentas elementales muestran que y XX ∗ = AA∗ AB ∗ BA∗ BB ∗ .1) para alg´n par u U. o sea que M = 0. o Proposici´n 9.1.3. Observar que ambas matrices XX ∗ y o U XX ∗ U ∗ ∈ M2n (C)+ . que ya hab´ aparecido en el Teorema 8. Entonces o si (AB ∗ ) ≤ Demostraci´n. 2 2 2 . que es tambi´n conocida como la desigualdad o a o e de Young. . Luego A + B = W (|A| + |B|) =⇒ |A + B| = |A| + |B|. Sean A.1: e ıa Dados a1 . λm ∈ [0. o 9. .3 Desigualdad aritm´tico-geom´trica en matrices e e Recordemos la siguiente desigualdad num´rica. Algunas p´ginas m´s adelante (Teorema 9. Luego. A∗ A + B ∗ B 0 0 0 I 0 0 −I = 2P − I2n ∈ U(2n). (9. entonces |A| + |B| ≤ U |A|U ∗ + V |B|V ∗ =⇒ M = U |A|U ∗ + V |B|V ∗ − |A| − |B| ∈ Mn (C)+ . mostraremos una versi´n m´s general (s´lo se asume que m = 2). Pero en principio s´lo para el o 1 a a caso m = 2 y λ1 = λ2 = 2 . se cumple que + i∈Im m m aλi i i=1 ≤ i=1 λ i ai . . 1] tales que λi = 1.1). Si vale (9. Igual damos una prueba de este caso. .4. Luego = XX ∗ − CP (XX ∗ ) = + − 0 AB ∗ BA∗ 0 1 XX ∗ − U XX ∗ U ∗ . Como se har´ en la mayor´ de o o u a ıa las secciones que siguen. am ∈ R∗ y λ1 . . V ∈ U(n). (3.7) y el ´ ıtem 5. A 0 B 0 ∈ M2n (C).3 aseguran que o si (AB ∗ ) = µi AB ∗ = µi AB ∗ + ≤ 1 1 1 µi (XX ∗ ) = µi (X ∗ X) = si (A∗ A + B ∗ B) . 2 Tomemos la descomposici´n AB ∗ = AB ∗ − AB ∗ . Esto muestra que s´lo la igualdad puede complirse en (9.

X ∈ Mn (C). El siguiente resultado es m´s fino que el anterior.9. 2 (9. s(T 2 Y + Y T 2 ). y no se generaliza tan f´cilmente (salvo para a a la norma Frobenius. con U.6) para valores singulares de e e o matrices. Pero cuentas f´ciles muestran que a = A∗ XB y an´logamente a 1 w 2 0 AXB ∗ BX A 0 T 2 Y + Y T 2 = A2 X + XB 2 . Demostraci´n.3.4 Desigualdades de Young para matrices 1 1 ap b q + = 1 =⇒ ab ≤ + .4. o . b ∈ R+ y p. 2 1 |||A∗ AX + XB ∗ B||| . s(T Y T ) TY T = A 0 0 B 1 w 2 ∈ H(2n) e Y = 0 X X∗ 0 ∈ H(2n) . B ∈ H(n): Tomemeos T = Por el Paso 1.6) con igualdad si y s´lo si ap = bq . mientras que |||AXB ∗ ||| = ||| U |A| X |B| V ∗ ||| = ||| |A| X |B| |||. con lo que la desigualdad (9. Debemos dividir la prueba en tres pasos: o Paso 1: Supondremos que A = B ∈ H(n) y tambi´n X ∈ H(n). Tomemos descomposiciones polares A = U |A| y B = V |B|. que generaliza la Proposici´n 9.2. V ∈ U(n). aritm´tico geom´trica (9. Sean A. Paso 3: El caso general. q ∈ [1.5) Paso 2: Ahora X es cualquiera. entonces a (9.5) queda demostrada en general a partir del Paso 2. 9.4 Desigualdades de Young para matrices 168 para todo i ∈ In .7). pero A. e o |||AXA||| ≤ ||| Re XA2 ||| = 1 |||A2 X + XA2 ||| . Notar que A∗ AX + XB ∗ B = |A|2 X + X|B|2 . p q p q La desigualdad de Young cl´sica dice que si a. Entonces se tiene que o |||AXB ∗ ||| ≤ para toda NUI ||| · ||| en Mn (C).1. +∞). Proposici´n 9.1. Por la Proposici´n 9. ver Teorema 9. Primero daremos una versi´n de (9.4).3. 1 2 Luego podemos deducir que s(AXB) s(A2 X + XB 2 ) = s [A2 X + XB 2 ] . B.7. Observar que escrita as´ es un refraseo de la desigualdad o ı.

3.8) Demostraci´n. . p q (9. Sean A ∈ Mn (C)+ . B ∈ Mn (C) y todo j ∈ In .3. (9. . .4. 2]. se tiene que µQ≤ QAp Q QB q Q + .4 Desigualdades de Young para matrices 169 Teorema 9. q ∈ [1.7) o equivalentemente.9. . .4. Sean p. Demostraci´n. p q (9.10) Luego. p p . vk }. tenemos que la p o funci´n f (t) = t 2 es mon´tona de operadores. v´ el c´culo de los autovalores con el principio minimax ıa a del cap´ ıtulo 2. Luego. Sean Q ∈ Mn (C) una proyecci´n ortogonal y X ∈ Mn (C)+ . 2] y q ∈ [2. |A|p |B|q + . por lo que P BQ = BQ y QBP = QB . que existe U ∈ U(n) tal que U |AB ∗ |U ∗ ≤ Antes de demostrar el teorema. juntado esta ultima igualdad con (9.1 (Ando [19]). +∞) tales que p + 1 = 1. Sean p ∈ (1. . . y Sk = Gen {v1 . q B ∈ Gl (n)+ y k ∈ In . 2]. este lema es un respaso de la Proposici´n 6. o El paso clave para probar el teorema. 1] y convexa de o o operadores para r ∈ [1.2. Como p ∈ (1. donde vale elevar al cuadrado por que |AB| y P conmutan. Luego. es el siguiente resultado tecniqu´ ısimo: 1 Lema 9. Entonces o QX r Q ≤ (QXQ)r para 0 < r ≤ 1 y QX r Q ≥ (QXQ)r para 1 ≤ r ≤ 2 . vn } una BON de Cn adaptada a µ(|AB|). Por la definici´n de Q se tienen las siguientes igualdades: o o QB −1 P = B −1 P y P B −1 Q = P B −1 . . Llamemos P al proyector ortogonal sobre Sk y Q al proyector ortogonal sobre M := R(B −1 P ) = B −1 (Sk ).9) ´ (QB 2 Q)(B −1 P B −1 ) = QBP B −1 = Q .9). (9. vemos que µ P ≤ |AB|. Puesto que f (t) = tr es c´ncava de operadores para r ∈ [0.9) Por otra parte.9.4. Usando quien es Sk . Entonces para todo |A|p |B|q + p q . (BA2 B)1/2 = |AB| ≥ µP =⇒ BA2 B ≥ µ2 P =⇒ A2 ≥ µ2 B −1 P B −1 . necesitamos algunos pasos t´cnicos: e Lema 9. usando (9. se ve que (B −1 P B −1 )(QB 2 Q) = Q. Sean B = {v1 . se ve que o Ap ≥ µp (B −1 P B −1 ) 2 p =⇒ QAp Q ≥ µp Q(B −1 P B −1 ) 2 Q = µp (B −1 P B −1 ) 2 . sabemos que B(R(Q) ) = B(M) = Sk = R(P ) . lo cual muestra que la inversa de QB 2 Q a “dentro de M” es B −1 P B −1 . An´logamente. Si abreviamos µ = µk (|AB|). se tiene que sj (AB ) ≤ sj ∗ 1 p + 1 q = 1. +∞) tales que par de matrices A.

o En tal caso tenemos que |AB| = (BA2 B)1/2 y la ecuaci´n (9. Por el Lema 9. o q ahora que q ∈ (4. 2 (9.13) Por lo tanto.14) Como µj (BA2 B) = µj (AB 2 A) para todo j ∈ In . (9. y q = 2. Demostraci´n del Teorema 9. apelando a las tecnicas a u . M´s a´n.2 QB q Q ≥ (QB 2 Q) 2 . (9.12) se tiene que QAp Q QB q Q µp (QB 2 Q) + ≥ p q p ≥ µ (QB 2 Q) −p 2 q (9. donde ≥ se puede probar usando la desigualdad de Young num´rica.13) resulta a QAp Q QB q B (QB s Q) + ≥ µp p q p ≥ µ (QB s Q) −p s −p s .4. Sea s = 2 .4. los papeles de A y B son sim´tricos. Por el Lema 9. y en M⊥ todo es nulo.11) Para probar (9.4 Desigualdades de Young para matrices 170 Como QB 2 Q es la inversa en M de B −1 P B −1 .4.7).12) (QB 2 Q) 2 + q 1 q −1 2 (QB 2 Q) 2 = µ Q .11) y (9.9. ∞). raz´n e o por la cual podemos suponer que p ∈ (1. donde nuevamente en la segunda desigualdad se ha usado la versi´n num´rica de la desigualdad o e de Young.11) se obtiene QAp Q ≥ µp (QB s Q) y luego combin´ndola con (9. se tiene que (QB s Q) s ≥ (QB 2 Q) 2 p p =⇒ (QB s Q) −p s ≤ (QB 2 Q) −p 2 en L(M) .8). Supongamos primero que A. Luego. (QB s Q) s + q 1 q −1 s (QB s Q) s = µ Q . 2] y q ∈ [2. 4]. juntando (9. (9. Combinando esta desigualdad con (9. B ∈ Mn (C)+ . tenemos que QAp Q ≥ µp (QB 2 Q) −p 2 (todo pensado en L(M) ) . usando que f (t) = t 2 es MOP.2 se tiene s s Q B q Q = Q (B s ) s Q ≥ (Q B s Q) s p q q y (Q B s Q) s ≥ Q B 2 Q .7) puede reescribirse como o µj (BA2 B)1/2 = µj BA2 B 1/2 ≤ µj Ap B q + p q para todo j ∈ In . Entonces 0 < 2 < 1. ∞). mientras que la segunda o formulaci´n queda como ejercicio para el lector. puesto que µ(QB 2 Q)−1/2 e 2 1/2 y (QB Q) conmutan entre s´ Esto concluye a demostraci´n para este caso. primeramente consideremos el caso q ∈ [2.1: Probaremos la Eq. Supongamos ı.

9. Sean p.14) queda demostrada en este caso. =⇒ w Demostraci´n. Observar que dim Sk = dim M = k. . la desigualdad (9. es un resultado de Bhatia y Davis o + [22]: Dados A. Llamemos P al proyector ortogonal sobre Sk y Q al proyector ortogonal sobre M := R(B −1 P ) = B −1 (Sk ). Luego.x ≥ µ = µk (|AB|) .4 Desigualdades de Young para matrices 171 usuales de continuidad. y p. Sean B = {v1 . Entonces. . aparede un ingrediente nuevo: e Dado que las matrices no conmutan.5. el Lema 9.15) . Mostrar con un ejemplo que la desigualdad (9. . Dicho todo esto. Las desigualdades de Hirzallah-Kittaneh Cuando uno extiende desigualdades num´ricas a matriciales. cosa que ya hicimos. B ∈ Mn (C). podemos tambi´n asumir que B > 0. q ∈ [1. Ejercicio 9. y Sk = Gen {v1 . . o si hacemos la descomposici´n polar B = V |B| con V ∈ U(n). se tiene que 2 N (AB ∗ ) ≤ N |A|p |B|q + p q . X ∈ Mn (C). B ∈ Mn (C). B ∈ Mn (C) .4.1. utilizando el principio minimax (Teorema 2.7) se ve que lo anterior hace suficiente probar el caso positivo.3) p q para calcular µk A + B . vk }. De ah´ podemos deducir que los vectores s(AB ∗ ) = µ(|AB ∗ |) = µ(|A| |B|). +∞) tales que p + 1 = 1 y sea N una NUI en Mn (C). p q El caso general se deduce de lo anterior por la siguiente observaci´n: Dadas A.3 dice que µQ≤ QAp Q QB q Q + =⇒ m´ ın x∈M p q x =1 Ap B q + p q x.4. Lo primero que apareci´ al respecto. Daremos a continuaci´n una primera versi´n que camina para Young. se tiene que AXB 2 ≤ Ap X XB q + p q . c´mo afecta o esto a la desigualdad? Y de qu´ lado hay que multiplicar cada factor para que la desigualdad e se preserve? Este tipo de an´lisis y generalizaciones aparecer´n seguido en lo que resta del Cap´ a a ıtulo.4. . si uno multiplica por una tercera matrix X. fijemos k ∈ In e 1/2 2 y llamemos µ = µk (BA B) = µk (|AB|). 1 Corolario 9. vn } una BON de Cn adaptada a µ(|AB|).7) deja de ser cierta si en el miembro izquierdo se quita la estrella en B.4. se tiene que o |AB ∗ |2 = BA∗ AB ∗ = B|A|2 B ∗ = V |B| |A|2 |B| V ∗ = V |A| |B| V ∗ .3. Evidente a partir del Teorema 9. aunque solamente para la o o norma de Frobenius. q Entonces para todo par de matrices A. . (9.4. porque o . Volviendo a mirar ı la Eq. q conjugados. 2 (9. (Ayuda: basta considerar matrices de 2 × 2 y el caso p = q = 2). . .

16) . tenemos en realidad una igualdad. 1 1 1 donde se usa la igualdad 1 − 2 = p − 1 = p − 1 p + 1 = p12 − q12 . usando el hecho de que a q q q q−p ı p + ( q ) = 2. p q i. b ∈ R∗ . +∞) tales que p + 1 = 1. q 1 ya que p(1 − 2 ) = p( p − 1 ) = 1 − p . Sean A. De manera an´loga. Entonces tenemos que Ap X XB q + = p q p q U D1 U ∗ X X V D2 V ∗ + = U p q q λ p µj i = U + yij V ∗. y p. y p.j∈In p q D1 Y Y D2 + p q V∗ p q Ap X − XB q = U (D1 Y − Y D2 ) V ∗ = U λp − µq yij i j V∗ i. debido a Hirzallah y Kittaneh [26]. Primero observar que si p = q = 2. X ∈ Mn (C).4. B ∈ Mn (C)+ . q ∈ [1. q ∈ [1. +∞) tales que Si r = m´x{p. V ∈ U(n) tales que A = U D1 U ∗ y B = o V D2 V ∗ . q}.4 Desigualdades de Young para matrices 172 Sin embargo. B ∈ Mn (C)+ .16) Demostraci´n. V´ cuentas elementales. Como A. p2 1 p Teorema 9. Para a ello.4. si p > q. tenemos que a e e 1− 2 q ap + q−p 2 2 2 q b ≥ ap (1− q ) b q q = a q b2 . mostraremos un resultado m´s fino. donde D1 = diag(µ(A) ) y D2 = diag (µ(B) ).9. Llamemos Y = U ∗ XV . que a adem´s determina completamente los casos en que en (9. entonces a AXB 2 2 + 1 q = 1. Si r = m´x{p.j∈In y . usando la q q q q desigualdad de Young cl´sica (o la aritm´tico geom´trica). + 1 Ap X − XB q r2 2 2 ≤ Ap X XB q + p q 2 . Adem´s. se ve que ıa ap b q + p q 2 − 1 p (a − bq )2 = ap q2 1− 2 q ap + 2 q b q . λ = µ(A) y µ = µ(B). existen U. (9. As´ llegamos finalmente a que p q = p − 1.6. Sean a. entonces a + q ap b q + p q 2 ≥ 1 (ap − bq )2 + a2 b2 . q}. 2 r (9. +∞). comenzamos por demostrar unas desigualdades num´ricas: e 1 Lema 9.15) pudiera darse la igualdad. 2 (9. o sea que q ∈ [2.17) Demostraci´n. o Asumamos que q = r > p. Ahora.7. queda que a ap b q + p q 2 ≥ 1 p (a − bq )2 + a2 b2 . vemos que ap b q + p q 2 − q−p 1 p (a − bq )2 ≥ ap a q b2 = a2 b2 q2 =⇒ Eq.

X. lo que completa la prueba del teorema.4. Sean A. q AXB = XB p B = XB q = XB q XB q Ap X XB q + = + . tendremos que D1 Y = Y D2 . o Corolario 9. i.4. Si se tiene que o que Ap X − XB q 2 = AXB 2 Ap X p XB q q 2 ⇐⇒ Ap X = XB q .6. As´ ı.7). p y q como en el Teorema 9.17) es en realidad una igualdad. Asumamos que Ap X = XB q . q p Llegamos a que D1 Y = Y D2 .9.4. llamando Y = U ∗ XV .15) y (9. o Esto se observa en la demostraci´n del Teorema 9. .18) + = AXB 2 2 .4. Observaci´n 9.4. B. la desigualdad (9. Como antes. ı o A partir de lo anterior pueden encontrarse condiciones necesarias y suficientes para que se satisfagan las igualdades en (9. q p con lo cual. y por ende AX = XB p .j∈In Por la desigualdad (9. la desigualdad (9.j=1 2 2 2 λ2 µ2 |yij |2 i j 2 1 Ap X − XB q r2 + AXB .4 Desigualdades de Young para matrices 173 AXB = U (D1 Y D2 )V ∗ = U λi µj yij V ∗.16) aplicada a cada par a = λi y b = µj . Luego p p Ap X = U D1 U ∗ X = U [D1 (U ∗ XV )] V ∗ y q q XB q = XV D2 V ∗ = U [(U ∗ XV ) D2 ] V ∗ . tenemos que Ap X XB q + p q 2 n = 2 i. ya que la desigualdad que se presenta o all´ es en realidad una igualdad.j=1 q λp µj i + p q n 2 |yij |2 n 1 ≥ 2 r = λp i i. Se tiene que Ap X XB q + p q Demostraci´n.17) asegura que = 0.7.9. donde D1 = diag(µ(A) ) y D2 = diag (µ(B) ).8. como se demuestra a continuaci´n. o sea que Ap X = XB q . como se observ´ en el Lema 9. (9. tenemos A = U D1 U ∗ . B = V D2 V ∗ .j=1 − 2 µq j |yij | + i.7. j ∈ In . Para el caso p = q = 2. es decir que λp yij = yij µq =⇒ λi yij = yij µjp i j q q para todos los i. p q p q Vemos que vale la igualdad entre las matrices. que implica la igualdad de sus normas.

Es lo mismo que el Corolario 9.4. Sean a. Sean p. o Observaci´n 9. 2 donde s = m´ ın{p. +∞) tales que sj Ap X XB q + p q = sj (AB) 1 p + 1 q = 1. (9. tambi´n tenemos a ≥ bq/p . q ∈ [1. si ap ≥ bq . Observar que la o condici´n Ap = B q implicaba igualdad de matrices. q ∈ [1. Luego (9.4 Desigualdades de Young para matrices 174 Corolario 9. Adem´s. q}. entonces q Ap X XB q + p q Ap X XB q + + ABX p q 1 Ap X − XB q s 2 ≥ 2 2 Ap X XB q + − ABX p q Ap X XB q + − ABX p q Ap X XB q + − AXB p q 2 + AXB 2 2 2 2 2 2 . Entonces ⇐⇒ Ap = B q .24) ≥ 2 2 + AXB 2 ≥ . y como e 1/s − 1/p ≥ 0.22) (9. (9.9. b ∈ R∗ . En efecto. q ∈ [1.20) (9.19) recordamos que α = ap + bq ≥ ab.9 aplicado a X = I.24) e a a puede usarse para demostrar de manera directa los corolarios anteriores.23) (9.21) p q donde s = m´ ın{p. X ∈ o 1 Mn (C). q ∈ [1. Sean p. Para obtener (9. la demostraci´n es an´loga.4.4. Tambi´n. para todo j ∈ In Demostraci´n.21). s p q q p Si b ≥ a . q}. Es consecuencias del Corolario 9. podemos mostrar que si A.4.20). para alguna U ∈ U(n) Demostraci´n. para probar (9.12.22) tambi´n es m´s fuerte que (9.10.15). Notar que (9. (α +ab)2 −(α −ab)2 = 4αab ≥ 4a2 b2 .10. +∞) cumplen que p + 1 = 1. . y p. . +∞) tales que o + ap b q + p q 2 1 p + . e y obtenemos (9. 1 q = 1. y p. o Corolario 9.17). con lo cual α2 ≥ α2 −2αab+2a2 b2 = (α −ab)2 +a2 b2 . 1 1 − s p ap + ab ≥ =⇒ 1 1 − s p bq + bq/p b = 1 1 + s q bq =⇒ 1 p ap b q |a − bq | ≥ + − ab. +∞) tales que U Ap X XB q + p q U ∗ = |AB| 1 p + 1 q = 1. Entonces ⇐⇒ Ap = B q . B ∈ Mn (C)+ .4. Partiendo de estas desigualdades y siguiendo el o a razonamiento de la demostraci´n de (9.19) ≥ 2 ap b q + − ab p q 2 + a2 b 2 2 ap b q ap b q + + ab ≥ + − ab p q p q p q a b 1 p |a − bq | ≥ + − ab .11. s p q + 4a2 b2 y (9.

4. donde r = m´x{p. B. +∞) tales que o e m´s simple de la desigualdad num´rica de H¨lder se escribe a e o (|a|p + |b|p ) p (|c|q + |d|q ) q ≥ |ac + bd| . q}. +∞) tales que p + 1 = 1. Dadas C.28) es q . (9. Sean A. tenemos a 1 1 |A|p X + X |B|q p q 2 ≥ 2 1 |A|p X − X |B|q 2 r 2 2 + AXB ∗ 2 2 . a 9. q}.26) que es la extensi´n natural de (9.5. q ∈ (1. D ∈ Mn (C)+ tales que AD = DA y BC = CB. D ∈ Mn (C) y C ∗ C + D∗ D ≤ I . podemos escribir: a u (|a|p + |b|p ) p = max {|ac + bd| : |c|q + |d|q = 1} . la forma (9. c. si C = D = I. q ∈ [1.4. A∗ D = DA∗ .1 (Caso num´rico).” Proposici´n 9. (9. si C = D = I se recupera (9. B. En particular. a Demostraci´n. Sean A.24) de manera an´loga. Dados p.9. Entonces q 1 1 |A|p X |C|p + |D|q X |B|q p q 2 ≥ 2 1 |A|p X |C|p − |D|q X |B|q 2 r 2 2 + ADXC ∗ B ∗ 2 2 . D ∈ Mn (C) matrices cualesquiera. Extender las desigualdades o (9.17) a matrices cualesquiera.17). Sean 1 X ∈ Mn (C) y p.29) A C B D ≥0. que tiene que ver con la frase “el dual de p 1 1 1 + 1 q = 1. d ∈ C. Entonces se verifica que o (A∗ A + B ∗ B)1/2 = m´x |C ∗ A + D∗ B| : C.27) (9.5. C. tenemos que o A∗ A + B ∗ B A∗ C + B ∗ D C ∗ A + D∗ B C ∗ C + D∗ D = A C B D ∗ (9. a Ejercicio 9. .13. Sean X ∈ Mn (C) y p. BC = CB 1 y B ∗ C = CB ∗ . q ∈ [1.22)-(9. B ∈ Mn (C). Sean A. para todo cuarteto a.25) donde r = m´x{p. D ∈ Mn (C) tales que AD = DA.5 Desigualdades tipo H¨lder para matrices o 175 Ejercicio 9.14. +∞) tales que p + 1 = 1. . C. M´s a´n.2. En particular.5 Desigualdades tipo H¨lder para matrices o 1 p Observaci´n 9. b. Entonces q 1 p 1 A XC p + Dq XB q p q 2 ≥ 2 1 Ap XC p − Dq XB q r2 2 2 + ADXCB 2 2 .

como o 1/p f (t) = t es mon´tona de operadores. (9.31).31). Sea A. Sean A. observar que / S = ker(A∗ A + B ∗ B) = ker(A∗ A) ∩ ker(B ∗ B) = ker A ∩ ker B .5. B ∈ Mn (C)+ . con lo cual o o asumimos r < ∞. con lo cual Ap + B p ≥ B p . M´s a´n. (9.4. tenemos que: α1− p A∗ A + β 1− p B ∗ B α r A∗ C + β r B ∗ D 2 1 1 1− 2 ∗ α r C ∗ A + β r D∗ B α q C C + β 1− q D∗ D α2−p A α2−q C 1 1 1 1 β 2−p B β 2−q D 1 1 1 1 2 2 1 1 = ∗ α2−p A α2−q C 1 1 1 1 β 2−p B β 2−q D 1 1 1 1 ∈ M2n (C)+ .8. A∗ A1 + B1 B1 ∈ Gl (n)+ . (9. se tiene que o 1 q r |C|q + |D|q ≤ I =⇒ |A|p + |B|p 2 p ≥ α r C ∗ A + β r D∗ B 1 1 2 . o X Y∗ Y I ≥ 0 ⇐⇒ X ≥ Y ∗ Y ≥ 0 . q ∈ [2. 1 1 Teorema 9.32) Demostraci´n. llegamos a que o (A∗ A + B ∗ B)1/2 ≥ |C ∗ A + D∗ B| . (9. y llamemos β = 1 − α.2. Demostraci´n. El caso r = ∞ (o sea. fue visto en la Proposici´n 9.31) obtenemos una igualdad en la Eq. p. ∗ Sean A1 = A|S ⊥ ⊕ I|S . Entonces se tiene que (Ap + B p ) p ≥ α1− p A + (1 − α)1− p B . Consideremos entonces 0 < α < 1. a e Lema 9. 1 1 una cuenta f´cil mustra que tambi´n obtenemos una igualdad en la Eq. Luego. sale que (Ap + B p )1/p ≥ B. +∞] que cumplen la ecuaci´n p + 1 = 1 − 1 . cuando A∗ A + B ∗ B ∈ Gl (n)+ . . si consideramos a u C = A(A∗ A + B ∗ B)−1/2 y D = B(A∗ A + B ∗ B)−1/2 . Para todo α ∈ (0. 1]. tenemos que Ap ≥ 0. dadas X ∈ Mn (C)+ e Y ∈ Mn (C). Cuando α = 0. B. p = q = 2). Dado que (1/2 − 1/p) + (1/2 − 1/q) = 1/r. C y D ∈ Mn (C). B1 = B|S ⊥ ⊕ I|S . Tomando 1 ∗ ∗ C = A1 (A∗ A1 + B1 B1 )−1/2 . Caso an´logo ocurre para o a α = 1.5.6 asegura que.30) Por lo tanto.3. +∞) y α ∈ [0. tenemos que e o (Ap + B p ) p = α α 1 −1 p 1 1 1 p A +β β −1 p p B 1 p ≥ α1− p A + β 1− p B . si C ∗ C + D∗ D ≤ I. Luego. Usando que f (t) = t1/p tambi´n es c´ncava de operadores. (9. +∞) y r ∈ (1.9. p ∈ (1.5 Desigualdades tipo H¨lder para matrices o 176 Recordemos que la Proposici´n 3. Cuando A∗ A + B ∗ B ∈ Gl (n)+ . si llamamos β = 1 − α. D = B1 (A∗ A1 + B1 B1 )−1/2 .5. 1). Usando que f (t) = t1/2 es mon´tona de operadores. tenemos que A∗ A + B ∗ B ≥ |C ∗ A + D∗ B|2 .

Demostraci´n. El siguiente l´mite existe y da el ı A ∨ B = lim Ap + B p p→∞ 1 p -supremo de A y B: = m´ ın C ∈ Mn (C)+ : A C y B C . para todo m ∈ N.30) y el hecho de que |C ∗ |q + |D∗ |q ≤ I. resulta que u r (A + B ) = (A ) + (B ) 1 q q r q r q r r q r r q ≥ −1 q 1 2 1− r q (Ar + B r ) .9.5. usando que t r es MOP y multiplicando por 2 Aq + B q 2 1 q . Entonces se verifica: o 1. En resumen.5. La funci´n [1 . Usando la Eq. Para cualquier p ∈ [1. q ∈ [1 . +∞) o p −→ Ap +B p 2 1 p es creciente (relativa al orden ≤ de Mn (C)+ ). µ1 (B)}. y por lo tanto M I ≥ A +B p . Sean A. p→∞ 1 . Dadas C. Sean r. D ∈ Mn (C)+ . escribimos C D si C m ≤ Dm . Aplicando el Ejercicio 3.6. 2. Si aplicamos el Lema 9.5. (9. µ1 (B p )} = m´x{ Ap a a p p 1 sp .16 vemos que debe existir el l´ ımite A∨B = sup p∈[1 . llegamos a que 1 r ≥ Ar + B r 2 . Definici´n 9.9. la funci´n p −→ A +B p es creciente y acotada o 2 2 superiormente.5 Desigualdades tipo H¨lder para matrices o 177 De acuerdo al Lema 9. 1 1 2 2 2 (|A|p + |B|p ) p α r A∗ C + β r B ∗ D 2 1 1 (|C|q + |D|q ) q α r C ∗ A + β r D∗ B 2 1 1 ≥ ≥ α1− p A∗ A + β 1− p B ∗ B α r A∗ C + β r B ∗ D 2 2 1 1 α r C ∗ A + β r D∗ B α1− p C ∗ C + β 1− p D∗ D ∈ M2n (C)+ . tenemos que α1− p A∗ A + β 1− p B ∗ B ≤ (|A|p + |B|p ) p con lo cual concluimos que 2 2 2 2 y 2 α1− q C ∗ C + β 1− q D∗ D ≤ (|C|q + |D|q ) q . Luego. Bp sp } ≥ p Ap + B p 2 p 1 sp . +∞) tenemos que a M p ≥ m´x{µ1 (Ap ).3 para los o q 1 n´meros α = 2 y p = > 1. estamos hechos. B ∈ Mn (C)+ . +∞) tales que r < q.5. o Esta relaci´n es un orden parcial denominado orden espectral. o Proposici´n 9.5.3.+∞) Ap + B p 2 1 p = lim p→∞ Ap + B p 2 1 p = lim (Ap + B p ) p . Sea M = m´x{µ1 (A).

−→ p→∞ An´logamente se muestra que (A ∨ B) ≥ B m . A ∨ B es el supremo de A. tomemos el q ∈ (1. La otra desigualdad se obtiene de lo anterior.6. su prima tambi´n la hacemos nula).34) y el teorema citado aseguran que p t r |A|p + |B|p 2 p ≥ 2t 1 α r CA + β r DB 2 1 1 2 . Sea ahora C ∈ Mn (C)+ tal que A.34) Vamos a aplicar el Teorema 9. . +∞] tales que 1 + 1 = 1 − 1 .35) nos queda que |CA + DB|2 ( C q (|A|p + |B|p ) p ≥ |EA + F B|2 = + D q) q 2 =⇒ la Eq. (9.7. resulta que (A ∨ B) = lim As´ A ∨ B ı. (9. Fijado p ∈ [2. Por el caso anterior obtenemos que e C q 2 + D q = 1 =⇒ (|A|p + |B|p ) 2/p ≥ αq C A + β q D B 1 1 2 = |CA + DB|2 . C. (9. o |C ∗ |t + |D∗ |t 2 1 t ≤ |C ∗ | ∨ |D∗ | ≤ I para todo t ∈ [1. Tomando p > m. o se tiene que |C ∗ | ≤ I =⇒ |C ∗ | I y lo mismo para D. Fijemos p ∈ [2. En tal caso. m 1 Akm +B km 2 1/k ≤ C m . D ∈ Mn (C) (alguna de las dos no nulas). Entonces q C q + D q 2 q |A|p + |B|p 2 2 p ≥ |CA + DB|2 .9. (9. ∞). 2] tal que 1 se tenga la igualdad p + 1 = 1. y as´ a ı A. Corolario 9. B km ≤ C km . Por la Eq. B A ∨ B. y as´ Am = (Ap ) p ≤ (Ap + B p ) p = (Ap + B p ) p m m m 1 m m − − (A ∨ B)m . +∞) y r ∈ (1. B.5 Desigualdades tipo H¨lder para matrices o 178 ı Fijemos m ∈ N. para todo m ∈ N . y usando que t k es MOP. la Eq. +∞) . 1] y β = 1 − α. dadas C. Para ello. (9.5. Si ahora suponemos m´s que antes: que C q + D q = 1. + F 2 q = 1. C. entonces podemos elegir α = C q a −1 −1 q y β = D = 1 − α. D ≤ 1.33) . Reemplazando C = α q C y D = β q D.4. Dados α ∈ [0. Luego. Sean A. consideramos E=( C con lo cual E q q + D q) −1/q C y F =( C q + D q) −1/q D. D ∈ Mn (C). considerando el l´ ımite para p → ∞. se tiene que C + D |A| ∨ |B| ≥ |CA + DB|2 . Luego p→∞ Ap + B p 2 m p = lim k→∞ Akm + B km 2 1 k ≤ Cm .5.35) En el caso general.33) Por lo tanto. se tiene que t p es MOP. Por la Proposici´n 9.5. queda que C = D = 1 (si alguna era nula. Esto vale para cualquier m ∈ N. Supongamos en principio que C . Para cada par m. tomemos t ∈ [2. k ∈ N tenemos que Akm . 1 1 Haciendo t → ∞ (con lo cual r → q). Demostraci´n. B con respecto al orden espectral. ∞). 2 (9. B C. tenemos que (|A|p + |B|p ) p ≥ α q CA + β q DB .

6 La t´cnica alternativa e En esta secci´n repasaremos y mezclaremos una serie de definiciones y resultados de los o Cap´ ıtulos 4 y 7 que usaremos seguido en el resto de este Cap´ ıtulo.9. . contados con multiplicidad. Sea A ∈ Mn (C) con autovalores λ1 (A). Entonces los autovalores de Λk A est´n dados por a λJ (Λk A) = i∈ J λi (A) . y ∈ Rn tales que x > 0 e y > 0.n . Es decir que n n n x↓ i i=k ≥ i=k ↓ yi para todo k ∈ In . que esto no vale si s´lo se tiene que x o log w y. . y entonces. Ahora vienen los resultados que relacionan la mayorizaci´n logar´ o ıtmica con la usual (ver Secci´n 4. n (9.4): Recordemos que.n . . escribimos x log y si x log w y y. se tiene que o k k ρ Λ A = i=1 k |λi (A)| y Λ A k sp = s1 Λ A = i=1 k si (A) . Si x o el caso de la mayorizaci´n com´n. . (9. Primero enunciamos los relativos a las propiedades espectrales de los productos alternados de matrices (Secci´n o 7.6. . .2.n = i∈ J si (A) J∈Qk.36) Si x > 0 e y > 0.3): Teorema 9. y ∈ Rn .1. λn (A). . Sea A ∈ Mn (C). como en log Observaci´n 9.6. adem´s.37) Tener cuidado. dados x. escribimos x w y si o + log k k x↓ i i=1 ≤ i=1 ↓ yi para todo n k ∈ In . a i=1 xi = i=1 yi . si ordenamos a los a autovalores λ1 (A). porque se usa la igualdad de los productos hasta n. se cumplen desigualdades invesas para las entradas mas o u peque˜as de x e y. J ∈ Qk.3. Corolario 9. y ordenados en forma decreciente. λn (A) de A con m´dulos decrecientes. . Sea k ∈ In . Sea k ∈ In .6. contados con multiplicidad. Adem´s. .6 La t´cnica alternativa e 179 9. Entonces los valores singulares de Λk A son s Λk A = sJ Λk A J∈Qk. Sean x.

w 2. se usaba esa propiedad para la funci´n t → (et )p = ept .4 se puede generalizar. pero aplicada a los productos e alternados. o 9. y ∈ Rn . el Corolario 4. o 1. El caso k ≥ 1 se obtiene considerando la desigualdad anterior para los tensores alternados Λk (A). Entonces. para todo k ∈ In . en este caso. entonces xp w yp para todo p ∈ R+ .6. Si x > 0 e y > 0. se tiene que 1.4: o ıa o Desigualdad de Weyl Proposici´n 9.7 Primeras aplicaciones 180 Proposici´n 9.7 Primeras aplicaciones En esta secci´n veremos tres desigualdades importantes que se prueban en forma directa o usando la t´cnica de extrapolar una desigualdad conocida. o .5. Es a o decir que.6. o + 1. entonces x log y implica que xp y p para todo p ∈ R .36) para los vectores |µ(A)| o o y s(A). Observar que. Notar que. w 2. La segunda parte se deduce de la Proposici´n 9. sin cambiar la prueba. Observaci´n 9. Para k = 1. Si x log w y. basta notar que ρ(A) ≤ A sp .4. En efecto.6.2. |µ(A)| log s(A). ıa log 2. por el Corolario 9. la Proposici´n 9. Sea A ∈ Mn (C).6. El caso m´s usado de la Proposici´n 9.1 (Mayorante de Weyl).6.2.6. si hubese quedado x y. tenemos que k k |µ(A)| ↓ i i=1 = ρ(Λ A) ≤ Λ A k k sp = i=1 si (A) . entonces x w y implica x w y. si o remplazamos las funciones f (t) = tp por cualquier funci´n f : R+ → R tal que la o aplicaci´n t → f (et ) resulte convexa (o convexa creciente).9. deb´ cumplirse que x y . Verifiquemos las desigualdades de la f´rmula (9. Esto ser´ sumamente util a + log cuando se lo aplique a desigualdades con valores singulares de matrices.3 nos dice que. La igualdad para k = n se deduce de que | det A| = (det A∗ A)1/2 = det |A| . usando t´cnicas e de productos alternados.4 es cuando p = 1. si µ(A) denota el o vector de autovalores de A.4. Para todo p ≥ 0 se tiene que |µ(A)|p s(A)p . y ∈ Rn . si x. en el caso o demostrado.6. y luego deducir una mayorizaci´n v´ la Proposici´n 9. Sean x.7. Demostraci´n. Por otra parte.

6. Desigualdad de Horn Proposici´n 9. deducimos que s(AB) o s(BA). Demostraci´n. si A.2.e.4. (9. B ∈ Gl (n)+ . k si (AB) = Λk AB i=1 sp = Λk A · Λk B sp ≤ Λk A sp Λk B sp = i=1 si (A) si (B) .38) Demostraci´n. Ejercicio 9.3. i. (9.3 (Teorema de Horn). sn (A)sn (B) ) . i=1 si (AB) ≤ i=1 w si (BA) . B ∈ Gl (n). . Sean A.7 Primeras aplicaciones 181 Desigualdad de B.e. como | det C| = det |C| para cualquier C ∈ Mn (C). Por otro o k lado. se tiene que a n n si (AB) = det |AB| = | det AB| = | det A| | det B| = det |A| det |B| = i=1 i=1 si (A) si (B) . Aplicando esta desigualdad a Λk AB (1 ≤ k ≤ n). Por la Proposici´n 9.1. . Entonces o |µ(AB)| log s(AB) log s(A)s(B) = (s1 (A)s1 (B). La Eq. B ∈ Mn (C) tales que AB es normal. |µ(AB)| = |µ(AB)|↓ .7 (desigualdad de Kittaneh ’95): o Proposici´n 9.4.7.7. Sea µ(AB) el vector de autoo valores de AB ordenado con m´dulos decrecientes. . Adem´s.9. ya que podemos usar que o ∗ µ(AB) = µ(A1/2 BA1/2 ) ∈ R+n . . Como AB es normal.1. En particular. el Corolario 9. Sean A. µ(A) = s(A) y µ(B) = s(B). Dadas A.2 asegura que. probar que µ(A1/2 BA1/2 )2 log µ(AB 2 A). a .7. que tambi´n es normal. para todo k ∈ In se tiene que k k n n µi (AB) ≤ i=1 i=1 µi (A)µi (B) y i=k µi (AB) ≥ i=k µi (A)µi (B) .38) se deduce de lo anterior y de la Observaci´n 9. Simon La que sigue es una variante de la Proposici´n 9. Las relaci´n |µ(AB)| o o log s(AB) se deduce de la Proposici´n 9. obtenemos que e k k s(AB) log w s(BA) . B ∈ Gl (n)+ . Luego sp = ρ(AB) = ρ(BA) ≤ BA = s1 (BA) .9. Entonces o |||AB||| ≤ |||BA||| para toda NUI ||| · ||| en Mn (C).6.7. Comparar con el Teorema 9. para todo k ∈ In . i.4 de m´s adelante. k ∈ In .6. se tiene que AB o s1 (AB) = AB sp sp = ρ(AB).

42) M´s a´n.7. eA ∈ Gl (n)+ y A = log eA . Recordemos que la exponencial de A es la matriz e A = exp(A) = Am . . Para hacer esto se usa que. entonces λ(eA ) = eλ(A) := (eλ1 (A) . Si A > 0.8.1. Ar = er log A para todo r ∈ R. en el sentido del a u c´lculo funcional para autoadjuntas visto en el Cap´ a ıtulo 6. no es dif´ verificar con el mismo tipo de argumentos que ´ ıcil eA = lim m→∞ I+ A m . cuando A ∈ H(n). M´s a´n. donde f (t) = et . si A ∈ H(n).8 La exponencial 182 9. se puede ver que si AB = BA =⇒ eA+B = eA eB .40) En particular. Aplicando los resultados o conocidos para dicho c´lculo (en particular 6.1). . se tiene que eA = f (A). En forma similar puede verse que. se puede ver que. esto dice que σ eA = eσ(A) y que eA ∈ Gl (n) para toda A ∈ Mn (C). Por medio de una prueba similar a la del Corolario 1.8 La exponencial Generalidades Sea A ∈ Mn (C). se tiene que eSAS −1 = SeA S −1 .39). (9. m Por ultimo. 4. m! m=0 ∞ (9. se tienen las siguientes propiedades: Si a A ∈ H(n). esto sirve para probar que (eA )−1 = e−A . . . Entre otras cosas. si λ(A) = (λ1 (A) . .2 (usando el Teorema 1 de Schur 1. t ∈ R.39) La serie converge absolutamente. (9. a u . Por la teor´ general de series de potencias (con o ıa variables que conmutan. . entonces eA ∈ Gl (n)+ y (eA )1/2 = e 2 . B ∈ Mn (C). porque eA e−A = eA−A = I.1. 2. eλn (A) ) . Sean A. entonces 1. . al igual que con los polinomios. para toda S ∈ Gl (n) .3). para usar el binomio de Newton). porque ∞ m=0 Am m! ∞ ≤ m=0 A m = e m! A < ∞.41) Observaci´n 9. (eA )r = erA para todo r ∈ R. A (9. Esto puede probarse diagonalizando a A o bien tomando l´ ımite de polinomios en la f´rmula (9. entonces A = elog A .6.9. 3. . λn (A) ).

Por la desigualdad (9. m X −Y m = j=0 m−1 X m−1−j (X − Y )Y j X m−1−j j=0 m−1 ≤ X −Y Yj M m−1 . m2 m∈N m m Xm − Ym ≤ m Xm − Ym e A + B Si mostr´ramos que C(A. −→ m→∞ . o Teorema 9. (9. la cosa se pone mucho m´s brava. B) = sup Cm (A. mediante una t´ o ıpica cuenta telesc´pica puede verse o que X m − Y m = m−1 j=0 m−1 X m−1−j (X − Y )Y j para todo m ∈ N. . Dadas A y B ∈ Mn (C). m ∈ N. (9.8 La exponencial 183 F´rmula de Lie-Trotter o Lamentablemente. obtenemos que Xm − Ym = o A+B (A + B)k = 1+ + − m mk k! k=2 1 = m2 = ∞ ∞ A Ak 1+ + m k=2 mk k! ∞ ∞ B Bk 1+ + m k=2 mk k! ∞ ∞ k=2 (A + B)k A − AB − I + k−2 k! m m Bk mk−2 k! − k=2 Ak mk−2 k! em B k=2 1 Cm (A.44). y que se usa sistem´ticamente para este problema. Luego del desarrollo en series de la funci´n exponencial.43) Demostraci´n. cuando A y B no conmutan. Ym = e m e m . Consideremos ahora las matrices a Xm = e A+B m .2. Y ). y es muy a A+B dificil encontrar las propiedades de e en funci´n de las de A y B.8.44) ≤ X −Y j=0 M m−1−j M j = m X − Y donde M = m´x( X . B) < ∞. se tiene la siguiente f´rmula: o eA+B = lim m→∞ em em A B m . B) e m A + B −− 0. B) . La unica herramienta o ´ que se tiene. Dadas X. Luego. Y ∈ Mn (C). A + B m A B para cada m ∈ N . Ym ) ≤ e a m m Xm − Ym ≤ m Xm − Ym e m−1 m ( A + B ) ≤ m Xm − Ym e . es la famosa f´rmula de a o Lie-Trotter que mostraremos a continuaci´n. A + B Observar que Mm = m´x( Xm . entonces tendr´ a ıamos que ≤ C(A.9.

para todo r ∈ (0.46) 1 t tiene sentido para todo Observar que e tB 2 e tA tB e tB 2 ∈ Gl (n) por lo que e tB + tB 2 e tA e tB 2 = e 2 e−tA e 2 . Sean A.2 probar que.8.9 Desigualdades de Araki y Cordes 184 Afortunadamente. (9. Entonces. se tiene que k −1 −tB −tB exp i=1 Ai = lim e m e m . B ∈ Gl (n)+ . puede obtenerse la siguiente nueva f´rmula: o eA+B = lim e tB 2 t→0 etA e tB 2 1 t . A B m m −→ Por lo tanto.2. tB tB Sug: Desarrollar el producto de las tres series asociadas a e 2 etA e 2 y aplicarles la serie de potencias de −1 < x → log(1 + x). todos ellos elementales.. e m m→∞ A1 A2 Ak m .9. (9. Extendiendo el argumento que utilizamos para probar el Teorema 9.1. B B Aparecen varios sumandos.9 Desigualdades de Araki y Cordes µ1 (Ar B r ) ≤ µ1 (AB)r . B) se pueden acotar con las series de las normas. B ∈ Mn (C). 2. eA+B − (e m e m )m = Xm − Ym − − 0 =⇒ m→∞ Otras f´rmulas relacionadas o Sean A.45) que es mucho m´s adecuada en caso de que A. e m ≤ e m ≤ e B y ∞ Ak mk−2 k! ∞ ≤ k=2 A B Ak mk−2 k! ∞ ≤ k=2 k=2 Ak ≤e k! m→∞ A para todo m ∈ N . B ∈ H(n). 1. Adem´s.8. Por ejemplo. (9.8.. Conjugando la f´rmula (9. .. Si suponemos que A. 1) o .47) 9. e 2 etA e 2 a problemas. B ∈ H(n). por lo que el caso t < 0 no crea t = 0. Ejercicios 9. . o o obtenemos esta otra versi´n de Lie-Trotter o eA+B = lim e 2m m→∞ B B em em A B m e− 2m = lim B m→∞ e 2m e m e 2m B A B m . A2 . Ak ∈ Mn (C).9.43) con la sucesi´n e 2m (que tiende a I). dadas A1 . para que la cosa pase entre matrices a positivas.3. Despues seguir pasos similares a los de la prueba del Teorema 9. lim (e m e m )m = eA+B .. Proposici´n 9. las constantes Cm (A.

≤ AB r sp para todo r ∈ [0. En tal caso = AB 2 A sp =⇒ AB 2 A ≤ 1 =⇒ B 2 ≤ A−2 =⇒ B 2r ≤ A−2r (por el Teorema 6. A log B ⇐⇒ log A log B .9.6 dice que f (x) = xr es mon´tona de operadores. o Definici´n 9. Escribiremos A log µ(B) para notar la w B si µ(A) log w µ(B).9.2.9 Desigualdades de Araki y Cordes 185 Demostraci´n. Como antes. 1) se tiene que (Ar/2 B r Ar/2 )1/r log A1/2 BA1/2 . si k k µi (A) ≤ i=1 i=1 µi (B) para todo k ∈ In .2. B ∈ Mn (C)+ . Entonces o Ar B r sp =⇒ Ar/2 B r Ar/2 ≤ I =⇒ µ1 (Ar B r ) = µ1 Ar/2 B r Ar/2 ≤ 1 . 1] . recordar que escribimos A B en lugar de µ(A) mayorizaci´n entre los autovalores de A y los de B.9. El caso general sale por homogeneidad. Sean A. sp (9. Luego o B r ≤ A−r como se asever´. o Proposici´n 9.6) =⇒ Ar B 2r Ar ≤ 1 =⇒ Ar B 2r Ar sp ≤ 1 =⇒ Ar B r sp ≤ 1 .3. Luego debemos e verificar que µ1 (Ar B r ) ≤ 1. dado que α = 0 y la desigualdad a probar es homog´nea. Sean A. En efecto. B ∈ Gl (n)+ . B o −1 por α A y α−1 A. o 1.2 (Cordes ’87 [5]). B ∈ H(n). el Teorema 6. µ1 (AB) = µ1 A1/2 BA1/2 = 1 =⇒ A1/2 BA1/2 ≤ I =⇒ B ≤ A−1 . Sean A. Es decir. basta cambiar A. Para todo r ∈ (0. B. B ∈ Mn (C)+ . Podemos asumir que µ1 (AB) = 1.48) Demostraci´n.9. o Teorema 9. DadasA. Como r ∈ (0. B ∈ Mn (C)+ . decimos que A log B si det A = det B y A log w Observar que. Si A. porque si α2 = µ1 (AB). supondremos que AB o 1 = AB sp = 1.49) 2.4 (Araki ’90 [21]). 1). (9. ya que la funci´n t → et es creciente.

se tiene que tr (B 1/2 AB 1/2 )st ≤ tr (B t/2 At B t/2 )s .8. o o obtenemos k k sj (A B A ) ≤ j=1 r j=1 r r r sj (ABA)r (k ∈ In ) =⇒ s(Ar B r Ar ) w s( (ABA)r ) .9.3.9. En las Proposiciones 9.1 a Λ A y Λ B. Observaci´n 9.7. Demostraci´n. La igualdad en el caso k = n se obtiene tomando determinantes. se puede corregir el exponente externo en la Eq. Aplicando la Proposici´n 9.51) Demostraci´n.9. Corolario 9. Como (Λk A)(Λk B) = Λk (AB). (9.9. u .4.50) Proposici´n 9.9. Dadas A.4 se obtiene o o µ1 ((Λk A)r (Λk B)r ) = µ1 (Λk Ar Λk B r ) ≤ µ1 (Λk A Λk B) . En el caso del Corolario 9. en la versi´n dada por la f´rmula (9.46).9.9. B ∈ Gl (n)+ . Usando el Corolario 9. con el exponente r = t−1 .4 y el Corolario 9. 1). k k ∈ In k y j=1 µj (A B ) r r 1/r = j=1 µj (AB) .5 para las NUI’s A p = (tr |A|p )1/p .50) Se usa que si ( (ABA) ) = µi ( (ABA)r ) = µi (ABA)r = si (ABA)r . µj (A B ) j=1 r r 1/r ≤ j=1 µj (AB) . mostrar la famosa desigualdad de Araki-Lieb-Thirring: Dadas matrices A. Sea ||| · ||| una NUI en Mn (C). y usando la Proposici´n 7.4 a las matrices A2 y B y la Proposici´n 4. 1) .5. basta aplicar lo conocido a las matrices At y B t . (A elog A+log B log r/2 B A r r/2 1/r ) (A1/2 BA1/2 ) para todo r ∈ (0. 1).8.1 y 9.9. obtenemos que (A1/2 BA1/2 ) =⇒ log A + log B log(A1/2 BA1/2 ) . Por la f´rmula de Lie-Trotter. Ejercicio 9.3. En efecto. el Teorema 9. Como o σ(Ar/2 B r Ar/2 ) = σ(Ar B r ) basta ver que k k n n y σ(A1/2 BA1/2 ) = σ(AB) .9. Aplicando el log Corolario 2. o valen las desigualdades inversas si uno considera exponentes t ≥ 1. podemos deducir que k 1/r µj (Ar B r ) j=1 k 1/r 1/r = 1/r µ1 (Λk (Ar B r )) ≤ µ1 (Λ (AB)) = j=1 k µj (AB) . (9. Fijemos un r ∈ (0. B ∈ Mn (C)+ . para todo i ∈ In .9.4.6.5.5.2. B ∈ Gl (n)+ . Aplicando el Teorema 9. para todo par de n´meros s. (9. o o o o elog A+log B = lim (Ar/2 B r Ar/2 )1/r r→0 Por el Teorema de Araki. se cumple que o log A + log B log(A1/2 BA1/2 ) . t ≥ 1.9.9.9. se tiene que |||Ar B r Ar ||| ≤ |||(ABA)r ||| para todo r ∈ (0.9 Desigualdades de Araki y Cordes 186 Demostraci´n. Dados A.

para todo par X. se tiene que tr CD ∈ R+ . fk (XY ) = fk (Y X) y fk (X 2m ) ≤ fk ([X ∗ X]m ) . llegamos a que s(eA ) 4. uno tiene que |ez | = eRe z = |eRe z |.2.10 Desigualades entre exponenciales 187 9. entonces σ(CD) ⊆ R+ y m´s a´n.52) . B ∈ Mn (C). al vector de autovala u 1/2 1/2 n ores µ(CD) = µ(D CD ) ∈ R+ . Usando que B m sp ≤ B m y que s1 (B)2 = B 2 = B ∗ B o sp sp que s1 (B m )2 ≤ s1 (B)2m =⇒ s1 ( (B ∗ )m B m ) ≤ s1 (B ∗ B)m .10 Desigualades entre exponenciales Si z ∈ C. Fijado k ∈ In . (9. definamos las siguiente funci´n continua: o o k fk : Mn (C) → R+ dada por fk (X) = i=1 |λ(X)|↓ . Demostraci´n.9. se lo puede pensar ordenado en forma decreciente.10.10. tenemos m´s: a k k sp . tenemos finalmente que s(eA ) w w log s(eRe A ). Sea ||| · ||| una NUI en Mn (C). En particular. Y ∈ Mn (C) y todo m ∈ N. A Eligiendo ahora B = exp m y aplicando Lie-Trotter llegamos a que k k A∗ k A si ( eA eA ) ≤ i=1 i=1 ∗ si [e m e m ]m − − −→ m→∞ i=1 si eA ∗ +A para todo k ∈ In . para todo m ∈ N y toda B ∈ Mn (C). Demostraci´n. Recordemos que si C.10. Notar que todas estas fk cumplen que. se tiene que o |||eA ||| ≤ |||eRe A ||| . Ejercicio 9. obtenemos si ( (B ) B ) ≤ i=1 i=1 ∗ m m si (B ∗ B)m para todo k ∈ In y todo m ∈ N . Veamos qu´ pasa en matrices: e Proposici´n 9. Para toda A ∈ Mn (C). Lema 9.1. Tomando raices cuadradas. Aplicando esto a Λk B. i para X ∈ Mn (C) .3. D ∈ Mn (C)+ . se tiene que |λ(eA+B )| w µ (eRe A eRe B ) y | tr eA+B | ≤ tr (eRe A eRe B ) . Usando ahora la Proposici´n o s(eRe A ).4. Dadas A. Encontrar A ∈ M2 (C) tal que |||eA ||| < |||eRe A ||| para toda NUI.3.

10. ´ o o . B ∈ H(n). Proposici´n 9. La igualdad vale porque λ(XY ) = λ(Y X). La otra desigualdad se prueba usando que la funci´n f (X) = | tr X| tambi´n cumple las condiciones o e de (9. llegamos a que |λ(eA+B )| w µ(eRe A eRe B ). B ∈ H(n).7. y usando Lie-Trotter (y que las fk son continuas).52) para todo k ∈ In . observar que para todo r ∈ In y todo m ∈ N. Sea ||| · ||| una NUI en Mn (C). tenemos que fk (eA+B ) ≤ fk (e A∗ +A 2 A B A∗ A 1 B B∗ 1 e B+B ∗ 2 ) = fk (eRe A eRe B ) .10. se tiene que o ||| eA+B ||| ≤ ||| eA eB ||| . y haciendo el resto de la cuenta igual. pero no ponemos m´dulo en el ultimo t´rmino de (9.4.10 Desigualades entre exponenciales 188 En efecto. Queda m m fk (e Mm e Mm )Mm ≤ fk (e Mm e Mm ) 2 Mm (e Mm e Mm ) 2 Mm .53). se tiene que ρ(Λr X 2m ) = ρ(Λr X)2m ≤ Λr X 2m sp = Λr X ∗ X m sp = ρ(Λr [X ∗ X]m ) . tenemos que o s(eA+B ) = µ(eA+B ) = |µ(eA+B )| w µ(eA eB ) w s(eA eB ) . Observaci´n 9. (9. Demostraci´n. Por la Proposici´n 9. Tomando l´ ımite m → ∞. La sutil diferencia con la Eq. deducimos que |λ(X 2m )| w µ([X ∗ X]m ). se llega a que fk (XY )2 m m−1 tan s´lo en o ≤ fk [ (X ∗ X)2 (Y Y ∗ )2 ]2 m−2 ≤ · · · ≤ fk (X ∗ X)2 m−1 (Y Y ∗ )2 m−1 Pongamos ahora X = exp 2A .10. con lo que se obtiene la desigualdad m´s general: Si f es de la clase T. o a f (eA+B ) ≤ f (eRe A eRe B ) . Repitiendo esto.1 (mayorante de Weyl). Dadas A. o sea la desigualdad de o (9.3 puede rehacerse para o ´ e una tal funci´n. fk (XY )2 m = fk [ Y ∗ X ∗ XY ]2 ≤ fk [ (XY )∗ (XY ) ]2 ∗ ∗ 2m−1 = fk [ (X X) (Y Y ) ] . pero coinciden si Y ∈ Mn (C)+ ). Toda la cuenta del Lema 9.3 y el hecho de que A. Por el Lema 9.52) es que aca no pedimos que f sea positiva.53) para todo m ∈ N y todo par X. decimos que f es de la clase T.9.5. Por lo tanto. donde la ultima mayorizaci´n sale de la Proposici´n 9.52) (sale usando que f (Y ) ≤ fn (Y ). B ∈ Mn (C).6. para todo par A. m−1 m−1 m−1 donde la ultima igualdad vale porque [ Y ∗ X ∗ XY ]2 ´ difiere de [ X ∗ XY Y ∗ ]2 “pasar” el primer Y ∗ al final.10.4. Y = exp 2B y Mm = 2m . Si una funci´n f : Mn (C) → R es continua y cumple las condiciones o o f (XY ) = f (Y X) y |f (X 2m )| ≤ f ([XX ∗ ]m ) (9. Y ∈ Mn (C). Como esto vale para todo k ∈ In .

Supongamos que A = o i=1 µi Pi y que B = j=1 k h λj Qj .3. si u⊗v ∈ Cn ⊗Cm y abreviamos L = log(A ⊗ B)(u ⊗ v).11 Desigualdad de Ando-Johnson-Bapat Logaritmos Proposici´n 9.54) para A. Notemos que (Pi ⊗Qj )(i. mostrar que o tr eA+B ≤ tr eB e2A eB 1/2 (9.5. k h Demostraci´n.7. Sean A ∈ Gl (n)+ y B ∈ Gl (m)+ . ¿Esto es mejor o peor que Golden-Thompson? 9. B ∈ H(n) .10. Entonces se verifica que o log(A ⊗ B) = (log A) ⊗ Im + In ⊗ (log B) .10.10.10.1. Luego A⊗B = i=1 j=1 µi λj Pi ⊗ Qj .11. Es consecuencia directa del Lema 9. entonces o tr eA+B ≤ tr eA eB . B ∈ H(n). o Ejercicio 9. Si A. La igualdad en el resto de los elementos de Cn ⊗ Cm se obtiene por linealidad. Usando la Proposici´n 9. Demostraci´n.6 (Desigualdad de Golden-Thompson).j) es un sisitema de proyectores para Cn ⊗Cm . Luego.9.11 Desigualdad de Ando-Johnson-Bapat 189 Proposici´n 9. . se tiene que k h L = i=1 j=1 k log(µi λj )[Pi ⊗ Qj (u ⊗ v)] h h k = i=1 k log(µi ) j=1 Pi (u) ⊗ Qj (v) + j=1 h log(λj ) i=1 h Pi (u) ⊗ Qj (v) k = i=1 k log(µi ) Pi (u) ⊗ j=1 Qj (v) h + j=1 log(λj ) i=1 Pi (u) ⊗ Qj (v) = i=1 log(µi )[Pi (u) ⊗ v] + j=1 k log(λj )[u ⊗ Qj (v)] h = i=1 log(µi )Pi (u) ⊗v+u⊗ j=1 log(λj )Qj (v) = [(log A) ⊗ Im ] (u ⊗ v) + [In ⊗ (log B)] (u ⊗ v) .

Sean A. B ∈ Gl (n)+ . por la Proposici´n 9.3. +∞). Consideremos la funci´n Φ : L(Hn ⊗ Hn ) → Mn (C) definida en la Proposici´n o o o 8.6 deducimos que Φ(log X) = (log X)S ≤ log(XS ) = log Φ(X) para todo X ∈ Gl(Hn ⊗ Hn )+ .3. log A ⊗ B = (log A) ⊗ In + In ⊗ (log B).14.5.9.11.2.2 sabemos que o log(A ◦ B) ≥ (log A + log B) ◦ In .11 Desigualdad de Ando-Johnson-Bapat 190 Corolario 9. Demostraci´n. la funci´n a o t → log T es ∩OP en (0. . De acuerdo al Teorema de mayorizaci´n de Schur 5.3. Adem´s. tenemos que n n n log i=k µi (A ◦ B) = i=k µi (log(A ◦ B) ) ≥ i=k µi ( (log A + log B) ◦ In ) . y que Φ(A ⊗ B) = A ◦ B. µi ( (log A + log B) ◦ In ) ≥ i=k i=k µi (log A + log B) .11. as´ que o ı log(A ◦ B) = log Φ(A ⊗ B) ≥ Φ log(A ⊗ B) = Φ (log A) ⊗ In + In ⊗ (log B) = (log A) ◦ In + In ◦ (log B) . Sean A. para todo k ∈ In . como se afirmaba.1. Recordar que Φ(T ) = TS (T ∈ L(Hn ⊗ Hn ) ) para cierto subespacio S ⊆ Hn ⊗ Hn .1. Luego. Por el Corolario 9.1.11. por el Corolario 6. Ahora bien.3. B ∈ Gl (n)+ . B ∈ Mn (C). Demostraci´n.4. Ando de la que fue llamada muchos a˜os “conjetura n de Johnson-Bapat”: Teorema 9. aplicando el Teorema 6.1. k ∈ In . Por el Teorema de Weyl 2. La desigualdad Ahora daremos la prueba obtenida por T. Entonces n n µi (A ◦ B) ≥ i=k i=k µi (AB) para todo k ∈ In .11. o (log A + log B) ◦ In y entonces n n log A + log B. para A. Entonces log(A ◦ B) ≥ (log A + log B) ◦ In .

Por lo tanto. con lo que queda demostrado el teorema. Este teorema mejora el resultado de Bapat-Sunder: o n n µi (A ◦ B) ≥ i=k i=k µi (A)µi (B) para todo k ∈ In .9.7.3: e Teorema 9. de acuerdo al Teorema de Horn (Proposici´n 9. como se quer´ demostrar. log A + log B o n n log(A1/2 BA1/2 ). Como log B t = (log B)t . Sean A. a + para A. ıa Observaci´n 9. A ◦ B ≥ µn (AB)I y A ◦ B ≥ µn (AB t )I . Luego n 1/2 µi (log A + log B) ≥ i=k i=k µi (log(A BA 1/2 )) = log i=k µi (AB) .11. B ∈ Gl (n) .3). tenemos que o (log B t ) ◦ I = (log B)t ◦ I = (log B) ◦ I.4. k ∈ In .5 se deducen los cl´sicos teoremas de Fiedler que aseguran que.5.11 Desigualdad de Ando-Johnson-Bapat 191 Por la Proposici´n 9. B ∈ Gl (n)+ . Demostraci´n.11. k ∈ In .3 y 9.11. se tiene que o n n µi (AB) ≥ i=k i=k µi (A)µi (B) para todo k ∈ In .11. Entonces n n µi (A ◦ B) ≥ i=k i=k µi (AB t ) para todo k ∈ In .7. podemos reemplazar {log A+log B}◦I por {log A+log B t }◦I en la demostraci´n o anterior. Tambi´n verificaremos la siguiente variante del Teorema 9. Combinando estos resultados obtenemos que n n µi (A ◦ B) ≥ i=k i=k µi (AB) . pues. De los Teoremas 9.9.11.

12 Medias de operadores positivos 192 9.3. Dados A. Definici´n 9. B ∈ Mn (C)+ y C ∈ Mn (C).55) Entonces de aqu´ resulta claro el enunciado. o Demostraci´n. Lema 9. Sean A ∈ Gl (n)+ .2. o sea. ı Proposici´n 9. la α-media de A. Entonces A C C∗ B ≥ 0 ⇐⇒ B ≥ C ∗ A−1 C . Sea T = A−1/2 B 1/2 . Observemos que como (A#B)A−1 (A#B) = A1/2 (A−1/2 BA−1/2 )A1/2 = B.12. o entonces por el Lema 9.12.12. Entonces o c´lculo sencillo nos muestra que a I 0 X∗ I A C C∗ B I X 0 I = es inversible. B ∈ Gl (n)+ .12.12 Medias de operadores positivos A#α B = A1/2 (A−1/2 BA−1/2 )α A1/2 . la media geom´trica A#B es la mayor matriz o e autoadjunta del siguiente conjunto: Ω= C ∈ H(n) : A C ≥0 .9.3. B ∈ Gl (n)+ es lo siguiente o 1 En particular. Entonces A−1/2 (A#B)B −1/2 ∈ U(n).4. Cuando 0 ≤ α ≤ 1. dada o o por T = |T ∗ |U . Sean A. como quer´ ıamos demostrar. C B Demostraci´n.12. la media geom´trica A#B es la 2 -media. B ∈ Gl (n)+ . Para abreviar llamemos X = −A−1 C. Consideremos su descomposici´n polar a derecha. e A#B = A1/2 (A−1/2 BA−1/2 )1/2 A1/2 . Proposici´n 9. Luego A−1/2 (A#B)B −1/2 = A−1/2 (A1/2 (A−1/2 BA−1/2 )1/2 A1/2 )B −1/2 = (A−1/2 BA−1/2 )1/2 A1/2 B −1/2 = (T T ∗ )1/2 T −1 = |T ∗ | T −1 = U ∈ U(n) . I X 0 I Demostraci´n. Un A 0 . con U ∈ U(n). 0 B − C ∗ A−1 C (9.1. la matriz A A#B A#B B .

6. Luego C ≤ A1/2 (A−1/2 BA−1/2 )1/2 A1/2 = A#B.6. usando 3.5. Sean A. B ∈ Gl (n)+ .1 o o o A A#B A#B B ◦ B A#B A#B A = A◦B A#B ◦ A#B A#B ◦ A#B A◦B ≥0. Demostraci´n. o .7.2. aplicando el Teorema 9.11. o o Observaci´n 9.3 nos dice que B ≥ CA C.1. Por lo tanto. Por la Proposici´n 9.9. Para demostrar que es efectivamente el m´ximo a −1 tomemos C ∈ Ω arbitrario. Finalmente.11.8.12 Medias de operadores positivos 193 es semidefinida positiva. Sean A.12. Entonces n n µi (A ◦ B) ≥ i=k i=k µi (A#B)2 para todo k ∈ In . Entonces A A#B A#B B ≥0 y B A#B A#B A ≥0. el siguiente resultado mejora el Teorema 9. Es inmediato a partir de la Proposici´n 9.12.7.4. se deduce que A ◦ B ≥ (A#B) ◦ (A#B) y por ende n n µi (A ◦ B) ≥ i=k i=k µi [(A#B) ◦ (A#B)] para todo k ∈ In .3 al miembro de la derecha se obtiene n n µi [(A#B) ◦ (A#B)] ≥ i=k i=k µi (A#B)2 para todo k ∈ In . lo cual demuestra que A#B es el m´ximo del conjunto Ω. Demostraci´n. a Corolario 9. Teorema 9. Luego.3. Entonces el Lema 9. tenemos A−1/2 CA−1/2 ≤ | A−1/2 CA−1/2 | ≤ (A−1/2 BA−1/2 )1/2 . lo que implica que k ∈ In .12. A#B ∈ Ω. Ahora. Puede probarse que (A#B)2 o log A1/2 BA1/2 .5 y el Teorema de mayorizaci´n de Schur 5. (A−1/2 CA−1/2 )2 = A−1/2 (CA−1 C) A−1/2 ≤ A−1/2 BA−1/2 y por el Teorema 6. n n µi (A#B)2 ≥ i=k i=k µi (AB) para todo En consecuencia. completanto la demostraci´n.12.12. B ∈ Gl (n)+ .12.

≥ 2 1 |A|p X |C|p − |D|q X |B|q 2 r 2 2 + ADXC ∗ B ∗ 2 2 . BC = CB y B ∗ C = 1 CB ∗ . Encontrar dos matrices A. mostrar que a 1 1 |A|p X + X |B|q p q 2 ≥ 2 1 |A|p X − X |B|q 2 r 2 2 + AXB ∗ 2 2 . probar que e = lim A m→∞ A I+ m m .8. donde r = m´x{p. +∞) tales que p + 1 = 1. x = 2 Re Ax.7. (Ayuda: basta considerar matrices de 2 × 2 y el caso p = q = 2). B ∈ H(n). B)x. (9. Sean A. q}. 9. Bx . q}.24) de manera an´loga. probar que µ(A1/2 BA1/2 )2 log µ(AB 2 A). En particular. Sean X ∈ Mn (C) y p. para cada x ∈ Cn . B. Extender las desigualdades o (9. B) ≥ 0. 9. Dar un ejemplo de matrices positivas A y B tales que S(A.3. . 9. se tiene S(A.7) deja de ser cierta si en el miembro izquierdo se quita la estrella en B. si C = D = I. Sean X ∈ Mn (C) y 1 p.13.13. a 9.13.5. Encontrar A ∈ M2 (C) tal que |||eA ||| < |||eRe A ||| para toda NUI. Entonces q 1 1 p A XC p + Dq XB q p q donde r = m´x{p. q ∈ [1. Sean A.6. Dadas A.9. B ∈ M2 (C) tales que |A + B| ≤ |A| + |B|. A∗ D = DA∗ . 1. Probar que. C.13. +∞) tales que p + 1 = 1. B. Mostrar que la desigualdad (9.2.4.13. D ∈ Mn (C)+ tales que AD = DA.13.1.17) a matrices cualesquiera.22)-(9. B ∈ Gl (n)+ . C. 2. Entonces q 1 1 |A|p X |C|p + |D|q X |B|q p q 2 2 ≥ 2 1 Ap XC p − Dq XB q r2 2 2 + ADXCB 2 2 .56) 9. q ∈ [1. a 9.13 Ejercicios Ejercicios del texto 9.13.13 Ejercicios 194 9. 9. D ∈ Mn (C)+ tales que AD = DA y BC = CB. Sean A.13. que es la extensi´n natural de (9. Dada A ∈ Mn (C).

10 (Desigualdad de Araki-Lieb-Thirring). e m m→∞ A1 A2 Ak m . probar que tr (B 1/2 AB 1/2 )st ≤ tr (B t/2 At B t/2 )s . entonces (Ar/2 B r Ar/2 )1/r A1/2 BA1/2 3. 5.13.8. Si A.2. Dades A.9.5 para las NUI’s A p para todo par s.9. A2 . (Golden-Thompson) Si A. Ak ∈ Mn (C).11. entonces ||| log(A) + log(B)||| ≤ ||| log(A1/2 BA1/2 )||| para toda norma unitariamente invariante ||| · |||. Adem´s. 1). Si A. eA+B = lim(erA/2 erB erA/2 )1/r r→0 2. por lo que el caso t < 0 no crea problemas. B ∈ H(n). Despues seguir pasos similares a los de la prueba del Teorema 9... se tiene que k −1 −tB −tB exp i=1 Ai = lim e m e m . Nuevamente bajo el supuesto que A. se tiene que para toda norma unitariamente invariante ||| · |||: |||Ar/2 B r Ar/2 |||1/r −→ |||eA+B |||. e 2 etA e 2 a = e 2 e−tA e 2 . . entonces tr(eA+B ) ≤ tr(eA eB ). t ≥ 1 . 6.. B ≥ 0 y r ∈ (0.8.. − r↓0 en forma decreciente. B ∈ H(n). 2.9. 4.13 Ejercicios 195 9. = (tr |A|p )1/p . Extendiendo el argumento que utilizamos para probar el Teorema 9. C ∈ Mn (C).2 probar que. B. dadas A1 . 1.13. 9. Si A. Sug: Usar el Corolario 9. B ∈ Gl (n)+ . . tB tB Sug: Desarrollar el producto de las tres series asociadas a e 2 etA e 2 y aplicarles la serie de potencias de −1 < x → log(1 + x). mostrar la siguiente nueva f´rmula: o eA+B = lim e tB 2 t→0 etA e tB 2 1 t .13. Sean A. B > 0. Dar un ejemplo que muestre que la desigualdad tr(eA+B+C ) ≤ tr(eA eB eC ) es falsa. 1 t tiene sentido para todo Observar que e tB 2 e tA tB e tB 2 ∈ Gl (n) por lo que e tB + tB 2 e tA e tB 2 t = 0. . Ejercicios nuevos 9. B ≥ 0. Demostrar: 1.

q ∈ [1. Sean ϕ una fgs. B ∈ Mn (C). 4. en las coordenadas) mostrar que.12.14. 3. Ahora deducir que. q y r positivos tales que a u N (|AB|r ) r ≤ N (|A|p ) p · N (|B|q ) q 1 1 1 + 1 q = 1 r . B ∈ Mn (C) . Sea N una NUI en Mn (C).13. 6. B. +∞) tales que 1 tp ϕ(|x|p ) ϕ(|y|q ) + . q ∈ [1.48) a todas las NUI’s (porque I sp = 1). B ∈ Mn (C) . 1].13 Ejercicios 196 Onda Cauchy-Schwarz 9. Dados x. Sug: usando H¨lder (de n´meros. 1 p 2. 1. probar que para todo par A. Observar que tomando X = I en la de la derecha. Mostrar que 1 N (AB) ≤ N (|A|p ) p · N (|B|q ) q para todo par A. Probar que. y ∈ Rn . 5. . sr (AB) log w sr (A)sr (B) =⇒ sr (AB) 1 p w sr (A)sr (B) . Sean p. y p. para todo t > 0 se tiene o u ϕ(|x · y|) ≤ Luego calcular el m´ ınimo de esas cosas.9. entonces debe valer que ıa: + N ( |AXB ∗ |r )2 ≤ N ( |A∗ A X|r ) · N ( |X B ∗ B|r ) .13. Sean A. Deducir que N (|AB|1/2 ) ≤ N (A)1/2 · N (B)1/2 y que N (AB) ≤ N (A∗ A)1/2 · N (B ∗ B)1/2 . M´s a´n. +∞) tales que 1 + 1 q = 1. si s ∈ [0. Peor todav´ si r ∈ R∗ .13.13. para todo r ∈ (0. Otra mejora: Dadas A. se obtiene una generalizaci´n de la deo sigualdad de Cordes (9. si tomamos p. 9. se tiene que 1 ϕ(|x · y|) ≤ ϕ(|x|p ) p · ϕ(|y|q ) q . p q tq 1 p + 1 q = 1. entonces se cumple que N (As XB 1−s ) ≤ N (AX)s N (XB)1−s y que N (As XB s ) ≤ N (X)1−s N (AXB)s . +∞). 9. X ∈ Mn (C) se tiene que N (AXB ∗ )2 ≤ N (A∗ A X) · N (X B ∗ B) .

x = 1 } a a λ∈W (A) y que define una norma en L(H) (si el cuerpo es C).1.2. x = 1 } .1. Sea A ∈ L(H). x | : x ∈ H. Recordemos que el radio num´rico de A se define como e w(A) = m´x |λ| = m´x{ | Ax. o 10.1. 10. e identificar el a ´lgebra de operadores L(H) con Mn (C). La mayor´ de los resultados de este cap´ ıa ıtulo valen tambi´n para el caso infinitodimensional. Se cumplen las siguientes desigualdades: ρ(A) ≤ w(A) ≤ A sp . x : x ∈ H.Cap´ ıtulo 10 Rango y Radio Num´ricos e En este cap´ ıtulo consideraremos espacios de Hilbert H finito deimensionales (con su producto interno y la norma eucl´ ıdea). Sea A ∈ L(H). 1.1) o de un poco m´s abajo. Una versi´n general aparece en el tomo II de este libro. o 1. Por lo tanto. La primera se deduce de la f´rmula (10.1 Definiciones y propiedades b´sicas a Definici´n 10. el rango num´rico (o las c´psulas convexas) deber´ cambiarse por e a ıan sus clausuras. salvo el hacho de que en varias de las igualdades e e inclusiones que aparecen. La segunda se deduce de Cauchy-Schwarz. El Rango num´rico de A es el conjunto e W (A) = { Ax. A continuaci´n enumeraremos una serie de propiedades elementales del rango y radio o num´ricos que se siguen f´cilmente sus definiciones. Las pruebas que no est´n escritas deben e a e considerarse como ejercicios. 2. a . puede pensarse que H = Cn .

10.2 El Teorema de Hausdorff T¨eplitz o

198

2. Tomando T =

0 0 , se ve que las desiguadades pueden ser estrictas. En efecto, es 2 0 claro que ρ(T ) = 0 y T sp = 2. Por otra parte, como la funci´n o f : {z ∈ C : |z| ≤ 1} → R dada por f (z) = 2|z| (1 − |z|2 )1/2

alcanza el m´ximo f (z) = 1 cuando |z|2 = 1/2, podemos deducir que w(T ) = 1. a 3. Vimos en el Corolario 2.1.4 que, si A es normal, entonces ρ(A) = w(A) = A A + A∗ A − A∗ 4. Recordemos que Re A = e Im A = . Se tiene que 2 2i Re A
sp sp

.

= w(Re A) = m´x | Re Ax , x | ≤ w(A) , a
x =1 sp

y lo mismo vale para Im A. Luego A

≤ 2 · w(A).

5. Dado B ∈ L(H) se cumple que W (A + B) ⊆ W (A) + W (B). 6. Dado λ ∈ C, se tiene que W (A + λI) = W (A) + λ y W (λ · A) = λ · W (A). 7. Si U ∈ U(H), entonces W (U AU ∗ ) = W (A) y w(U AU ∗ ) = w(A). 8. W (A) es compacto (por serlo la c´scara de la bola unidad de H). a Proposici´n 10.1.3. Sea A ∈ L(H). Entonces o σ (A) ⊆ W (A) . (10.1)

Demostraci´n. Si λ es autovalor de A, es claro que λ = Ax, x ∈ W (A) para cualquier o autovector unitario x asociado a λ .

10.2

El Teorema de Hausdorff T¨eplitz o

El Teorema de Hausdorff T¨eplitz dice que, para todo A ∈ L(H), se cumple que W (A) es o convexo. Para probarlo se necesitan una serie de reducciones. La principal es ver que basta probarlo para matrices en M2 (C) (esto lo veremos en la prueba del Teorema). Pero a´n entre u ellas, necesitamos dos reducciones especiales: Lema 10.2.1. Dada A ∈ M2 (C), existe U ∈ U(2) tal que, B = U ∗ AU = c a b c , con c= trA . 2

tr A I, podemos suponer que tr A = 0 y tratar de hacer 2 que la diagonal de B sea nula. Si σ(A) = {0}, esto es f´cil (por el Teorema 1 de Schur 1.6.1). a Sin´, σ(A) = {λ, −λ} con λ = 0. Sean x1 y x2 autovectores unitarios asociados a λ y −λ, o Demostraci´n. Cambiando A por A − o

10.2 El Teorema de Hausdorff T¨eplitz o

199

respectivamente. Tomemos la curva x(t) = eit x1 + x2 , para t ∈ [0, 2π]. Observar que x(t) = 0, por que x1 y x2 son LI. Entonces, Ax(t), x(t) = λ − λ + eit Ax1 , x2 + e−it Ax2 , x1 = λeit x1 , x2 − λe−it x2 , x1 = 2iλ Im (eit x1 , x2 ) . Eligiendo t0 ∈ [0, 2π] tal que eit0 x1 , x2 ∈ R, tenemos que Ax(t0 ), x(t0 ) = 0, con x(t0 ) = 0. Normalizando a x(t0 ), completando a una BON de C2 , y tomando U ∈ U(2) tal que tenga a esa BON en sus columnas, obtenemos B = U ∗ AU = donde B22 = 0 porque B11 = 0 = tr B. Lema 10.2.2. Dada B ∈ M2 (C) con diagonal nula, existen V ∈ U(2) y w ∈ C con |w| = 1 tales que, 0 a w · V BV ∗ = , con a≥0 y b≥0. b 0 Demostraci´n. Si B = o tenemos que w · V B1 V ∗ =
i

0 a b 0

,

con

a, b ∈ C ,

0 a , tomando V = b 0

u 0 0 1

∈ U(2) y w ∈ C con |w| = 1, .

0 wu a wu b 0
i

Si a = eiθ1 |a| y b = eiθ2 |b|, tomando u = e 2 (θ2 −θ1 ) y w = e 2 (θ2 +θ1 ) , se obtiene que w · V B1 V ∗ = como dese´bamos. a Teorema 10.2.3 (Hausdorff-T¨eplitz). Sea A ∈ L(H). Entonces W (A) es convexo. o Demostraci´n. Sean α, β ∈ W (A) distintos, y sean x, y ∈ H unitarios tales que Ax, x = α o y Ay, y = β. Tomemos B0 = {v1 , v2 } una BON de S = Gen {x, y}. Consideremos la compresi´n AS ∈ L(S). La matriz de AS en la base B0 es B = ( Avj , vi )i,j∈I2 ∈ M2 (C). o Dado z = (z1 , z2 ) ∈ C2 , se tiene que w = z1 v1 + z2 v2 ∈ S , w = z
2

0 |a| |b| 0

,

y

Bz, z = Aw, w ,

por lo que α, β ∈ W (B) y, para probar que las combinaciones convexas de α y β est´n en a W (A), basta verificar que est´n en W (B). En otras parabras, alcanza con probar el teorema a en el caso de que A ∈ M2 (C). Para ello, por los Lemas 10.2.1 y 10.2.2, se puede asumir que A= 0 a b 0 , con a≥0 y b≥0,

10.2 El Teorema de Hausdorff T¨eplitz o

200

puesto que W (C + λI) = W (C) + λ y W (u · V CV ∗ ) = u · W (C) para cualquier C ∈ M2 (C), λ ∈ C, V ∈ U(2) y u ∈ C con |u| = 1. Obervar que los cambios inducidos por las reducciones anteriores (translaciones y rotaciones) no perturban el hecho de que W (A) sea convexo. Veremos que en este caso, W (A) = t (a + b) cos θ + i(a − b) sen θ : t ∈ [0, 1/2] y θ ∈ [0, 2π] , (10.2)

que es una elipse (o eventualmente un segmento) centrada en el origen, y por lo tanto convexa. En efecto, dado z ∈ C2 con z = 1, como Az, z = Aeiα z, eiα z para todo α∈R,

podemos suponer que z = (t, (1 − t2 )1/2 eiθ ) para t ∈ [0, 1] y θ ∈ [0, 2π]. En tal caso, cuentas elementales muestran que Az, z = t(1 − t2 ) (a + b) cos θ + i(a − b) sen θ . Observar que los n´meros t(1 − t2 ) recorren el intervalo [0, 1/2] cuando t ∈ [0, 1]. Esto prueba u la f´rmula (10.2). o Corolario 10.2.4. Sea A ∈ L(H). 1. En general se cumple que conv [σ (A) ] ⊆ W (A). 2. Si A es normal, entonces conv [σ (A) ] = W (A). Demostraci´n. La inclusi´n σ (A) ⊆ W (A) ya fue vista en la Proposici´n 10.1.3. Pero por o o o el Teorema 10.2.3, sabemos que esa incus´n arrastra a la c´psula convexa. Si A es normal, o a sea {x1 , . . . , xn } una BON de H formada por autovectores de A asociados a sus autovalores λ1 , . . . , λn . Si x ∈ H tiene x = 1, entonces
n n n

Ax, x =
n

A
k=1

x, xk xk ,
k=1 2

x, xk xk

=
k=1

| x, xk |2 λk ∈ conv [σ (A) ] ,

porque
k=1

| x, xk |2 = x

= 1. Por lo tanto W (A) ⊆ conv [σ (A)].

Definici´n 10.2.5. o

1. Dados dos espacios de Hilbert H y K, notamos H ⊕ K = {(x, y) : x ∈ H , y ∈ K} ,

que es un espacio de Hilbert con el producto (x1 , y1 ) , (x2 , y2 ) = x1 , x2 + y1 , y2 . 2. Dados A ∈ L(H) y B ∈ L(K), se define el operador A ⊕ B ∈ L(H ⊕ K) dado por A ⊕ B(x, y) = (Ax, By), (x, y) ∈ H ⊕ K .

10.2 El Teorema de Hausdorff T¨eplitz o

201

3. Matricialmente tenemos que A ⊕ B := A 0 0 B H ∈ L(H ⊕ K) . K

4. En forma similar se definen sumas directas de muchos espacios de Hilbert y de muchos operadores en ellos. Corolario 10.2.6. Sean A ∈ L(H) y B ∈ L(K). Entonces W (A ⊕ B) = conv [W (A) ∪ W (A) ] Idem con muchos bloques diagonales. Demostraci´n. La inclusi´n W (A) ∪ W (A) ⊆ W (A ⊕ B) se testea inmediatamente usando o o vectores con una coordenada nula. Por el Teorema 10.2.3, esto arrastra a la c´psula convexa a de W (A) ∪ W (A). Rec´ ıprocamente, dados x ∈ H e y ∈ K no nulos tales que (x, y) 2 = x 2 + y 2 = 1, tenemos que A ⊕ B(x, y), (x, y) = = Ax, x + By, y x x x 2 A , x x y y , y y y w(A ⊕ B) = m´x{w(A), w(B)} . a (10.3)

+ y

2

B

,

quien claramente pertenece a conv [W (A) ∪ W (A) ]. Corolario 10.2.7. Sea A ∈ Mn (C). Entonces existe U ∈ U(n) tal que, si B = U ∗ AU , luego tr A para todo i ∈ In . Bii = n Demostraci´n. Cambiando A por A − o tr A I, lo que debemos probar es que, si tr A = 0, n entonces podemos conseguir U ∈ U(n) tal que la diagonal de U ∗ AU sea nula. Lo probaremos por inducci´n en n. Para n = 1 es trivial. Observar que el caso n = 2 es el Lema 10.2.1. Si o n > 2, aplicando el Corolario 10.2.4 obtenemos que 0=

tr A ∈ conv [σ (A)] ⊆ W (A) . n Luego existe un vector unitario x ∈ Cn tal que Ax, x = 0. Completando {x} a una BON de Cn que lo tenga como primer elemento, y tomando U1 ∈ U(n) la matriz con esa BON en sus columnas, obtenemos que
∗ C = U1 AU1 =

0 ∗ ∗ D

1 , n−1

porque C11 = Ax, x = 0. Como D ∈ Mn−1 (C) cumple que tr D = 0, podemos aplicar la hip´tesis inductiva y encontrar V ∈ U(n−1) tal que la diagonal de V ∗ DV sea nula. Definiendo o U2 = 1 ⊕ V ∈ U(n) y U = U1 U2 ∈ U(n), se ve que
∗ U ∗ AU = U2 CU2 =

1 0 0 V∗

0 ∗ ∗ D

1 0 0 V

=

∗V V ∗ V ∗ DV 0

,

que tiene la diagonal nula.

10.3 Caracterizaciones

202

10.3

Caracterizaciones

Observaci´n 10.3.1. Sea W ⊆ C un conjunto convexo compacto, y sea z0 ∈ W . Entonces o / existe un unico w0 ∈ W tal que ´ d(z0 , W ) = |z0 − w0 | = d > 0 . El tal w0 existe (y es unico) por la teor´ usual de espacios de Hilbert, usando que W es ´ ıa convexo y cerrado (para una cuenta ad hoc, ver el Ejercicio 10.5.2). M´s a´n, si x0 = z0 − w0 , a u 2 entonces Re (x0 w0 ) + d = Re (x0 z0 ) y Re (x0 z) ≤ Re (x0 w0 ) para todo z∈W . (10.4)

Esto se deduce de que w0 es la proyecci´n ortogonal de z0 sobre W , y de que el producto o 2 escalar en C pensado como R est´ dado por z , w = Re (w z). Observar que la recta a {z ∈ C : Re [x0 (z − w0 )] = 0} es ortogonal a z0 − w0 y pasa por w0 . Teorema 10.3.2. Sea A ∈ L(H). Entonces W (A) = = z ∈ C : |z − λ| ≤ w(A − λI) z ∈ C : |z − λ| ≤ A − λI
sp

para todo para todo

λ∈C λ∈C .

Demostraci´n. Notemos W = W (A), X al conjunto de arriba e Y al conjunto de abajo. Es o claro, por las definiciones, que X ⊆ Y . Usando que W (A) − λ = W (A − λI), es f´cil ver que a W ⊆ X. En lo que sigue probaremos que Y ⊆ W : Supongamos que z0 ∈ W , y sea w0 la / proyecci´n ortogonal de z0 sobre W (como en la Observaci´n 10.3.1). o o Para facilitar las cuentas, rotaremos y transladaremos el problema para que z0 ∈ R+ , w0 = 0 y W ⊆ {z ∈ C : Re z ≤ 0}. Para hacerlo, sean d = |z0 − w0 | = d(z0 , W ) > 0 , y B = e−iθ (A − w0 I) ∈ L(H) ,

donde z0 − w0 = eiθ d. Luego WB = W (B) = e−iθ (W (A) − w0 ) y si tomamos el conjunto YB = z ∈ C : |z − λ| ≤ B − λI
sp

, λ∈C ,

entonces

YB = e−iθ (Y − w0 ) .

Por lo tanto, para ver que z0 ∈ Y , alcanza probar que d = e−iθ (z0 − w0 ) ∈ YB . Observar / / −iθ que, como la funci´n x → e (x − w0 ) preserva distancias, la proyecci´n de d a WB es, ahora, o o e−iθ (w0 − w0 ) = 0. Adem´s, como d = d − 0 > 0, si z ∈ WB , la Eq. (10.4) dice que a Re (z d ) = d Re z ≤ 0 =⇒ Re z ≤ 0 ,

como quer´ ıamos. Ahora, dados x ∈ Cn con x = 1 y m ∈ N, tendremos que (B + mI)x
2

= = ≤

(B + mI)x , (B + mI)x Bx 2 + m2 + 2m Re Bx, x B 2 + m2 , sp

10.3 Caracterizaciones

203

a porque Bx, x ∈ WB . Es decir que B + mI sp ≤ ( B 2 + m2 )1/2 . Por otro lado, es f´cil sp 2 2 1/2 ver que ( B sp + m ) − m − − 0. Por lo tanto, debe existir m ∈ N tal que −→
m→∞

B + mI

sp

−m≤( B

2 sp

+ m2 )1/2 − m < d .

En otras palabras, para ese m se tiene que B + mI
sp

< d + m = |d + m| ,

por lo que d ∈ YB y entonces z0 ∈ Y . Resumiendo, vimos que si z0 ∈ W , entonces z0 ∈ Y , o / / / / sea que Y ⊆ W . A continuaci´n damos un adelanto del libro II. Se trata de una caracterizaci´n obtenida por o o T. Ando [17] del radio num´rico, que es tan util como la caracetrizaci´n de la norma espectral e ´ o dada en la Proposici´n 3.7.6. Su prueba necesita bastantes desarrollos espec´ o ıficos que se trabajar´n en el libro II, por lo que no creemos necesario reproducirlos aqu´ Sin embargo lo a ı. enunciamos ahora, en su versi´n matricial, porque es uno de los criterios b´sicos para trabajar o a con rangos num´ricos. e Teorema 10.3.3 (Ando 1973). Sea A ∈ Mn (C). Son equivalentes: 1. w(A) ≤ 1. 2. Para todo θ ∈ [0, 2π) se tiene que Re(eiθ A) ≤ I. 3. Existen C ∈ Mn (C) e Y ∈ Mn (C)+ tales que Y ≤I , C
sp

≤2

y

(I − Y )1/2 C Y 1/2 = A . A∗ /2 Y ∈ M2n (C)+ .

4. Existe Y ∈ Mn (C)+ tal que M1 = 5. Existe L ∈ H(n) tal que M2 =

I −Y A/2

I + L A∗ A I −L

∈ M2n (C)+ .

Demostraci´n. Si vale la condici´n 2, como existen x ∈ Cn unitario y θ ∈ [0, 2π) tales que o o w(A) = | Ax, x | = eiθ Ax, x = (eiθ A) x, x = Re (eiθ A) x, x ≤ I x, x = 1 , tenemos que 2 → 1. Por otro lado, la implicaci´n 1 → 2 es bien f´cil. Siguiendo, tenemos que o a la equivalencia 3 ↔ 4 no es otra cosa que el Teorema 3.8.6. Veamos que 4 → 5 : Supongamos que M1 ∈ M2n (C)+ ,, para cierto Y ∈ Mn (C)+ . Luego, si L = I − 2Y ∈ H(n), se tiene que I + L = 2(I − Y ) y I − L = 2Y =⇒ I + L A∗ A I −L =2 I −Y A/2 A∗ /2 Y ≥0.

Ahora veamos que 5 → 2 : Dados x ∈ Cn y θ ∈ [0, 2π), tomemos el vector y = −eiθ x. Luego, si asumimos que L cumple la condici´n 5, tendremos que o 2 x
2

=

x y

2

−L −A −A∗ L

x x , y y

= 2 Re(eiθ A) x, x .

(10.5)

Luego Re(eiθ A) ≤ I. Lamentablemente, la implicaci´n 1 → 4 quedar´ para el libro II. o a

.4 Comparaci´n con NUI’s o 1 A ≤ w(A) ≤ A . dado k ∈ In tenemos que o |Akk | = | Aek . Conjugando o o con otra matriz unitaria (lo que no cambia ni w(A) ni A 1 ). por lo que ´ w(Re A) ≤ w(A).2k−1 ∈ Mn (C) y . Cn = A ⊕ A ⊕ · · · ⊕ A = k=1 2E2k. ´ n n Pkk = tr P = tr |A| = k=1 i=1 1 si (A) =⇒ n n si (A) ≤ Pkk = | Aek . a o Demostraci´n. . con U ∈ U(n). .4. Sea A ∈ Mn (C). Tomemos la descomposici´n polar A = U |A|. podemos suponer que que U es diagonal. en } a la base o can´nica de Cn . La optimalidad de las constantes 1 y 1/2 se ve tomando las matrices E11 y 2E21 . y llamamos P = |A|. Entonces o 1 n n n si (A) ≤ w(A) ≤ i=1 i=1 si (A) = A 1 . . si notamos {e1 . y lo mismo para Im A. Proposici´n 10.2 (Marcus-Sandy 1985). Por otra parte.1. U ∗ ek | = |wk P ek . n 1 si (A) es superado por alguno con |wi | = 1. i ∈ In . ek | = | U P ek . Entonces o Adm´s.10. Veremos que. si V ∈ U(n). Luego o w(A) ≤ A ≤ Re A + Im A = w(Re A) + w(Im A) ≤ 2 · w(A) .4. ek | = |Pkk | = Pkk . Sea A ∈ L(H). Llamemos A = o 0 0 ∈ M2 (C) y V = 2 0 si n = 2m consideremos las matrices diagonales de bloques m 0 1 1 0 ∈ U(2). En efecto. Adm´s. el n´mero u n i=1 de los m´dulos de los elementos diagonales de A. Observar que |V AV ∗ | = V |A|V ∗ . tomar las matrices E11 e I. .4 Comparaci´n con NUI’s o 204 10. Dado n ∈ N. Tomemos partes real e imaginaria: A = Re A + i Im A. a o Demostraci´n. . 2 Proposici´n 10. las constantes 1 y 1/n son ´ptimas para la desigualdad anterior. wn ). donde la ultima igualdad surge de que P ∈ Mn (C)+ . ek | = | P ek . las constantes 1 y 1/2 son ´ptimas para la desigualdad anterior. .4. u o Definici´n 10. Pongamos U = diag (w1 . donde la ultima desigualdad se deduce de que W (Re A) = {Re z : z ∈ W (A)}. ek | ≤ w(A) i=1 para alg´n k ∈ In .3. en este caso. Para ver que 1 y 1/n son ´ptimas.

10.4 Comparaci´n con NUI’s o

205

m

Un = V ⊕ V ⊕ · · · ⊕ V =
k=1

E2k,2k−1 + E2k−1,2k ∈ U(n) .

Si n = 2m + 1 e I1 denota a la “matriz” [ 1 ] ∈ M1 (C),
m

Cn = A ⊕ · · · ⊕ A ⊕ I1 = En,n +
k=1 m

2E2k,2k−1 ∈ Mn (C)

y

Un = V ⊕ · · · ⊕ V ⊕ I1 = En,n +
k=1

E2k,2k−1 + E2k−1,2k ∈ U(n) .

Como w(A) = w(I1 ) = 1, la Eq. (10.3) asegura que w(Cn ) = 1 para todo n ∈ N. Los resultados anteriores fueron usados por C.R. Johnson y C.K. Li [27] para calcular, para N una NUI fija en Mn (C), las mejores constantes m y M tales que m · N (T ) ≤ w(T ) ≤ M · N (T ) para todo T ∈ Mn (C) .

Proposici´n 10.4.4 (Johnson-Li 1988). Sea N una NUI en Mn (C). Luego o N (Cn )−1 N (T ) ≤ w(T ) ≤ N (E11 )−1 N (T ) para toda T ∈ Mn (C) .

Adem´s, las constantes N (Cn )−1 y N (E11 )−1 son ´ptimas. a o Demostraci´n. Fijemos T ∈ Mn (C). Si T = 0, el resultado es claro. Si no, sea A = w(T )−1 T , o que tiene w(A) = 1. Por las Proposiciones 10.4.1 y 10.4.2 se tiene que
n

1 ≤ s1 (A) ≤ 2

y
k=1

sk (A) ≤ n .

Observar que s(E11 ) = e1 y s(Cn ) = vn , donde  m   (2, . . . , 2, 0, . . . , 0) =  2ek     k=1 vn =  m    (2, . . . , 2, 1, 0, . . . , 0) = 2ek + em+1  
k=1

si

n = 2m (10.6)

si

n = 2m + 1 .

Por lo tanto, s(E11 ) dice que que

w

s(A)

w

s(Cn ). Como N es una NUI, el Teorema de Ky Fan 5.3.8 N (T ) ≤ N (Cn ) . w(T )

N (E11 ) ≤ N (A) =

Invirtiendo y multiplicando por N (T ), se obtienen las desigualdades buscadas. Tomando T = Cn y T = E11 y observando que w(Cn ) = w(E11 ) = 1, podemos deducir que las constantes dadas son ´ptimas. o

10.4 Comparaci´n con NUI’s o

206

Proposici´n 10.4.5. Sea N es una NUI en Mn (C). Entonces o w(T ) ≤ N (T ) , para toda T ∈ Mn (C) =⇒ Demostraci´n. Observar que T o
sp

T

sp

≤ N (T ) , para toda T ∈ Mn (C) .

= |T |

sp

= w(|T |) ≤ N (|T |) = N (T ).

El siguiente teorema es el contenido del paper de T. Ando [18]: Teorema 10.4.6 (Ando 2005). Si definimos la norma N0 (T ) = m´x a se tiene que 1. N0 es una NUI. 2. N0 (T ) ≤ w(T ) para todo T ∈ Mn (C). 3. N0 es la mayor NUI en Mn (C) tal que N (T ) ≤ w(T ) para todo T ∈ Mn (C). Es decir, si N es una NUI en Mn (C), N (T ) ≤ w(T ) , ∀ T ∈ Mn (C) =⇒ N (T ) ≤ N0 (T ) , ∀ T ∈ Mn (C) . T sp , 2 T n
1

para

T ∈ Mn (C) ,

Demostraci´n. Los dos primeros items son claros de lo anterior. Fijemos T ∈ Mn (C). o Como la desigualdad a probar es entre normas unitariamente invariantes, podemos asumir que T = Σ(T ) = diag (s1 (T ), . . . , sn (T )). M´s a´n, supongamos que a u N0 (T ) = m´x a s1 (T ) 1 , 2 n
n

si (T )
i=1

=1.

En este caso deber´ ıamos probar que N (T ) ≤ 1. Las desigualdades resultantes de la igualdad anterior implican que s(T ) w vn , donde vn es el vector definido en la Eq. (10.6). Tomemos Cn y Un las matrices de la Definici´n 10.4.3. Notar que Un Cn = Bn , donde o Bn = diag (2, 0, 2, 0, . . . , 2, 0) o bien Bn = diag (2, 0, 2, 0, . . . , 2, 0, 1) .

Observar que s(B) = vn . Luego, como s(T ) w vn = s(Bn ) y N es una NUI, el Teorema de Ky Fan 5.3.8 nos dice que que N (T ) ≤ N (Bn ), con lo que bastar´ probar que N (Bn ) ≤ 1. ıa Por otra parte, en la Definici´n 10.4.3 se ve que w(Cn ) = 1 para todo n ∈ N. Como U ∈ U(n) o y N es una NUI, tenemos que N (T ) ≤ N (Bn ) = N (Un Cn ) = N (Cn ) ≤ w(Cn ) = 1 = N0 (T ) . Observar que reci´n al final usamos la hip´tesis sobre N . e o

10.5 Ejercicios

207

10.5

Ejercicios

Ejercicios que aparecen en el texto
10.5.1. Sea A ∈ L(H). Probar las siguientes afirmaciones: 1. ρ(A) ≤ w(A) ≤ A . 2. Tomando T = 0 0 , se tiene que ρ(T ) = 0, w(T ) = 1/2 y T = 1, por lo que las 1 0 desiguadades de arriba pueden ser estrictas.
sp

3. Si A es normal, entonces ρ(A) = w(A) = A 4. Re A
sp sp x =1

.

= w(Re A) = m´x | Re Ax , x | ≤ w(A) y lo mismo vale para Im A. a

5. A

≤ 2 · w(A).

6. Dado B ∈ L(H) se cumple que W (A + B) ⊆ W (A) + W (B). 7. Dado λ ∈ C, se tiene que W (A + λI) = W (A) + λ y W (λ · A) = λ · W (A). 8. Si U ∈ U(H), entonces W (U AU ∗ ) = W (A) y w(U AU ∗ ) = w(A). 9. W (A) es compacto. 10.5.2. Sea W ⊆ Cn un conjunto convexo compacto no vac´ y sea v0 ∈ Cn \ W . Entonces: ıo, 1. Existe un unico w0 ∈ W tal que ´ 0 < d = v0 − w0 = d(v0 , W ) := m´ v0 − w . ın
w∈W

Para mostrar la unicidad, se suguiere asumir que v0 = 0 y usar que, dados x, y ∈ Cn vale la igualdad del paralelogramo, que dice que x − y 2 + x + y 2 = 2( x 2 + y 2 ). 2. Probar que el hiperplano H = w0 + {v0 − w0 }⊥R separa a W de v0 en el sentido de que Re v0 , v0 − w0 > Re w0 , v0 − w0 ≥ Re w, v0 − w0 para todo w∈W .

Nota: Lo anterior vale en espacios de Hilbert generales, y alcamza con que W sea cerrado (no hace falta compacto). Sin embargo, proponemos este caso especial porque es lo que se usa para la Observaci´n 10.3.1. o

10.5 Ejercicios

208

Ejercicios nuevos
10.5.3. Sean α1 , . . . , αn , β1 , . . . , βn , γ ∈ C, todos de m´dulo uno. Son equivalentes: o 1. Existen A , B ∈ U(n) tales que λ(A) = α , λ(B) = β y adem´s γ ∈ σ(BA). a 2. Existe un p ∈ conv [α1 , . . . , αn ] ∩ conv γβ1 , . . . , γβn . Sugerencia: Usar el ejercicio 1.10.21 10.5.4. Sea w (A) = m´x | tr A∗ B|, la norma dual del radio num´rico en Mn (C). Denotamos a e
w(B)=1

por Bw = {A ∈ Mn (C) : w (A) ≤ 1} a su bola unidad. Probar que Bw = conv [{x x : x ∈ Cn y x = 1}] ,

o sea que los puntos extremales de Bw son los proyectores de rk uno. Sugerencia: Cuanto vale tr B · x x ?

Cap´ ıtulo 11 Teor´ de Perron-Frobenius ıa
Repasemos algunas notaciones que usaremos sistem´ticamente en los siguientes cap´ a ıtulos. n Dados A, B ∈ Mn,m (R) y x ∈ R , diremos que 1. A 0 , si Aij ≥ 0 para todo par i ∈ In , j ∈ Im .

2. A > 0 , si Aij > 0 para todo par i ∈ In , j ∈ Im . 3. Las mismas notaciones (x 4. Denotaremos por MPn,m = {A ∈ Mn,m (R) : A 0} y MEPn,m = {A ∈ Mn,m (R) : A > 0} . 0 o x > 0) se usar´n para vectores. a

para matrices cuadradas, abreviaremos MPn y MEPn . 5. |A| = (|aij |) i∈In y analogamente |x| = (|x1 |, . . . , |xn |).
j∈Im

6. A B , si B − A ∈ MPn,m . O sea que aij ≤ bij para todo i, j ∈ In . An´logamente, a escribiremos A < B siempre que B − A ∈ MEPn,m . 7. El vector (1, 1, . . . , 1) ∈ Rn ser´ denotado por medio de 1. a Advertencia: Hay overlaps de notaciones entre lo anterior y las que solemos usar para matrices definidas positivas. Esto es lamentable, pero necesario; porque buscar otras complicar´ ıa notablemente la exposici´n. Las convenciones que usaremos de ahora en m´s ser´n las siguo a a ientes: 1. Mantendremos la notaci´n A ≥ 0 (resp. B ≥ A) para decir que A ∈ Mn (C)+ (resp. o B − A ∈ Mn (C)+ ). Observar que los s´ ımbolos ≥ y son diferentes. 2. Al escribir A > 0 o B > A solamente aludiremos a los signos de las entradas. Para evitar confuciones, si A ∈ Mn (C) es definida positiva, no usaremos la notaci´n A > 0, o + + sin´ A ∈ Gl (n) (o que B − A ∈ Gl (n) ). o

11.1 Matrices de entradas positivas

210

3. |A| s´lo se usar´ para los m´dulos de las entradas. El viejo m´dulo se escribir´ (A∗ A)1/2 . o a o o a El objetivo de este cap´ ıtulo es la demostraci´n del Teorema de Perron, para matrices de o entradas estrictamente positivas y sus generalizaciones a matrices de entradas no negativas.

11.1

Matrices de entradas positivas

Empezamos esta secci´n con el objetivo final de la misma: el teorema de Perron para matrices o de entradas estrictamente positivas. La idea es anunciar de entrada las propiedades principales de tales matrices y, adem´s, dar una orientaci´n estrat´gica a los numerosos resultados a o e parciales (aunque muchos de ellos son son interesantes de por s´ que iremos probando para ı) llegar a una demostraci´n completa del teorema. o Teorema 11.1.1 (Teorema de Perron). Sea A ∈ MEPn , es decir que A > 0. Entonces se verifican las siguientes propiedades: 1. ρ(A) > 0 y ρ(A) ∈ σ (A). 2. Existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x. 3. Dado y ∈ Rn \ {0}, si y 0 y Ay = λy, entonces λ = ρ(A) e y > 0.

4. ρ(A) es ra´z simple del polinomio caracter´ ı ıstico de A. 5. Si λ ∈ σ (A) y λ = ρ(A), entonces |λ| < ρ(A). 6. Si ρ(A) = 1, entonces Am − − L = xy T , donde x, y ∈ Rn son vectores tales que −→
m→∞

x > 0 , y > 0 , x, y = 1 , Ax = x

y

AT y = y .

Antes de demostrar el Teorema de Perron, presentaremos varios resultados generales para matrices A ∈ MPn , su radio espectral y los autovectores correspondientes. En lo que sigue de la secci´n, y salvo menci´n expl´ o o ıcita al contrario, asumiremos que todas las matrices mencionadas con las letras A y B estar´n en Mn (R), para alg´n n ∈ N. a u Proposici´n 11.1.2. Sean A, B ∈ MPn tales que A o B. Entonces, ρ(A) ≤ ρ(B).

Demostraci´n. Como 0 A B, entonces, para todo n ≥ 1 se tiene que 0 An B n . Por lo o n 1/n tanto A 2 ≤ B n 1/n y, tomando l´ ımite, se obtiene la desigualdad buscada . 2 Corolario 11.1.3. Sea A ∈ MEPn . Entonces se cunple que ρ(A) > 0. Demostraci´n. Como A > 0, existe un ε > 0 tal que εI o A. As´ ρ(A) ≥ ρ(εI) = ε > 0. ı

Corolario 11.1.4. Sean A ∈ MPn , J ⊆ In y A[J] = (aij )i,j∈ J . Entonces ρ(A[J]) ≤ ρ(A).

11.1 Matrices de entradas positivas

211

Demostraci´n. Basta extender A[J] a MPn poniendo ceros en las entradas que le faltan, y o aplicar la Proposici´n 11.1.2. o Observaci´n 11.1.5. Recordemos (ver Ejercicio 3.4.2) que, dada A ∈ Mn (C), o |||A|||∞ = m´x a
x

Ax

∞ =1

= m´x Fi (A) a
i∈ In 1

1

.

Por otra parte, observar que si A ∈ MPn , entonces Fi (A)

= tr Fi (A).

A continuaci´n vienen tres Lemas que sirven para ubicar el radio espectral de una matriz o A ∈ MPn usando la Observaci´n anterior: o Lema 11.1.6. Sea A ∈ MPn . Supongamos que 1 ∈ Rn es un autovector de A. Entonces el autovalor asociado es |||A|||∞ y adem´s ρ(A) = |||A|||∞ . a Demostraci´n. La desigualdad ρ(A) ≤ |||A|||∞ vale siempre, porque ||| · |||∞ es matricial y o podemos aplicar la Proposici´n 3.4.6. Por otro lado, si A1 = λ1, entonces o Fi (A)
1

= tr Fi (A) = Fi (A) , 1 = (A 1)i = λ

para todo i ∈ In .

Por la Observaci´n 11.1.5, podemos deducir que λ = |||A|||∞ . Finalmente, el hecho de que o |||A|||∞ ∈ σ(A) implica que |||A|||∞ ≤ ρ(A). Lema 11.1.7. Sea A ∈ MPn . Llamemos α = m´x tr Fi (A) = |||A|||∞ a
i∈ In

y

β = m´ tr Fi (A) . ın
i∈ In

Entonces se verifica que β ≤ ρ(A) ≤ α. Demostraci´n. La desigualdad ρ(A) ≤ α es conocida (Proposici´n 3.4.6), por lo tanto s´lo o o o probaremos que β ≤ ρ(A). Podemos suponer que β > 0, porque sin´ todo es f´cil. Definamos o a entonces la matriz B ∈ MPn cuyas filas son: Fi (B) = β Fi (A) tr Fi (A) Fi (A) para todo i ∈ In .

De este modo, tr Fi (B) = β para todo i ≥ 1. En consecuencia, usando el Lema 11.1.6 y la Proposici´n 11.1.2, β = ρ(B) ≤ ρ(A), ya que, por su construcci´n, 0 B A. o o Lema 11.1.8. Sean A ∈ MPn y x > 0. Notemos y = Ax. Entonces se tiene que yi yi β = m´ ın ≤ ρ(A) y α = m´x a ≥ ρ(A) . i∈ In xi i∈ In xi Demostraci´n. Sea D = diag (x). Entonces, por cuentas elementales, obtenemos que o D−1 AD = (x−1 xj aij )ij∈ In ∈ MPn . i Adem´s ρ(D−1 AD) = ρ(A) (porque el espectro no cambia). Por otro lado, a
n

tr Fi (D AD ) = Luego basta aplicar el Lema 11.1.7.

−1

x−1 i
j=1

aij xj =

(Ax)i yi = . xi xi

11.1 Matrices de entradas positivas

212

Teorema 11.1.9. Sea A ∈ MPn y fijemos un vector x > 0. 1. Dados α, β ∈ R, se tiene que βx Ax =⇒ β ≤ ρ(A) y Ax αx =⇒ ρ(A) ≤ α .

2. Si x es un autovector de A (y es x > 0), entonces Ax = ρ(A)x. Demostraci´n. La primera parte se deduce inmediatamente del Lema 11.1.8. Supongamos que o Ax = λx. Como Ax 0, debe cumplirse que λ ≥ 0, en particular λ ∈ R. Luego se verifican las hip´tesis de la primera parte con α = β = λ. o Observaci´n 11.1.10. En las condiciones del Teorema 11.1.9, tambi´n vale que o e si A ∈ MPn y x>0, βx < Ax =⇒ β < ρ(A) y Ax < αx =⇒ ρ(A) < α .

En efecto, si en los Lemas 11.1.7 y 11.1.8 se toma β estrictamente menor que los m´ ınimos correspondientes β0 , se obtiene β < β0 ≤ ρ(A). Lo mismo para α. Observaci´n 11.1.11. Sean A ∈ MEPn y x ∈ Rn \ {0}. Notar que, si x o que valer que Ax > 0. Este hecho se usar´ reiteradas veces. a 0, entonces tiene

Corolario 11.1.12. Sean A ∈ MEPn , x ∈ Rn \ {0} y λ ∈ C tales que x 0 y Ax = λx. Entonces λ = ρ(A) y x > 0. Otra manera de decirlo es que si un autovector de A es no negativo, en realidad deb´a ser positivo y corresponder al radio espectral. ı Demostraci´n. Por la Observaci´n 11.1.11 sabemos que Ax > 0, y por ende x > 0. Entonces o o se puede aplicar el Teorema 11.1.9. Proposici´n 11.1.13. Sean A ∈ MEPn y λ ∈ σ (A) un autovalor de m´dulo m´ximo, o sea o o a n que |λ| = ρ(A). Dado un autovector y ∈ C \ {0} para λ, es decir que Ay = λy, entonces: |y| > 0 y A |y| = ρ(A) |y| .

Demostraci´n. Llamemos x = |y|. Por la desigualdad triangular, se tiene que o ρ(A)x = |λ|x = |λy| = |Ay| A|y| = Ax.

Sea z = Ax − ρ(A)x 0. Queremos mostrar que z = 0. Supongamos que eso no pasa. Entonces, por la Observaci´n 11.1.11, tenemos que Az > 0. Si ahora llamamos o u = Ax , entonces Az = A(u − ρ(A)x) = Au − ρ(A)u > 0 .

Por lo tanto tenemos que u > 0 y Au > ρ(A)u. Aplicando la Observaci´n 11.1.10, se obtiene o la contradictoria desigualdad ρ(A) > ρ(A). Dado que esta provino de suponer que z = 0, ahora sabemos que z = 0 y por ende Ax = ρ(A)x. Notar que, como Ax > 0, esto implica que |y| = x > 0.

11.1 Matrices de entradas positivas

213

Corolario 11.1.14. Si A ∈ MEPn , entonces ρ(A) ∈ σ (A) y existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x .

Proposici´n 11.1.15. Sean A ∈ MEPn y λ ∈ σ (A) tales que |λ| = ρ(A). Si y ∈ Cn \ {0} o cumple que Ay = λy, entonces, existe θ ∈ [0, 2π) tal que y = eiθ |y|, por lo que λ = ρ(A). Demostraci´n. Por la Proposici´n 11.1.13 sabenos que A|y| = ρ(A)|y|. Adem´s o o a |Ay| = |λy| = ρ(A)|y| =⇒ A|y| = |Ay| . Mirando las primeras coordenadas, tenemos que
i∈ In

A1j |yj | =
i∈ In

A1j yj . Luego vale la

igualdad en la desigualdad triangular, y todos los yj deben apuntar para el mismo lado. O sea que debe existir un θ ∈ [0, 2π) tal que yj = eiθ |yj | para todo j ∈ In . Corolario 11.1.16. Si A ∈ MEPn , entonces ρ(A) es el unico autovalor de m´dulo m´ximo. ´ o a Corolario 11.1.17. Sea A ∈ MEPn . Entonces dim ker(A − ρ(A)I) = 1. Demostraci´n. Sean x, y ∈ ker(A − ρ(A)I). Probaremos que son linealmente dependientes. o xi , y definamos Por la Proposici´n 11.1.15 se puede suponer que x > 0 e y > 0. Sea β = m´ o ın i∈ In yi z = x − βy. Como cada xi − βyi ≥ xi − xii yi = 0, se tiene que z ≥ 0. y Dado que Az = ρ(A)z, si sucesidese que z = 0, entonces se tendr´ que z > 0. Pero, si ıa xk tomamos un k ∈ In tal que β = yk , entonces la coordenada k-´sima de z deber´ ser nula. e ıa Este absurdo proviene de suponer que z = 0. Por lo tanto, z = 0 y x = βy. El siguiente resultado, que describe el l´ ımite de las potencias de una matriz A ∈ MPn que cumple ciertas hip´tesis, ser´ prontamente aplicado para probar el item 6 del Teorema de o a Perron. Lo enunciaremos pidiendo lo esctrictamente necesario que debe cumplir A para que la tesis pueda probarse. Esto complica su formulaci´n, pero igual es conveniente para poder o aplicarlo luego a matrices primitivas, en las que todas las hip´tesis que pedimos se verifican. o Proposici´n 11.1.18. Sea A ∈ MPn con ρ(A) = 1. Supongamos que A cumple que: o 1. dim ker(A − I) = 1. 2. 1 ∈ σ(A) es el unico autovalor de m´dulo m´ximo. ´ o a 3. Existen x, y ∈ Rn tales que x > 0 , y > 0 , x, y = 1 , Ax = x Entonces, se tiene que Am − − xy T . −→
m→∞

y

AT y = y .

Demostraci´n. Llamemos L = xy T = (xi yj )i,j∈ In . Este L es, en realidad, el proyector o espectral asociado al 1 ∈ σ(A). Esto no lo probaremos ahora, pero es util tenerlo en cuenta ´ para entender las propiedades de L que veremos a continuaci´n: o

11.1 Matrices de entradas positivas

214

1. L2 = L. En efecto, L2 = xy T xy T = x x, y y T = xy T = L. 2. AL = LA = L. Esto se deduce de que Axy T = xy T = xy T A. 3. (A − L)m = Am − L, para todo m ∈ N. Para mostrarlo, razonemos por inducci´n sobre m. El caso m = 1 es trivial. Adem´s, o a (A − L)m+1 = (A − L)(A − L)m = (A − L)(Am − L) =A − AL − LA + L = A m+1 =A −L .
m+1 k m+1

(por la HI)

−L−L+L

4. σ (A − L) \ {0} ⊆ σ (A) − {1}. En particular, se tiene que ρ(A − L) < 1. En efecto, sean λ ∈ C \ {0} y z ∈ Cn \ {0} tales que (A − L)z = λz. Entonces Lz = 1 1 L(λz) = L(L − A)z = 0 , λ λ

por que en 1 y 2 vimos que L(L − A) = 0. Luego Az = λz y por lo tanto λ ∈ σ (A). Si tuvi´ramos que λ = 1 = ρ(A), entonces x ∈ Gen {z} (recordar que dim ker(A − I) = 1), e lo que nos dir´ que (A − L)x = x. Pero Ax = x y Lx = xy T x = x. En consecuencia ıa uno tendr´ que (A − L)x = 0 = x, lo que no vale. ıa 5. Como el unico λ ∈ σ (A) con |λ| = 1 es λ = 1, se tiene que ρ(A − L) < 1. Entonces el ´ Corolario 3.4.9 sirve para afirmar que Am − L = (A − L)m − − 0. −→
m→∞

Final de la demostraci´n del Teorema de Perron o
Recordemos el enunciado que escribimos al principio de la secci´n: o Teorema de Perron 11.1.1. Sea A ∈ MEPn . Entonces se verifica que 1. ρ(A) > 0 y ρ(A) ∈ σ (A). 2. Existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x. 3. Dado y ∈ Rn \ {0}, si y 0 y Ay = λy, entonces λ = ρ(A) e y > 0.

4. ρ(A) es ra´ simple del polinomio caracter´ ız ıstico de A. 5. Si λ ∈ σ (A) y λ = ρ(A), entonces |λ| < ρ(A). 6. Si ρ(A) = 1, entonces Am − − L = xy T , donde x, y ∈ Rn son vectores tales que −→
m→∞

x > 0 , y > 0 , x, y = 1 , Ax = x

y

AT y = y .

x > 0 y se llamar´ vector de Perron de A. El item 5 es el Corolario 11. que ρ(A) = 1. Por ejemplo.1. entonces λ1 (A) = ρ(A) pero |λ2 (A)| < ρ(A) (ac´ se usa el item 5). El unico vector x ∈ Rn tal que o ´ Ax = ρ(A)x . −1}. como se quer´ demostrar. ıa Definici´n 11. Como a a u sabemos que rk M = 1.1. Sea A ∈ MEPn . entonces A cumple las tres condiciones que pide la Proposici´n 11.1. Pero eso no pasa si tomamos la matriz 1 0 .1. si tomamos el vector λ(A) ∈ Cn de autovalores de A (que cuenta las multiplicidades como raices de PA ) con un orden en el que los m´dulos decrezcan.6. Adem´s. o a Supongamos. el n´mero de unos que tenga en la diagonal. Observar que ya hemos visto (aqu´ se usa el Corolario 11.18. o ız Con las notaciones del resto del libro esto significa que.16. todas las partes del Teorema (salvo una) pueden hacerse fallar tomando a B= 0 0 matrices diagonales de bloques adecuadas (Ejercicio).1.2 Matrices de entradas no negativas 215 Demostraci´n. como T ∈ T S(n). T m = U ∗ Am U − − U ∗ LU = M . entonces Am = A o I. Es m´s.14. Adem´s.2 Matrices de entradas no negativas 0 1 1 0 El Teorema de Perron falla en general si A ∈ MPn pero A > 0. Por otra parte. a tr x = 1 . sabemos que (T m )ii = (Tii )m = λi (A)m para todo i ∈ In y todo m ∈ N .1. Apliqu´mosle a A el Teorema 1 e de Schur 1.1. podemos deducir que Mii = 1.12. 11. −→ m→∞ Observar que todos los T m ∈ T S(n). sin perdida de generalidad. o S´lo falta verificar el item 4. Para cada i ∈ In tal que λi (A) = 1. Los items 1 y 2 fueron vistos en los Corolarios 11.2.1. σ (A) = {1. La que se salva es la siguiente: Proposici´n 11. El item 6 se deduce de la o Proposici´n 11.19. Sea A ∈ MPn . que dice que ρ(A) es ra´ simple de PA (x) = det(xI − A) ∈ C[x]. deducimos que tan solo λ1 (A) = 1 y los dem´s tienen menor m´dulo a o (porque sus potencias deben converger a cero).17) que si o ı A ∈ MEPn . En este caso el u a autovector asociado al 1 es positivo estricto (es 1).18. considerando en λ(A) el orden mencionado. por lo menos.3 y 11. se tiene que e a rk M = rk L = 1.11. Luego tendremos U ∈ U(n) y T ∈ T S(n) tales que U ∗ AU = T y d (T ) = λ(A). seg´n m sea impar o par. es f´cil ver que su rk ser´. si A= .1.1. Entonces o . Sin embargo. El item 3 se o prob´ en el Corolario 11. por lo que tambi´n M ∈ T S(n). Al estar M ∈ T S(n).

si llamamos Am = Aεm y xm = xεm . ρ(A) ∈ σ (A). 4. Veamos que cumplen el Teorema de Perron tutti. donde x. Observar que tr x = 1. Sea A ∈ MPn . Existe x ∈ Rn \ {0} tal que x 0 y Ax = ρ(A)x. Am xm = ρ(Am )xm − − M x y. y ∈ Rn son vectores tales que −→ m→∞ x > 0 . Luego M = ρ(A) y x 0 es un autovector. Por lo tanto deducimos que Ax = M x.11.2 Matrices de entradas no negativas 216 1. entonces o ρ(A) ≤ ρ(Aε ) ≤ ρ(Aε ). |λ| < ρ(A). con M ≥ −→ −→ m→∞ m→∞ ρ(A). y > 0 . 2. si y 0 y Ay = λy. Teorema 11. Ax = x y AT y = y . si 0 < ε < ε.2. se puede tomar una sucesi´n decreciente εm o 0 tal que. .3. x. Si ρ(A) = 1.2. entonces.2. 2.2. entonces Am − − L = xy T . ρ(A) > 0 y ρ(A) ∈ σ (A). Si λ ∈ σ (A) y λ = ρ(A). normalizado para que tr xε = 1. Las matrices primitivas son casi tan buenas como las de MEPn . Por la Proposici´n 11. Dado o ε > 0. y = 1 . 6. Como la bola de Rn es compacta.1. que enunciamos por tercera vez. Matrices primitivas Definici´n 11. entonces existen M ∈ R y x ∈ Rn tales que ρ(Am ) m→∞ m→∞ M ≥ ρ(A) y xm − − x −→ m→∞ 0. 5. tenemos que Aε = A + ε E ∈ MEPn . Demostraci´n. Sea A ∈ MPn una matriz primitiva. por lo que x = 0. ρ(A) es ra´z simple del polinomio caracter´ ı ıstico de A. 3. Diremos que A es una matriz primitiva si existe un o m ∈ N tal que Am ∈ MEPn . Entonces valen: 1. Existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x. entonces λ = ρ(A) e y > 0. Dado y ∈ Rn \ {0}. Sea E = 1 1T ∈ MEPn (todas las entradas de E son iguales a 1). entonces Am xm − − Ax. Adem´s. Llamemos xε > 0 al vector de Perron de cada Aε . como a −→ m→∞ Am − − A.

2. Entonces Am y = λ m y y |λ|m = ρ(Am ) =⇒ λm = ρ(Am ) y Am y = ρ(Am )y . .1 aplicado a Am .1) Se dice que A es irreducible si no es reducible. o o Observaci´n 11. existe un M (n) ∈ N (que uno deber´ poder calcular) tal que toda A ∈ MPn que sea primitiva debe cumpir que ıa m A > 0 para alg´n m ≤ M (n). Sin embargo. n−k donde 1 ≤ k ≤ n − 1 y B ∈ Mk (R). estamos en condiciones de o asegurar que A cumple las hip´tesis de la Proposici´n 11. Razonamientos similares a permiten concluir que ρ(A) es el unico autovalor de m´dulo m´ximo (item 5).11. con los items anteriores ya demostrados. y por ello λ = ρ(A) y Ax = ρ(A)x. Otra manera de decirlo es que existe un J ⊆ In tal que 1 ≤ |J| < n (o sea que es propio) que cumpla que A Gen {ej : j ∈ J} ⊆ Gen {ej : j ∈ J} . cada λm ∈ σ(Am ) posee una multiplicidad en el polinomio caracter´ a ıstico de Am mayor o igual que la de λ en el de A (esto se ve f´cil triangulando con el Teorema 1.1. eso sigue pasando para las potencias mayores (lo que no es cierto para todas las primitivas). (11. Por el Teorema 11. o σ(Am ) = {λm : λ ∈ σ(A)}.2 Matrices de entradas no negativas 217 Demostraci´n. Pero las u ıa o cuentas son muy complicadas y no las desarrollaremos aqu´ ı. Dada una matriz A ∈ MPn . Sea λ ∈ σ (A) tal que |λ| = ρ(A) y sea y ∈ Cn \ {0} tal que Ay = λy. Por el Corolario 1. con una hip´tesis razonable (si A ∈ MPn cumple que d (A) > 0). Por lo a tanto ρ(A) posee multiplicidad algebr´ica uno como autavalor de A. Obviamente hace falta un teorema que diga hasta donde es necesario probar. A es reducible si existe P ∈ UP (n).1. Decimos que: o 1.18.6. y se calculan los M (n) ´ptimos. Algo del tipo: Dado n ∈ N. Sea m ∈ N tal que Am > 0. tal que o P AP −1 = B C 0 D k . podemos deducir que alg´n x ∈ Gen {y} cumple que u x > 0.4. sale mucho m´s facilmente o a m que la constante M (n) = n − 1 sirve. y tambi´n la ´ o a e condici´n 3. Adem´s. para saber si es primitiva hace falta o calcular muchas potencias Am hasta que caiga en MEPn .2.5. Esta teor´ existe. concluimos que ρ(A) = ρ(Am )1/m > 0. lo que prueba el item 6. a Matrices irreducibles Definici´n 11.1).2. Sea A ∈ Mn (C). Por el Teorema 11. una vez que A > 0.1. Esperen algunos renglones y ver´n.7. Finalmente. El lector interesado puede buscar data al respecto en el libro de Horn-Johnson [7].1 aplicado a Am . Obsrvar que en tal caso. una matriz de permutaci´n.

e Ve´moslo desde otro punto de vista: Si Fi (A) = 0. . Demostraci´n. Observar que se puede suponer que todos los ik son distintos entre s´ porque si hubiera ı. e Proposici´n 11. les sacamos aquellos t´rminos que vivan en la diagonal de A. Recordar que si A conectaba a (p. quedando otra sucesi´n m´s corta que seguir´ conectando a p con q. El par (p. Ejemplo 11. si existen p = i0 . Ya que estamos u dejamos un peque˜o ejercicio: A ∈ Mn (C) es reducible si y s´lo si AT lo es. una parte de la sucesi´n se podr´ borrar (los intermedios entre los dos o ıa repetidos).11. . q) ∈ Vn . Existe 1 ≤ m ≤ n − 1 tal que la entrada (Am )p q > 0. 3. Ahorita vamos a ver que irreducible es lo mismo que FC (se lo enunciar´ a pra matrices de MPn . i1 . Decimos que un par (p.2. entonces a i no se lo puede conectar con a ning´n otro j ∈ In \ {i}. Por lo tanto. 2.2 Matrices de entradas no negativas 218 2. O sea que A es reducible. Como multiplicar del otro lado permuta s´lo sus o −1 ceros. Lema 11.2. y Pσ ∈ UP (n) su matriz asociada. como mostrar´ una inducci´n adecuada. y que todos estos t´rminos son no negativos. im = q en In tales que aik−1 ik = 0 para todo k ∈ Im . o ıa o n n n (Am )p q = i1 =1 i2 =1 ··· im−1 =1 ap i1 · k∈Im−2 aik ik+1 · aim−1 q . 4. A es fuertemente conexa (FC) si todo par (p. En caso de que alguno de esos sumandos no se e anule. . q) ∈ Vn se conecta por A (o que A conecta p con q). puede suponerse que m ≤ n − 1. q). y nos queda una sucesi´n e o que conecta p con q. Denotemos moment´neamente por Vn = {(p. Luego A no es FC. q) ∈ Vn se conecta por A. A es irreducible. q) se conecta por A. (4. Sea A ∈ MPn . para alg´n i ∈ In . (I + A)n−1 > 0. Tomemos cualquier σ ∈ Sn tal que σ(i) = n. Sea A ∈ MPn . A es FC. pero obviamente eso es irrelevante).2. repeticiones.3). Basta notar que. q) ∈ I2 : p = q}. 2. son equivalentes: 1. u Por la Eq.8. porque todos los aik son nulos. 3. . Entonces son equivalentes: o 1. tambi´n vale que Fn (Pσ APσ ) = 0. Por lo o a ıa tanto. se tiene que Fn (Pσ A) = 0.6. lo n o anterior vale tambi´n para columnas nulas. Dado un par (p.7. Veamos una serie de ejemplos donde se ve independientemente que pasa lo mismo: Sea A ∈ Mn (C) tal que Fi (A) = 0. al conjunto de pares de a n ´ ındices distintos en In . . entonces existe alguna sucesi´n de o no m´s de n ´ a ındices que los conecta.

existe un par (p. Existe x > 0 tal que Ax = ρ(A)x. aij = 0 si i ∈ J1 y j ∈ J2 (sino el par (p.2.1. o sea que I + A no es primitiva. pasando por i).1. dado que los elementos de la diagonal no se usan para las conexiones. si A es primitiva. se tiene que (I + A)n−1 es combinaci´n lineal.2. j) ser´ conectado por A. ın i∈In Por otra parte.1. el Lema 11. i) } ∪ {p} y J2 = In \ J1 . sea P ∈ UP (n) tal que P AP −1 = P (I + A)m P −1 = (I + P AP −1 )m = ∗ ∗ 0 ∗ ∈ MEPn / B C . entonces es irreducible y FC. Sea A ∈ MPn . I + A es primitiva. si o A es FC. u Teorema 11. ρ(A) > 0 y ρ(A) ∈ σ (A).7.9 (Teorema de Perron-Frobenius). Entonces 0 D para todo m ∈ N . porque conectar por A o es lo mismo que conectar por I + A.11. 0 ≤ k ≤ n − 1. q) ∈ Vn que no se conecta por A.2. (I + A)n−1 I n−1 = I. Rec´ ıprocamente. Sean J1 = {i ∈ In \ {p} : A conecta al par (p. tenemos que ρ(A) ≥ β = m´ tr Fi (A) > 0 . de las potencias Ak . ρ(A) es ra´z simple del polinomio caracter´ ı ıstico de A. por el Teorema 1 de Schur 1. Como A es ireducible.2 Matrices de entradas no negativas 219 4. σ (I + A) = 1 + σ (A). Entonces p ∈ J1 y q ∈ J2 . Demostraci´n. a coeficientes positivos. Luego.2. Usando el Lema 11. Entonces se verifica que 1. 3. M´s a´n.7 nos dice que A no puede tener ninguna o fila nula. 4 → 1: Si A es reducible. a 1 → 2: Si A no es FC. 2. es claro que 3 implica 2. por lo que ambos son no vac´ ıos. a a u se tiene que λ(I + A) = 1 + λ(A) (contando multiplicidades. En particular se tiene que. por la Proposici´n 11. Adem´s.6 asegura que todas las entradas de (I + A)n−1 (afuera de la diagonal) deben ser estrictamente positivas. el Ejemplo 11. Demostraci´n. Por lo tanto u . En particular.6. y en alg´n orden). Adem´s. J1 Por lo tanto ning´na potencia (I + A)m ∈ MEPn . ∗ ∗ 0 ∗ J2 . ρ(A) ∈ σ (A) (para esto alcanza con el hecho de o que A ∈ MPn ). y asumamos que A es irreducible. Si reordenamos In poniendo ıa primero a J2 y luego a J1 . encontraremos una matriz P ∈ UP (n) de permutaci´n tal que o P AP −1 = 3 → 4: Obvio. por el teorema del binomio de Newton. 2 ↔ 3: Por el Lema anterior.

En tal caso. o sea que y T A = ρ(A)y T . entonces ρ(B) < ρ(A). Si adem´s a Demostraci´n. Si sucediera que Ax − ρ(A)x = 0.2 Matrices de entradas no negativas 220 ρ(I + A) = 1 + ρ(A) (porque el m´ximo est´ a la derecha y no en la tercera posici´n). Como a a o I + A es primitiva. Como de ´stos hay uno solo.2. La Proposici´n 11. Por lo tanto Ax = ρ(A)x = ρ(B)x = Bx. Como A es irreducible. En este caso. el hecho de que o x > 0 puede deducirse ahora del Teorema de Perron-Frobenius.2. Por ultimo. Esta contradicci´n nos convence de que Ax = ρ(A)x. se tiene que A es irreducible porque I + A > 0. x 0 y A B =⇒ Ax Bx = ρ(B)x = ρ(A)x =⇒ Ax = ρ(A)x y 0 y x>0. Panzone [1]. e A continuaci´n presentamos dos resultados sobre matrices irreducibles de MPn que son muy o utiles. el de Horn y Johnson [7] o en los siguientes ejercicios. sabemos que Ax − ρ(A)x 0. o necesariamente. pero que quedaron medio aislados: ´ Corolario 11. k era 2. . . Por otra parte. si denotamos por x al vector de Perron de I + A. esto es imposible porque A = B.10. En el caso anterior. para e cierto k ≤ n.2. Sean A ∈ MPn irreducible y x ∈ Rn \ {0}. ωk−1 ρ(A). por el Corolario 11. B ∈ MPn tales que A es irreducible y B o asumimos que B = A. pero σ (A) = {1. entonces y T > 0 =⇒ 0 < y T (Ax − ρ(A)x) = y T Ax − ρ(A)y T x = ρ(A)y T x − ρ(A)y T x = 0. tomando ´ o a A= 0 1 1 0 . En efecto. donde los ωi son las ra´ ıces k-´simas de la unidad. Sea A ∈ MPn una matriz irreducible. . Sin embargo.11.1 nos dice que existe un x ∈ Rn \ {0} tal que x o o Bx = ρ(B)x. tambi´n AT lo es (¿porque?). . Proposici´n 11. A. La contradicci´n provino de suponer que o ρ(B) = ρ(A). −1} . Por el Teorema de o e Perron-Frobenius existe un vector y > 0 tal que AT y = ρ(A)y. Supongamos que ρ(B) = ρ(A). entonces tenemos que x>0 y Ax = (I + A − I) x = (1 + ρ(A) ) x − x = ρ(A) x . Observaci´n 11.11. el unico autovector de m´dulo m´ximo. Demostraci´n.10. . ρ(A) no es. o sea que (A − B)x = 0. Luego ρ(B) < ρ(A). Usando lo anterior.2. En general. sale el item 3.2. la igualdad λ(I +A) = 1+λ(A) dice que cada λi (A) = ρ(A) produce un λi (I +A) = ´ 1 + ρ(A). A − B 0 y x > 0. Benedek y R. Sean A. El lector interesado puede buscar m´s informaci´n a o al respecto en el libro de A. puede verse que los otros autovalores de m´dulo m´ximo en el σ(A) son los o a siguientes: ω1 ρ(A) .12. Si se tiene que x 0 y Ax ρ(A)x =⇒ x > 0 y Ax = ρ(A)x .

 . λk } = {λ ∈ σ(A) : |λ| = 1}. para resolver un sistema de ecuaciones diferenciales ordinarias asociado al problema de la cuerda que vibra. . Sean B ∈ Mn (C) y A ∈ MPn una matriz irreducible. . .15. o a Ejemplo 11. ya sea mostrando que (I + A) > 0... . No es dif´ u ıcil n−1 verificar que A es irreducible. .. Entonces.. tal ves. . Sea A ∈ MPn . . θn tales que a u B = eiφ D A D−1 donde D = diag eiθ1 . 0   0 1 0 1 . . Probar que µ ∈ σ (A) ⇐⇒ e−iφj µ ∈ σ (A). . (c) Probar que S = Gk = {e algebraica igual a uno. . . x ∈ Rn . . Supongamos que |B| A. . Llamemos   0 1 0 0 .. µk (A) = 2 cos kπ . existen n´meros reales θ1 ..2. . . en orden decreciente. .2.. Es n decir que Jn e1 = 0 y Jn ek = ek−1 . 0 1 0 1 0 ... 0  . Esta matriz es muy famosa y es. Esto lo hizo Lagrange en 1759. . .13. 1 0 0 .. . . xn−1 ). . o bien A posee n autovalores distintos. 0 1 0 1 0 . (a) Pongamos que cada λj = eiφj ρ(A). . . a 2. . . . . .2. 1 0 1 0   0 . .. . . ρ(A) es el unico autovalor ´ de m´dulo m´ximo.  . . .. ρ(A) = ρ(B) y λ = eiφ ρ(B) es un autovalor de B de m´dulo o m´ximo. 2πip k 0).. 2. . . 0 0 1 . 0 0 1 0 que act´a en Rn por Ax = (x2 . xn−2 + xn . Sea Jn ∈ Mn (R) el bloque de Jordan de tama˜o n × n (con n ≥ 2).  ∈ H(n) . o viendo que satisface la definici´n de ser FC (con la diagonal de arriba si p < q y con la de abajo si q < p). . Supongamos que ρ(A) = 1 y sea S = {λ1 .11.. Si A es irreducible y semidefinida positiva (o sea que A es irreducible. . . .14. . . (b) Concluir a partir del item anterior que S es un grupo abeliano. Sus autovalores son. A es primitiva si y s´lo si A es irreducible y ρ(A) es el unico autovector de m´dulo o ´ o m´ximo de A. x1 + x3 . n+1 1≤k≤n. entonces. para 2 ≤ k ≤ n..   0 .. . .. A ≥ 0 y A entonces A es primitiva. 1.. Tambi´n o e puede probarse que A ∈ Gl (n) si y s´lo si n es par. T A = J + J = .2 Matrices de entradas no negativas 221 Ejercicio 11.. o la primera matriz a la que se le calcularon todos los autovalores y autovectores. Probar que: 1. : p ∈ Ik } y que cada λp ∈ S tiene multiplicidad (d) Mostrar que si A es no singular y n es primo. .. . Ejercicio 11. x2 + x4 . eiθn .

1≤k≤n. . que apareo u cecn como normas de las matrices anteriores.11. lo que nos dir´ que ρ(A) = 2 cos n+1 y que x1 es el vector de a Perron-Frobenius de A. π Veamos que Ax1 = µ1 (A)x1 . En realidad cumple que I +A es totalmente positiva. Tienen la siguiente particularidad: Sea N (Z) ⊆ R el conjuntos de normas espectrales de matrices de cualquier tama˜o (incluso rectangulares) con entradas en Z. Entonces n π : m ≥ 3}. Entonces la matriz y B= 0 B BT 0 ∈ H(n) difiere de la matriz A del principio s´lo en una reordenaci´n de la base can´nica (poniendo o o o los pares primero y los impares al final). xk = sen A es el prototipo de matriz tridiagonal o de Jacobi. Se basa en las f´rmulas del seno y coseno de sumas o y restas. Para las entradas 2 ≤ k ≤ n − 1 se tiene que A(x1 )k = (x1 )k+1 + (x1 )k−1 . se los puede realizar con matrices m´s peque˜as. . 2kπ nkπ kπ . Adem´s.2 Matrices de entradas no negativas 222 π por lo que A = ρ(A) = 2 cos n+1 . Los n´meros cm = 2 cos m para m ≥ 3. son muy importantes en varias ramas de la matem´tica. 2) = { 2 cos m Notar que realizamos todos estos valores con las matrices cuadradas anteriores. . aparecen en la teor´ del ´ a ıa ındice de V. La verificaci´n ´ o u o de lo anterior es tediosa pero elemental. sen . porque n+1 no lleg´ a´n a π. Notar que µn (A) = −µ1 (A). Por lo tanto B = s1 (B) = µ1 (B) = B = A = cn+1 . luego A no es primitiva. Jones. Sin embargo. como se ver´ en el Cap´ a ıtulo 13. En efecto. si n es impar). Es decir que existe una matriz de permutaci´n o −1 P ∈ UP (n) tal que P AP = B. lo que prueba a lo antedicho. lo que justifica (m´s bien digamos que sugiri´) las propiedades de sus autovalores y a o autovectores. y en que sen(π − t) = sen t y cos(π − t) = − cos t. se tienen dos casos: para las entradas 1 y n: π π 2π A(x1 )1 = sen n+1 = 2 cos n+1 sen n+1 y π nπ nπ π A(x1 )n = sen (n−1)π = cos n+1 sen n+1 − cos n+1 sen n+1 n+1 π nπ = 2 cos n+1 sen n+1 . sen . En efecto. si n = 2k. sea B ∈ Mk (Z) dada a n por B = Ik + Jk . . entonces µk (A) = 2 cos π/2 = 0. Los autovectores asociados son. respectivamente. N (Z) ∩ (0. n+1 n+1 n+1 nπ Notar que el unico con entradas positivas es x1 . Pero π kπ kπ π (x1 )k+1 = sen (k+1)π = cos n+1 sen n+1 + cos n+1 sen n+1 n+1 π kπ kπ π (x1 )k−1 = sen (k−1)π = cos n+1 sen n+1 − cos n+1 sen n+1 . Por ejemplo. n+1 π Sumando se obtiene la f´rmula buscada. si n + 1 = 2k (es decir. .

. Probar que µ ∈ σ (A) ⇐⇒ e−iφj µ ∈ σ (A). . ρ(A) es el unico autovalor ´ de m´dulo m´ximo.3.4. Algo o similar puede hacecrse si n = 2k + 1. o a 11. (b) Concluir a partir del item anterior que S es un grupo abeliano. : p ∈ Ik } y que cada λp ∈ S tiene multiplicidad (d) Mostrar que si A es no singular y n es primo. 11. existen n´meros reales θ1 . .3 Ejercicios 223 Por eso era que −µn−j+1 (A) = µj (A) = sj (B). Pero eso no pasa para la matriz 1 0 A = .2. A es primitiva si y s´lo si A es irreducible y ρ(A) es el unico autovector de m´dulo o ´ o m´ximo de A. ek ) ∈ Mk.5). λk } = {λ ∈ σ(A) : |λ| = 1}. . Probar que: 1. . 1. todas las partes del Teorema (salvo una) pueden hacerse fallar a 0 0 tomando matrices diagonales de bloques adecuadas 11. ρ(A) = ρ(B) y λ = eiφ ρ(B) es un autovalor de B de m´dulo o m´ximo. σ (A) = {1. 2. Entonces. θn tales que a u B = eiφ D A D−1 donde D = diag eiθ1 . A ≥ 0 y A entonces A es primitiva. 2πip k 0).11. Completar las pruebas de lo enunciado en la Observaci´n 11. Sea A ∈ MPn . si entonces Am = A o I. a 2. k+1 (Z). seg´n m sea impar o par. En este caso u a el autovector asociado al 1 es positivo estricto (es 1).2. Supongamos que |B| A. . Supongamos que ρ(A) = 1 y sea S = {λ1 .3. Si A es irreducible y semidefinida positiva (o sea que A es irreducible. para todo j ∈ Ik (ver Proposici´n 3. Es m´s.7. .3 Ejercicios Ejercicios que aparecen en el texto 11. El Teorema de Perron falla en general si A A= 0 1 1 0 . . o .1. Por ejemplo. . .3. entonces. .15. 11. (c) Probar que S = Gk = {e algebraica igual a uno. Adem´s. .3. −1}. eiθn .3. o bien A posee n autovalores distintos. 0 pero A > 0. (a) Pongamos que cada λj = eiφj ρ(A). Sean B ∈ Mn (C) y A ∈ MPn una matriz irreducible. tomando B = (B.

entonces Ax = 0 ⇐⇒ A = 0.9. Sea A ∈ MPn .3.6. Probar que si A es una matriz doble estoc´stica reducible.11. 11.3 Ejercicios 224 Ejercicios nuevos 11. 11. Sea A ∈ Mn (R) tal que las entradas fuera de la diagonal de A son no negativas1 . 11.11. Mostrar que A posee un autovalor real r(A) tal que r(A) ≥ Re(λ) para todo λ ∈ σ(A).3. Probar que lim tr Fi (Am ) 1/m m→∞ = ρ(A) para cualquier i ∈ In .3.3.3. Si A > 0 y x 2. ¿Cual es esa constante?. entonces A−1 nula por columna. (11.8. Si A 0. Si A ∈ MPn posee un autovalor positivo. 0 A2 1 estas matrices se conocen con el nombre de esencialmente no-negativas. 0 ⇐⇒ A tiene exactamente una entrada no 11. probar que A es similar a una matriz de MPn tal que la traza se sus filas es constante.5. De paso. entonces Ax > 0. Probar que: 1. entonces A−1 ∈ MPn . entonces existe una a permutaci´n Pσ ∈ UP (n) tal que o −1 Pσ APσ = A1 0 . Sean σ ∈ Sn y Pσ ∈ UP (n) ⊆ MPn su matriz asociada. Si A > 0 y es inversible. .1). M´s a´n. Si A 0 y es inversible. pero x = 0.7.3. Sea A ∈ MPn . / 4. Decir que debe cumplir σ para que Pσ sea irreducible. (Ax)k = 0 ⇐⇒ Fk (A) = 0. j=1 11. Sean A ∈ Mn (R) y x ∈ Rn . calcular σ(Pσ ). 11. 0 y x > 0.3.10. Demostrar que ρ(A) = m´x m´ a ın x>0 i∈In 1 xi n aij xj = m´ m´x ın a j=1 x>0 i∈In 1 xi n aij xj . a u 3. Se recomienda mirar la Eq.

Sean A ∈ Mn. para cada par α ∈ Qk. m−r (C) . Luego. Dadas A ∈ Mn. Luego |Qk. 4.1) .j)∈Ik ×Ir ∈ Mk. αk ) ∈ Ik : 1 ≤ α1 < α2 < · · · < αk ≤ n . Dado α ∈ Qk. k 2. α2 .1 Notaciones y definiciones Recordemos las notaciones asociadas a submatrices vistas en Cap´ ıtulos anteriores: 1.r det A[α|ω] det B[ω|β] .n y β ∈ Qr. notaremos A[α|β] = A[−|β] (resp. Cuando α = β.n .n . si pensamos a los conjuntos J   ordenados en forma creciente. m−r (C) y A(α|β] = A[α |β] ∈ Mn−k . sea k ≤ m´ ın{n.n | = n .m (C) . 5. a β = Im ). A[α|α] se abreviar´ como A[α] y A(α|α) = A(α).n = J ⊆ In : |J| = k . r (C) .r (C) y B ∈ Mr. Si α = In (resp. (12. Entonces denotaremos por A[α|β] a la submatriz de k × r de A dada por A[α|β] = Aαi βj (i. · · · . r (C) . Notamos por Qk. A[α|β] = A[α|−]). 3.m .n al conjunto de sucesiones estrictamente crecientes de k enteros elegidos en In : Qk.n = α = (α1 . Sea n ∈ N y k ∈ In .m se tiene la f´rmula de Cauchy Binnet para AB: o det (AB)[α|β] = ω∈Qk. Llamaremos A(α|β) = A[α |β ] ∈ Mn−k . r. α ∈ Qk.Cap´ ıtulo 12 Complementos de Schur y determinantes 12. β ∈ Qk. m}.n a su complemento (ordenado convenientemente). denotaremos por α = In \ α ∈ Qn−k . n Otra manera de verlo es Qk. An´logamente se definen a A[α|β) = A[α|β ] ∈ Mk .m (C).

. xk ) → x1 ∧ · · · ∧ xk (ver 7.1. αk ) . Llamaremos tr α = i=1 αi . como la matriz A/[α|β] = A(α|β) − A(α|β] · A[α|β]−1 · A[α|β) ∈ Mn−k (C) . . tenemos o n k que dim Λ Hn = |Qk. Sean A ∈ Mn (C)+ y α ∈ Qk. En tal caso definimos el complemento de Schur de A[α|β] en A. entonces el Corolario 3. .2) Definici´n 12. S⊥ (12. o n item 3 y Definici´n 7.8. k ∈ In y α. . Por lo tanto. y por la Eq. o 1.4). .1. o y πα (αj ) = k + j para j ∈ In−k .9 dice que / A/α 0 0 0 S = S⊥ A(α) − A(α|α] A[α]−1 A(α|α]∗ 0 0 0 S = Σ (A. . . Sea A ∈ Mn (C). β ∈ Qk. . con r = tr α − k(k + 1) . o k sgn(α) = i=1 (−1)αi −i = (−1)r . 2.n | = k . (2. . Por lo tanto. Supongamos que A[α|β] es inversible.1. .2. y se la llama base can´nica.n . S) . El complemento de Schur Definici´n 12. . . . α2 αk Luego. se puede ver que πα = (k. indexada por α y β . α2 )(1.1. usaremos la abreviaci´n: o e∧ = e(n) α α ∧ (n) := eα1 ∧ e(n) ∧ · · · ∧ e(n) ∈ Λk Hn . (7. preservando sus ´rdenes.n . Sea α ∈ Qk. escribiremos A/α en lugar de A/[α|α]. o k 1.n } α es una base ortonormal de Λk Hn .n .2. Llamaremos sgn(α) al signo de la permutaci´n πα ∈ Sn dada por πα (αi ) = i para i ∈ Ik . . .1.3. . α1 ). Si A[α] ∈ Gl (k)+ y consideramos el o subespacio S = Gen {ej : j ∈ α}.n .12. Dada α ∈ Qk. Si α = β. el conjunto o √ ∧ Ek.1 Notaciones y definiciones 226 6. por la multilinealidad de la funci´n Hk (x1 . .3.18). .n = { k! e∧ : α ∈ Qk. 2. Es decir que πα pone a los buenos al principio y a los malos al final. 2.3) En efecto. Observaci´n 12. . 2 (12.

Por ejemplo. n − k . que mostraremos brevemente: o Un c´lculo elemental prueba que A admite la factorizaci´n a o A= In [α] 0 A(α|α]A[α]−1 In (α) A[α] 0 0 A/α In [α] A[α]−1 A[α|α) 0 In (α) . (12. .12. .7. . dada por o Tα ei = eαi Tα ek+j = eαj si si i = 1. y van a donde deben ir. . . Luego de aplicar los k ciclos.9 a matrices y bloques o cualesquiera (siempre que sean cuadrados). se puede aplicar o una argumento igual al de la prueba de la Proposici´n 3. Eq. . . (12.8. k j = 1. Si tambi´n A ∈ Gl (n).5). Sea Tα ∈ UP (n).1. Lo dem´s (los valores ı a que toma en α ) queda armado para producir la permutaci´n πα . n B[Ik ] = A[α|β] . (12. α1 ) no movi´ a α2 ) y deja o a α1 en el lugar 1.4.8) . . Esto se deduce de que el primer ciclo (que consta de α1 − 1 trasposiciones) manda α1 al lugar 1. B(Ik |Ik ] = A(α|β] y B[Ik |Ik ) = A[α|β) . .1 Notaciones y definiciones 227 donde (a1 . (12.8. (12. .7). entonces A/[α|β] ∈ Gl (n − k) y e −1 (12. α1 − 1 est´n a en α (si α1 > 1) y se “corren” un lugar a la derecha por el primer ciclo. α2 −1 est´n ocupados por m´s elementos de α y se vuelven a corren con a a el segundo ciclo (manteniendo su orden original). Tβ definidas en Eq. (12. En este caso. la matriz de permutaci´n asociada a πα . (12. tomando inversas de ambos lados. (12. porque los factores de la derecha y de la izquierda en el lado derecho de Eq. los “lugares” 2. β ∈ Qk. Usando la Eq. . los ´ ındices 1. . ar ) denota al r-ciclo asociado. (12. B(Ik ) = A(α|β) . . Para probar el caso general. Luego. Tambi´n. Sean A ∈ Mn (C). . El siguiente resultado generaliza la Proposici´n 3. porque se mantuvo o su orden interno. (12. .4) vemos que. . Se tiene que A[α|β] ∈ Gl (k) =⇒ det A = sgn(α) sgn(β) det A[α|β] det A/[α|β] . Teorema 12.8. quedan todos los de α ordenaditos y al final. como matrices de sus tama˜os. k ∈ In y α. .5) A/[α|β] = A−1 (β|α) .4) Tenemos entonces que det Tα = sgn(πα ) = sgn(α). Empecemos con el caso particular α = β = Ik . Llame−1 mos B = Tα ATβ . 3.7 y el Corolario 3. .n .4). mientras que el factor central tiene determinante igual a det A[α] det(A/α).7) tienen determinante 1. . . Se sigue as´ hasta mandar αk al lugar k . El segundo (que consta de α2 − 2 trasposiciones) manda α2 al lugar 2 (observar que (1. . 2. .7) A partir de esto podemos deducir sin problemas la Eq. . consideremos las matrices Tα .6) es consequencia e de la Eq.6) Demostraci´n.

Llamemos.8) aseguran que B/[Ik ] = A/[α|β] . En efecto. donde · es una norma en Mn (C).1. tenemos que a −1 −1 B[Ik ]ij = (Tα ATβ )[Ik ]ij = Tα ATβ ej . o . Por otra parte. j ∈ Ik .4. ei = ATβ ej . entonces Z ∩ U es un abierto no vac´ Entonces (Z ∩ U ) ∩ V = Z ∩ (U ∩ V ) = ∅ para todo abierto Z. 2. si φ(A)1 = det A. Esto ser´ usado para obtener varias identidades de determinantes a partir del Teorema 12. A − B < ε. (12. la Eq. Consider- emos la funci´n φ : Mn (C) → CM que asigna a cada B ∈ Mn (C) la lista de los determinantes o de todas sus submatrices cuadradas.1. en alg´n orden prefijado. Por ejemplo.6) resulta de la relaci´n: o −1 A−1 (β|α) = (Tβ A−1 Tα )(Ik ) = B −1 (Ik ) = B/[Ik ] −1 = A/[α|β] −1 . quien dice 2. (12. basta ver que Γ es denso en Mn (C). Llamemos Γ = φ−1 a ∈ C M : ai = 0 para todo i ∈ IM . Notar que φ es una funci´n u o continua. La cantidad total de submatrices cuadradas de A es M = o k=1  n 2 k .12.8). si U y V son abiertos densos y Z es abierto. Por inducci´n. porque Gl (k) es denso en Mk (C) para todo k ∈ N. entonces Γ1 = Gl (n). dice M . para cada i ∈ IM . ıo. a Lema 12. M Es claro que todos estos conjuntos son abiertos y que Γ = i=1 Γi . El resultado se sigue de que una intersecci´n finita de o abiertos densos es densa. ya que las dem´s se muestran de manera a an´loga: dados i. Luego sgn(α) sgn(β) det A = det B = det B[Ik |Ik ] det B/[Ik |Ik ] = det A[α|β] det A/[α|β] . n Demostraci´n. ya que det Tα = sgn(α). Γi = φ−1 a ∈ C M : ai = 0 . Para probar el Lema. Todas las submatrices cuadradas de B son inversibles. Finalmente.1 Notaciones y definiciones 228 Mostraremos la primera igualdad de la Eq. eαi = Aαi βj = A[α|β]ij . existe B ∈ Mn (C) tal que 1. Por lo tanto U ∩ V es denso. Dada A ∈ Mn (C) y ε > 0. En el siguiente enunciado veremos que toda matriz A ∈ Mn (C) puede ser aproximada tanto como se quiera por matrices tales que todas sus submatrices cuadradas son inversibles.5. Tα ei = Aeβj . Observar que las igualdades de (12. cada Γi es denso en Mn (C).

Si A ∈ Gl (n). lo que culmina la prueba. det A Teorema 12. det A i. y por lo tanto su determinante es cero. Cuando α = ω tenemos que. β ∈ Qk. aplicadas a α y β : o det A−1 = sgn(α) sgn(β) det A−1 [α|β] det A−1 /[α|β] =⇒ det A−1 [α|β] = =⇒ sgn(α) sgn(β) sgn(α) sgn(β) · (det A−1 /[α|β])−1 = · det A(β|α) . 12. en Jn [α|ω] hay una columna de ceros.1 (Identidad de Jacobi). Observaci´n 12.2.n . .12. o Luego det Jn [α] = (−1)pα = (−1)tr α−k = sgn(α) · (−1) k(k+1) 2 −k = sgn(α)(−1) k(k−1) 2 . . 1. la Eq. . α ∈ Qk.2. (12. donde δα. Entonces det A−1 [α|β] = sgn(α) sgn(β) para todo par α.2. y ω.5). usando (12. En efecto. Sea A ∈ Gl (n).10) .1) (Cauchy-Binnet): det(Jn A−1 Jn )[α|β] = det A(β|α) det A para α. si pα denota al n´mero de elementos pares de α.9) induce la identidad: o (A−1 )ij = (−1)i+j conocida como la regla de Cramer.2 Identidades asociadas a determinantes det A(β|α) .3.β = 1 o 0 de acuerdo a si α = β o α = β. Se sigue de las ecuaciones (12. −1. La siguiente igualdad se sigue de la Eq.11) dado que det Jn [α] · sgn(α) = det Jn [β] · sgn(β) = (−1)k(k−1)/2 .6) y (12. j ∈ In .n . (12. det A det A lo que culmina la prueba. entonces u k pα ≡ i=1 (αi − 1) = tr α − k (m´dulo 2) . β ∈ Qk.9). (−1)n−1 ) ∈ U(n).2. Cuando k = 1. Luego det Jn [α|ω] = δαβ sgn(α)(−1) k(k−1) 2 det A(j|i) . Sean Jn = diag (1. (12. (12. −1. (12. suele notarse A# = Jn A−1 Jn a la llamada inversi´n o de A. si α = ω.2 Identidades asociadas a determinantes 229 12. . .9) Demostraci´n.n .

α∪ω sgn β = sgn(σ) . tomando k = 1.9). El caso no inversible se deduce por continuidad.n tales que ω ⊆ α .5) para B. por Eq. o Observar que. Una consecuencia inmediata es la siguiente caracterizaci´n de las entradas de un complemento o de Schur: Dados α.n . µk+l ) y ν = β ∪ τ = (ν1 . . consideremos la matriz B = (aµi νj )i. se tiene la siguiente versi´n local del Teorema 12. σ en lugar de A. Dados α. ω∈Qk. . νk+l ) ∈ Qk+l. por la f´rmula de Cauchy Binnet (12.β ) = sgn i j det A[α ∪ {αi }|β ∪ {βj }] α β sgn α ∪ {αi } β ∪ {βj } det A[α|β] (12. Entonces vemos que Eq. entonces B[γ|σ] = A[α|β] y.12) De hecho. β∪τ (12. respectivamente.5.1. . ω.16) .4.12) da sgn(β) det A ω∈Qk. nos queda el algoritmo usual propuesto en el Ejercicio 7.j∈Ik+l ∈ Mk+l (R). α. ν2 .i det A(r|i) = i∈In (−1)r+i Ar. (12. β ∈ Qk. Existen entonces γ y σ ∈ Qk. cuando A es inversible.1). (12.4: o det A[α|β] det (A/[α|β])[ω|τ ] = sgn α β sgn det A[α ∪ ω|β ∪ τ ] α∪ω β∪τ (12.5. por otra parte. τ ⊆ β . el lado izquierdo de la Eq. .15) En efecto.n det A[α|ω] det A−1 [ω|β] = sgn(β) det A det In [α|β] . se tiene {A/[α|β] }(α .13) El desarrollo por columnas sale aplicando esto a AT .15) coincide con Eq.14) Con estas notaciones.i det A(r|i) .2. . β. adem´s. . γ.2.n (12. µ2 . (12. 12. La siguiente igualdad es v´lida para toda A ∈ Mn (R): dados α. como B = A[µ|ν] = A[α ∪ ω|β ∪ τ ]. .n .12. sean a µ = α ∪ ω = (µ1 . τ ∈ Ql. (12. β ∈ Qk.n y. B/[γ|σ] = B(γ|σ) − B(γ|σ] B[γ|σ]−1 B[γ|σ) = A(α|β)[ω|τ ] − A(α|β] A[α|β]−1 A[α|β)[ω|τ ] = (A/[α|β])[ω|τ ] . .β sgn(β) det A .11 (y usando n veces) desarrollando por la fila r: det A = i∈In sgn {r} sgn{i} Ar. De hecho. Luego definimos sgn k(k+1) α = sgn(γ) = (−1)tr γ− 2 . (12. i ∈ Ik .n . β ∈ Qk.k+l tales que αi = µγi y βi = νσi . a sgn(ω) det A[α|ω] det A(β|ω) = δα. y fijando cualquier r ∈ In como α = β.2 Identidades asociadas a determinantes 230 12.

Sea A ∈ Mn (R) y sea r ∈ In tal que Arr = 0.2.j∈In−k A[{r} ∪ α]/[r] ij . . .2. vemos que el lado izquierdo de la Eq.17) se sigue ahora de la Eq. β ∪ {βj } para todo i. r} Arr = por lo ambas matrices coinciden. tomemos los n´meros u εi = sgn α α ∪ {αi } y ρj = sgn β .7 (Identidad de Sylvester).n tal que r ∈ α.17) Para probarlo. se tiene que / (A/[r])[α] = A[{r} ∪ α]/[r] . j ∈ α. a Demostraci´n.12. . (12. Sea α ∈ Qk.18) . .6.5) y del siguiente resultado: o Lema 12. εn−k ) A/[α|β] diag(ρ1 .8. 12.16) asegura que o o (A/[r])[α] ij = (A/[r] ij r det A[{i. . (12. Entonces n−k sgn i=1 α α ∪ {αi } = sgn(α) . j ∈ In−k . .n . para todo α ∈ Qk. ρn−k ) = n−k det A[α|β] n−k−1 det A[α|β] det(A/[α|β]) i=1 α · sgn α ∪ {αi } n−k sgn i=1 β . = det A · det A[α|β]n−k−1 (12. β ∈ Qk.2 Identidades asociadas a determinantes 231 Corolario 12. (12. .2. Todas esas letras significan que las submatrices principales de A/[r] s´lo dependen de las o entradas correspondientes de A (y no de las dem´s). (12. Dados i. r}|{j. la f´rmula (12. Entonces.n . se cumple que det det A[α ∪ {αi }|β ∪ {βj }] i. r}] r sgn = sgn {i.16).17) es igual a det det A[α|β] (A/[α|β])ij εi ρj = det A[α|β]n−k det diag(ε1 . . Por la Eq. β ∪ {βj } La f´rmula (12. Dados A ∈ Mn (R) y α. r} {j.

3.2. seg´n las Eq’s (12.12. Definamos P (A. es calcular el signo de la permutaci´n que manda a los buenos o al principio y los malos al final. α.3 Un poco m´s de complementos de Schur a 232 α Demostraci´n.18) da igual (y no s´lo congruente) al exponente de o −1 en sgn(α). para cada entrada o o i i ∈ In−k . por ejemplo A[α|β) : Cβ → Cα y as´ Con estas notaciones. i sacado antes los de α mayores que αi . β ∈ Qk. Por lo tanto A[α|β]−1 : Cα → Cβ . ı. podemos pensar que A/[α|β] : Cβ → Cα . . El n´mero de trasposiciones en cada paso es justo el que determina el u α correspondiente sgn α∪{α } . En ambos casos. α. La prueba anterior es un poco charlada. k ∈ In y α. β) ∈ Mn (C) dado por P (A. β ∈ Qk. Pero miremos el siguiente proceso: empezamos por el ultimo elemento de α y lo corremos hasta el final (si no estaba all´ Al ´ ı). Sea A ∈ Mn (C) y supongamos que A[α|β] es inversible para ciertos o α. u 12. Representemos Cn = Cβ ⊕Cβ . si A ∈ Mn (C). o Por ello es claro que P 2 = P y que ker P = Cβ . para x = xβ + xβ ∈ Cn . Los otros cachos de A operan en forma coherente. 2. pero cr´anme que ustedes lo o e preferir´ as´ antes que tener que leer una cuenta expl´ ıan ı.3. En otras palabras. pen´ltimo. Proposici´n 12. ıcita.3) y (12. a Demostraci´n.1. se tiene que 1. An´logamente Cn = Cα ⊕Cα .14). α. Observaci´n 12. Y seguimos as´ con todos los de α hasta u ı llegar al primero. (AP )(α|β) = A/[α|β] y las dem´s coordenadas de AP son nulas. β) x = xβ − A[α|β]−1 A[α|β) xβ . P 2 = P . Pero al final de todo mandamos prolijamente a todo α hasta el final. ker P = Gen {ej : j ∈ β} = Cβ .9. Recordemos la definici´n de los signos de α y de α∪{α } . porque los αj que tiene arriba quedaron pegados entre s´ al haber ı. indexada por α y β .n satisfacen que A[α|β] es inversible. lo que denotaremos A[α|β] : Cβ → Cα . ı. si abreviamos P (A. por lo que la suma total da el sgn(α). se ver´ all´ que la suma de a ı los exponentes de la productoria de (12. porque los sumandos que definen a P no interfieren entre s´ por lo que nunca se anula en Cβ \ {0}. Entonces. Observar que P x = P xβ y que −A[α|β]−1 A[α|β) xβ ∈ Cβ para todo x ∈ Cn . β) = P . Llamemos Cβ = Gen {ej : j ∈ β } y Cβ = Gen {ek : k ∈ β}. poniendo que un vector Cn x = xβ +xβ . lo corremos hasta justo despues de αk . el complemento de Schur A[α|β] en A es la matriz A/[α|β] = A(α|β) − A(α|β] · A[α|β]−1 · A[α|β) ∈ Mn−k (C) . est´n determinados por la cantidad de a trasposiciones necesarias para efectuar tales ordenamientos. Igual daremos una versi´n guiada o de esa cuenta en los ejercicios.n . Como aval de la prueba anterior.3 Un poco m´s de complementos de Schur a Recordemos que. a β α Observar que A[α|β] opera desde C hacia C .

Esto muestra que (AP )[α|β) ≡ 0 y que (AP )(α|β) = A/[α|β]. se tiene que ı.3. Sean ω. se puede ver que Qx = Qxβ = xβ + Q[β. El siguiente teorema es un resultado an´logo a la Proposici´n 3. De lo anterior.3. Corolario 12. Para todo xβ ∈ Cβ existe un xβ ∈ Cβ tal que A/[α|β] xβ = A(xβ + xβ ) . Sean A ∈ Mn (C) y α. 1. o sea que Q = P . β ∈ Qk. Sea A ∈ Mn (C) y supongamos que A[α|β] es inversible para ciertos α. 2. Entonces 1.1. y R(A · Q) ⊆ Cα . β) = −A[α|β) . Esto dice que (AP )[α|β] y (AP )(α|β] son matrices nulas.19). Demostraci´n. o 2. para todo x = xβ + xβ ∈ Cn . Luego o o o A/[α|β] xβ = AP xβ = A xβ − A A[α|β]−1 A[α|β) xβ . (12. deducimos que si x = xβ ∈ Cβ . Sea Q ∈ Mn (C) tal que Q2 = Q . tales que ω ⊆ α y τ ⊆ β . En este caso se cumple la siguiente igualdad de matrices: A/[α|β] /[ω|τ ] = A/[α ∪ ω|β ∪ τ ] . entonces AP x = 0. β). β) = −A[α|β]−1 A[α|β).3 Un poco m´s de complementos de Schur a 233 De lo anterior. τ ∈ Qr.19. El hecho de que R(AQ) ⊆ Cα indica que (AQ)[α|β) = 0.8.n . ker Q = Cβ Entonces se tiene que Q = P (A.20) . Como A[α|β] es inversible. α.19) Luego basta tomar xβ = −A . para cualquier x ∈ Cn .n tales que A[α|β] es inversible. β) =⇒ A[α|β]Q[β.3. uno deduce que 0 = (AQ)[α|β) = A[α|β) + A[α|β]Q[β. tenemos que Q[β. β)xβ . Si me dan ahora un Q que cumple (12.2. (12. (A/[α|β])[ω|τ ] ∈ Gl (r) si y s´lo si A[α ∪ ω|β ∪ τ ] ∈ Gl (k + r). porque son las partes de AP que act´an en Cβ y van a lugares u que no interfieren entre s´ Por lo tanto. α. a o Teorema 12.5.12.3. β) la proyecci´n de la Proposici´n 12. Luego. β ∈ Qk. Sea P = P (A. como en el Ejercicio 3.9. entonces Q2 = Q y ker Q = Cβ .n . A[α|β]−1 A[α|β) xβ . AP x = AP xβ = A(α|β) + A[α|β) xβ − A(α|β] + A[α|β] A[α|β]−1 A[α|β) xβ = A(α|β) − A(α|β]A[α|β]−1 A[α|β) xβ = A/[α|β] xβ ∈ Cα .

La misma entrada del lado derecho de (12. β) . tenemos tres proyectores: P (A.21) A/[α|β] /[ω|τ ] = A/[α|β] · P (A/[α|β]. β ∪ τ ) y (12. En efecto. ω.2. τ ) y la matriz Q = P (A. en el lado izquierdo de (12.16). β).1. β) = P (A/[α|β]. α ∪ ω.15). v´ el ıa Corolario 12.3. donde µ = {i} y ν = {j} . τ ) . salvo los ceros. ser´ calculando las coordenadas como determinantes por medio ıa de las ecuaciones (12. α ∪ ω. P (A/[α|β]. se tiene que ker P (A/[α|β]. Ahora. con gran alegr´ le dejamos u ıa. ıa ε = sgn α∪ω α∪ω∪µ sgn β∪τ β∪τ ∪ν .22) asegura. (12. ω. se tiene que A/[α|β] /[ω|τ ] = AQ. β) · P (A/[α|β]. En particular. como Cβ ⊆ Cβ∪τ . det A[α ∪ ω|β ∪ τ ] Por lo tanto. como dice ´ o la Eq. El item 1 se deduce en forma inmediata de la Eq. (12. τ ) ∈ Mn (C) con ceros fuera de β . Observaci´n 12. . β ∪ τ ) tales que A/[α|β] = A · P (A.3. Otra forma de probar la f´rmula (12. salvo los signos. ω. llamemos µ = {i} y ν = {j} y obsevemos que. (12. ω. τ ) I − P (A. ω. si pensamos a P (A/[α|β]. β) · P (A/[α|β]. τ ) ∈ Mn (C) cumple que Q2 = Q . Ahora bien. por lo que A/[α|β] /[ω|τ ] = AQ = A/[α ∪ ω|β ∪ τ ] . ambas matrices tienen todas sus coordenadas iguales. τ ) y P (A.15) y (12. β) = Cβ . y la ultima inclusi´n surge de que. α.20). α.3 Un poco m´s de complementos de Schur a 234 Demostraci´n. α.12.23) Esto sale usando la Eq. ker Q = Cβ∪τ y R(A · Q) ⊆ C(α∪ω) . ω. A/[α ∪ ω|β ∪ τ ] = A · P (A. (12. Para ver que ellos coniciden. τ ) = Cβ∪τ . ω. para todo i ∈ (α ∪ ω) y todo j ∈ (β ∪ τ ) . ω. α. τ ) = A · P (A. (12.20) tenemos (A/[α|β])/[ω|τ ] i. α.j = sgn ω ω∪µ · sgn τ τ ∪ν det(A/[α|β])[ω ∪ µ|τ ∪ ν] det (A/[α|β])[ω|τ ] donde · sgn β β∪τ ∪ν =ε ε = sgn ω ω∪µ det A[α ∪ ω ∪ µ|β ∪ τ ∪ ν] .4. que Q = P (A. sean i ∈ (α ∪ ω) y j ∈ (β ∪ τ ) . con t´cnicas m´s parecidas a o o e a las del resto de este Cap´ ıtulo. al lector interesado como ejercicio.3. β ∪ τ ). β) = 0 =⇒ P (A/[α|β]. α.20) es igual a A/[α ∪ ω|β ∪ τ ] ij = sgn α∪ω α∪ω∪µ sgn β∪τ β∪τ ∪ν det A[α ∪ ω ∪ µ|β ∪ τ ∪ ν] . (12. τ )P (A.22) donde igualdad del medio es un ligero ejercicio. Por la Proposici´n o o 12. se tiene que P (A/[α|β]. la Eq. α ∪ ω. ker P (A. α.14) y un sinn´mero de cuentas que. ω. det A[α ∪ ω|β ∪ τ ] α α∪ω∪µ · sgn α α∪ω · sgn · sgn τ τ ∪ν · sgn β β∪τ . bastar´ verificar que. mientras que A/[α|β] opera s´lo en Cβ o por lo que.21).

Es decir: Dada α ∈ Qk. El tema es ver en qu´ lugar de entre las e entradas de α que ubicado el αi .n probar que e n−k i=1 α sgn α∪{α } i = sgn(α) . definido como en 12.3. que α0 = 0 y αk+1 = ∞. se puede mandar ω ∪ µ al final. Dar una prueba num´rica de la Eq. (12. Se sugieren dos caminos. (12. concluir la prueba de la f´rmula (12. En ambos casos. se puede reducir el trabajo a probar dos identidades m´s cortas o a y similares.4. todos disjuntos. como en la prueba del Lema 12. Contemos cuantos hay de cada tipo: probar que |{i ∈ In−k : αi < α1 }| = α1 − 1 . sea γ i ∈ Qk.4. mostrar que tr γ i = (k + 2)(k + 1) −j .8. sgn α ω α · sgn · sgn α∪ω ω∪µ α∪ω∪µ = sgn α∪ω . El segundo es contar todo a lo bestia. i=1 k(k + 1) tr γ − 2 i k = j=1 k (k − j + 1)(αj − αj−1 − 1) + 0 · (n − αk ) k = j=1 αj − j=1 (k − j + 1) = tr α − k(k + 1) .23). α∪ω∪µ y lo mismo para β. y despu´s volver a mezclar a ω con α. Para cada i ∈ In−k . por conveniencia.20) basandose en el camino delineado en la Obo servaci´n 12.3).5 para α y α ∪ {αi }. ω ∈ Qr. despu´s mandar a µ e al ultimo lugar. |{i ∈ In−k : αk < αi }| = n − αk |{i ∈ In−k : αj−1 < αi < αj }| = αj − αj−1 − 1 4. o 12.4 Ejercicios Ejercicios que aparecen en el texto 12. En otras palabras.14) se vi´ que sgn α∪{α } = sgn(γ i ) = (−1)tr γ − 2 . (12. 3.18). Pongamos.18). Dar una prueba de la f´rmula (12.2.3. n−k y cuando 2 ≤ j ≤ k . En tal caso.4 Ejercicios 235 12.4. τ y ν. a saber: Dados α ∈ Qk. El o primero es encontrar permutaciones que tengan esos signos y que hagan lo mismo. α 2. 2 i cuando se tiene que αj−1 < αi < αj .n y µ = {i}.3). Deducir que sgn α∪{α } = sgn(γ i ) = (−1)k−j+1 si αj−1 < αi < αj . probar la Eq. Ahora s´ calcular el exponente de la productoria: ı. (12.n . Se suguieren los siguientes pasos: 1.1. o i donde γ i ∈ Sk+1 manda αi al final de α ∪ {αi }. ´ e . Usando la Eq. 12.k+1 . Completar los detalles de la prueba de la Eq.2. y mostrar que son congruentes m´dulo 2. (12. 2 5. i k(k+1) α Recordemos que en la Eq. Por ejemplo.12.2.4.

sea c ∈ Cn la soluci´n del problema de cuadrados m´ o ınimos x∈Cn m´ Ax − b ın 2 para un b ∈ Cm fijo .4 (Ben Tal . o 1.Teboulle). usar la regla de Cramer y la f´rmula de Cauchy-Binet. Se suguiere probar que c es la unica soluci´n de la denomina ecuaci´n normal ´ o o A∗ Ax = A∗ b. Luego.n (C) tal que m > n y rk(A) = n. o . Observar que rk(A) = n =⇒ J(A) = ∅. Si para cada I ∈ J(A) denotamos cI = A[I]−1 bI . denotaremos por bI al vector de C r que se obtiene dejando s´lo las coordenadas de b que pertenecen a I. J(A) := {I ⊆ Im : |I| = n y det A[I] = 0}.n (C) tal que m > n y rk(A) = n. Dado I ⊆ Im con |I| = r y dado b ∈ Cm . 12. probar que c pertenece a la c´psula convexa a de los cI . Dada A ∈ Mm. o 2.4 Ejercicios 236 Ejercicios nuevos Notaci´n: Sea A ∈ Mm.4.12.

en la Eq.2) o. (13.2) o la Eq. Sean A ∈ Mn. equivalentemente.1. en la base can´nica Ek.m (R) y ε una sucesi´n de signatura. Sea r = m´ o o ın{n. tal que εi = ±1 para todo i∈N. A se dice estrictamente de signo regular con signatura ε (A es ε-ERS) si.1) (o. Llamaremos sucesi´n de signatura a una sucesi´n o o es decir. Si τ es otra sucesi´n de signatura. εk det A[α|β] ≥ 0 para α ∈ Qk. (13. (7. reemplazamos por >. notaremos λε a la sucesi´n de signatura λε = (λεi )i∈N . En esta secci´n introducimos las nociones de regularidad de signo y positividad total.2. por la Eq. β ∈ Qk. 13.Cap´ ıtulo 13 Matrices totalmente positivas Este cap´ ıtulo est´ basado en un trabajo de T. Las herramientas fundamentales para las demostraciones son los intrincados resultados del Cap´ ıtulo anterior. llamaremos τ ε = (τi εi )i∈N .3) 2. 1}N . Decimos que A es de signo regular con signatura ε. . en la Eq. para β ∈ Qk.n }de Λk Hn .1.n = { k! e∧ : α ∈ Qk. o ε = (εi )i∈N ∈ {−1.1 Definiciones y criterios de positividad total 1. (13.n .1) La regularidad de signo de A es equivalente a la condici´n o ε k · aβ 1 ∧ aβ 2 ∧ · · · ∧ aβ k 0.3)). Ando [20].m k ∈ Ir . (13.m k ∈ Ir . 1. aparecido en 1987. o 3. y est´ escrito a a utilizando como punto de partida un trabajo de A. se tiene que o α εk · Λk A 0 para todo k ∈ Ir .1.19). (13. (13. m}. o Definici´n 13. Dado λ ∈ R con |λ| = 1. en forma de determinantes. o Definici´n 13. Iglesias. y abreviaremos diciendo que A es √ ∧ ε-RS si. 2.

5) Para testear la regularidad de signo de A se requiere chequear los signos de un n´mero muy u grande de determinantes.1. para β ∈ Qk. La u prueba de este resultado. es decir.m k ∈ Ir . Observar que d(α) = 0 si y s´lo si las o o entradas de α son consecutivas.6) son v´lidas en esos casos. a Ahora pasemos a los criterios para la regularidad de signo estricta. si o Λk A 0. β ∈ Qk. La dispersi´n de α es el n´mero o o u d(α) = αk − α1 − (k − 1) = i∈ Ik−1 αi+1 − αi − 1 . i.6) 4.2) o (13. (13. (13. o 1.4. es suficiente que las Eqs. es reemplazado por > en las 0.m (R) y ε una sucesi´n de signatura.1 Definiciones y criterios de positividad total 238 3.n . si det A[α|β] ≥ 0 para α ∈ Qk. αi+1 = αi + 1 para todo i ∈ Ik−1 . que es bastante complicada. εk det A[α|β] > 0 para α ∈ Qk. Para que A sea ε-RS. (13. . ıcil o Definici´n 13. con la convenci´n de que d(α) = 0 para los α ∈ Q1.m) . Teorema 13. se posterga a un Ap´ndice al final e del Cap´ ıtulo.5) o (13.4) o equivalentemente si aβ 1 ∧ aβ 2 ∧ · · · ∧ aβ k es decir.13. en particular si A es inversible. es probable que el lector afronte con mayor entusiasmo la dif´ lectura de su demostraci´n.e. Sea n ∈ N.1. k ∈ In y α ∈ Qk.5) o (13.1. Sean A ∈ Mn. u a e a e Teorema 13. pero estas aplicaciones son de un grado mucho menor de dificultad. La prueba de este criterio tambi´n se dar´ en el Ap´ndice. Para que A sea ε-ERS es suficiente que.m k ∈ Ir .5. o 1. A se dice estrictamente totalmente positiva (ETP) si ecuaciones (13. A es TP.3. k ∈ Ir . Pero si el rango de A es conocido. para todo k ∈ Im´ ın(n. o Una ves apreciado el efecto devastador del siguiente Teorema.n . En particular. β ∈ Qk. Esto se debe a que su aplicaci´n es clave en el desarrollo de la teor´ y la o ıa construcci´n de ejemplos.6). (13. El n´mero de determinantes u se reduce a´n m´s. Decimos que A es totalmente positiva (y abreviaremos TP) si es ε-RS respecto de la sucesi´n ε ≡ 1.4). si las Eqs.3) se verifiquen en los casos en que d(β) ≤ m − r. Sea A ∈ Mn.n .m tales que d(α) = d(β) = 0 . el n´mero necesario de determinantes a chequear puede ser considerablemente reducido. 2.m (R) con rk A = r. (13.n . y sea ε una sucesi´n de signatura. (13.

de acuerdo al Teorema 13. tn ) ∈ Rn . Demostraci´n. . . entonces se ve f´cilmente que a k det V (t)[α | β] = i=1 tr i · det V (tα ) > 0 .n . . por lo que.5. tαk ).7) . En efecto.n . Es conocido que .1. . .1. . .5 nos dice que basta ver que det V (t)[α | β] > 0 para los pares α.1 Definiciones y criterios de positividad total 239 2.1 = tr i .n . . . tn−1  2   V (t) =  .6 (Vandermonde). .1. Sea A triangular inferior. Supongamos que o 0 < t1 < · · · < tn .7). Una matriz A ∈ Gl (n) triangular inferior es TP si det A[α|1. . βk ] = det A[α ∪ τ |β ∪ τ ] β1 −1 = det A[τ ] det A[α|β] = i=1 aii det A[α|β]. sea τ = {1.m tales que d(α) = d(β) = 0 . . . Entonces V (t) es ETP. observar en principio que V (t) ∈ Gl (n). . o basta mostrar que detA[α|β] ≥ 0. la submatriz V (t)[α | β] tiene en sus filas. . . . . . det V (t) = (tj − ti ) .. potencias consecutivas de los tαi . . Por ser A triangular inferior.7. Sea t = (t1 . tn−1 n La prueba es un ejercicio tradicional de inducci´n (ver Ejercicio 7. β ∈ Qk. La positividad del determinante en este caso se deduce de la f´rmula (13.. dividiendo a cada fila por V (t)[α | β]i. con d(β) = 0. para α. En particular A es ETP si det A[α|β] > 0 para α ∈ Qk. 2. Entonces. entonces det A[α|β] = 0 por ser A triangular inferior. tales que d(α) = d(β) = 0.13.n . Luego. . o 0 ≤ det A[α ∪ τ |1. . k] ≥ 0 para cada k ∈ In y cada α ∈ Qk. Como el rk A = n. . 2. el Teorema 13. se sigue que detA[α|β] ≥ 0. . β ∈ Qk. . Si β = (r + 1. r Aplicando la hip´tesis a los conjuntos α = Ir . O sea que i   1 t1 . (13. Ejemplo 13. Pero como det A = i=1 aii = 0. tn−1 1  1 t2 . Se llama matriz de Vandermonde de t a V (t) ∈ Mn (R) dada por V (t)ij = tj−1 . 2. . . .12).  . . . . Corolario 13. Si α1 ≥ β1 . es claro que A[τ |β] ≡ 0. β1 − 1}. por hip´tesis. . . Si α1 < β1 . α El argumento clave es que. se α obtiene la matriz V (tα ) que es tambien una matriz de Vandermonde de una k-upla ordenada. . i<j 1 tn . gracias a que d(β) = 0. Observar que la o ETPcidad se mantendr´ si uno inventara matrices de Vandermonde rectangulares (donde no ıa coincidan necesariamente el n´mero de potencias y de n´meros ti ) pero siempre pidiendo que u u el vector t tenga entradas estrictamente crecientes.1. . r + 2. se obtiene que o n i=1 aii ≥ 0 para todo r ∈ In . . para probar que V (t) es ETP.4.   . r + k) y llamamos tα = (tα1 . . β ∈ Qk.

a11 . .1. genera el siguiente criterio alternativo: Corolario 13.β1 det A {α2 . . entonces la primera fila de A[α|β] es (a1. Si 1 ∈ α. Supongamos que 1. Demostraci´n. . .1. . o Definici´n 13. / por la Eq. Para k = n.n tal que d(α) = 0. .e. es f´cil ver que A/{1} difiere de o a A(1) s´lo en la entrada 2.5. .1 Definiciones y criterios de positividad total 240 La prueba del Teorema 13. .n . k] > 0 para cada k ∈ In y cada α ∈ Qk. dado o a α ⊆ {2. . Una matriz A ∈ Mn (C) es llamada una matriz de Jacobi (o tridiagonal ) o si aij = 0 siempre que |i − j| > 1. Ejercicio (hace falta ver la prueba del Teorema 13. A 0. k]) = det A[1. 0). Supongmos que el o o o Teorema es v´lido para n − 1 en lugar de n. como d(β) = 0. a Por el Teorema 13. tenemos que chequear det A[α|β] ≥ 0 . k] ≥0. .4. Consideremos primero el caso en que det A > 0. .10. t2 . (12. Teorema 13. βk } ≥ 0 . αk }|{β2 . . Por inducci´n en n. . La afirmaci´n es trivial para n = 1. Si 2 ∈ α. . Si 1 ∈ α. Luego det A[α|β] = a1. . Para todo k ∈ In y α ∈ Qk. . Para k ≤ n − 1. debe verificarse que n ∈ β. con d(α) = 0. .8. para cualquier t = (t1 . El an´lisis es similar si 1 ∈ β. .. Por lo tanto. tn ) ∈ R+n .1 si la numer´ramos de corrido). .13. se tiene que det A[α] ≥ 0. si 2 ∈ α entonces det (A/{1}[α]) = det (A(1)[α]) ≥ 0. para α.1. porque ´ e a en tal caso.9. entonces A[α|β] / / es submatriz de A(1) y det A[α|β] ≥ 0. Supongamos ahora que a11 > 0 (es f´cil ver que este caso es suficiente).β1 . . 2. Por / lo anterior. En efecto. deducimos que A es TP en este caso (i. usaremos la hip´tesis inductiva. β ∈ Qk.8) Demostraci´n. . 0. . Sea A ∈ Mn (R) triangular inferior. Supongamos que 1 ∈ β. . y puede usarse que A(n) es TP.1. .5). Entonces es TP si se verifica que det A[α|1.1. n} con d(α) = 0.7. combinada con el Corolario 13. det A > 0). .1. 2.n con d(β) = 0.1. 3. (13. en tal a caso. . Entonces A es TP y. . 2 (es decir la 1. porque la ultima matriz tambi´n vive dentro de A(1).15) se tiene que det (A/{1}[α]) = det (A/{1}[2. Veamos que. esto es la hip´tesis. . Sea A ∈ Mn (R) una matriz de Jacobi. . n ∗ det A + diag ( t ) ≥ det A + i=1 ti . . 2. . . que asegura o o que las matrices A(1) y A(n) son TP. A/{1} cumple las hip´tesis del Teorema.

o Conclu´ ımos esta secci´n con un teorema de aproximaci´n de una matriz TP con otras ETPs. se tiene que = (a11 + t1 ) det (A + diag(t) )/{1} = (a11 + t1 ) det A/{1} + diag(t2 + n a12 a21 a12 a21 − . Notemos que la Eq. Luego A+εI es TP por el argumento del principio. Podemos asumir que n = m. Sea A ∈ Mn (R) de Jacobi y TP.10.12. Se sigue del Teorema 13. Y. Corolario 13. considerando o 0 [A. que fue probada para A. Para ello basta observar que. Por lo tanto. dadas matrices X. Z > 0 pero 0 = Y 0. tn ) ≥ det A/{1} + i=2 ti .9). . Ahora procedamos por inducci´n hacia atr´s en −→ o a p→∞ 0. (13.4 y el hecho de que A det A + diag(t) 0. la matriz A + εI tiene det(A + εI) ≥ εn > 0 y cumple las hip´tesis del Teorema (para ambas cosas se usa la o f´rmula (13. dado t ∈ Rn .m una matriz ε-RS. . (13.8). Demostraci´n. existe una sucesi´n {Gp } de matrices o o n-cuadradas ETPs tales que Gp − − In .1. y vale para los los A[α] con d(α) = 0 por la hip´tesis o o inductiva). Sea A ∈ Mn. ella tambi´n debe ser TP. . e Demostraci´n. Cuando rk A = n. .1. Asumamos que la afirmaci´n es cierta para todas las matrices regulares de o .17) implica εi · Λi (Gp AGp ) > 0 si i ≤ rk A y Λi (Gp AGp ) = 0 si i > rk A .1.1. 0] o [ A ] si es necesario. se tiene que + A + diag (t) es tambi´n TP. Toda matriz ε-RS puede ser aproximadada arbitrariamente cerca por matrices ε-ERS con la misma signatura. .9) Esto se deduce de que. Sea A ∈ Mn (R) de Jacobi tal que A ξ I + A es TP. Como estas matrices convergen a A. tn ) a11 a11 + t1 n ≥ a11 det A/{1} + i=1 ti = det A + i=1 ti . Entonces. En particular. Entonces exite ξ ∈ R tal que k = rk A.11. (7. o o Teorema 13. aplicado a las submatrices principales.1 Definiciones y criterios de positividad total 241 La hip´tesis inductiva nos asegura que A/{1} es TP y o n det A/{1} + diag(t2 . Resta ver que A es TP. . la afirmaci´n se sigue inmediatamente o de la Eq. . toda matriz TP puede ser aproximada arbitrariamente cerca por matrices estrictamente TPs. Como veremos en la Secci´n 8. .13.13. Ejercicio. para todo ε > 0. entonces XY Z > 0.1. e Corolario 13. que o A + diag (t) es una matriz de Jacobi positiva con menores principales no negativos. por el Teorema 12. Demostraci´n. Z ∈ Mn (R) tales que X > 0.

2 Permanencia de la positividad total 242 signo de rango k + 1. r > k + 1 (ah´ da todo cero porque ı rkB = rkA = k) o r = k + 1. y por lo tanto de A. tomemos un p para el que B := Gp AGp est´ suficientemente a cerca de A. Esto completa la inducci´n. De acuerdo a las ecuaciones (13. en otro caso .10) m´ | det B[α|β]| : α. (13. por hip´tesis inductiva C puede ser aproximada o arbitrariamente cerca por matrices estrictamente regulares de signo con signatura ε. se ve que εk+1 det C[α|β] > 0.9) y (7. (13.n a .1) (Cauchy-Binnet). El ´ ıtem 2 se deduce de los siguientes hechos: * Si C > 0 y D 0 no tiene columnas nulas (y se puede multiplicar). tomando α . Fijemos 0 < t < δ y consideremos la matriz C = B + tεk εk+1 E11 . . Dados α . B tiene la propiedad εi det B[α|β] > 0 Sea δ = m´ ın 1≤i≤k para α. 3.1. o 13. por la Eq. con ε = εA · εB . C est´ suficientemente a cerca de B. Es claro que si A es de ε-RS.n i ∈ Ik . Si A y B son ETP. Para ver que C es ε-RS se consideran tres casos: submatrices de tama˜os r ≤ k (ah´ se usa n ı que t < δ y el sumando extra no puede cambiar signos).2.n ın m´x | det B[ω|τ ]| : ω. porque det B[α|β] = 0 pero εk det B[α \ {1}|β \ {1}] > 0. tambi´n lo es su adjunta A∗ = AT .n tales que 1 ∈ α ∩ β. Demostraci´n. entonces: 1.10).2 Permanencia de la positividad total Esta secci´n est´ dedicada a m´todos can´nicos de producci´n de matrices TP nuevas a partir o a e o o de otras dadas. β ∈ Qi. Si A ∈ Mn. desarrollando por la primera columna. Ahora. tambien lo es AB. El producto AB es ε-RS.l (R) es εB -RS. se tiene que det C[α|β] = det B[α|β] + tεk εk+1 det B[α \ {1}|β \ {1}] y det C[α|β] = det B[α|β] si 1∈α∩β . β ∈ Qk+1. En particular. AB se convierte en ε-ERS si (a) A es εA -ERS y rk B = l. τ ∈ Qi−1. Los ´ o ıtems 1 y 3 son consecuencia inmediata de las ecuaciones (7.19). esto muestra que rk C = k + 1.17) o (12. Por ejemplo.13. En este caso. o si (b) rk A = n y B es εB -ERS. β ∈ Qi. entonces CD > 0.n . Si rk A = k. donde det B[∅] = 1 . β ∈ Qr. Para t chicos.m (R) es εA -RS y B ∈ Mm. 2. e Teorema 13.

d(α) = 0 y A(α) ∈ Gl (n − k). tk Ak . t (13. si i + 1 < j. j = lim {tai.3.j − (1 + tai+1. u Demostraci´n.1.1. Veamos que aij = 0 si |i − j| > 1. Supongamos primero que A es de la forma mencionada. esto muestra que todas las entradas no diagonales de A son no negativas. ya que B es una t matriz de Jacobi y es TP. 1. Teorema 13.11. La suma de dos matrices TPs no es en general TP. basta usar el Corolario 13.12.1. Esto significar´ que etA sea a ıa TP para todo t > 0. I + tA i.2. ı Supongamos rec´ ıprocamente que etA es TP para todo t > 0.l . Son equivalentes: 1.m (R) ε-RS. implica que ıa 0 ≤ lim det t→0 para todo t>0. A[α|β] es ε-RS. se tiene que rk B[−|β] = k.41). 2. as´ que I + p B sigue siendo TP por el Corolario 13. Entonces.11) Como etA 0. i + 1|i + 1. entonces A/α es εα -RS. La excepci´n la dan las matrices de Jacobi TP: o Teorema 13.1. las columnas de B son LI.11). la positividad total de etA resulta del Teorema 13. es poco com´n que una u matriz A ∈ Mn (R) genere un semigrupo TP de un par´metro. (13.12.13.n y β ∈ Qk. Si n = m.m . Entonces.i+1 )aij } = −aij .i+1 ai+1. como o e tA =e e ξt tB =e ξt p→∞ lim tB I+ p p . Sea A ∈ Mn (R). basta mostrar que A es una matriz real de Jacobi con elementos no negativos fuera de la diagonal. Sean α ∈ Qk. entonces det etA [i. A = ξI + B para alg´n ξ ∈ R y una matriz B ∈ Mn (R) que es de Jacobi y TP. Luego para todo k ≤ l y todo β ∈ Qk.2 Permanencia de la positividad total 243 * Si rk B = l. es f´cil ver que a Usando el desarrollo en serie etA = k! k∈N A = lim t→0 etA − I t o equivalentemente que lim t→0 I + tA − etA =0. Sea A ∈ Mn.2. . etA es TP para todo t > 0.2. Para u El caso j + 1 < i es an´logo. Luego A es de Jacobi y ρI + A a encontrar una B que sea TP. por la Eq.m tal que det A[α|β] = 0. Por ejemplo. Por lo tanto. v´ la Eq. donde la sucesi´n de o signos εα = (εn−k εn−k+i )i∈Ik .2. i + 1|i + 1. por lo que debe existir un α ∈ Qk. t→0 t 0 para alg´n ρ ∈ R. 2. j] ≥ 0 lo que. (9. Por el Corolario 13.

13) por inducci´n en m.15) que det A/α [ω|τ ] = sgn α α det A[α ∪ ω|α ∪ τ ] · sgn · . tambi´n lo ser´n A[α|β]. (13.2 Permanencia de la positividad total 244 3. Supongamos ahora que τ ⊆ α. 2. Si n = m y A es inversible.4 (Pinching). Demostraci´n. Entonces.11). Probaremos la Eq. Fijemos ω. a e 3. A/α y Jn A−1 Jn . . ´ En lo que sigue.n tal que r ∈ α. Observar que εn det A > 0 y. los mismos resultados valen reemplazando “regular de signo” por “estrictamente a regular de signo” (o TP por ETP) en todos los casos. tenemos que det Jn A−1 Jn [α|β] = det A(β|α) .n tales que τ ⊆ β . e a Adem´s. (13.12) Proposici´n 13. (13. si A es TP. (12. tenemos que o o b12 ≥ 0 y b21 ≥ 0 =⇒ det B = b11 b22 − b12 b21 ≤ b11 b22 . ya que εp det A[α|β][ω|τ ] = εp det A[ω|τ ] ≥ 0 (resp. Las ultimas afirmaciones se deducen de lo anterior. > 0) . Es trivial. α ∪ω α ∪τ det A[α ] Notar que det A[α ∪ ω|α ∪ τ ] tiene signo εn−k+p y detA(α) tiene signo εn−k . En particular. cuya f´rmula repasaremos para a o comodidad del lector: Sea A ∈ Mn (R) y sea r ∈ In tal que Arr = 0. (12.13) Demostraci´n. τ ∈ Qp. con la convenci´n de que εj = 1 si j ≤ 0. donde εJ = (εn εn−i )i∈N . Entonces o det B ≤ det B[Ik ] det B(Ik ) para todo k ∈ Im−1 .2. se usar´ varias veces el Corolario 12. o 1. Sea B ∈ Mm (R) una matriz TP. se ve f´cilmente que sgn(α /α ∪ ω) = sgn(α /α ∪ τ ) (ambos dependen s´lo de a o cuantos elementos de α est´n despu´s del bloque α). Pero como d(α) = 0. det A donde εn−k det A(β|α) = εn−k det A[β |α ] ≥ 0 (resp > 0). por la Eq. para todo α ∈ Qk.13. Se sigue de la la Eq. Para m = 2.6. se tiene que / (A/[r])[α] = A[{r} ∪ α]/[r] . entonces A# = Jn A−1 Jn es εJ -RS. o 4. ω ⊆ α.2.

m] es de orden menor que m y es TP.5) se tiene que det B[Ik ] det B(Ik ) = b11 det B[Ik ]/{1} det B(Ik ) = b11 det B/{1}[2. Por la Eq. . . . m − 1] = B[2. . . Como la matriz B[1. det B ≤ b11 bmm det B(1)/{m} = b11 det B(1) = det B[1] det B(1) . m] = b11 det B[1. . .4. . muestra que det A[α] = a11 det A[α]/{1} = a11 det A/{1}[α \ {1}] . . la hip´tesis inductiva o nos asegura que b11 det B(Ik ) ≥ det B[1. . . (13. m − 1]) b1m bm1 ≤ b11 por ser B 0. . . Entonces la desigualdad detA[α] > 0 se deduce de la hip´tesis inductiva aplicada a A/{1}. .3. Asumamos o que k > 1 y que b11 > 0. . El caso n = 1 es trivial. . a Ahora. Corolario 13. o que es inversible por el Teorema 12. Luego A(1) es o TP e inversible y a11 > 0. Los casos en que b11 = 0 o bmm = 0 se pueden anlizar a mano (mostrando que en tal caso 1 det B = 0 por tener una fila o columna nula) o bien cambiando b11 por b11 + n (con lo que B sigue siendo TP) y tomando l´ ımite.2. tenemos que det B = bmm det(B/{m}) ≤ bmm det(B/{m}[1]) det(B/{m}[2. . donde la ultima igualdad se deduce de la Eq. m] = b11 det B/{1} = det B . . . . asumiendo ahora que bmm > 0. m]/{m} = B(1)/{m} . . k+2. y es TP o por el Teorema 13.2 Permanencia de la positividad total 245 Asumamos que la afirmaci´n es cierta para todos los casos de orden menor que m. . . . Adem´s.12).n . k] det B(Ik ) . . . k] ≥ b11 det B/{1}[2. la Eq. . .1. k + 1. Demostraci´n. tenemos que 0 < det A ≤ a11 det A(1).4 y es TP por el Teorema 13. k + 1. . m]/{1} = b11 det B/{1}(Ik ) . Si k = 1. Si α1 > 1. .12). por la Eq. en este caso siempre existen los complementos de Schur A/[α]. k] det B(Ik ) det B/{1}(Ik ) ≥ b11 det B/{1}[2. Por inducci´n en n. As´ ı.13.12) aplicada a α \ {1} o con r = 1. . entonces det A[α] > 0 para cada k ∈ In y cada α ∈ Qk. k + 2. (12. obtenemos det B[Ik ] det B(Ik ) = b11 det B/{1}[2. (13. Asumamos que la afirmaci´n vale o o o para n − 1. . k + 2. Por la Proposici´n 13. . Si A ∈ Gl (n) es TP. que dec´ que ´ ıa B/{1}[α] = B[{1} ∪ α]/{1} para todo α tal que 1 ∈ α / . . (13. k+1. det(B/{m}[1]) = b11 − bmm tenemos que B/{m}[2. . . .2. . entonces α ⊆ In \ {1} y la desigualdad det A[α] > 0 se sigue de la hip´tesis inductiva aplicada a A(1). . .14) En particular. Usando nuevamente la hip´tesis inductiva en la matriz B/{1} que es de orden m − 1. Si α1 = 1.5.2. (13.2.3.

Si k < i. .m (R) son todas TPs. c11 k+j − a1 .1. . . entonces bi ∧ bi+1 ∧ · · · ∧ bj = ai ∧ ai+1 ∧ · · · ∧ aj . . k+j ai+1 . .4 basta mostrar que bi ∧ bi+1 ∧ · · · ∧ bj 0 para 1 ≤ i ≤ j ≤ n. bn ] ∈ Mn (R) definida por e b i = ai si i ∈ Ik y b i = ai − a1i ak . .e. donde las matrices triangulares AL ∈ o o ˜ ˜ Mn (R). Si j ∈ In−k e i ∈ In−1 . . j+1 − ci+1 . . .. ak+1 . a Lema 13. AU ∈ Mm (R) y AU . 0] ∈ Mn (R) . 0. tales que C[1. . . bn . observar que todas las primeras coordenadas de los bj (j ∈ In \ Ik ) son nulas. entonces (C/{1})ij = ci+1 . .3.13. Si a1k = 0. debe ser (C/{1})ij = 0 (y la otra tambi´n).3 Lema 13. bk+2 . . .3. En efecto. . garantizada por el Teorema 13. k k = bk+j i+1 = Mi+1 . Teorema 13. Se ve f´cilmente de la definici´n de C/{1} que a o M = [bk+1 . . consideremos la matriz a C = [ak . B) es triangular superior. . Por el Teorema 13. Sea A ∈ Mn. . Como obviamente o det A = det B.m (R) TP con n ≥ m.1. j .3. j+1 = ai+1 . 1) ≡ 0 (i. por lo que la primera fila va bien.2. . Entonces A admite una LU -factoriza˜ ˜ ci´n A = AL AU y una U L-factorizaci´n A = AL AU . que es TP. En los dem´s casos. . .15) se a e o deduce de la positividad total de C/{1} y de M .3 Factorizaciones LU y UL 246 13. C) es triangular inferior y C (resp. . U L-factorizaci´n) si B o o o (resp. Ahora la ecuaci´n (13. S es triangular superior y A = CS.15) es v´lida porque A es TP.e. . . para todo i ∈ Im .3 Factorizaciones LU y UL Una factorizaci´n A = BC es llamada una LU -factorizaci´n (resp. Si j ≤ k o i ≤ k ≤ j. . y la Eq. . denotaremos por X = [x1 . a1k si i ∈ In \ Ik .j∈In = [a1 . entonces tambi´n es TP la matriz B = [b1 . . 0. Demostraci´n. . AL ∈ Mn. .3. ambas TP. Para demostrar el Teorema necesitamos dos largos Lemas t´cnicos: Para ellos necesitaremos e n una notaci´n nueva: Dados x1 . Entonces existen C y S ∈ Mn (R). Sea A ∈ Mn (R) una matriz TP.13 podemos asumir que detA > 0. xm ] ∈ Mnm (R) o a la matriz cuyas columnas est´n dadas por Ci (X) = xi .. . . xm ∈ R . F1 (C) = c11 e1 ). a1 . la positividad para los α tales que d(α) = 0. por serlo A. . 1 c1 . n−1 (R) . an ] ∈ Mn (R) una matriz TP. Sea A = (aij )i. de acuerdo al Teorema 13. 0] = 0 C/{1} ∈ Mn.15) i.2. (13. (13. an .1. .

La positividad total de D se sigue del Lema 13. . . Entonces ıa B admite una factorizaci´n B = DU1 . ei+1 . . Cada Tj es una matriz de Jacobi positiva y triangular superior. . . triangular superior. . . porque. . 0] Tp+2 . ak+p .i b1. . . j|i − 1. . . .2. . lo que contradice que bi = 0. . b1. . . Aplicando entonces este procedimiento finitas veces. bn ] es una matriz TP tal que bi = 0 implica que bj = 0. y Tp+2 T1 es triangular superior. . 0. . an . n . entonces k−1 A = [ak . . en ] . . . donde o D := [b1 . ei−1 . En efecto. 0] T1 . . . . .i−1 para j = i + 1. an . an .10. . . . como b1. r−1 A1 = [ak . tomemos el mayor i para el cual b1i = 0.i−1 = 0. 0] T1 o. ak+1 . . . an . Luego las Tj son TP por el Teorema 13. . . . y la matriz A1 = [ak . . ak+p .1. Si seguimos sin columnas nulas hasta ak+p y ak+p+r es la primera columna no nula de las que quedan. . . .i−1 bi−1 . tendr´ ıamos det B[1. . obtenemos que A = BT . ak+p+r . ej+1 . si b1. bn ] y ei−1 + ei . b1. . . . .3 Factorizaciones LU y UL 247 Demostraci´n. lo que implicar´ que todos los bj. Afirmamos que b1. . . . an . Notemos que ahora D1i = 0. bi − U1 := [e1 . . . 0. 0. . . en−1 ] = Ij−1 0 0 Nn−j+1 ∈ Mn (R) . o Observar que T1 = Nn el bloque de Jordan tutti. . . . ej . 0. y por lo tanto TP por el Teorema 13. . . .i−1 = 0. . . 0.10. bi−1 . consederemos la matriz o Tj := [e1 .3. . . i + 2. . ak+1 . . an . . . e2 . . . . . 0. o sea bi−1 = 0. 0. Estas matrices nos permitir´n “correr” hacia la izquierda las columnas no nulas de A. . = ak−1 = 0 pero ak = 0. i] = b1i−1 bji − b1i bji−1 = −b1i bji−1 ≥ 0 . para j > i . donde T triangular superior y TP y B = [b1 . bi+1 . . . . .1. . . . Si a a1 = a2 = . ej−1 . Si B[1|1) = 0. . mirando como dan las cuentas. . Por otro lado. U1 es una matriz de Jacobi positiva. 0] Tp+2 T1 . Para cada j ∈ In−1 . . . . Es decir. . . .j = 0 si j > i. . . .i−1 = 0. para todo j ∈ In .j bi−1 . . r−1 k−1 A = [ak . r−1 k−1 Observar que todo queda TP. 0] = [ak+p+r . como antes obtenemos que r−1 [ak+p+1 . donde Nn−j+1 ∈ Mn−j+1 (R) es el bloque de Jordan con los unos arriba (Jacobi nos rob´ la J). ak+p+r . .i−1 b1. .i b1.13. . entonces bj = bj − b1. b2 . 0] es TP.

y sea A ∈ Gl (n) triangular superior (inferior) y TP. con D[1.3. Asumamos que la afirmaci´n es cierta para n − 1 en o o lugar de n. (13.4. asi que F hereda lo bueno a que ten´ C (ceros en la primera fila) pero gana ceros en la primera columna. quedando como ıa quer´ ıamos. y se agrandan las matrices trio angulares (y TP) de Mn−1 (R) obtenidas. Para conseguir hacer el paso inductivo. Observar que multiplicar por una triangular superior a derecha.3 Factorizaciones LU y UL 248 Repitiendo este procedimiento. Adem´s de la relaci´n de orden usual A o a o t k k B entre matrices en Mn (R).1). Asumamos que la afirmaci´n o o o es cierta para n − 1. Pero por el Lema 13. 1] ≡ 0. En otras a palabras.n . tambi´n se da que D(1. introduzcamos una m´s fuerte: Diremos que A B si Λ A Λ B para todo k ∈ N. como se buscaba. 0] ∈ Mn (R). donde cada o Ui es triangular superior y TP mientras que C es una matriz TP tal que C[1|1) = 0. Toda A ∈ Gl (n) triangular superior (inferior) y TP es producto de un cierto n´mero de matrices de Jacobi triangulares superiores (inferiores) y TPs. Pero como A es e triangular superior. 1.1: Considerando la matriz [A. Sean Wi = d11 0 1/2 0 ˆi W . Cuando n = 1. Recordar que e producto de triangulares es triangular. podemos o confinar la prueba al caso n = m. usando conversiones. basta tratar s´lo la factora o izaci´n LU . y lo mismo con TPs (por el Teorema 13. con S es triangular superior. llegamos a una factorizaci´in B = CUp Up−1 · · · U1 . i ∈ Is . El caso n = 1 es trivial.3.3.13. Entonces A = W1 W2 · · · Ws S es una factorizaci´n como la buscada. u Demostraci´n. es trivial. solo cambia a la primera columna multiplic´ndola por un escalar. y D tambi´n TP. Por inducci´n en n. tenemos una factorizaci´n A = DS con S un producto de matrices de Jacobi o triangulares superiores.16) .5.3. poni´ndoles (f11 )1/2 en el lugar 1. F y ıa S ∈ Mn (R). tales que A = RF S .3 (y su prueba).2. si det A[α|β] ≥ det B[α|β] para todo k ∈ In y α. F (1|1] ≡ 0 y C T = F T RT . R es triangular inferior y F = f11 0 0 F (1) . existen S como antes y C ∈ Mn (R) tal que C es TP. todas ellas TP. i ∈ Is . porque en tal caso se factoriza F (1) por hip´tesis inductiva. Por hip´tesis inductiva o ˆ 1 W2 · · · Ws para algunas matrices de Jacobi TPs y triangulares superiores ˆ ˆ tenemos D(1) = W ˆ Wi ∈ Gl (n − 1). alcanzar´ con probar que existen R. o Definici´n 13. Luego e D= d11 0 0 D(1) y D(1) ∈ Gl (n − 1) es totalmente positva y triangular superior. Por el Lema 13. todas TP. Corolario 13. Demostraci´n del Teorema 13. Y por el mismo Lema. Ahora basta tomar S = Up Up−1 · · · U1 T que es como se ped´ ıa. 1) ≡ 0.3. Adem´s. C[1|1) ≡ 0 y A = CS.3. existen R como arriba y F ∈ Mn (R) tal que F es TP. β ∈ Qk.

La prueba e para el caso α = Ik se hace usando una factoriaci´n U L. k + 2. . . (12. o . Si A ∈ Mn (R) es TP. Como AL [α|α) y AU (α|α] son TPs. si A(α) es inversible. y α = Ik o α = In \ Ik . y α = Ik o α = {k. por ser α quien es.4.15) son iguales en este caso.1. Prueba para el caso α = In \ Ik = {k + 1. t t Observaci´n 13. n}. (12.3. A[α] − A/α t 0 (13. τ ∈ Ql. . bastar´ probar que ıa det A[ω ∪ α |τ ∪ α ] ≤ det A[α] [ω|τ ] · det A(α) = det A[ω|τ ] · det A(α) .15) nos dice que A[α ∪ ω|α ∪ τ ] .1 dan lugar a otras desigualdades. A o 0 significa que A es TP. se tiene que A(α) = AL (α)AU (α) (por lo que ambas submatrices son inversibles). Teorema 13. tambi´n lo es su producto AL [α|α)AU (α|α].18) Demostraci´n.3.3. A(α|α] = AL (α)AU (α|α] y A[α|α) = AL [α|α)AU (α).n . t 2 1 1 1 t Tampoco A B 0 implica que A/{1} B/{1} o que Jn B −1 Jn Jn A−1 Jn . (13. garantizada por el Teorema 13. entonces.8.6. β ∈ Qk. entonces A[ω|τ ] = A[α ∪ ω|α ∪ τ ] [1. τ ⊆ α = Ik . Por lo tanto. . . como puede verse con las matrices y B= 1 0 0 1 . . . Es claro que la relaci´n A o o quier par α. Si A ∈ Mn (R) es TP. Como o ω. n}: Sea A = AL AU o una factorizaci´n LU con AL y AU TP. . por las o propiedades de AL y AU . Prueba para el caso α = Ik : Fijemos ω. . o Deber´ ıamos probar que det A[α] [ω|τ ] ≥ det A/α [ω|τ ]. Observar que la Eq. o Las factorizaciones LU y U L en el Teorema 13.3. . l] y A(α) = A[α ∪ ω|α ∪ τ ] [l + 1.17) Demostraci´n. . .7. . Consideremos A[ω ∪ α |τ ∪ α ] ∈ Mn−k+l (R) con su numeraci´n de corrido en In−k+l . entonces.2. n − k + l] . A[α] − A/α = A[α|α)A(α)−1 A(α|α] = AL [α|α)AU (α)(AL (α)AU (α))−1 AL (α)AU (α|α] = AL [α|α)AU (α|α]. pero no que A − B A= t t t B implica que A[α|β] B[α|β] para cual- 0. y el resultado se deduce de la Proposici´n 13. Entonces. Por lo tanto. Teorema 13.3.13. k + 1.n tales que ω ⊆ α y τ ⊆ α. . se cumple que t A[α] A/α . si A(α) es inversible. det A/α [ω|τ ] = det A(α) porque los dos signos que intervienen en la Eq. . .3 Factorizaciones LU y UL 249 t En esta notaci´n.

El Teorema 13.n−1 . y i=1 det A[ω (i−1) |ω (i) ] > 0 .3 asegura que Jn A−1 Jn es TP y que (Jn A−1 Jn )p = Jn (Ap )−1 Jn es ETP. Teorema 13. El resto a de los casos (α ∈ Qk.6) dice que A/α = (A−1 [α])−1 . El caso A[2. ω ω lo que prueba que B p es ETP.4. Sea B = A[In−1 ] = A(n).1. . Entonces 1. Las OSC juegan el rol de las primitivas en el Cap´ ıtulo 11. por lo tanto. sabemos que Jn A−1 Jn es OSC =⇒ =⇒ Jk A−1 [α]Jk = Jn A−1 Jn [α] es OSC (A−1 [α])−1 es OSC . Por la f´rmula de Cauchyo Binnet (12.13. τ ∈ Qk.5. y su adjunta es tambi´n OSC.n tal que ω = µ.n . Observemos que una matriz OSC es inversible.1). entonces se tiene que det A[α] > 0 para todo α ∈ Qk. Tomemos β. ω 0 (p) =ν . nuevamente por la positividad total de B y la Eq. (12. . dado que α ⊆ In−1 o α ⊆ In \ {1}. o 1.n con k < n − 1 y d(α) = 0) ahora se pueden probar por inducci´n o en n. por la Eq. pero se cancela).2. Llamemos ω (i) ∈ Qk. .n tal que d(α) = 0.4 Matrices oscilatorias Una matriz A ∈ Mn (R) se dice oscilatoria (abreviaremos OSC) si es TP y una cierta potencia Ap es ETP. ˜ ´ Como A[ω (i−1) |ω (i) ] es TP con determinante positivo. el hecho de que det Ap [µ|ν] > 0 implica que existe una sucesi´n o p p ω (i) i=0 en Qk+1. .4 Matrices oscilatorias 250 13. ı.n−1 a la k-upla obtenida eliminando la ultima componente de ω (i) . e si A ∈ Mn (R) es OSC.2. p det B [β|τ ] ≥ i=1 p det B[˜ (i−1) |˜ (i) ] > 0 .1). A# = Jn A−1 Jn es OSC.13) se tiene que det B[˜ (i−1) |˜ (i) ] > 0 . 2. Veamos que A/α es OSC: Observar que Jn A−1 Jn [α] = Jk A−1 [α]Jk . Sea A ∈ Mn (R) una matriz OSC. En esta secci´n o presentaremos un criterio simple para que una matriz TP sea OSC. Supongamos que A es TP y Ap es ETP. A[α] y A/α son OSC’s para cada α ∈ Qk. por el Corolario 13. (12. 3. Probemos primero que A[α] es OSC para el caso α = In−1 . . As´ Jn A−1 Jn es OSC. Entonces. n] se trata de manera an´loga. 2. ω ω para todo i ∈ Ip . Pero la Eq. dado que d(α) = 0 (puede aparecer un −Jk . y sean µ = β ∪ {n} y ν = τ ∪ {n}. (13. Por los casos anteriores. Demostraci´n.

20). Ahora. j bj.2.19). o a como B es inversible y TP. Demostraci´n. i+1 > 0 para todo i ∈ In−1 . Haremos la prueba por inducci´n en k. β ∈ Qk. o a a hacia el fin de la secci´n. nuevamente por el Corolario 13. i+1 = j=1 ai.4. i+1 > 0 y ai+1.4 Matrices oscilatorias 251 Lo siguiente da un criterio para la “oscilatoriedad”.1. entoces la Eq. y supongamos que la afirmaci´n o o es cierta para cada par en Qk−1. . i ai+1. Teorema 13. Supongamos que A es OSC. Sean A. sea B = A[α|β] = [bβ1 .19).19) para matrices OSCs. .n que satisface las hip´tesis. βi+1 } a ın para todo i ∈ Ik . Tomemos un par α.5 (si α = β) y la suposici´n (13. entonces bii > 0 para todo i ∈ In (Corolario 13. Por lo tanto AB y BA satisfacen la condici´n (13. Luego AB y BA ∈ Gl (n). . Adem´s. Sea A = (aij )i. ya que si alguno de los dos se anulara. βi } < m´ {αi+1 . entonces B y todas sus potencias ser´ ıan triangulares. bβk ]. Si d(α) = d(β) = 0.2.2. i+1 debe ser OSC. αk−1 |β1 .5). para todo i ∈ In−1 . Supongamos que A ∈ Gl (n) y es TP. o Corolario 13. (13.i > 0.13. . . i + 1] = ai. Por el Teorema 13. βk−1 ] > 0 y det B[α2 . Luego det A[α|β] = det A[α|α] > 0. o entonces det A[α|β] > 0 para cada par α. . La prueba para (AB)i+1 . ai. . o B := A[i. i+1 ai+1. Pero esto es posible s´lo cuando ai. Luego B p > 0 para alg´n p. βk ] > 0 .4.20) donde usamos la convenci´n αk+1 = βk+1 = n + 1. ya que o n (AB)i. (13. Entonces A es OSC ⇐⇒ A ∈ Gl (n) .n o que cumpla la Eq. Si A es OSC y B es inversible. . donde cada bβi ∈ Rα ∼ Rk .4. i > 0 . o Demostraci´n.j∈ In ∈ Mn (R) una matriz TP. Fijemos k > 1. i+1 bi+1 .n tal que |αi − βi | ≤ 1 y m´x {αi .19) Demostraci´n. o o Proposici´n 13. ambas TP. i+1 ≥ ai. bβ2 . . asumiendo que d(β) > 0.i+1 > 0 y u o ai+1. i y las entradas correspondientes de BA es an´loga. Si A satisface la Eq. por se OSC.20) impica que α = β. . En principio. . sabemos que o det B[α1 . por la hip´tesis inductiva. (13. Observar que A ∈ Gl (n).3. i ai. El caso k = 1 se sigue del Corolario o o 13. . a El siguiente teorema presenta una extensi´n de la condici´n (13. αk |β2 . . (13. La otra implicaci´n ser´ probada como consecuencia de un resultado m´s general.4. . . . entonces AB y BA son OSC.2. .4. B ∈ Mn (R). (13. . Supongamos = que det B = 0. β ∈ Qk.19). .5. .

Entonces. solo queda que la Eq. .2.22) (sin´ {bβi : i ∈ Ik \ {1} } ser´ LD).2 se ver´ como consecuencia del siguiente resultado m´s general. Demostraci´n. Si cada Ai satisface la Eq. .25) para obtener o (−1)k−1 ξ1 bβ1 ∧ . para l ∈ Ip−1 . el conjunto ordenado γ := {j ∈ β : β1 < j < βk } es no vac´ Mostremos / ıo. . que existe alg´n ω ∈ Qk. . .25) y (13. bβ1 .22) para bβk en la Eq. . αi + m´x {l + i − k. . ω ⊆ α ∪ τ . . / aplicado a los vectores filas (o a AT ). Por ultimo.21) para obetener o ıa (−1)k−2 ξ1 bβ1 ∧ bβ2 ∧ · · · ∧ bβk−1 0. Definamos ω (l) ∈ Qk.n . . Sustituyamos bβk en la Eq. (13. . (13. . Pero. a a Teorema 13. y ω ⊆ β ∪ γ. (13. tomemos i tal que βi < j < βi+1 . (13. El argumento anterior. ∧ b β k 0. Por el Teorema 13.23) Como d(β) > 0. (13. entonces el producto A1 A2 · · · Ap es ETP. . ∧ bβk−1 0 y 0 = b β2 ∧ b β 3 ∧ . . .n ´ u tal que d(ω) = 0. y adem´s a k−1 b βk = i=1 ξi bβi para ciertos ξi ∈ R . con p ≥ n − 1.4. Sean A1 . (13.24) sea v´lida. (13. ∧ bβi ∧ bj ∧ bβi+1 ∧ . inversibles y TPs. donde ξ1 = 0 (13. . . Ap ∈ Mn (R). El argumento muestra que rk A[α|β ∪ γ] = k − 1. 0} a . o Es decir que bj ∧ bβ1 ∧ bβ2 ∧ . La “ida” del Teorema 13. ∧ bβi ∧ bj ∧ bβi+1 ∧ . β ∈ Qk. se sigue de la Eq. . .4. Esto completa la prueba en todos los casos. ∧ bβk 0. Pero como ξ1 = 0.n tales que d(α) = d(β) = 0 . ∧ bβk−1 = 0 (13. dice que rkA[α ∪ τ |β ∪ γ] = k − 1. .5.19). . que.21) Entonces el hecho de que det B = 0 garantiza que bβk ∈ Gen {bβi : i ∈ Ik−1 }. .26) son consistentes s´lo si o la igualdad se da en la Eq. .21) y (13. ∧ bβi ∧ bj ∧ bβi+1 ∧ . como A[α|β ∪ {j}] es TP.26) es claro que las ecuaciones (13. ∧ bβk−1 0 y bβ2 . (13.23) versus (13. .1.13.20) y de que d(β) > 0 o d(α) > 0. como rkA[α ∪ τ |β ∪ γ] = k − 1. bβk−1 .4 Matrices oscilatorias 252 Junto con la positividad total de B. . .26). (13.5 basta mostrar que o det(A1 A2 · · · Ap )[α|β] > 0 para α. . se debe cumplir que det A[ω] = 0.5. la α-proyecci´n bj de Cj (A) cumple que bj ∈ Gen bβ1 . Asumamos que β1 ≥ α1 y sea ω (0) = α. Si lo que pasaba era que d(α) > 0. esto implica que 0 = bβ1 ∧ bβ2 ∧ .25) Ahora sustituyamos la expresi´n (13. . para cada j ∈ γ.24) Para esto. lo que contradice al Corolario 13. ∧ bβk−1 0. a consideremos el conjunto ordenado τ := {i ∈ α : α1 < i < αk }. bβ2 . (13. i ∈ Ik . como ωi = m´ ın (l) βi .

es el u n´mero de ´ u ındices i ∈ In−1 tales que εi εi+1 < 0. 13. 2.4. podemos deducir que det Al [ω (l−1) |ω (l) ] > 0. Corolario 13. el n´mero de cambios de signo de x asociado a ε. Demostraci´n. Sea A ∈ Mn (R).5. entonces An−1 es ETP. (12. Usando la a Proposici´n 13.4.5 Variaci´n de signos o Esta secci´n est´ dedicada a caracterizaciones de la regularidad de signo de una matriz en o a t´rminos de algunas propiedades de disminuci´n de variaci´n del operador lineal que ´sta e o o e induce. i+1 > 0 y (A2 )i+1 . Si A es ε-RS. denotado por C(ε). Definici´n 13. Entonces satisface la Eq.13. i > 0 o para todo i ∈ In−1 . 1. o 2. (13. entonces A2(n−1) es ETP. (13. Sea x ∈ Rn . Dada una sucesi´n de signatura ε. i > 0 . se sigue de la Eq. Si A es OSC. A2 es TP por ser A ε-RS.19). i=1 . i+1 ai+1 .1.1) (Cahuchy-Binnet) y la positividad total que p det(A1 A2 · · · Ap )[α|β] ≥ l=1 det Al [ω (l−1) |ω (l) ] > 0 .20).5 Variaci´n de signos o 253 Es f´cil ver que ω (p) = β y que cada par ω (l−1) . ω (l) satisface la Eq. Se sigue inmediatamente del Teorema 13. lo que prueba el Teorema.6.4. En tal caso. es inversible y cumple que aii = 0 para i ∈ In y ai .4. Por la hip´tesis se tiene que (A2 )i . para i ∈ In−1 . ε es una sucesi´n de signo de x si para todo i ∈ In se cumple que εi xi = |xi |. Por lo o tanto. o 1. Es decir que 1 C(ε) = 2 n−1 (1 − εi εi+1 ) . 2. decimos que o o 1. y podemos usar la parte 1.5. para todo l ∈ Ip .

. Como det A[β|−] > 0 para todo o o a β ∈ Qm. entonces x1−1 xi+1 < 0. 0. tenemos que n a1 ∧ · · · ∧ am = i=1 ξi e∧ . para todo b ∈ Gen {a1 . a Proposici´n 13. o Entonces son equivalentes: (1) V+ (b) ≤ m − 1. Es f´cil ver que existe α ∈ Qm+1. . Ojo que x puede tener variaci´n de signo exacta. . (i) donde ξi = √ m a1 ∧ · · · ∧ am . ı). am }. Si ninguna componente de x se anula. .5 Variaci´n de signos o 254 3. entonces o V− (xα ) ≤ V− (x) y V+ (xα ) ≤ V+ (x) . . −1). Vemos que 0 ≤ V− (x) ≤ V+ (x) ≤ n − 1 para todo x ∈ Rn . am } \ {0} tal que V+ (b) ≥ m.5. a2 . . . Como los e∧ = e1 ∧ · · · ∧ ei−1 ∧ ei+1 ∧ · · · ∧ en . En efecto. podemos suponer que o n=m+1 y que (−1)i−1 bi ≥ 0 . entonces V− (x) = V+ (x) = 1. . Pero si x tiene variaci´n de signo exacta. o 1.n a tal que la α-proyecci´n de b tiene variaci´n m´xima m. Es claro que la condici´n a > 0 equivale a o o que det A[α|−] > 0 para todo α ∈ Qm. Si α ∈ Qk. x no puede tener dos coordenadas nulas seguidas. aunque tenga coordenadas nulas. . Sea A = [a1 . . Demostraci´n. (i) . am ∈ Rn .2. es f´cil ver que o a (a) x1 = 0 = xn . .m (R). La m´xima variaci´n de signos V+ (x) (resp.n . a2 . . linealmente independientes. (c) En particular. a2 . . m´ a o ınima variaci´n de signos V− (x) ) es el o m´ximo (resp. Este valor com´n es llamado la variaci´n de signo exacta y denotado u o por V (x).n . x tiene una unica sucesi´n de signo. (b) Si xi = 0. e considerando la α-proyecci´n si es necesario. en particular aquellos β ⊆ α. ±a > 0. Por o ejemplo si x = (1. . am } \ {0}.3. e∧ = det A( i |−] > 0 . . con n > m. . y por lo tanto ´ o V− (x) = V+ (x). . Por lo tanto. cuando ε recorre todas las sucesiones de signo de x. Para ver la suficiencia. . i ∈ In forman una base completa ortogonal (i) de Λm Rn . deducimos que las α-proyecciones ai de ai para i ∈ Im tambi´n cumplen a1 ∧ a2 ∧ · · · ∧ am > 0 y que bα ∈ Gen {a1 . entonces εα lo ser´ para xα (y todas se o a consiguen as´ Pero es f´cil ver que C(εα ) ≤ C(ε). supongamos que a > 0 y que existe b ∈ Gen {a1 . a2 . (2) a = a1 ∧ a2 ∧ · · · ∧ am es estrictamente definido (como vector). Sea x ∈ Rn . Sean a1 . m´ a ınimo) de los valores C(ε). e. para todo i ∈ In . i. . 2. si ε es una sucesi´n de signo de x. Observaci´n 13.13. 3.n y xα es la α-proyecci´n de x a Rα . . am ] ∈ Mn.5.

27) sgn (det A[α|−] det A[β|−]) = sgn i=1 det A[ω (i−1) ] det A[ω (i) |−] . .n tal que ω (i−1) ⊆ τ (i) y ω (i) ⊆ τ (i) . como antes. . podemos asumir e o nuevamente que n = m + 1. si b = ξl+1 el + ξl el+1 . adem´s. sobre todo. . podemos unirlos por una sucesi´n α = ω (0) . . Adem´s. . ω (k) = β en Qm. porque ei ∧ e∧ = δij (−1)i−1 e1 ∧ e2 ∧ · · · ∧ en . a2 . si no todos los ξj tienen el o a mismo signo. se e o cumple (2). en el caso i-´simo de la Eq. entonces ξl ξl+1 < 0 para alg´n l. o n a1 ∧ a2 ∧ · · · ∧ am = i=1 ξi e∧ (i) con ξi = det A({i}|−] . es decir. . . una contradicci´n. tenemos que 0 = b ∧ a1 ∧ a2 ∧ · · · ∧ am = i=1 (−1)i−1 ξi bi · e1 ∧ e2 ∧ · · · ∧ en . . tenemos como u antes que b ∧ a1 ∧ a2 ∧ · · · ∧ am = (−1)l−i ξl+1 ξl + (−1)l ξl ξl+1 e1 ∧ e2 ∧ . Ahora. tenemos V+ (b) = n − 1 = m. lo que contradice la condici´n (1). β ∈ Qm. entonces ei ∈ Gen {a1 . . . lo que tambi´n contradice la condici´n (1). . . am }. . am } \ {0} se preserva o al proyectar sobre τ (i) . Luego todos los signos de ξi son iguales.27). .2. i ∈ In . Observar que la desigualdad det A[α|−] det A[β|−] > 0 se sigue de las desigualdades det A[ω (i−1) ] det A[ω (i) |−] > 0 . la proyecci´n sobre τ (i) . .n que o verifica la siguiente propiedad: para cada i ∈ Ik existe τ (i) ∈ Qm+1. ω (1) . porque la hip´tesis V+ (b) ≤ m − 1. Pero las condiciones (ya verificadas) ξi > 0 y (j) (−1)i−1 bi ≥ 0. n Como b ∈ Gen {a1 . o sea b = 0. i ∈ In implican entonces que bi = 0. Pero como ξl ξl+1 < 0. Fijados α y β. ya que estamos trabajando en dos subconjuntos de τ (i) y. . Entonces. Si ξi = 0 para alg´n i. Probemos ahora la necesidad. dado que k 1≤i≤k. a2 . am } y. por la Observaci´n 13. para todo b ∈ Gen {a1 . . . Como vimos al principio. por lo que b ∈ Gen {a1 . (13. . . bastar´ verificar que ıa det A[α|−] det A[β|−] > 0 para todo par α . . am }. b = a i=1 n bi ei .n . ∧ en = 0 . (13. . .5. o Esto completa la prueba de la suficiencia. a2 . Considerando.13. Pero en tal caso tendr´ u ıamos que V+ (ei ) = n − 1 = m. a2 .5 Variaci´n de signos o 255 para todo i ∈ In .

Por la Proposici´n 13. Sea x ∈ Rn . y {am+1 . Observar que 1 C(ε) + C(Jn ε) = 2 1 = 2 = lo que muestra la Eq.11). . Sea M un subespacio de Rn tal que 0 < dim M < n.5.13. . . (12. o o Una versi´n local del Teorema 13. . Luego det(Jn AJn )[τ |m + 1. a2 . La implicaci´n (2) ⇒ (1) se prueba igual. n] es no nulo y tiene el mismo signo para todo τ ∈ Qn−m. am+2 . Llamemos bi = Jn AJn ei = (−1)i Jn ai .5 Variaci´n de signos o 256 Lema 13. Jn ε recorre todas las o sucesiones de signo de Jn x. .n . . deducimos la condici´n (2). nuevamente por la Proposici´n 13. e o o . Cuando ε recorre todas las sucesiones de signo de x. .4.3.5. an } para M⊥ . Demostraci´n. por la Eq.5.5. . Entonces. tambi´n e Jn am+1 ∧ Jn am+2 ∧ · · · ∧ Jn am es estrictamente definida. Entonces V+ (x) + V− (Jn x) = V− (x) + V+ (Jn x) = n − 1 . Por lo tanto. Aplicando el Lema o 13.5 da la siguiente caracterizaci´n de la regularidad de signo o o estricta en t´rminos de una propiedad de disminuci´n de variaci´n. entonces A es unitaria y podemos asumir que detA = 1. . para i > m. Entonces. Como A ∈ U(n) y det A = 1. . i=1 Si A = [a1 .5. obtenemos que V+ (Jn y) ≤ n − m − 1 para todo y ∈ M⊥ \ {0}. (13. . am } para M. . la condici´n (1) es equivalente a que detA[α|Im ] sea no nulo y tenga o o el mismo signo para todo α ∈ Qm. .n . las siguientes dos condiciones son equivalentes: (1) V+ (x) ≤ dim M − 1 para todo x ∈ M \ {0}.28).5. an ]. . (13. (2) V− (y) ≥ dim M para todo y ∈ M⊥ \ {0}. Teorema 13. det(Jn AJn )(α|Im ) = det(Jn (A∗ )−1 Jn )(α|Im ) = det A∗ [Im |α] = det A[α|Im ] . La condici´n o anterior es equivalente a que bm+1 ∧ bm+2 ∧ · · · ∧ bn > 0 (o bien < 0). a2 . 1 2 n−1 1 (1 − εi εi+1 ) + 2 i=1 n−1 n−1 (1 − (Jn ε)i (Jn ε)i+1 ) i=1 (1 − εi εi+1 ) + (1 − (−1i−1 )εi (−1)i εi ) 1=1 n−1 (1 − εi εi+1 ) + (1 + εi εi+1 ) = n − 1 .5. .28) Demostraci´n. . Tomemos bases completas ortonormales o {a1 .3 (y su prueba).4.

.29). puede obsevarse que i=1 . jk+1 ) tales que βi ≤ ji ≤ ωi . en el sentido de que o V+ (Ax) ≤ V− (x) para todo x ∈ Rm \ {0} (13. Tomemos x ∈ Rm \ {0}. si vamos eligiendo k + 1-tuplas (j1 . y o llamemos k = V− (x). . a2 . . . para cada i ∈ Ik+1 . . Entonces el Lema 13.m y x ∈ Rm tales que xω = k xi eωi = 0. Si. que describen los signos de x de la siguiente manera: • β1 = m´ ın{j ∈ In : xj = 0} y ωk+1 = m´x{j ∈ In : xj = 0}. tenemos que εk+1 · aj1 ∧ aj2 ∧ · · · ∧ ajk+1 > 0 . ya que Ax = i=1 x i ai .29) Demostraci´n. .5. .m tales que βi ≤ ωi < βi+1 para todo i ∈ Ik y ωk < βk+1 ≤ ωk+1 . u • Para cada i ∈ Ik .m (R). hay un cambio de signo entre xωi y la siguinete entrada no nula de x. Supongamos rec´ ıprocamente que A = [a1 .29). . Supongamos que A = [a1 . Entonces A es ε-ERS si y s´lo si el o m n operador lineal A : R → R disminuye la variaci´n de signos. . ω ∈ Qk+1. lo que prueba la Eq. Por otra parte. con n ≥ m. . a • Las componentes de x tienen signo constante (no nulo en los bordes) para todo j entre βi y ωi . dado que es una suma de vectores tales que todas sus coordenadas tienen signo γ. que es xβi+1 . se tiene que γ · b1 ∧ b2 ∧ · · · ∧ bk+1 > 0 . a2 .3 dice que k+1 V+ (Ax) = V+ i=1 bi ≤ k = V− (x) . y xj = 0 para aquellos j que no aparecen en alg´n bi . llamamos k+1 n bi = βi ≤j≤ωi x j aj =⇒ Ax = i=1 bi . Entonces existen β. am ] es ε-ERS.5 Variaci´n de signos o 257 Teorema 13. si γ = εk+1 · sgn i=1 xωi . am ] satisface la condici´n (13.13. i ∈ Ik+1 . (13. Sean o ω ∈ Qk. Ahora la regularidad estricta de signo de u A implica que. • xj = 0 si ωi < j < βi+1 para alg´n i. k+1 Por lo tanto.6. .5. Sea A ∈ Mn. .

porque. (13. ω (r) = β en Qk. aωk }.5. La regularidad de signo est´ caracterizada por una propiedad de variaci´n de signo m´s d´bil. porque los signos (de x y xp ) coinciden en J. Por lo tanto. .29).n tal que ω (i−1) ⊆ τ (i) y ω (i) ⊆ τ (i) . existe τ (i) ∈ Qk+1. Lema 13. .m e i ∈ Ik+1 . . . O sea que V− (x) ≤ lim inf p→∞ V− (xp ). Esto dice que V+ (y) ≤ k − 1 para todo y ∈ Gen {aω1 .5. para todo p ≥ p0 / debe cumplirse que V− (x) ≤ V− (xp ) para p ≥ p0 (porque x tiene m´s sucesiones de signo que a xp ). . Si una sucesi´n xp − − x.13. debe existir alg´n p0 ∈ N tal que o u |(xp )j − xj | < m´ ın{|xi | : i ∈ J } para todo j∈J y p ≥ p0 . se cumple que aτ1 ∧ · · · ∧ aτi−1 ∧ aτi+1 ∧ · · · ∧ aτk+1 y aτ1 ∧ · · · ∧ aτi ∧ aτi+2 ∧ · · · ∧ aτk+1 tienen el mismo signo. . a o a e Corolario 13. toda sucesi´n de signo εp para o xp es tambi´n una sucesi´n de signo para x. p→∞ (13.5.3 que aω1 ∧ aω2 ∧ · · · ∧ aωk es estrictamente definida. basta probar que. de donde por hip´tesis. Es claro que V− (xω ) ≤ k − 1. Entonces se sigue del Lema 13. Y esto se deduce del Lema 13. . Entonces A es ε-RS si y s´lo si o V− (Ax) ≤ V− (x) para todo x ∈ Rm \ {0} . entonces o −→ p→∞ V− (x) ≤ lim inf V− (xp ) p→∞ y lim sup V+ (xp ) ≤ V+ (x) . Luego. La otra desigualdad se prueba igual.8.m . . . Para k = m esto es a o trivial.30) Demostraci´n.5. Mediante un argumento de continuidad esto ser´ establecido si a aτ1 ∧ · · · ∧ aτi−1 ∧ {(1 − t)aτi + taτi+1 } ∧ aτi+2 ∧ · · · ∧ aτk+1 es estrictamente definido para cada 0 < t < 1.n que verifica la siguiente propiedad: o para cada i ∈ Ir . β ∈ Qk.m (R) con rkA = m. . . e o mientras que en los i ∈ J no hay problemas. o V+ (Axω ) ≤ V− (xω ) ≤ k − 1.3. si p ≥ p0 . Como en la prueba del Lema 13. v´ la Eq. porque xi = 0.5.5 Variaci´n de signos o 258 k Axω = i=1 xi aωi ∈ Gen {aω1 . entonces i−1 k+1 V− j=1 xj eτj + xi ((1 − t)eτi + teτi+1 ) + j=i+2 xj−1 eτj ≤k−1 . Si llamamos J = {i ∈ In : xi = 0}. Sea A ∈ Mn. ω (p) .7. Por lo tanto. Sea x ∈ Rn . existe una sucesi´n α = ω (0) . Entonces. . para cada τ ∈ Qk+1. A ser´ ε-ERS si el signo aω1 ∧ aω2 ∧ · · · ∧ aωk depende s´lo de k.31) . ıa k (13. si x ∈ R \ {0}. aωk } \ {0} .3. Fijemos 1 ≤ k ≤ m − 1 y tomemos α. puesto que los signos de las coordenadas τi y τi+1 son iguales. sgn(xp )j = sgn(xj ) para j ∈ J. Resumiendo.

6 (al reves) muestra que Gp A debe ser ε-ERS para todo p ∈ N. V+ (Gp (Ax) ) ≤ V− (Ax) ≤ V− (x) para todo p∈N y x ∈ Rm \ {0} .31). e Entonces 13. por la Eq. aplicado a Gp . 4. El Teorema 13.5.9.5.2.31) es v´lida. n − m = 0). Entonces a −→ p→∞ el Teorema 13.m (R) con rkA = m. Como veremos en la Secci´n 7. tambi´n lo es Jn A−1 Jn por el Teorema 13. Usando la relaci´n de dualidad (13.13.10 se sigue del Corolario 13. Cuando n = m. como A es inyectiva. Supongamos ahora que la Eq. RS) si y s´lo si o n − m + V+ (x) ≤ V− (Ax) para todo x ∈ Rm \ {0}. existe una sucesi´n (Gp )p∈N en Gl (n) de mao o o trices ETPs .2. Corolario 13. V− (Ax) ≤ V+ (x) para todo x ∈ Rn \ {0}.5. 3. Sea A ∈ Mn. Entonces Jn AJm es ERS (respectivamente. V+ (Ax) ) . Entonces las siguientes condiciones son equivalentes: 1. . Teorema 13. Adem´s Gp A − − A. (13. lo que muestra la Eq. Demostraci´n.6 garantiza que V+ (Gp Ax) ≤ V− (x) Luego. la regularidad de signo admite varias caracterizaciones equivalentes.5.5. podemos hablar de algunas propiedades de aumento o de signo. Como rkA = m. p→∞ para todo x ∈ Rm \ {0} .5. tales que Gp − − In . V+ (Ax) ≤ V+ (x) para todo x ∈ Rn \ {0}. o 1 → 2: Si A es regular de signo (e inversible). el −→ p→∞ Teorema 13.28). ( resp. (13.5. V− (Ax) ≤ V− (x) para todo x ∈ Rn \ {0}. tenemos que V− (Ax) ≤ lim inf ≤ V+ (Gp0 Ax) ≤ V− (x) .5 Variaci´n de signos o 259 Demostraci´n. Por el Teorema a 13.6.30).9. Sea A ∈ Gl (n). Tomando l´ ımite. Supongamos primero que A es ε-RS.1 asegura que Gp A es ε-ERS para todo p ∈ N. (13. reemplazando x por Ax y A por A−1 (en nuestro caso. vemos que A debe ser ε-RS. A es regular de signo.10.3. 2.

ordenados de forma que |λ1 (A)| ≥ |λ2 (A)| ≥ · · · ≥ |λn (A)| . λn (A) a sus autovalores. el Lema 13. 3 → 4: Uusaremos la sucesi´n Gp que aparece en la prueba del Corolario 13.6. a u εm λm (A) > |λm+1 (A)| .32) y ker(A − λ1 (A)I) = Gen {u1 } . entonces λ1 (A) > |λ2 (A)| para cierto u1 > 0. εm−1 para todo m ∈ In . . para todo m ∈ In . . Adem´s. u2 . como Gp A x − − Ax. . y de modo tal que u1 ∧ u2 ∧ · · · ∧ u m > 0 (como vector) . . i. y hay un autovector positivo u1 0 correspondiente a λ1 (A). Sea A ∈ Mn (R) una matriz ε-ERS.2. . Recordemos la parte m´s elemental del teorema de Perron-Frobenius: a Observaci´n 13. Entonces todos los autovalores de A son reales y distintos.6 Totalmente Perron-Frobenius 260 2 → 3: Trivial. x ∈ Rn \ {0} . M´s a´n.. donde usamos la convenci´n ε0 = 1 y λn+1 (A) = 0.6 Totalmente Perron-Frobenius En esta secci´n estudiaremos propiedades espectrales de las matrices regulares de signo o o totalmente positivas. . . La herramienta clave para esto son los resultados de Perron y Frobenius para matrices positivas. porque Gp A es ERS. ρ(A) = λ1 (A) ≥ 0.13. 13. 4 → 1: Se sigue del Corolario 13. Llamaremos λ1 (A). Sea A ∈ Mn (R) tal que A o 0.5. un pueden ser elegidos en R . los correspondientes autovectores o a n u1 . 3. Si A > 0. (13.e. .8. Luego.5. El mayor autovalor de A es real y no negativo. Teorema 13. muestra que.6. 2.1. 1.5. El mismo o argumento de la prueba de 1 → 2. V+ (Gp Ax) ≤ V− (x) para todo p→∞ p∈N y x ∈ Rn \ {0} .33) . (13.7 nos da que −→ V− (Ax) ≤ lim inf V− (Gp Ax) ≤ lim inf V+ (Gp Ax) ≤ V− (x) .8.

obtenemos la Eq.6. Los nodos de x(t) son las ra´ de la ecuaci´n x(t) = 0.2 posee propiedades oscilatorias interesantes. y tiene coordenadas reales. Como εm · Λm A > 0. necesitamos algunas definiciones. . Ahora.34) Observar que x(t) es continua. que en particular nos dice que εi−1 λi (A) = |λi (A)| > 0. para todo k ∈ Ik . εi Por la hip´tesis inductiva.6. (13. (13. n] → Rn a la funci´n linear a trozos o x(t) = (k + 1 − t)xk + (t − k)xk+1 si k ≤t≤k+1 . u2 .1 porque ε1 A > 0 por hip´tesis. Luego la Eq. Los autovectores reales {u1 .6 Totalmente Perron-Frobenius 261 Demostraci´n.. . como λm (A) es real. Definici´n 13. (13. correspondientes a los autovalores λk (A).35) . ordenados de manera creciente ıces o (si son finitos. o Entonces 1. . M´s a´n. Notaremos por x(t) : [1.6. (13.4. Supongamos que el resultado es cierto para o o 1 ≤ i ≤ m − 1. El caso m = 1 es consecuencia de la o a o Observaci´n 13. i. Por lo tanto tenemos que u1 ∧ u2 ∧ · · · ∧ um es autovector no nulo de εm · Λm A correspodiente a λ1 (εm · Λm A).6. La variaci´n de signo de cada uk es exacta. para todo k ∈ In . Sea A ∈ Mn (R) una matriz ε-ERS. tenemos que ξ · u1 ∧ u2 ∧ u2 ∧ · · · ∧ um > 0.6. la Observaci´n 13. o 1. 3. lineal a trozos. tomando o ξ = 1 o bien ξ = −1. Ahora. Para sus formulaciones. Diremos que dos sucesiones ordenadas ξ1 < ξ2 < · · · < ξk y η < η2 · · · < ηk+1 est´n a entrelazadas si se cumple que ηk < ξk < ηk+1 . k ∈ In−1 . k ∈ In (ordenados con m´dulos decrecientes). ´ o a deducimos que m m εm i=1 λi (A) = i=1 εm εi λi (A) = λm (A) εi−1 εm−1 m−1 m−1 |λi (A)| > |λm+1 (A)| i=1 i=1 |λi (A)| . para o i < m. . . .1 dice que o m 0 < ρ(εm · Λ A) = λ1 (εm · Λ A) = εm i=1 m m λi (A) . Teorema 13. Sea x ∈ Rn .3. um puede ser elegido real.e. y del hecho de que ρ(εm · Λm A) es el unico autovalor de εm · Λm A de m´dulo m´ximo.33) para todo m ∈ In . La prueba se har´ por inducci´n en m. reemplazando a um por ξum en caso de que sea necesario. o a u V (uk ) = k − 1 .6. un } conseguidos en el Teorema 13. Sean u1 .13.32) se cumple para m.1. 2. por la Observaci´n 13. Entonces. . un sus autovectores reales. y que x(j) = xj para todo j ∈ In . si no hay dos coordenadas nulas consecutivas de x). .

por ende. Supongamos. . entonces V+ (z) ≤ (k + 1) − 1 = k.3 garantiza que.2 podemos asumir que u1 ∧u2 ∧· · ·∧uk > o 0.6 Totalmente Perron-Frobenius 262 2. Aplicando el mismo argumento a Jn un . tl+1 ] } . j = n. los nodos de uk (t) y los de uk+1 (t) est´n entrelazados. (13. . n}.36) En efecto. Si ξx(j) + ζy(j) = 0. 0 < α = m´ ın{x(t) . y las dos adyacentes son no nulas y de signos opuestos. sabemos que V+ (uk ) ≤ k − 1. lo que termina de mostrar la Eq. Entonces bastar´ ıa probar que. . Por el Teorema 13. Para probar el item 2. x(j − 1)x(j + 1) < 0.28). si z ∈ Rn cumple que V+ (z) − 1 ≤ V− (z).2. no es ni la primera ni la ultima. Consideremos Jn A−1 Jn .13. se cumple que V+ (ξuk + ζuk+1 ) − 1 ≤ V− (ξuk + ζuk+1 ) . que son los primeros n − k + 1 autovectores de las matriz ERS Jn A−1 Jn . ´ x(t) tiene k − 1 nodos e y(t) tiene k nodos. t ∈ [tl . como en la Observaci´n 13.6.2.35) y la Observaci´n 13. Como x(t) es lineal en [i − 1. Ahora vamos a por el item 2: Sean t1 < t2 < · · · < tk los nodos de y(t). Clamor 2: Sean (ξ.37) En efecto. Jn uk+1 . (13. Sean x(t) = uk (t) e y(t) = uk+1 (t). ζ) ∈ R2 \ {0} y j ∈ In \ {1. el argumento anterior da que V+ (Jn uk ) ≤ n − k. que x(tl ) = 0. la Proposici´n 13. la cual es nuevamente ERS por el Teorema 13.2. necesitamos varios pasos previos: Clamor 1: Para todo k ∈ In−1 y todo (ξ. (13.3. entonces ξx(j − 1) + ζy(j − 1) ξx(j + 1) + ζy(j + 1) < 0. a a Demostraci´n. Tomemos i ∈ N tal que i − 1 < tl < i (o bien j − 1 y j + 1 si tl = j es entero). (13.5. deducimos que V− uk = n − 1 − V+ (Jn uk ) ≥ k − 1 ≥ V+ (uk ) . si un nodo o de e x(t) o de y(t) es entero. Entonces x(tl ) = 0 = x(tl+1 ) y. hay al menos un nodo de x(t) en el intervalo abierto (tl . Luego basta aplicar lo anterior y la Eq. tl+1 ). (13. Jn uk . Clamor 3: Supongamos que x(t) > 0 para todo t ∈ (tl . que ıa V+ (Jn z) ≤ n − k =⇒ V− (z) ≥ k − 1 ≥ V+ (z) − 1 . Tomando o ξ=− y(i) x(i) resp.36) al vector z = ξuk + ζuk+1 .36). obtenemos. tl+1 ). v´ la Eq. por el Lema 13. . entonces o zj = 0 implica que j = 1. Por la Eq. Fijemos k ∈ In . Como Jn uk es un autovector de Jn A−1 Jn correspondiente a 1/λk (A) = λn−k+1 (Jn A−1 Jn ).5.5. (13.37) ). en este caso por la ecuaci´n (13. . o zj−1 zj+1 < 0. para todo l ∈ Ik−1 .5. lo que prueba el item 1. Por la Eq. Adem´s. ξ = − y(j + 1) x(j + 1) .3. Luego. i]. tenemos que x(i − 1)x(i) < 0 (resp. la coordenada correspondiente de uk o uk+1 es nula. ζ) ∈ R2 \ {0}. Por lo tanto.28). por ejemplo. si o llamamos z = ξuk + ζuk+1 . como u1 ∧ · · · ∧ uk ∧ uk+1 > 0 (o < 0). (13.

para todo k ∈ In . . Por lo mismo s = tl+1 . en el otro porque zη (t) tiene dos ceros enteros consecutivos. ya que ξx(i)+y(i) = ξx(tl )+y(tl ) = 0. y es una funci´n lineal en [i − 1. Sean o U = [u1 . Recta final: Por la definici´n de nodos.2. para todo k ∈ In .6 Totalmente Perron-Frobenius 263 se tiene que ξx(t)+y(t) se anula en el intervalo [i−1. Si notamos Λ = diag(λ1 .6.13.39) Es f´cil ver que ui . λ2 . . Si A ∈ Mn (R) es inversible. Pero como zη (t) = (uk − ηuk+1 )(t) es lineal en los intervalos [j. por la minimalidad de η. . Entonces U y V son inversibles. (13. j + 1]. v1 ∧ u2 ∧ · · · ∧ vk = det V U [Ik ] = i=1 ∗ ρ−1 . o cuando zη (t) o se anula en todo el intervalo [j. Pero o esto contradice la Eq. Por el Teorema 13. en el intervalo o [tl . . . Teorema 13.37). Sea η el m´ ınimo de los η > 0 para los cuales zη (t) = x(t) − ηy(t) tiene un nodo s ∈ [tl . u2 . vj = 0 para i = j. para k ∈ In . ya que para todo k ∈ In . . vn } de A∗ pueden ser elegidos de forma tal que v1 ∧ v2 ∧ · · · ∧ vk > 0 . los autovectores reales {v1 . y(t) es definido. k 0 < k! u1 ∧ u2 ∧ · · · ∧ uk . (13. j + 1] que contiene a s. son elegidos de forma tal que satisfagan las ecuaciones u1 ∧ u2 ∧ · · · ∧ u k > 0 y v1 ∧ v2 ∧ · · · ∧ vk > 0. supongamos que ≥ 0. j + 1] por las mismas razones). esto es posible s´lo cuando s ∈ N. . . . i] (resp.6. tiene n autovalores reales de distinto m´dulo. . su adjunta A∗ es tambi´n estrictamente e regular de signo. j ∈ In−1 . .38) de los autovectores de A y A∗ caracterizan en alg´n sentido u la regularidad de signo estricta. . . .5. . Notemos λk = λk (A). Las propiedades (13.37). (13. Si A ∈ Mn (R) es estrictamente regular de signo. i . tl+1 ]. Demostraci´n. (13.33) y (13. se anula en [j.40) Se tiene que ρ > 0 (es decir que sus entradas son positivas). Ahora. Esto dice que V ∗ U es diagonal. λn ). v2 . (13. correspondientes a λk (A) = λk (A ). . tl+1 ]. Sea ρ ∈ Cn tal que a diag (ρ)−1 = V ∗ U =⇒ U −1 = diag (ρ) V ∗ . tenemos que zη (t) ≥ 0 en [tl . entonces A = U · Λ · U −1 y A∗ = V · Λ · V −1 . o ∗ ∗ y los autovectores reales uk de A y vk de A .38) entonces alguna potencia de A es estrictamente regular de signo. un ] y V = [v1 . i]. Observar que s = tl porque y(tl ) = 0 = x(tl ). Pero cada una de estas psibilidades produce una contradicci´n con la Eq. en el primer caso porque zη (t) no cambia de o signo. v2 . vn ] . tl+1 ].

Observar que λ(A) consta de las n raices distintas del polinomio caracter´ ıstico PA (t) = det(tI − A). Entonces Ap es ERS. donde α = In−1 o bien o α = In \ {1}. Llamemos . podemos ver que..2).6. det Ap [α|β] es no nulo y tiene el mismo signo que λi i=1 para cada α.38) implican que U [α|Ik ] > 0 k p y V [β|Ik ] > 0 para todo k∈N y α.n · i=1 ρi det U [α|Ik ] det V [β|Ik ] k p k + · det V [β|ω].40). β ∈ Qk.n (entrelace de Cauchy) y que hab´ ıamos mencionado para tambi´n para Qk. Ahora compararemos los autovalores de A con los de A[α]. y varias reducciones elementales. para todo j ∈ Ik . El caso que concentra la dificulatad es cuando k = n−1. β ∈ Qk.n k det U [α|ω] · i=1 p k λωi · det U −1 [ω|β] = ω∈Qk. e Teorema 13. entonces k k |λi | > i=1 i=1 |λω | para todo ω ∈ Qk. Sea A ∈ Mn (R) una matriz ETP.e. β ∈ Qk.n (ver Teorema 2.42) (13. Supongamos que α = In−1 . An´logamente λ(B) a consta de las n−1 raices distintas del polinomio caracter´ ıstico PB (t) = det(tI −B). para un α adecuado. det U [α|ω] · i=1 ω= Ik λωi i=1 ρωi Notar que. (13. Entonces para un p suficientemente grande. (13.n . para todo p ∈ N y para todo par α. se tiene que. y llamemos B = A[α].41) Demostraci´n. como |λ1 | > |λ2 | > · · · > |λn | > 0.39) y (13.13.n con componentes consecutivas (i.1) (Cauchy-Binnet).n .4. Dados k ∈ N y α ∈ Qk.n k det U [α|ω] · i=1 p k λωi · i=1 ρωi · det V [β|ω] = i=1 λi + ω∈Qk. El siguiente Teorema generaliza un hecho que sab´ ıamos para A ∈ H(n) y α ∈ Qn−1.n .6 Totalmente Perron-Frobenius 264 Por las ecuaciones (12. tal que d(α) = 0). k p det Ap [α|β] = det(U Λp U −1 )[α|β] = ω∈Qk.n \ Ik . mientras que las ecuaciones de (13.6. λj (A) > λj (A[α]) > λn+j−k (A) y λj (A) > λj (A/α ) > λn+j−k (A) .

6 Totalmente Perron-Frobenius 265 λi = λi (A).10) muestra que.2 −an−1. .n −a2. Para mostrar la Eq. (13. (13.44) La n-´sima componente xt (n) de xt coincide con PB (t). para todo t ∈ σ (A). −a23 −a23 t − a33 . concluimos que xλi es el i-´simo e autovector de A con xλi (1) > 0. . Aplicando el Clamor a los otros λi . . (13. . u o existe j ∈ In tal que xλj (n) = PB (λj ) = 0. . la Eq.44).ωj =n (13..3 . Luego bastar´ mostrar que existe un λ > 0 tal que xλ (1) = 0 (as´ ya sabr´ ıa ı ıamos que alg´n coeficiente no se anula). .n−1 −an−1. Clamor: Se cumple que xt (1) > 0 para todo t > 0.. n] =    −a12 t − a22 −a32 . xλj es un autovector vector no nulo (porque xλj (n) = 0) de A. como A es TP. . 3.43) Consideremos los vectores xt . pero por continuidad. n}. .n−1 −a3. (13. . Luego se sigue del Teorema 13. At xt = PA (t)en para esos t. junto con la Eq. . tomamos nuevamente B = A[α] y ahora yt = (−1)1+i det At [α|i) i∈In .. para todo i ∈ In−1 . xλj tiene variaci´n o exacta. como PB (t) tiene s´lo n − 1 raices. mientras que la primera componente e xt (1) admite la representaci´n o n xt (1) = j=2 tn−j ω∈Qj. definidos por a xt := (−1)n+i det At [α|i) i∈In .41) para este α. . t ∈ R.n det A[ω − {n}|ω − {1}]. para todo i ∈ In .. para j ∈ In . por el Teorema 13.n y viendo que subdeterminantes le correponden a cada potencia de t. .n . porque xλi (n) = PB (λi ). Esto establece la Eq.45) muestra que xt (1) es un polinomio en t con coeficientes no negativos. Para ello usaremos que. −a1. . . ω1 =1. i ∈ In y notemos At = tIn − A y Bt = tIn − B. con par´metro real t. basta ver que PB (λi )PB (λi+1 ) < 0 ..6. t − an−1.n−1 −a2.13.. por lo que su primer componente xλj (1) = 0. se tiene la igualdad / −1 xt = dA (t)At en . Por la Eq.4 que la n´sima componente tiene signo (−1)i−1 .43). .n −a3. (13.44).45) Esto ultimo sale del hecho de que ´     At [In−1 |2.4. (13.n−1 −a1. Entonces la Regla de Cramer (12. Luego. . Luego. Para α = {2.        −an−1. En efecto.6. que es ETP. (13. . At x t = 0 si t ∈ σ (A) =⇒ Axλj = λj xλj . e i ∈ In .

i + k − 2} con i + k − 1 ≤ n. i + 1. e. .41) para el caso k − 1. Si A ∈ Mn (R) es regular de signo con signatura ε. se tiene que λj (A) ≥ λj (A[α]) ≥ λn+j−k (A) .7. Observemos que a σ (Jn A−1 Jn ) = σ (A)−1 . Luego. se ve f´cilmente que (Jn A Jn )[α] = Jα (A/α ) Jα . para todo j ∈ Ik−1 .1. la hip´tesis inductiva asegura que o λj (A) > λj (A[β]) > λn+j−k (A) . n}. α = {i. . lo que completa la prueba. para todo j ∈ Ik . algunos de los resulatdos anteriores pueden o ser genarlizados al caso en que A es regular de signo o TP. que se obtiene o de manera an´loga. ı El caso k < n − 1 se probar´ por inducci´n descendente. . yt (1) coincide con PB (t). . Aplicando el caso anterior a la matriz ETP A[β] ∈ Mk (R).4. εk−1 para todo k = 1.2. (13.n con d(α) = 0. . . .n tal que d(α) = 0. Resta ver el caso en que i + k − 2 = n. Por otro lado. Corolario 13. (13. . .13. 1 = λn−j+1 (Jn A−1 Jn ) λj (A) y 1 = λk−j+1 ((Jn A−1 Jn )[α]) . e a −1 −1 por el Teorema 12. λj (A/α ) Aplicando la Eq. aplicando el segundo argumento a la matriz A[α ∪ {i − 1}]. entonces para cada k ∈ In y cada α ∈ Qk. Si A es TP. lo que tambi´n implica que Ayλj = λj yλj . para todo j ∈ In . Luego λj (A) = λn−j+1 (Jn A−1 Jn )−1 > λk−j+1 (Jn A−1 Jn [α])−1 = λj (A/α ) > λj (Jn A−1 Jn )−1 = λn+j−k (A) .42): Sabemos que Jn A−1 Jn es tambi´n ETP por el Teorema 13.41) a Jn A−1 Jn . Adem´s. entonces todos sus autovalores son reales.6 Totalmente Perron-Frobenius 266 En este caso tenemos At yt = PA (t)e1 . i + 1. Aqu´ e ı. Con la ayuda del Teorema de aproximaci´n 13. . rkA . . Supongamos que α = {i. obtenemos que λj (A[β]) > λj (A[α]) > λj+1 (A[β]) . lo que completa la inducci´n. tenemos que λj (Jn A−1 Jn ) > λj (Jn A−1 Jn [α]) > λn+j−k (Jn A−1 Jn ) . Combinando estas desigualdades.1. . Veamos ahora a la Eq. i.41) a o es cierta para cierto k > 1 y tomemos α ∈ Qk−1.3. ´ o Entonces la primera tiene signo (−1)i−1 y obtenemos as´ la Eq.6.41) para este α. Llamemos β = α ∪ {i + k − 1}. . (13. (13.13. (13. se obtien la Eq. mientras que la ultima admite un representaci´n como la anterior. Supongamos que la Eq. 2. y εk λk (A) > 0 .

para i ∈ In−1 .47) para los casos 1 ≤ k ≤ p. 13. k ∈ In−1 .6. (13. (13. (13.49) ∗ ∗ En efecto. Sea B = A(n) y C = A(1). observamos que la Eq. Asumamos o que el teorema es cierto en Mn−1 (R). a su diagonal o reordenada. Λ o o o u conjuntos totalmente ordenados (en general. λi (A) ≥ λi (B). 13. Veamos ahora que n n λi (A) ≤ i=k+1 i=k+1 ∗ δi (A) . Como B. (13.6. para todo i ∈ In−1 (por el Corolario 13. Probaremos el teorema por inducci´n en n. las desigualdades de (13. (13. Demostraci´n. denotemos por x↓ a su reordenaci´n decreciente: o x↓ ≥ x↓ ≥ · · · ≥ x↓ 1 2 n y x↓ = xπ(i) i para alguna π ∈ Sn . Como tr λ(A) = tr A = tr diag (A). la hip´tesis inductiva determina que o k k n−1 ∗ δi (B) i=1 n−1 λi (B) ≥ i=1 y i=k λi (C) ≤ i=k ∗ δi (C) .6. es trivial.46) Teorema 13. [N´cleos totalmente positivos] La mayor parte de las matrices TPs no triviales surgen u de la restricci´n de n´cleos totalmente positivos a conjuntos finitos adecuados. para k>p.49). y λi−1 (C) ≥ λi (A). Dada una matriz L ∈ Mm (R). y por ende tambi´n la e Eq. Tomando la conversi´n de A en o caso de que sea necesario.48) implica (13.7 Algunos ejemplos 267 Dado x = (xi ) ∈ Rn . llamemos δ ∗ (L) = diag (L)↓ . (13.7.8. Entonces diag (A) λ(A) . basta mostrar que k k λi (A) ≥ i=1 i=1 ∗ δi (A) para k ∈ In−1 . i i ∈ In .7 Algunos ejemplos En esta secci´n presentamos algunos ejemplos de matrices TPs y la caracterizaci´n de estas o o matrices. q ∈ In tales que A11 = δp (A) y Ann = δq (A).48) implican la Eq. Daremos o u a continuaci´n algunas f´rmulas de producci´n de n´cleos totalmente positivos: Sean Γ. como δi (A) = δi (C) si p + 1 ≤ i ≤ n. podemos asumir que p > q. Sea A ∈ Mn (R) una matriz TP.47) ∗ ∗ Sean p. Luego. (13. y λi (A) = λ↓ (A).7 ).1. . Por el Corolario 13. subconjuntos de R o Z).48) ∗ ∗ Observar que δi (B) = δi (A) para 1 ≤ i ≤ p (aca se usa que p > q).13. C ∈ Mn−1 (R) son ambas TP.47) para estos valores de k.7. El caso n = 1.

vista en el Ejemplo 13. t) para s ∈ Γ. La positividad total estricta de un n´cleo se define an´logamente. t) = exp[−σ(s − t)2 ] es ETP en R+ × R+ . entonces K(φ(s). ya que es un u l´ ımite de n´cleos del item anterior (con αk = σ k /k! ). t ∈ Λ es un n´ cleo totalmente o u positivo (TP) si la matriz [K(si . .50). porque u exp −σ(s − t)2 = exp(−σs2 ) exp(2σst) exp(−σt2 ) . definido en en N0 × R+ es TP. u 3. El n´cleo L(k.1.6.7 Algunos ejemplos 268 1. < sn en Γ y t1 < t2 < . y ψ(t) es un operador mon´tonamente creciente de un conjunto o totalmente ordenado Λ1 a Λ. El n´cleo K(s. (13. con dos copias del o n´cleo L del item anterior (con la medida en N0 dada por los αk ). . tj )]i. .2. u 4. Para cualquier σ > 0 el n´cleo K(s. . si la integral existe. Adem´s. entonces el n´cleo f (s)K(s. Esto es s´lo una modificaci´n del Teorema 13. o o Pasemos ahora a la construcci´n de ejemplos concretos o 1. para todo n ∈ N y todo p ∈ R∗ . a K(s. Esto es una consecuencia de la u positividad total de las matrices de Vandermonde.j ∈In para todo par s . t) son TPs y dσ(·) es una medida en Γ. Si dos n´cleos L(s. el n´cleo K(s. v)dσ(s) .13. v ∈ Λ . t) = tk . En efecto. t) = exp(σst) es TP en R+ × R+ . t) es TP y φ(s) es un operador mon´tonamente creciente de un conjunto totalo mente ordenado Γ1 a Γ. Por lo tanto. ∈ Mn (R) es ETP por el item 3. t) = u + n k=0 αk sk tk es TP en R+ × R+ . se tiene que Gp − − In . u a 2. 5. t)g(t) es TP. u)M (s. Una funci´n a valores reales K(s. la matriz + Gp = exp − p (i − j)2 i. Si K(s. para u. entonces el n´cleo u u K(u. t) es TP y f (s). v) := T L(s. t) se lo puede realizar como una composici´n del tipo (13. ψ(t)) es un n´cleo TP en Γ1 × Λ1 . t) y M (s. u 3.1. Si K(s. . g(t) son funciones positivas en Γ y Λ respectivamente. Dados k ∈ In y α ∈ Rn+1 .50) es TP en Λ × Λ. u 4. 2.j∈In es TP para todo n ∈ N y toda elecci´n o s 1 < s 2 < . t ∈ R+ . Esta sucesi´n (tomando a −→ o p→∞ p ∈ N) ha sido usada varias veces en secciones anteriores. < tn en Λ .

t} a = g(s) · m´ ın{h(s). El n´cleo K(s.p (s. ya que podemos considerar las funciones f (t) = bi .52) donde Γ(·) es la funci´n gamma. t) = m´ ın{h(s). h(t)} g m´ ın{s.p (s. h(t)} · g(t) . t) = exp σ m´ ın{s. Para cada 0 < λ < 1 y 0 = p ∈ R. t) o 1/Mλ. t} a es TP en R+ × R+ . t} = exp ( −σ|s − t| ) a es TP en R+ × R+ . u K(s . porque K(s.7 Algunos ejemplos 269 6.j) a i . es f´cil ver que se la puede reescribir como a K(s. Esto se sigue de la observaci´n de que para cualquier γ > 0 o 1 1 = γ (s + t) Γ(γ) 0 eus eut −∞ du . g(t) 8. Entones la matriz + Mn (R) bm´ ın(i. t) = f m´ ın{s. g(t) son funciones positivas en R+ tales que h(t) = entonces el n´cleo u K(s. t} · g m´x{s. consideremos el promedio pesado en R+ × R+ Mλ. 9.51) Entonces Mλ. si i − 1 ≤ t < i . obtenemos que el n´cleo del item 8. t) es TP de acuerdo a si p < 0 o p > 0. o u 7. y el n´cleo exp(us) es TP en R+ × R+ . t) = m´ u ın{s. Una matriz de este tipo es llamada matriz de Green.p := {λsp + (1 − λ)tp }1/p . Dado σ > 0. t) = lim Mλ.j ∈In es TP ⇐⇒ b2 bn b1 ≤ ≤ ··· ≤ . Si f (t). que es creciente).53) f (t) es no decreciente. . En efecto. c1 c2 cn Esto se sigue inmediatamente del item 8. t} es TP en R+ × R+ . t} − σ m´x{s. si i − 1 ≤ t < i y g(t) = ci . 10.p (s.j) cm´x(i. |u|1−γ (13. (13. t) p → −∞ (13. Sean {bi }i∈In y {ci }i∈In dos sucesiones en R∗ . poniendo g(t) = exp(−σt) y f (t) = exp(σt) (con lo que nos queda h(t) = exp(2σt). t} g m´x{s.13.

. en−1 ]. . . . por inducci´n en n. . (12. podemos deducir de la Eq. . 3. . tiene menores principales positivos: det Hp [1. Luego el caso n = 1 es trivial. indexada en {2.  . 1. . (13. y dj en lugar de dj . .55) Un tal polinomio p(z) es llamado un polinomio de Hurwitz y la matriz H es la matriz de Hurwitz asociada a ´l. 2 (13. Llamemos G = H/{1} ∈ Mn−1 (R). e1 . 2. .2 (Matriz de Hurwitz).54) 0 2 4 6    . (13. .59) por los Teoremas 13. 2. . . tenemos que T es TP. . 3. . . para j = 0.13. .59) donde S = [0. .1 y 13. e Mostraremos. . (13.15) nos asegura que d1 det H/{1}[{2. . . . por la Eq.58) que Hp [1. .58) Por la hip´tesis inductiva.2. por lo que tambi´n lo es o e ˜ T := 0 0 0 T ∈ Mn (R) .54) con n − 1 en lugar de n. La Eq. Haciendo algunas cuentas. . Las matrices S y S ∗ son TPs. .7. donde d2j = d2j+1 y d2j−1 = d2j − c d2j+1 . indexada en {2. . . e2 .56) d0 Sean gj = Fj (G) ∈ Rn−1 . .57) tambi´n tiene menores principales positivos. Tomemos una Hp ∈ Mn (R) para un buen polinomio p. .7 Algunos ejemplos 270 13. Un conocido teorema de A. 3. . . para todo k ∈ In . . . n). (13. .   . . . . y f2j = g2j − c g2j−1 para j ≥ 2 . n. Haciendo la cuenta vemos que T es una matriz e de la forma (13. Ahora la positividad total de Hp sale de la Eq. n) = c ˜ S + (In − Jn ) S T S ∗ (n − 1. (13. Hurwitz dice que un polinomio p(z) = d0 z n + d1 z n−1 + . y lo es la matriz triangular c superior S + 2 (In − Jn ). para j = 2. . + dn a coeficientes reales (d0 > 0) tiene todos sus ceros en semiplano abierto Re z < 0 si y s´lo si la matriz o   d1 d3 d5 d7 d9 · · · 0  d0 d2 d4 d6 d8 · · · 0     0 d1 d3 d5 d7 · · · 0    Hp = d2j−i i. 2. . Observar que o d1 > 0 para cualquier n. k}] = det Hp [Ik ] > 0 para todo k ∈ In \ {1} .4. . 0 0 0 0 0 · · · dn donde ponemos que dk = 0 para k < 0 o k > n. . n}.55). (13. que en tal caso la matriz de Hurwitz es TP. . cuyas filas fj = Fj (T ) est´n definidos por a f2 = g2 . .j ∈In =  0 d d d d · · · 0  ∈ Mn (R) . . . Llamemos c = d1 . k] > 0 . .1. n}. Supongamos que es cierto para n − 1. . Entonces las matriz T ∈ Mn−1 (R). (13. f2j−1 = g2j−1 . . (13. . n − 2] = Hp (n − 1.

δ y αn son reales tales que 0 < 1 resultatdo est´ m´s alla del alcance de este trabajo. n + 2. 2n]. y αn . .7. Para una sucesi´n (bi-)infinita {an : −∞ < n < ∞}. m´s precisamente a Hp = T [n + 1. a a 13.j∈N es llamada su matriz de Toeplitz. δn z (1 − βn z) 1 donde k es un entero.8 Ap´ndice: La prueba del criterio clave e 271 13. la o ∞ matriz (ai−j )i. γ1 . basadas fuertemente en la teor´ de funciones anal´ ıa ıticas est´n m´s all´ del alcance de a a a este trabajo. donde dk = 0 para k < 0 o k > n. Un matriz de Toeplitz es TP si y s´lo si su funci´n generadora es de la forma o o γ−1 · f (z) = Cz k exp γ1 z + z (1 + αn z) 1 ∞ 1 ∞ 1+ 1− 1 ρn z . y la funci´n f (z) = o −∞ ∞ ∞ an z n .7.13. . su funci´n o generadora. . . . ∞) es llamada una funci´n o o o o de frecuencia de P´lya si el n´cleo K(s. ρn .3 (Matrices de Toeplitz). + dn (d0 > 0) tiene todos sus ceros en eje real no negativo si y s´lo si la matriz infinita (dn+j−i )i. . 2n|2. t) := f (s−t) es TP. La prueba de este donde C > 0. . Para ello usaremos fuertemente los . βn ≥ 0 son tales que 1 (αn + βn ) < ∞. Una funci´n f (t) en (−∞. Las pruebas de estos hechos. C ≥ 0. Notemos o que la matriz de Hurwitz Hp introducida antes es una submatriz de T .j∈N es TP. βn . δn ≥ 0 son tales que ∞ (αn + βn + ρn + δn ) < ∞ . . 13.4 (Funci´n de frecuencia de P´lya). γ ≥ 0. f (t) es una funci´n de frecuencia de P´lya si y s´lo si su transformada o o o bil´tera de Laplace existe en una tira abierta que contenga al eje imaginario y tiene la forma a ∞ ∞ e −∞ −st f (s)ds = C exp(γt + δt) · 1 ∞ 2 exp(αn t) . Cuando es aplicada a un polinomio la caracterizaci´n anterior implica que el o polinomio p(z) = d0 z n + d1 z n−1 + . 1 Cuando an = 0 para n < 0. . (1 − βn z) 1 ∞ donde C ≥ 0. γ−1 ≥ 0 y αn . 1 + αn t |αn |2 < ∞. γ ≥ 0. la matriz de Toeplitz es TP si y s´lo si su funci´n generadora es o o de la forma ∞ (1 + αn z) γz 1 f (z) = Ce ∞ .8 Ap´ndice: La prueba del criterio clave e Las pruebas de los criterios de positividad total se basan en intrincados c´lculos de detera minantes que permiten usar un argumento inductivo. 4. La siguiente caracterizaci´n se debe o u o a Schoenberg (1953). .

β ∈ Qk. β ∈ Qk. β∪τ (13. se tiene det A[ω|1.n . es v´lida para toda A ∈ Mn (R): Dado β ∈ Qk.n .62) La siguiente igualdad. τ ∈ Ql. τ ∈ Ql. . Dados α ∈ Qn−1. Existen entonces γ y σ ∈ Qk. n) det A[α|q) = det A[ω|1.n y ω ∈ Qn−2.60) Repasemos la Eq. entonce se tiene que det A[α|β] det (A/[α|β])[ω|τ ] = sgn β α sgn det A[α ∪ ω|β ∪ τ ] α∪ω β∪τ (13. vista como (12.63) Identidad de Sylvester (Eq. se cumple que det det A[α ∪ {αi }|β ∪ {βj }] i. (12. adem´s.17) ): Dados A ∈ Mn (R) y α.n tales que ω ⊆ α. . n} . dado que las usaremos bastante.1. Adem´s sean {m} = α \ ω.k+l tales que αi = µγi y βi = νσi . Recordemos.12). α∪ω sgn β = sgn(σ) . o a Dividiendo ambos lados de la Eq. n}] = det A[µ|ν]2 (13. .8.n y adem´s. se tiene {A/[α|β] }(α .β ) = sgn i j det A[α ∪ {αi }|β ∪ {βj }] α β sgn α ∪ {αi } β ∪ {βj } det A[α|β] (13. q. sean a µ = α ∪ ω = (µ1 . Notar que asumimos que n ≥ 3. Luego definimos sgn k(k+1) α = sgn(γ) = (−1)tr γ− 2 .j∈In−k = det A · det A[α|β]n−k−1 (13. β ∈ Qk.n tales a que ω ⊆ α . ω∈Qk. µ2 . i ∈ Ik .13. (13. . τ ⊆ β . algunas ecuaciones de all´ ı: Dados α. vista en (12. ω. . Dados α. ω.16): Dados α.8 Ap´ndice: La prueba del criterio clave e 272 resultados de la secci´n 2 del Cap´ o ıtulo 12. µk+l ) y ν = β ∪ τ = (ν1 . Demostraci´n. para todo 1 < q < n.15): Sea A ∈ Mn (R).n tales que ω ⊆ α .n (13.n . τ ⊆ β . m}|ν ∪ {1. n) det A[α|1) . Sea A ∈ Mn (R).64) Necesitamos adem´s el siguiente resultado espec´ a ıfico: Lema 13. Fijemos p ∈ ω y sean µ = ω \ {p} y ν = {1. νk+l ) ∈ Qk+l.n . . ν2 . a sgn(ω) det A[ω|β] det A(ω|β) = sgn(β) det A . (12.n y.65) . .61) Una consecuencia inmediata es la siguiente caracterizaci´n de las entradas de un complemento o de Schur.65) por det A[µ|ν]2 tenemos que el lado izquierdo de la (eventual) igualdad queda det A[µ ∪ {p}|ν ∪ {q}] det A[µ ∪ {p. . β ∈ Qk. q) det A[α|n) + det A[ω|q.

m tal que d(β) ≤ m − r . εk det A[α|β] ≥ 0 para β ∈ Qk.q} = sgn ν∪{1} sgn ν∪{q. n] = Bp.68) . (13. nos queda que la Eq. (13.66) surgen de que sgn ν∪{1. m|q. m|q.n} . sgn ν∪{1} = sgn ν∪{1. q] + sgn ν∪{1} sgn ν∪{q.1 det B[p.67) Recordemos el enunciado del Teorema 13.1 det B[p.1 det B[p. m}|ν ∪ {1.m} sgn ν∪{q. n] . n] . > 0) para todo k ∈ Ir . Sea r = m´ o ın{n.m} sgn ν∪{1.66) En efecto. m|1. n] .n} .m . q] + Bp.q} = sgn ν∪{1} sgn ν∪{q} . m|1.m} . Recordemos las definiciones: A es ε-RS (resp.m (R) con rk A = r.n} = sgn ν∪{n} sgn ν∪{1. observar que por la definici´n usando permutaciones tenemos que o ν ν ν ν sgn ν∪{q} = sgn ν∪{q.1.n} Bp.q det B[p. det A[µ ∪ {p}|ν ∪ {n}] det A[µ ∪ {p. y que ν sgn ν∪{n} = 1 . ε-ERS) si εk det A[α|β] ≥ 0 (resp.n} .62).65) es equivalente a la ν ν siguiente relaci´n: sgn ν∪{q} sgn ν∪{1. m|1. para todo k ∈ Im´ ın{n. n] = o ν ν ν ν sgn ν∪{n} sgn ν∪{1.n} Bp.66).m} sgn ν∪{1.n} . (13. (13. q] + ε3 Bp.n det B[p. β ∈ Qk.q} Bp.4 Sea A ∈ Mn.4: Teorema 13. Usando ahora la Eq. m}.q} µ µ ν ν ε3 = sgn µ∪{p} sgn ν∪{1} sgn µ∪{p. y µ µ Sacando como factor a sgn µ∪{p} sgn µ∪{p. (13. α ∈ Qk. (13. m|1. o 1. ν ν ν Luego las igualdades de (13. se ve que la Eq. Por otra parte. m|1. n] .n . donde µ µ ν ν ε2 = sgn µ∪{p} sgn ν∪{n} sgn µ∪{p.60).61) y (13. se tiene que µ µ ν ν = sgn µ∪{p} sgn ν∪{q} sgn µ∪{p.13.n .65) es equivalente a la relaci´n: o Bp.m (R) y ε una sucesi´n de signatura. m|1. usando la Eq. n}] = det A[µ|ν]2 + . y sea ε una sucesi´n de signatura. una cuidadosa cuenta muestra que ν ν ν ν ν ν sgn ν∪{q} sgn ν∪{1. Por otra parte. (13. Llamemos B = A/[µ|ν] . Notar que. por las ecuaciones (13.n} Bq. m|q.1.m} y α ∈ Qk. Para que A sea ε-RS es suficiente que. Sean A ∈ Mn.n det B[p. = ε2 Bp. m}|ν ∪ {q.n det B[p. que se verifica f´cilmente para cualquier matrix B (notar que son determinantes de matrices a de 2 × 2).8 Ap´ndice: La prueba del criterio clave e 273 y el derecho.q det B[p. q}] det A[µ|ν]2 det A[µ ∪ {p}|ν ∪ {1}] det A[µ ∪ {p.q det B[p.

8.67) para todos los j < k pero no para k.67) es cierta porque d(β) = 0 para o cualquier β ∈ Q1.70). Luego deben existir un β ∈ Qk. (13.73).71): Para esto fijemos un p como antes.8 Ap´ndice: La prueba del criterio clave e 274 2. β3 . lo que contradir´ la Eq. Cuando k = 1. debe pasar que / ap ∧ aβ2 ∧ · · · ∧ aβk−1 = 0 .n . Observar que cualquier β con d(β) = 0 cumple que d(β) ≤ m − 2. (13. . asumiendo que A o cumple la condici´n (13. βk−1 }. pero es claro que (13. m ≥ 3.69) En el caso k = 2 esto ser´ que ap = 0. ser´ suficiente ıa mostrar que todo vector fila de A[−|τ ∪ {p}] es una combinaci´n lineal de los vectores fila con o ´ ındices en γ. Eso hace o innecesario estudiar los casos en que r ≤ 2. y estamos considerando k + l columnas. un factor cumple que εk det A[α|β] < 0 y el otro εk−1 det A[ω|τ ∪ {p}] ≥ 0.68). la hip´tesis inductiva y la propiedad minimal de l que la identidad arriba mencionada o s´lo puede ser v´lida cuando o a det A[ω|τ ∪ {p}] = 0 . para todo q ∈ In \ γ . (13.63). βk }] = det A[ω|τ ∪ {βk }] det A[α|τ ∪ {β1 . . En particular tenemos que l = d(β) > m − r . (13. En particular. (13. Dado ω ∈ Qk−1. Una reformulaci´n de (13. p}) ≤ l − 1 y d(τ ∪ {p. el Lema 13. ıa o ıa (13. al calcular det A[α|β] = 0 v´ la Eq. p}] + det A[ω|τ ∪ {β1 }] det A[α|τ ∪ {p. (13. para todo ω ∈ Qk−1. ya que . Esta contradicci´n mostrar´ que la Eq.n tales que εk det A[α|β] < 0 . y que d(β) es el m´ ınimo para los β que cumplen tal cosa.74) En el caso k = 2 el tal γ = ∅ (al igual que τ ). Por lo tanto r = rk A ≤ m − l. Probaremos la la Eq. .67) es v´lida para d(β) = k. . Por otro o lado. Cuando q ∈ α.72) tiene signo εk−1 εk (o 0) y en el izquierdo hay. ω ⊆ α . si k ≥ 3. Demostraci´n. para probar que rkA[−|τ ∪{p}] ≤ k −2. y llamemos ı o τ = {β2 .n ıa tal que γ ⊆ α y det A[γ|τ ] = 0.13.1 nos dice que det A[ω|τ ∪ {p}] det A[α|τ ∪ {β1 .69). βk }] (13. (13.72) Como τ ∪ {β1 . Luego. βk }) ≤ l − 1.73) pues el lado derecho de la igualdad (13.m . βk } = β.74) se deduce de la Eq. vemos que existe un γ ∈ Qk−2 . A es TP si det A[α|β] ≥ 0 en esos casos. Observar que si (13. se sigue de la Eq.71) (13.67) por inducci´n en k. con ω ⊆ α.71) es decir que para todo tal p vale que el o rk(A[−|τ ∪ {p}] ) ≤ k − 2. Supongamos que se cumple la Eq.n . en particular si n ≤ 2 o m ≤ 2. a As´ que vamos a por la f´rmula (13. (13. por hip´tesis. (13. d(τ ∪ {β1 .71) fuera cierta. tendr´ ıa ıamos que dim Gen {aj : β1 ≤ j ≤ βk } ≤ k.70) (13.m y un α ∈ Qk. y el resto de la cuenta funciona. Asumamos entonces que n . (13.74) equivale a que ap = 0. o equivalentemente que det A[γ ∪ {q}|τ ∪ {p}] = 0 . (13. la Eq. Afirmamos el tal β cumple que para todo p ∈ β tal que β1 < p < βk .

1 = 0 o bien b1. todos los subdeterminantes de matrices 2 × 2 de B[−|1) y B[−|3) tienen el mismo signo εk−2 εk . por lo que B tendr´ una diagonal ıa a con tres tipos del mismo signo.73) implica que bi.1 = 0 o bien b2. las condiciones anteriores s´lo son consiso tentes cuando b2. p. 3] deben tener signo εk−2 εk . Esto sale porque det B[1. 3|1.74) equivale a que C2 (B) = b2 = 0. . Por otro lado. a o Recordemos el enunciado del Teorema 13. Aplicando nuevamente la Eq. βk }. lo que no vale. Si q = µ1 .3 = b3.75). εk det A[α|β] > 0 para α ∈ Qk.3 = 0.1 = b3. lo que establece la validez de la Eq. un razonamiento semejante lleva a la misma conclus´n o absurda.n . y ν = {β1 . 3]. (13.1 = 0. pero deber´ ser opuestos. (13. la Eq. Fijemos ahora un q ∈ α. Llegamos a que det A[α|β] = 0. cosa solo permitida si del lado malo (el signo que no concuerda con εk−2 εk ) son ambos cero. para i . (13.5 Sean A ∈ Mn. tendr´ ıamos   det A[γ ∪ {q}|τ ∪ {β1 }] det A[γ ∪ {q}|τ ∪ {p}] det A[γ ∪ {q}|τ ∪ {βk }] 0 det A[γ ∪ {µ2 }|τ ∪ {βk }]  .3 = b3. 2] y det B[1. Para que A sea ε-ERS es suficiente que.m) . (13. debe pasar que b1. Esto es as´ porque los de la izquierda ı producen determinantes (de 2 × 2) de un signo y los de la derecha del signo contrario.13. j ∈ I3 . mientras que det A[γ|τ ] = 0. si b22 = 0. Sean µ = {µ1 .75) es nulo. (13.5: Teorema 13.8 Ap´ndice: La prueba del criterio clave e 275 γ ∪ {q} ∈ Qk−1. por la Identidad o de Sylvester (13. ser´ ıa diagonal y su determinante tendr´ signo εk−2 εk .1 = b2. Si b2 = 0. Supongamos ahora que q = µ2 . ıan porque todos los bij tienen el mismo signo. B =  det A[γ ∪ {µ2 }|τ ∪ {β1 }] det A[γ ∪ {µ3 }|τ ∪ {β1 }] 0 det A[γ ∪ {µ3 }|τ ∪ {βk }] con todas las entradas del mismo signo. lo que completa la inducci´n. por lo que el de det A[α|β] ser´ εk . En el caso de que q = µ3 pasa lo mismo (b1. entonces b1. que es B[1. Y la misma idea obligar´ a que b3.3 = 0. Queda   det A[γ ∪ {µ1 }|τ ∪ {β1 }] 0 det A[γ ∪ {µ1 }|τ ∪ {βk }] B =  det A[γ ∪ {q}|τ ∪ {β1 }] det A[γ ∪ {q}|τ ∪ {p}] det A[γ ∪ {q}|τ ∪ {βk }]  . β ∈ Qk. Pero en tal caso. µ2 .1.1 = b3. la matriz de (13. Minga.3 = 0). As´ b2 = 0. det A[γ ∪ {µ3 }|τ ∪ {β1 }] 0 det A[γ ∪ {µ3 }|τ ∪ {βk }] Ahora debe pasar que. µ3 } = a / (α \ γ) ∪ {q}. Ya hab´ ı ıamos visto que ello muestra que la Eq.3 = 0).m (R) y ε una sucesi´n de signatura.n y est´ dentro de α. 2|2. entonces det det A[γ ∪ {a1 }|τ ∪ {β1 }] det A[γ ∪ {a1 }|τ ∪ {βk }] det A[γ ∪ {a2 }|τ ∪ {β1 }] det A[γ ∪ {a2 }|τ ∪ {βk }] = det A[α|β] det A[γ|τ ] (13. o 1.64) tendr´ ıamos que.1 = 0. ıa ıa En el caso opuesto (b1. Luego la Eq.1.64).71). 2|1.67) es v´lida para d(β) = k.m tales que d(α) = d(β) = 0 .3 = 0 o bien b1.2 = 0 siempre que µi = q. si α \ γ = {a1 a2 }. Si por ejemplo el malo es el de la derecha.3 = b2.1 = b3. para todo k ∈ Im´ ın(n. Consideremos la matriz B ∈ M3 (R) dada por bij = det A[γ ∪ {µi }|τ ∪ {νj }] . Entonces por hip´tesis inductiva todos los bij tienen el mismo signo εk−1 y.

mientras que det A[ω|τ ∪ {p}] en el lado izquierdo es no nulo con signo εk−1 .m) . Por lo tanto la igualdad es consistente s´lo cuando o εk det A[α|β] > 0. . βk }] para cualquier ω ∈ Qk−1 . Sea A ∈ Mn (R) la matriz del Ejemplo 11. 2. Asumamos que la Eq. que se deduce de la usual tomando traspuestas de las matrices involucradas.n 13. 13.6. k] > 0 con d(α) = 0 .9. .9 Ejercicios para cada k ∈ In y cada α ∈ Qk. (13. Probemos las desigualdades o εk det A[α|β] > 0 para α ∈ Qk. Supongamos que εk det A[α|γ] > 0 o siempre que γ ∈ Qk.9 Ejercicios 276 2. Cuando k = 1. Se sigue de la Eq. Entonces es TP si se verifica que det A[α|1. Demostraci´n. Probar que entonces .m y hacemos una inducci´n similar sobre l = d(α).9.n .9.76) por inducci´n en k.15. 13. Probar que exite 13.m y d(γ) ≤ l − 1. como en la Eq.n con d(α) = 0. Cotejar las propiedades de sus autovalores y autovectores con los resultados desarrollados en las secciones 13. .l (R).76) para este α por inducci´n en l = d(β). Porbar que. . . βk−1 }.76) ı es cierta en general.n con d(α) = 0. .2. . det A[ω|τ ∪ {p}] det A[α|τ ∪ {β1 .5 y 13. 13. (13.76) para los α ∈ Qk.65) para filas. (13. As´ podemos concluir que la Eq. βk }) ≤ l − 1 .3. A es ETP si det A[α|β] > 0 es esos casos. 0 (entradas positivas).2. . βk }] = det A[ω|τ ∪ {βk }] det A[α|τ ∪ {β1 .m con d(β) = l.1 que dec´ ıa: Sean A ∈ Mn. p}) ≤ l − 1 y d(τ ∪ {p . o Cuando l = 0. esto se sigue de la hip´tesis del teorema. (13. (13. Luego fijamos cualquier β ∈ Qk.76) es cierta con k − 1 en lugar de k. En particular. β ∈ Qk. Hay que usar la Eq. esto es trivial porque d(α) = d(β) = 0 para α ∈ Q1. Sea A ∈ Mn (R) triangular inferior.65). k ∈ Im´ ın(n.13. dado que el caso d(α) = 0 o es lo que probamos antes.m . (13. d(τ ∪ {β1 .n y o β ∈ Q1. (13. Usando las dos hip´tesis inductivas vemos que o el lado de la derecha es no nulo con signo εk−1 εk .4.n tal que ω ⊆ α.m . Probar detalladamente el Teorema 13. Entonces existe p tal que β1 < p < βk . entonces λI + A es TP ⇐⇒ λ≥1.1.4.9. Esto prueba la Eq.72) de la prueba del Teorema 13. si λ ∈ R. y probemos la Eq.2. p}] + det A[ω|τ ∪ {β1 }] det A[α|τ ∪ {p. donde τ = {β2 . Sea A ∈ Mn (R) tal que A es de Jacobi y A un ξ ∈ R tal que ξ I + A es TP.1. Sea β ∈ Qk. Primero fijemos un α ∈ Qk.m (R) y B ∈ Mm. (13.

3.2. a .6. AB se convierte en ε-ERS si (a) A es εA -ERS y rk B = l. el producto AB es ε-RS. entonces u K(u. M : Γ → Λ son TPs y dσ(·) es una medida positiva en Γ.9.5.1. Si dos n´cleos L. con ε = εA · εB .9. donde se muestran los m´s interesantes ejemplos de matrices TP. 13. v) := T L(s. es un n´cleo TP. en principio para medidas concentradas en finitos ´tomos.77) Se sugiere replantearlo para que se pueda deducir del Teorema 13. para u. u (13. tambien lo es AB. u)M (s. v)dσ(s) . En este caso.9 Ejercicios 277 1.7. o si (b) rk A = n y B es εB -ERS.1. Si A y B son ETP. Si A es εA -RS y B es εB -RS. v ∈ Λ . 2. a 13. Verificar la veracidad de los otros 4 + 10 items del apartado 13.13.

Springer-Verlag. Positive Definite Matrices.J. Clarendon Press. Panzone. [11] L. Prentice-Hall. F. Cambridge. [8] R. An introduction to Linear Algebra. Cambridge. 1970. Linear algebra. New York. Prentice-Hall Mathematics Series. Mirsky. Kunze. [4] R. Linear Algebra. Princeton University Press.. N. Bah´ Blanca. 2006. Spectral theory of linear differential operators and comparison algebras. Hoffman y R. Bhatia. D. Baltimore. Springer. 1995. Lax. Berl´ 1998. Cambridge University Press. Johnson. Johnson. Metha. MD. Oxford. ıa [2] G. 1991. [5] O. Introduction to Matrix Analysis. 1963. Cambridge University Press. [9] T. La matriz positiva y su espectro. 2003. Matrix Theory. Matrix computations (Third edition) Johns Hopkins Studies in the Mathematical Sciences.. Johns Hopkins University Press. [10] P. Horn y C. 2a Ed. Bellman. Perturbation theory for linear operators. Topics in Matrix Analysis. Informe T´cnico e interno No. Hindustan Publishing Co.Bibliograf´ ıa Libros [1] A. Benedek y R. 1987 [6] K. Berlin. Matrix Analysis. L. 1997. Englewood Cliffs. [3] R. [13] R. Reprint of the 1980 edition. ın. Cambridge University Press. Cordes.86. Van Loan. 1989. Cambridge. Kato. 1985. . Inc. INMABB. [12] M.. Matrix Analysis. Classics in Mathematics. 1961. 76. Golub y C. [7] R. 1996. Bhatia. London Mathematical Society Lecture Note Series. Springer Verlag. New York. 2a Ed. McGraw-Hill. Princeton Series in Applied Mathematics. Horn y C.

Kre˘ Formulas of differentiation according to a parameter ı. Operator theory in function spaces and Banach lattices. Springer-Verlag.BIBLIOGRAF´ IA 279 [14] W. 2003. 11-15. Lett. a [20] T. Dalecki˘ S.K.additive and multiplicative versions. Appl. Kre˘ Integration and differentiation of functions of ı. (Russian) Doklady Akad. Olkin. London Mathematical Society Lecture Note Series. 14 (1993). [27] C. 377–413. 1956 (1956). Cambridge-New York. 77-84.. Academic Press. ın. Birkh¨user. Ando. Available online 22 April 2005. Mathias The Lidskii-Mirsky-Wielandt theorem . Hirzallah and F. Ando. Phys. Kittaneh.) 76. Davis. Numer. 3. Matrix Young inequalities for the Hilbert-Schmidt norm. ın. G. [22] R. Hermitian operators and applications to the theory of perturbations. Structure of Operators with Numerical Radius One. 1. 19 (1990). Matrix Anal. Theory Adv. Trace ideals and their applications. FCEA-UNC. Donoghue. Univ. Monotone matrix functions and analytic continuation. Araki On an inequality of Lieb and Thirring. 13–16. Bhatia y C. Funkcional. Dalecki˘ S. SIAM J. Ando. (Russian) Voroneˇ. Mat. Matrix Young inequalities.R. Appl. Basel. 1995. of functions of Hermitian operators. Ando. [23] J.. [16] B. 308 (2000). (1951). G. Neuqu´n. L. [18] T. Math (Szeged) 34 (1973). e [26] O. Linear and Multilinear Algebra 23 (1988) 183-191. z [25] M. Simon. Acta Sci. 167-170. [15] A. Totally positive matrices. 132–136. 33–38. F.S. 2. L. no. no. 90 (1987). Math. Gonz´lez. Berl´ 1974. no. Gos. Unitarily invariant norms related to the numerical radius. 1979. ın. [28] Chi-Kwong Li. [24] J. Corrected Proof. C. Oper. 81–105. Johnson. no. Inequalities: Theory of Mayorization and its Applications. [21] H. Jr. Inequalities relating unitarily invariant norms and the numerical radius. Linear Algebra and its Applications. 1979. More matrix forms of the arithmetic-geometric mean inequality. C. Cambridge University Press. Nauk SSSR (N. 165-219. Papers [17] T. Linear Algebra Appl. 81 (1999). Tesis a o de licenciatura. Relaciones de Mayorizaci´n para el Producto de Hadamard. Trudy Sem. W. Marshall and I. Anal. . Li. In Press. [19] T. R. Math. 35. Linear Algebra Appl. Depto. 75. New York. 1.

Math. . [30] E. Pekarev. Funct. Shorts of operators and some extremal problems.R. I. J. Paulsen. L. S. 151-178. 147-163. Anal. C. Acta Sci. Smith.BIBLIOGRAF´ IA 280 [29] V. 85 (1989). (Szeged) 56 (1992). Power and R. Schur products and matrix completions.

17. 190 Araki. 4 autovalor. 93 a complemento de Schur. 137. 157. 34 Cauchy-Schwarz para matrices. 238 o espacio de Hilbert. 182 minimax. 185 Fisher. 117 c´ncava de operadores. 134. 3 c´lculo funcional. 175 o Kittaneh. 110 descomposici´n o polar. 151 positiva. 168 determinante. 151 autoadjunta.´ Indice alfab´tico e adjunto. 6 f´rmula o Cauchy-Binnet. 159 Golden-Thompson. 180 Thompson. 118 o conjunto ortogonal. 167. 157. 226 completaci´n. 180 Young. 23. 185 aritm´tico-geom´trica. 158 UL. 4 adaptada. ver shorted . 46 Lie-Trotter. 23. 39 LU. 39 valores singulares. 106 a derivada. 164 Oppenheim. ver diferencial direccional. 158 Simon. 245 funcional. 144. 165 Weyl (mayorante de Weyl). 88 e . 31. 165 Cordes. 6 base ortonormal. 29 factorizaci´n o Cholewsky. 157. del radio espectral. 1. 3 espectro. 195 Corach-Porta-Recht. 151 funci´n o convexa. 228 diagonales de una matriz. 39 desigualdad Ando-Johnson-Bapat. ver diferencial gauge sim´trica. 26 c´psula convexa. 181 H¨lder para matrices. 151 adjunta. 71 convexa de operadores. 110 parcial. 18. 117 o diferencial. 189 Hadamard. 224. 153 o compresi´n. 23. 161 Hirzallah-Kittaneh. 171 Horn. 138 Daleki˘ y Kre˘ 112 ıi ın. 245 QR. 54. 74 diferencial. 167 e e Aronszajn. 110 dispersi´n.

87 unitariamente invariante d´bil. 4 diagonal dominante. 91. 130 . 36 doblemente estoc´stica. 64 por entradas: . 44. 4. 133 k-tensor sim´trico elemental. 104 espectral.´ ´ INDICE ALFABETICO 282 mon´tona de operadores. 238 estrictamente triangular inferior. 65. 95. 65 a esencialmente no-negativas. 267 u operador anti-hermitiano. 149 o definido positivo. 237 de signo regular. 192 menor. 9 triangular superior. 218 hermitiana. 37 parte real de una matriz. 8 matriz anti-hermitiana. 145 pinching. 5 o polinomio caracter´ ıstico. 66 o de signo estrictamente regular. 60 n´cleo. 9 fuertemente conexa. 228 de Sylvester. 100. 94. 231. 7 Ky-Fan. 64 o conjunta. 238 traspuesta. 100 e n´cleos totalmente positivos. 4 semidefinido positivo. 216 reducible. 91 medias de operadores. 1 primera diferencias dividida. 3 u norma. 240 de permutaci´n. 4 hermitiano. 7 Frobenius. 48. 272 k-potencia exterior. 129. ver submatriz m´dulo de una matriz. 63 mayorizaci´n d´bil: w . 1 normal. 133 de Hadamard. 4 de multiplicaci´n. 0 incompleta. 217 semidefinida positiva. 4 mayorizaci´n. 65 de Jacobi (tridiagonal). 9 unitaria. 153 inversible. 4 normal. 104 d´bil (submayorizaci´n). 9 estrictamente triangular superior. 64 o e mayorizaci´n: o . 60 identidad de Jacobi. 25 primitiva. 110 producto alternado. 244 polarizaci´n. 224 estrictamente totalmente positiva. 132 k-tensor elemental. 177 estrella ≤* . 209 usual: ≤ . 112 o g-inversa reflexiva. 147 de Kronecker. 43 matricial. 4 totalmente positiva. 163 permanente. 4 unitario. 0 triangular inferior. 44 unitariamente invariante. 4 orden espectral: . 135 k-tensor alternado. 4. 3 dual. 64 e o de matrices. 4 con entradas positivas. 237 definida positiva. 39 o m´dulo m´ o ınimo reducido. 145 e matrices similares. 7 unitariamente equivalentes. 69. 27 identidad.

153. 83 Weyl: λj (A) + λ1 (B) ≤ λj (A + B). 144 e simetrizado. 92 subespacio ortogonal. 210 Perron-Frobenius. 197 e raiz cuadrada de una matriz. 48 d (A) µ(A). 7. 163 Ky Fan (Caracterizaci´n de NUIs). 59 Perron. 7 radio num´rico. 215 o ortogonal. 197 e regla de Cramer. 54 signo de una permutaci´n. 65 o sucesi´n de signatura. 80 KA = m´x Aii . 89 o L¨wner. 198 o Johnson-Li. 205 K¨nig-Frobenius. 65 o Teorema 1 de Schur: 2 de Schur: 3 de Schur: 4 de Schur: A = U T U ∗ . 3 5 de Schur: per A ≥ det A. 253 o vector de Perr´n. 203 e Birkhoff (extremales de DS (n) ). 31 Fan-Hoffman.´ ´ INDICE ALFABETICO 283 sim´trico. 39 Vandermonde. 239. 164 pseudoinversa. 31 submayorizaci´n. 31 principal. 75 o Ky Fan Re µ(A) µ(Re A). 74 Hamilton-Cayley. 60 de Moore-Penrose. 1 valores singulares. 3 ortonormal. 3 submatriz. 237 o supramayorizaci´n. 229 shorted. 161 Hall (de los casamientos). 163 Haagerup. (radio num´rico). 146 Ando. 16 Hausdorff T¨eplitz. 156 Hahn Banach. 204 . 219 Schur-Horn. 60 radio espectral. 75 Courant-Fischer (minimax). 94. 29 entrelace de Cauchy. 114 o Lidskii. 226 o sistema de proyectores. 82 traza. 150 a i∈In Parrot. 47. 13 A ◦ B ∈ Mn (C)+ . 144. 95 Marcus-Sandy. 39 rango num´rico. 3 unitario. 30 Weyl: µ(A + B) µ(A) + µ(B). 268 variaci´n de signos.

. K) es el espacio de operadores lineales de H en K (dos espcios de Hilbert). xk yk . x x. an ) = T . . em } es la base can´nica de Cm . . la diagonal de A ∈ Mn (C). ker A = {x ∈ Cm : Ax = 0} x. . . Em = (m) {e1 i=1 1 = 1n = En = 1n 0 0 an (m) . . 2. . aj2 . Gen {X} = Gen {x1 . . . A∗ = AT ∈ Mm. matrices unitarias. H(n) = {A ∈ Mn (C) : A = A∗ }. .m (C). o n € (n) n ek = (1. L(H. . ajm ) ∈ Cn es la j-´sima fila de A ∈ Mn. y ∈ Cn . BON : base ortonormal. U (n) = {U ∈ Mn (C) : U ∗ U = I}. n}. . por orden de aparici´n: o Cap´ ıtulo 1 In = {1. U . . . . . . e d (A) = (A11 .m (C) = Cn×m Mn (R) = Rn×n y Mn. .m (R) = Rn×m Gl (n) = {A ∈ Mn (C) : A es inversible } PA (x) = det(xI − A) ∈ C[x] es el polinomio caracter´ ıstico de A ∈ Mn (C). semidefinidas positivas. N (n) = {N ∈ Mn (C) : N ∗ N = N N ∗ }.n (C) la adjunta de A ∈ Mn. xm }. . . . .m (C) . . para a ∈ Cn . y = n € rk(A) = dim R(A) = dim Gen {C1 (A). . . R+ = {x ∈ R : x ≥ 0} y R∗ = {x ∈ R : x > 0}. ani ) ∈ Cn es la i-´sima columna de A ∈ Mn. Q P a1 0 0 T. a2i .m (C). . 1) ∈ C . Ci (A) = (a1i . . S R.m (C). e Fj (A) = (aj1 . Mn (C)+ = {A ∈ Mn (C) : A ≥ 0} ⊆ H(n). . . matrices autoadjuntas. = x. U ∈ Mn (C) . . k=1 1n ∈ Mn (C)+ .Notaciones y abreviaturas Se enumeran las principales notaciones y abreviaturas del libro. . . definidas positivas. Cm (A) }.m (C). . . . . diag (a) = diag (a1 . . xm } es el subespacio generado por X = {x1 .. . . . matrices normales. + Mn (C) = Cn×n y Mn. . . para A ∈ Mn. . . para A ∈ Mn. Ann ) ∈ Cn . Gl (n)+ = {A ∈ Mn (C) : A > 0} = Gl (n) ∩ Mn (C)+ .  1/2 k=1 x = x 2 = n € k=1 1/2 |xk |2 para x ∈ Cn . la matriz de puros unos. . tr A = n € Aii para una A ∈ Mn (C). y R(A) = A(Cm ) = Im(A) ⊆ Cn .

I. j∈Im Sn = {σ : In → In biyectiva } . el radio num´rico de A ∈ Mn (C). a = m´x{ Ax : x ∈ Cn . .j∈Ik ∈ Mk (C) y A(k) = A(Ik ) = {aij }i. A[I|J] = AIJ = (Arl )r∈I ∈ Mk. A = U |A| = |A∗ |U es una descomposici´n polar de A ∈ Mn (C) si U ∈ U(n). .m (C). |K| = m. la norma Frobenius de A ∈ Mn (C). s(A) = (s1 (A). a A A sp 2 2 x = 1 } . o si (A) = µi (|A|) = µi (A∗ A)1/2 . |||A|||N = m´x N (Ax) la norma matricial inducida en Mn (C) por una norma N en Cn . M1 = {x ∈ M : x = 1} para un subespacio M ⊆ Cn . x ≤ C x . x | : x ∈ Cn . la compresi´n de A ∈ Mn (C) a un subespacio S ⊆ Cn . el espectro de A ∈ Mn (C). m (C) . sn (A) ) = µ(|A|) ∈ Rn y + Σ(A) = diag (s(A) ) ∈ Mn (C)+ . el radio espectral de A ∈ Mn (C).j>k ∈ Mn−k (C) . el m´dulo de A ∈ Mn (C). para A ∈ Mn (C) y r ∈ In . Ar = A({r}) = {aij }i=r=j ∈ Mn−1 (C) .j=1 T S(n) = { T ∈ Mn (C) : Tij = 0 para i ≥ j} las triangulares superiores. ambos para A ∈ Mn (C) y k ∈ In . . x = 1} = m´ a ın{C ≥ 0 : Ax ≤ C x . el n-grupo simetrico. e ρ(A) = m´x{ |λ| : λ ∈ σ (A)}.m (C) . . o A+ = A A p |A|+A y 2  n € i=1 k € i=1 A− = |A|−A 2 1/p son las partes positiva y negativa de A ∈ H(n). B ∈ Mn. A ∼ B (unitariamente equivalentes) si existe U ∈ U(n) = i. x para todo x unitario en Cn (con B. x ∈ Cn } . para i ∈ In . (k) = si (A) (norma de Ky Fan) para A ∈ Mn (C) y k ∈ In . . λ(A) = (λ1 (A). l∈J A[I|J) = A[I|In \ J] y A(I|J] = A[In \ I|J]. para x ∈ Cn e y ∈ Cm .NOTACIONES Y ABREVIATURAS 285 σ (A) = {λ ∈ C : ker(A − λI) = {0} }. = si (A)p = (tr |A|p )1/p (norma de Schatten) para A ∈ Mn (C) y 1 ≤ p < ∞. w(A) = m´x{ | Ax. .m (C) el producto de Hadamard (o Schur) de A. para todo j ∈ In . o A[k] = A[Ik ] = {aij }i. para A ∈ Mn (C). λm´ (A) = λ1 (A) = µn (A) = m´ σ (A) ın ın y λm´x (A) = λn (A) = µ1 (A) = m´x σ (A) . los valores singulares de A ∈ Mn (C). . para A ∈ Mn (C). A1/2 ∈ Mn (C)+ es la raiz cuadrada de A ∈ Mn (C)+ . µ(A) ∈ Rn es el vector decreciente de autovalores de A ∈ H(n). . para X ∈ Mn (C). C ∈ H(n) ). J ⊆ In con |J| = k. |A| = (A∗ A)1/2 . . QR es la factorizaci´n A = QR con Q ∈ U(n) y R ∈ T S(n) tal que Rjj ≥ 0. V ∈ U(n). a a Cap´ ıtulo 3 B ≤ C ⇐⇒ B x . a A ◦ B = aij bij   N (x)=1 ¡ i∈In j∈Im ∈ Mn. tal que A = U ∗ BU . λn (A) ) los n autovalores (con multiplicidad) de A ∈ Mn (C). o AS = PS APS   S ∈ L(S) . Cap´ ıtulo 2 λ(A) ∈ Rn es el vector creciente de autovalores de A ∈ H(n). o x y = xy ∗ = (xi yj ) i∈In ∈ Mn. o A = W Σ(A)V ∗ es una descomposici´n en valores singulares de A ∈ Mn (C) si W. n € = |aij |2 = tr(A∗ A). LA y RB : Mn (C) → Mn (C) dadas por LA (X) = AX y RB (X) = XB . PS ∈ Mn (C) es la proyecci´n ortogonal sobre un subespacio S ⊆ Cn .

f (x) = (f (x1 ). . e . . .NOTACIONES Y ABREVIATURAS 286 4 ˜ A= 0 A 5 4 A∗ 0 0 −Σ(A) M(A. gN : Cn → R+ dada por gN (x) = N (diag (x) ) para N una NUI en Mn (C) y x ∈ Cn . . Pσ ∈ U(n) la matriz de permutaci´n dada por Pσ x = xσ . a U (A) = {U AU ∗ : U ∈ U(n)} = {B ∈ H(n) : µ(B) = µ(A)}. . 1 = x x A x n € xi . |xn |). . o NDUI : norma d´bilmente unitariamente invariante. y para A ∈ Mn (C)+ y x . . para x. . 0. y ∈ Cn . la c´psula convexa de C. j ∈ Im . 0 . DS (n) = {A ∈ Mn (C) : A xσ = (xσ(1) . o e + ∗ x log w Cap´ ıtulo 5 Pk (n) = {P ∈ H(n) : P 2 = P y rk(P ) = k}. . con x. CP (A) = Pi APi el pinching de A por el sistema de proyectores P = {P1 .k (C) : U ∗ U = Ik }. . . x y) si y ∈ Rn submayoriza (supramayoriza) a x ∈ Rn . xσ(n) ). . 0) . R(D) ⊆ S} para A ∈ Mn (C)+ . P(A. y si xi ≥ yi para todo i ∈ In . . Cap´ ıtulo 4 x↓ y x↑ los reordenados de x ∈ Rn en forma decreciente y creciente. I denota un intervalo en R. los proyectores ortogonales de rango k. w j=1 n y (resp. S) el shorted de A ∈ Mn (C)+ a un subespacio S ⊆ Cn . S) = {Q ∈ Mn (C) : Q2 = Q. tr x = x. Uk (n) = {U ∈ Mn. B ∈ Mn (C). λ ∈ Rm y λ o i=1 conv [C] = n € m k=1 (1. bk ∈ C. y ∈ Rn . . . o UP (n) = {Pσ : σ ∈ Sn } ⊆ U (n). o e A B si µ(A) r € µ(B). B si Aij ≥ Bij para todo par i ∈ In . para A. w y si y ∈ R mayoriza a x ∈ Rn . tr Fi (A) = 1 y tr Ci (A) = 1 para todo i ∈ In }. Pr } ⊆ H(n). y > 0). y A ¨ Ax : x ∈ ker A⊥ x = 1 el m´dulo m´ o ınimo de A ∈ Mn (C). . para x. el espacio de isometr´ de Ck en Cn . para x ∈ Cn . para x ∈ Rn . B ∈ Mn. . ıas NUI : norma unitariamente invariante. para una funci´n f : I → R. λk bk : m ∈ N. y ∈ Rn . S) = m´x M(A. con A. para k ∈ In . . |x| = (|x1 |. para σ ∈ Sn y x ∈ Cn . f (xn ) ) ∈ Rn . fgs : funci´n gauge sim´trica. Σ (A.m (R). la ´rbita unitaria de A ∈ H(n). B ∈ H(n). A ≤* B si BA∗ = AA∗ y B ∗ A = A∗ A (orden ∗). AQ = Q∗ A y R(Q) = S} para A ∈ Mn (C)+ . o x log y log-mayorizaci´n (con productos). para A. . S) = {D ∈ Mn (C)+ : D ≤ A y ≤ ∼ = Σ(A) 0 5 ∈ H(2n) para A ∈ Mn (C). o y log-mayorizaci´n d´bil. y ∈ R+ n (x. y un vector x ∈ In . © = Ax. CP (A) = P AP + (I − P )A(I − P ) el pinching de A ∈ Mn (C) por P ∈ Pk (n). para σ ∈ Sn y x ∈ Cn . . a A† la seudoinversa de Moore-Penrose de A ∈ Mn (C). γ(A) = m´ ın x.

j ∈ Ik } ∼ {Eij ∈ Mn. . © := sup |f (t) − g(t)| : t ∈ I .σ(j) = Λn A. o ∩OP : funci´n c´ncava de operadores.n }. . e∧ = eα = eα1 ∧ eα2 ∧ · · · ∧ eαk ∈ Λk Hn . . para π ∈ Sn . α2 . Hn ) dado xk . . U S  V (t) = tj−1 i  i.k (C) : i ∈ In . . . .n .NOTACIONES Y ABREVIATURAS 287 Cap´ ıtulo 6 HI (n) = A ∈ H(n) : σ (A) ⊆ I eA = exp(A) = f −g I. A⊗B =T . la proyecci´n ortogonal de o 1 k! Hn sobre Λk Hn . . .n = α = (α1 . tn−1 1 tn−1 2 . σ∈ Sn € j=1 aj. y . x ⊗ y = xy T ∈ Hn ⊗ Hk es el tensor elemental. k-potencia alternada de A.. π∈ Sk x1 ∧ · · · ∧ xk = Pn (x1 ⊗ . . . el Vandermonde de t = (t1 . la exponencial de A ∈ Mn (C).σ(j) ∈ C . a m=0 ¨ . ∞ ∞ € Am m! ¨ © . la BON de Hn ⊗ Hk . . α √ ∧ Ek. . ı A: xk ¨ x1 ⊗ · · · ⊗ xk (u1 . .. v ∈ Hk .. f • γ(t) = f γ(t) es la composici´n de una curva γ y el c´lculo funcional por f . f (A) : el c´lculo funcional de A ∈ HI (n) por f : I → R. S R xk xk an1 B . a1n B T . xk ) = F (xπ(1) . la permanente de A. ⊗ xk ) = k ¨ € π∈ Sk sgn(π) xπ(1) ⊗ · · · ⊗ xπ(k) . U ∈ Mnk (C). En. P T T T =T T R σ∈ Sn j=1 1 1 . Qk. A ⊗ B(x ⊗ y) = Ax ⊗ By . el producto de Kroneker de A ∈ L(Hn ) y B ∈ L(Hk ). © Λk A ∈ L(Λk Hn .. . con A ∈ L(Hn ) y B ∈ L(Hk ). . la BON de Λk Hn . uk ) = ∈ U( 1 k! (n) Pπ xk € Hm → xk i=1 ui . o o ∪OP : funci´n convexa de operadores. el producto tensorial de Hn por s´ mismo k veces. f [1] (x. o Dgx0 ∈ Mmn (C) es la derivada o diferencial de g : U ⊆ Rn → Rm (U abierto) en x0 ∈ U . v) = u. o o   ¡ Cap´ ıtulo 7 Hn = Cn con su producto interno.. y ∈ Hk . para toda xk Λk Hn = Pn = k F ∈ Hn π ∈ Sk . · · · .. el k tensor alternado. αk ) ∈ Ik : 1 ≤ α1 < α2 < · · · < αk ≤ n n α = In \ α ∈ Qn−k. xi . x ∈ Hn . sgn(π) .. el complemento de un α ∈ Qk..n . tn−1 n Q U U U n U ∈ Mn (C). . U . para A ∈ Mn (C). tn .k = {ei (n) ⊗ ej (k) : i ∈ In .n . . α det A = per A = € (n) ∧ (n) (n) (n) ∼ {J ⊆ In : |J| = k}. o a MOP : funci´n mon´tona de operadores. Hn . los k-tensores elementales. u ∈ Hn . · · · (n) : Pπ F = sgn(π) F xk © A (x1 ⊗ · · · ⊗ xk ) = Ax1 ⊗ · · · ⊗ Axk . y) es la primera diferencia dividida de una funci´n f : I → R de clase C 1 . Hn ⊗ Hk = { funcionales F : Hn × Hk → C bilineales } el producto tensorial. Λk Hm ) dado por Λk A (x1 ∧ · · · ∧ xk ) = Ax1 ∧ · · · ∧ Axk . j ∈ Ik }. para α ∈ Qk. el espacio k-alternado sobre Hn . dado por x ⊗ y(u. tn ) ∈ C .. 1 t1 t2 . .n = { k! e∧ : α ∈ Qk. P Q a11 B . · · · . ann B k Hn es el espacio k-tensorial sobre Hn . . · · · .. sgn(σ) n  n  aj. xπ(k) ). . . la potencia k-tensorial de A.. dada por (n) por Pπ (F ) (x1 . x v.j∈In .

NOTACIONES Y ABREVIATURAS 288 Cap´ ıtulo 8 C(A) = m´x Ci (A) a i ∈ Im N (B)=1 2 y F (A) = m´x Fi (A) a i ∈ In KN (A) = m´x N (A ◦ B) = m´ k : N (A ◦ B) ≤ k N (B) . ¨ 2 .m (R) : A > 0}. para J ⊆ In × In . ∈ U(n). donde γ manda α al principio de α ∪ ω. . ... A#B = A# 1 B = A1/2 (A−1/2 BA−1/2 )1/2 A1/2 . A Cap´ ıtulo 9 Re A = C A+A∗ 2 ∈ H(n) e Im A = A−A∗ 2i . para α ∈ [0. para todo (i. con N norma en Mn (C). X. 1. a ın KA = K · sp (A). j) ∈ J =⇒ (j.m = {A ∈ Mn. A T . el complemento de Schur de A ∈ Mn (C). = sgn(γ). D si C m ≤ Dm . llamaremos τ ε = (τi εi )i∈N . para A ∈ Mn (C). matrices de entradas positivas. (−1) sgn i=1   ¡ k(k+1) 2 . j) ∈ J . x : x ∈ Cn . S R . . B = tr(AB ∗ ). . con C. e Cap´ ıtulo 11 MPn. D ∈ Mn (C)+ . para todo m ∈ N. .n . 0}. dada por ϕ∗ (A) = ϕ(A∗ ). A . © para A ∈ Mn (C). . B ∈ Mn (C)+ . S(A. U ∈ Mkn (C). B ∈ Mn (C) . f : Mn (C) → R es clase T si es continua. . i) ∈ J para todo i ∈ In . −1. Cap´ ıtulo 12 A/[α|β] = A(α|β) − A(α|β] · A[α|β]−1 · A[α|β) ∈ Mn−k (C).. A(k) = Ek ⊗ A = T . B ∈ H(n). A#α B = A1/2 (A−1/2 BA−1/2 )α A1/2 . para A ∈ Mn (C). 2 Cap´ ıtulo 10 W (A) = { Ax.m = {A ∈ Mn. −1. para A ∈ Mn. para un α ∈ Qk. q) ∈ I2 : p = q}. A. ϕB : Mn (C) → C ¨ SJ = C ∈ Mn (C) : cij = 0 J ⊆ In × In cumple (P) si (i. . e P Q A . . con B ∈ Mn (C). matrices de entradas estrictamente positivas.   ¡1 p A ∨ B = lim Ap + B p p→∞ = m´ ın ¨ C ∈ Mn (C)+ : A C y B C © . o Si τ es otra sucesi´n de signatura. o . ∀ m.. Cap´ ıtulo 13 ε = (εi )i∈N ∈ {−1. Y . dada por ϕB (A) = A. para A. 1]. B ∈ Mn (C)+ . 1}N es una sucesi´n de signatura.m (R) : A Vn = {(p. sgn(α) = α α∪ω k  (−1)αi −i = (−1)r con r = tr α − n−1 Jn = diag 1. A ∈ S.m (C). B) = AB + BA ∈ H(n) es el producto simetrizado de A. x = 1 } es el rango num´rico de A ∈ Mn (C). / © ϕ∗ la adjunta de una funcional ϕ : S ⊆ Mn (C) → C. U . n FC : matriz fuertemente convexa. MEPn. f (XY ) = f (Y X) y |f (X 2m )| ≤ f ([XX ∗ ]m ). i) ∈ J y tambi´n (i.

j ∈In ¢ £ ∈ Mn (R) . A es TP si es totalmente positiva. . t A B si Λk A Λk B. o [x1 .NOTACIONES Y ABREVIATURAS 289 A es ε-RS si es de signo regular con signatura ε. . o i∈ Ik−1 LU -factorizaci´n: A = LU con L triangular inferior y U triangular superior. . o U L-factorizaci´n: A = U L con L triangular inferior y U triangular superior. . a o V− (x) m´ la ınima variaci´ de signos de x ∈ Rn . xm ] = X ∈ Mnm (C) si Ci (X) = xi ∈ Cn para cada i ∈ Im . i. matriz de Hurwitz p(z) = d0 z n + d1 z n−1 + . i. det A[α|β] ≥ det B[α|β] para todo k ∈ In y α.e. A es OSC si es TP y una cierta potencia Ap es ETP. β ∈ Qk.n .j ∈In ∈ Mn (R). A es ε-ERS si es estrictamente de signo regular con signatura ε. + dn . o A es ETP si es estrictamente totalmente positiva. . o sea que A es ε-ERS respecto de la sucesi´n ε ≡ 1. on Gp = Hp = d2j−i ¢ exp − p (i − j)2 £ i. o sea que A es ε-RS respecto de la sucesi´n ε ≡ 1.n . es la dispersi´n de α ∈ Qk. . . o d(α) = αk − α1 − (k − 1) = € αi+1 − αi − 1 . V+ (x) la m´xima variaci´n de signos de x ∈ Rn .