You are on page 1of 116

Tesis doctoral Condicionamiento y alta precisi´n o en problemas espectrales estructurados

Autor: Mar´ Jos´ Pel´ez Montalvo ıa e a Director: Julio Moro Carre˜o n

Condicionamiento y alta precisi´n o en problemas espectrales estructurados

Memoria que se presenta para optar al t´ ıtulo de Doctor en Matem´ticas a por la Universidad Carlos III de Madrid

Autor: Mar´ Jos´ Pel´ez Montalvo ıa e a Director: Julio Moro Carre˜o n

Programa de doctorado en Ingenier´ Matem´tica ıa a Departamento de Matem´ticas a Escuela Polit´cnica Superior e Universidad Carlos III de Madrid Marzo de 2007

A mis padres y hermanos, en particular Fran y Roc´ ıo.

o n a en especial a Alberto Portal por su ayuda siempre presente en temas computacionales y a Luis Lafuente que. quiero agradecer a Julio la paciencia y la precisi´n que me ha ense˜ado en todo momento. Y. a e me ha dado un ba˜o de realidad y una amistad dif´ de olvidar. unas sinceras gracias por todo su apoyo y sus a conversaciones siempre pr´cticas. quien ha sabido comprenderme y ponerse en mi piel en todo momento. Primero. a mi hermano Francisco. A Froil´n y Juan Manuel. un paseo de conocimiento. a Pilar. a Mercedes. aparte de las magn´ ıficas discusiones matem´ticas mantenidas con ´l. su madurez cient´ o n ıfica que me ha transmitido. n ıcil Y por ultimo debo agradecer a todas esas personas que siempre han confiado en m´ a ´ ı: Juan Antonio. aprenn dizaje y simbiosis de mucha gente. a mis compa˜eros de doctorado por hacer m´s ameno mi camino.Agradecimientos Un trabajo como es una tesis de 4 a˜os es. A todos: gracias. sin duda. a A Volker Merhmann y Daniel Kressner les agradezco su hospitalidad en mis estancias en Alemania y Suecia y mi m´s sincera admiraci´n por el fervor que me han mostrado siempre a o en su visi´n de la ciencia1 . que siempre me dijo que mirase hacia delante y a mi madre. por supuesto. and my most sincere admiration for the passion they have always shown me in their vision of science. igual que un ordenador trabaja con precisi´n finita y esto conlleva en ocasiones errores de redondeo. a todos los dem´s que no puedo nombrar en estas l´ a ıneas porque. n que siempre ha hecho anteponer la raz´n a la derrota. e Mar´ ıa Madrid. . quien siempre me ha escuchado. por sus consejos y esos interesantes partidos de tenis que hemos compartido. quien me ha dado paz o y fuerzas en momentos dif´ ıciles de esta tesis. a Juan Pablo. 1 To Volker Merhmann and Daniel Kressner go my thanks for their hospitality during my visits to Germany and Sweden. as´ como sus ´nimos en los momentos no productivos y dif´ ı a ıciles que se tienen en toda tesis. quien me ha ense˜ado en todo momento a ver la cara positiva. Marzo del 2007. a Laura. estos agradecimientos o tambi´n son finitos y con errores.

5 .Este trabajo ha sido posible gracias a los proyectos del Ministerio de Educaci´n y Ciencia o BFM 2000-0008. BFM 2003-00223 y MTM 2006-05361.

mientras el inmenso oc´ano de la verdad se extend´ a e ıa. pero a los m´ es como si hubiese sido un muchacho e ıos que juega en la orilla del mar y se divierte de tanto en tanto encontrando un guijarro m´s a pulido o una concha m´s hermosa. Isaac Newton .Si he conseguido ver m´s lejos. inexplorado. es porque me he aupado en hombros de gigantes. frente a m´ ı. No se a lo que parecer´ a los ojos del mundo.

. . . . . . . . Preliminares . .1.2. . . . . . 1. . . . . N´mero de condici´n de H¨lder estructurado para autovalores m´ltiples u o o u 2. . . . .6. . . .2. . . . . . . . . . . . . . 3. . .2. . . . . . . . . . . .3. . . . Perturbaciones estructuradas gen´ricas: el caso matricial . .2. . . . . . Polinomios matriciales . . . . . . .1. . . . . . . . . . . . . . . . . . . e 2. . . . . . 2. . Algoritmos espectrales de alta precisi´n relativa para matrices sim´tricas o e estructuradas 3. o 2. . . . . . . . . . . . . . . . . . . . . antisim´tricas y herm´ e e ıticas . . . . . . Conclusiones y trabajos futuros . . o 1. . . . . . . . . . . . . . . . . .4. .3. . . e e 2. . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3. . .2.1. . o e 3. . u o ıa 2. . . . . .1. . . . . . . . . Haces de matrices . .1.2.2. . . . . . Perturbaciones estructuradas completamente no gen´ricas: el caso matricial e 2. . . .3. . . . Estructuras lineales completamente no gen´ricas . . . . . . . . .2.4. . . . . . Matrices TSC . . . . . 2. . . . . . Matrices DSTU .3. . . . . . . . . . . .1. Factorizaci´n LDLT por bloques de matrices sim´tricas . . . . . .3. .1. . . . . . . .3.2. . 7 . . . . . . . . . . . .2. . . . . Matrices de Toeplitz y Hankel . . . . . . . . . . . e 2. . . . . . . . . .3. . . o 9 9 11 13 14 18 19 19 23 27 27 27 29 30 33 36 39 39 49 52 54 56 60 74 75 75 81 87 87 96 . . . 2. . . e 2. . 3. . . . . . Matrices sim´tricas.2. .´ Indice general 1.4. . . . Perturbaciones estructuradas gen´ricas: problemas generalizados . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Introducci´n o 1. . . . . . . . . . . . . . . . . . . . . . . . . . . .1. . Estructuras y antiestructuras lineales . .5. . . . . . . . Matrices reales . .3. . . o o e 3. Notaci´n . . . . . . . . . . . . . . . . .5. . . . Preliminares . . . . N´meros de condici´n estructurados v´ el diagrama de Newton . . . . . . . N´ meros de condici´n espectrales estructurados u o 2. . . . . . . . . . Matrices J–sim´tricas y J–antisim´tricas .2. Algoritmos de alta precisi´n relativa o 1. . . . . . . . . . . . . 2.2. Introducci´n . 3. . . . . . . . . . . . . .2. . . . 2. . . 2. . . . Factorizaci´n con alta precisi´n para matrices sim´tricas DSTU y TSC . . . . . . . . . Algoritmos estructurados . . . 2.4. . . Algoritmos estructurados y precisi´n . 2. . N´meros de condici´n estructurados u o 1. . . . . . . . Estructuras lineales . . . .2. . . . . . . . . . .4. . . .2. . . . . . . . . .

. .6. . . . . . . . . . . . . . . . . . . Paso de LDLT a RRD: An´lisis de errores a 3. . . . 100 104 105 107 109 8 . .3.5. . . . . . . . . . . . . Conclusiones y trabajos futuros . . . . . . . . . . . . . . . Matrices TSC . . . . 3. e 3. . . . . . . . . . . . . . . .4. . . 3. .1. . . . . . . . . . . . . . . .5. . . Matrices DSTU . . . . . .5. . . . . . . . . . . Experimentos num´ricos . . . . . . . . . . . . . . . .2. . . . . . . .

cuando n es grande. ampliamente testados y que a a resuelven de manera satisfactoria gran parte de los problemas matriciales que se presentan en la pr´ctica. Sin embargo. o puede que las repeticiones de elementos sigan otros patrones diferentes (matrices circulantes.. por relaciones de igualdad entre los elementos de la matriz: relaciones de simetr´ o antisimetr´ con respecto a la diagonal o a la antidiagonal principal ıa ıa (es el caso de las matrices sim´tricas. que llamaremos convencionales para a distinguirlos de los algoritmos estructurados. idealmente sin a restricci´n alguna. estos algoritmos de car´cter general. Algoritmos estructurados ´ En los inicios del Algebra Lineal Num´rica. relaciones de e e e igualdad a lo largo de diagonales o de antidigonales (matrices Toeplitz o Hankel). Puede venir dada. debido a la discretizaci´n de la que surge el problema lineal que se debe o resolver. incorporando todo tipo de mejoras y modific´ndose en el sentido de hacerlos a m´s r´pidos. La estructura de una clase de matrices puede manifestarse de maneras muy distintas. puede ser necesario sacarle partido a la estructura a efectos de reducir el coste computacional del algoritmo empleado. estos algoritmos se han ido perfeccionando n gradualmente. Los algoritmos m´s c´lebres del c´lculo matricial. m´s robustos y m´s precisos. a Sin embargo..Cap´ ıtulo 1 Introducci´n o 1.. sino que suelen tener estructuras especiales. 9 . las antisim´tricas o las persim´tricas). En el curso de los a˜os. no son siempre la mejor opci´n a la hora de o resolver un problema: con frecuencia. bien como consecuencia de las propiedades f´ ısicas subyacentes al modelo (simetr´ invariancias. como eliminaci´n o a e a o gaussiana o el algoritmo QR se desarrollaron con la idea de aplicarlos a matrices completamente arbitrarias. o. por ejemplo.) ıas. los algoritmos se dise˜aron e n a fin de poder ejecutarse sobre la clase m´s amplia posible de matrices. o cuando hay que resolver muchos problemas o similares de manera sucesiva. como es natural. Si la dimensi´n n del problema no es demasiado grande y se dispone de un buen o algoritmo convencional para resolver el problema. las matrices u operadores lineales que aparecen en las aplicaciones no son arbitrarios. por ejemplo.1. ignorar la estructura puede ser una buena opci´n. Gracias a ello disponemos a fecha de hoy de una a a a a panoplia de algoritmos de car´cter general r´pidos y fiables.

que son. e o De manera muy laxa. relacionado con el coste computacional del algoritmo y el almacenamiento de los datos: si la matriz depende de menos par´metros.). hay un primer incentivo a la hora de buscar algoritmos estructurados. llamaremos algoritmo estructurado a cualquier algoritmo ideado de manera espec´ ıfica para aplicarse a una clase concreta de matrices estructuradas. como es el caso de las ´lgebras a a de Lie o de Jordan asociadas a productos escalares arbitrarios: un ejemplo paradigm´tico a son las matrices hamiltonianas y las antihamiltonianas. una de las ´reas de investigaci´n m´s activas del Algebra Lineal e a o a Num´rica en los ultimos a˜os. respectivamente. es distinto seg´n que la matriz sea sim´trica o que no lo sea. O puede venir impuesta de modo m´s sutil. como en el caso de sumas (Toeplitz m´s Hankel. son demasiado costosos y deben buscarse algoritmos m´s baratos desde el punto de vista computacional.). llamaremos huecas).. de Pick. o inversas de matrices con a estructura dada. diremos que un conjunto de matrices n × n es una clase estructurada de matrices si existe un n´mero t < n2 tal que cualquier matriz del conjunto se puede describir u como funci´n de t par´metros o menos. Este tipo de reducci´n es la que con u o frecuencia lleva a cabo cualquier usuario de Matlab.. a falta de mejor traducci´n. etc. sim´trica) del algoritmo. o aquellas con gran o n´mero de elementos nulos en posiciones m´s o menos prefijadas (las matrices sparse en u a la terminolog´ inglesa. aunque esta elecci´n sea transparente para el usuario. el hecho de que las matrices dependan o a de un n´mero peque˜o de par´metros abre la posibilidad de dise˜ar algoritmos m´s r´pidos u n a n a a que los convencionales. El auge de ıa o ´ los m´todos de Krylov. e ´ n los algoritmos convencionales. se debe a que para matrices de dimensiones muy grandes. Jn = −In 0 Otras clases de matrices estructuradas aparecen de manera natural en problemas de interpolaci´n y aproximaci´n de funciones (matrices de Cauchy. Tambi´n son relevantes en la pr´ctica las estructuras e a dadas por la distribuci´n de elementos nulos y no nulos en la matriz. o para resolver un sistema lineal. Por tanto. Obviamente. Para matrices a huecas. aunque no sea consciente de ello: el algoritmo que Matlab emplea para calcular los autovalores de una matriz. emplea la versi´n estructurada (en o e o este caso. las a necesidades de almacenamiento se reducen y es probable que se pueda reducir tambi´n el e n´mero de operaciones que debe ejecutar el algoritmo. Cuando u e Matlab detecta que la matriz en cuesti´n es sim´trica. de Vandero o monde polin´micas. por ejemplo). Uno de los ejemplos m´s familiares es el de las matrices sim´tricas: a e el hecho de que una matriz sim´trica depende de aproximadamente la mitad de par´metros e a que una matriz no sim´trica permite reducir el coste de eliminaci´n gaussiana a la mitad e o en su versi´n sim´trica. y que explote de alguna manera las propiedades especiales de dicha clase.. t´ ıpicamente de orden n3 . bien para reducir el . productos.). un m´todo de Krylov con un buen precondicionador es una alternativa mucho m´s e a r´pida que los m´todos convencionales. el ´lgebra a de Lie y el ´lgebra de Jordan correspondientes al producto escalar indefinido asociado a la a matriz 0 In .. el algoritmo de Cholesky.´ INTRODUCCION 10 centrosim´tricas. a e En general. La estructura puede venir dada de forma impl´ e ıcita.. de Vandermonde. y permite reducir a bastante menos de o e la mitad el coste del algoritmo QR de autovalores... o al discretizar ecuaciones diferenciales (matrices banda: o tridiagonales. que.. pentadiagonales.

Algoritmos estructurados y precisi´n o Adem´s de obtener algoritmos m´s r´pidos. si λ es autovalor. En primer lugar. por ejemplo. o los prop´sitos que rigen su investigaci´n. El concepto de desplazamiento ha dado lugar a todo un ´rea de investigaci´n. Aunque hay algoritmos r´pidos anteriores para problemas estructurados. las t´cnicas y la terminolog´ e ıa que emplean. entonces e tambi´n lo son −λ. o 1. Si para calcular los autovalores de la matriz aplicamos el e 1 M´s en concreto. sino tambi´n productos o e −1 −1 −1 T1 T2 . 53] en conexi´n con las matrices de Toeplitz. . y extendido posteriormente a clases mucho m´s o a amplias de matrices y a diversas aplicaciones pr´cticas. esto es.. para emplear algoritmos estructurados. verse en la p´gina web a http://www. que enumera los integrantes de la “Structured matrix community”. quiz´ uno de los cono a ceptos m´s exitosos a la hora de sistematizar el estudio de una amplia clase de problemas a matriciales estructurados sea el de desplazamiento. Sin embargo. (T1 T2 ) T3 .edu/ olshevsky/community. Sin embargo. Muestra de o o ello es.. el coste es O(rn2 ). como el de a Bj¨rck-Pereyra para resolver sistemas lineales de Vandermonde [7]. siendo r el rango de desplazamiento de la matriz. o con otros prop´sitos relacionados con la precisi´n. de matrices Toeplitz Ti . no s´lo Toeplitz. 33] para m´s detalles y para una panor´mica de este activo campo de e a a investigaci´n). dedicada a o a obtener algoritmos r´pidos para clases de matrices con desplazamiento de rango finito a (v´anse [40. que explicaremos o o a continuaci´n. a . o Con una definici´n tan vaga no es f´cil hacer una historia de los algoritmos matrio a ciales estructurados. corriente que llega hasta nuestros d´ Como puede a ıas. Por dar una idea de la amplitud de a problemas que se abarcan. son muy diversos.´ INTRODUCCION 11 coste computacional. Es o a precisamente a estos aspectos de precisi´n a los que se dedica fundamentalmente la preo sente memoria.2. introducido primeramente en [36.math. 54. Los autovalores de una matriz hamiltoniana real. en parte porque los analistas num´ricos han tenido siempre en cuenta e la posibilidad de aprovechar la estructura para acelerar o simplificar sus algoritmos. muchos investigadores dedican sus esfuerzos a d´ de hoy al dise˜o y al an´lisis de algoritmos estructurados para ıa n a resolver todo tipo de problemas matriciales.php. la diversidad de enfoques que se puede apreciar en los cap´ ıtulos del libro [33]. inversas T u otras combinaciones T1 −T2 T3 T4 .uconn. por ejemplo. este tipo de t´cnicas permite hallar algoritmos de orden O(n2 ) e para resolver sistemas lineales1 cuyas matrices son. relacionados a a a con la precisi´n en el c´lculo de las soluciones. son sim´tricos con respecto a los ejes real y complejo. no fue hasta los a˜os 80 que esos esfuerzos se convirtieron en una corriente ren conocible dentro del c´lculo matricial. hay otros incentivos de peso. algunas estructuras imponen fuertes restricciones sobre la naturaleza de las soluciones. Esta es otra dificultad a˜adida a la hora de trazar un panorama que recoja todas n las aportaciones de los diferentes enfoques. λ y −λ.

un algoritmo de Krylov o cualquier otro algoritmo que ignore la estructura e hamiltoniana. A la n matriz E se le llama matriz de errores regresivos. Esto dificulta. como la de matrices sim´tricas reales o la de las antihamiltonianas e (v´ase.´ INTRODUCCION 12 m´todo QR. a por as´ decirlo.1) (esto es. por ejemplo en norma. no siempre es f´cil desarrollar m´todos que satisfagan las tres a e condiciones. Sin embargo. algo que resulta crucial tanto para calcular el radio de estabilidad de una matriz [47] como para calcular la norma H∞ de sistemas lineales invariantes en el tiempo [9]. En resumen. Valga como ejemplo de ello el caso hamiltoniano: la historia de los algoritmos estructurados para el problema hamiltoniano se abre con el . donde la matriz E acumula.4–2. y o no ser m´s costoso computacionalmente que un m´todo convencional. e Esta idea puede precisarse en lenguaje matem´tico por medio del an´lisis regresivo a a de errores. suele ocurrir que las respuestas obtenidas de un algoritmo que preserva la estructura contienen una informaci´n cualitativa m´s acorde con la naturaleza o a del sistema f´ ısico subyacente que las soluciones calculadas por m´todos convencionales. los autovalores de A calculados por el algoritmo son los autovalores exactos de una matriz ligeramente perturbada A+E (1. un algoritmo estructurado deber´ cumplir tres condiciones: ıa ser regresivamente estable en sentido fuerte. Si. la simetr´ de los autovalores ıa se preserva. la simetr´ en los autovalores se conservar´. a e Para algunas clases. adem´s. Sin embargo. aplicado al ejemplo de las matrices hamiltonianas reales. [4. Se dice que un algoritmo de autovalores es regresivamente estable si. En tal a e caso. el identificar los autovalores imaginarios puros de una matriz hamiltoniana. el error regresivo E deja de ser hamiltoniano y. el algoritmo en cuesti´n preserva a a o la estructura hamiltoniana. Por el contrario. la matriz E es peque˜a. todos los errores debidos al redondeo en las operaciones aritm´ticas que ı e requiere el proceso de c´lculo de autovalores. comparada con la matriz A). para cada matriz A. la simetr´ se pierde. si en lugar de un algoritmo convencional se emplea un algoritmo que respete la estructura hamiltoniana. lo haremos. el error regresivo E ser´ tambi´n hamiltoniano y real. existen m´todos de autovalores que cumplen los tres e e requisitos. como antes. §2. especialmente la primera.5]). por ejemplo. ıa Idealmente. e como consecuencia. Si para calcular los autovalores de una matriz hamiltoniana real H empleamos un m´todo regresivamente estable (y pr´cticamente e a todos los algoritmos convencionales lo son). e ıa a si el m´todo no preserva la estructura. ser capaz de calcular los autovalores de cualquier matriz que pertenezca a la clase estructurada en cuesti´n. Por simplicidad. se dice que el m´todo es regresivamente estable en sentido fuerte [12] y. por ejemplo. los autovalores calculados por dicho m´todo e ser´n los autovalores exactos de una matriz perturbada H +E. al ser la suma e H + E tambi´n hamiltoniana. los autovalores calculados perder´n esta simetr´ debido a la influencia de los a ıa errores de redondeo.

Ello se debe a que si el m´todo es regresivamente a e estable en sentido fuerte. [5] evitan esa p´rdida de precisi´n. aunque los algoritmos ya existentes son capaces de resolver de manera satisfactoria gran parte de los problemas que se plantean en la pr´ctica. En primer lugar.1) debidos al redondeo se restringe a la clase de matrices estructuradas en cuesti´n. y el caso simpl´ctico [55]. Este tipo de resultados fue extendido por Karow. En [42. a fin u o de detectar aquellos casos en que un algoritmo estructurado pueda ser significativamente m´s preciso que un algoritmo convencional. tanto u u o .´ INTRODUCCION 13 trabajo de Paige y van Loan [75] en los a˜os 80. s´lo se aplican a o al caso en que ninguno de los autovalores de la matriz es imaginario puro. Por tanto. Varios autores. Rump. Esto conlleva calcular los autovalores con la mitad de la precisi´n con la que lo har´ un o ıa algoritmo que trabaje directamente con la matriz. por su parte. o si es que los autovalores son mucho m´s sensibles a perturbaciones no estructuradas que a a las estructuradas. a Rump [81.1. Esto abre la posibilidad de que un m´todo que e preserve la estructura alcance una precisi´n mucho mayor que un algoritmo convencional. por lo que preservan la estructura de la matriz al cuadrado. aunque preservando igualmente la estructura de la matriz al e o cuadrado. sin estructurar. e el de matrices con ciertas distribuciones de ceros [73]. Al ser menor el o conjunto de perturbaciones admisibles. Posteriormente. Dado que la sensibilidad de los autovalores de una matriz se mide a trav´s de su n´mero de condici´n. algoritmos m´s recientes. pero siempre para autoo valores simples. como el propuesto en [6]. sea m´s preciso que uno convencional. no la de la matriz original. en la mayor parte de los casos investigados. Desde entonces se han propuesto diversos n m´todos. u 1. e Nuestra intenci´n en el cap´ o ıtulo 2 de esta memoria es explorar el caso de autovalores m´ltiples. ninguno de ellos totalmente satisfactorio: los primeros algoritmos. trabajan de forma impl´ ıcita con la matriz al cuadrado. el conjunto de posibles errores regresivos E en (1. es de la mayor importancia el poder comparar. Los unicos casos en los que se ´ sabe que puede haber una diferencia significativa son el caso antisim´trico complejo [82]. el peor efecto posible sobre la precisi´n de los autoo valores a causa de errores estructurados puede ser mucho menor que el peor efecto posible debido a errores arbitrarios.2. 82]. como Higham y Higham [42]. tanto lineales como no lineales. 91]. Finalmente. hace en [81. o Tisseur [91] se han ocupado de esta cuesti´n. como el squaree reduced method de van Loan [65]. adem´s de preservar propiedades cualitativas coo a mo las simetr´ es de esperar que un algoritmo regresivamente estable en sentido fuerte ıas. para e u o las distintas estructuras. se obtienen expresiones expl´ ıcitas del n´mero u de condici´n estructurado de un autovalor simple cuando la clase estructurada de matrio ces es un subespacio lineal. Benner et al. la cuesti´n de hallar un algoritmo “ideal” a o para el problema hamiltoniano de autovalores sigue a´n abierta. Kressner y Tisseur en [55] a estructuras no lineales bajo ciertas condiciones de regularidad. 82] un estudio exhaustivo del n´mero de condici´n estructurau o do de autovalores simples y del pseudoespectro para diversas estructuras. Sorprendentemente. por ejemplo. el n´mero de condici´n estructurado y el no estructurado. N´ meros de condici´n estructurados u o Otra observaci´n importante es que. definiremos con todo detalle los n´meros de condici´n. el condicionamiento estructurado difiere poco del no estructurado.

Esto no garantiza que todos los autovalores o de la matriz se calculen con un m´ ınimo de cifras significativas correctas: la anterior cota absoluta se traduce en la cota relativa |λm´x | |λ − λ| a ≤η |λ| |λ| donde λm´x es el autovalor de m´dulo m´ximo de la matriz. cuya matriz tiene autovalores de tama˜os muy dispares y en los que. u n de hecho. o |λ − λ| ≤ η A .2) Tambi´n trataremos. E es el error regresivo como en (1. esto es.´ INTRODUCCION 14 estructurados como no estructurados. o 1. Para ello nos basaremos en la definici´n de n´mero de condici´n propuesta o u o en [72. donde λ es un autovalor exacto y λ es la aproximaci´n de λ que nos proporciona el algoritmo.2. entonces lo m´s que se puede asegurar e a para los autovalores calculados es que se obtienen con alta precisi´n absoluta. aunque muy tangencialmente. Por tanto. son los autovalores m´s peque˜os los que interesa calcular con mayor precisi´n. a n o En tales situaciones los algoritmos al uso proporcionan con frecuencia aproximaciones que no concuerdan en ninguna cifra significativa con los autovalores de la matriz e incluso difieren en ´rdenes de magnitud y/o signo con los autovalores exactos. hay en las aplicaciones numerosos ejemplos de sistemas con escalas m´ltiples. que o el error absoluto |λ − λ| verifica para una cierta cantidad η del orden de ǫ. Sin embargo. El nombre se debe a que si A es la matriz sim´trica cuyos autovalores queremos e calcular.2. los problemas polin´micos de autovae o lores en la secci´n 2. consideraremos el problema o de determinar escalares λ y vectores x = 0 tales que Ax = λBx. §4]. y que podemos englobar bajo la denominaci´n de algoritmos de alta precisi´n e o o relativa. Una vez dispongamos de un concepto de n´mero de u u condici´n estructurado. los unicos autovao a ´ a lores para los que se puede garantizar un error relativo de orden ǫ son aqu´llos de tama˜o e n similar al de λmax . Algoritmos de alta precisi´n relativa o En el ultimo cap´ ´ ıtulo de la memoria nos ocuparemos de ciertos algoritmos estructurados de autovalores que se han venido desarrollando en los ultimos veinte a˜os para matrices ´ n sim´tricas. obtendremos expresiones expl´ o ıcitas del mismo para diversas clases de matrices estructuradas.3. que ıa o describe los desarrollos asint´ticos en potencias fraccionarias que son de esperar cuando o se perturba un autovalor m´ltiple. 96]. que a su vez se sigue de la teor´ de perturbaci´n de Lidskii [64.2.1). para autovalores m´ltiples. la unidad de redondeo de la aritm´tica finita empleada por un ordenador). y suponemos que el cociente de normas E / A es del orden de una cierta cantidad ǫ (por ejemplo. (1. posiblemente defectivos u de matrices. . e incluso para algunas clases estructuradas de haces de matrices: dadas dos matrices cuadradas A y B de la misma dimensi´n.

el m´s eficiente a fecha de hoy2 para el problema a espectral tridiagonal sim´trico. 27. El algoritmo MRRR es el unico m´todo para el problema espectral tridiagonal sim´trico con coste ´ e e O(n2 ). o Para matrices densas los logros iniciales m´s importantes fueron: algoritmos para matria ces escaladas diagonalmente dominantes (matrices que reescaladas tienen diagonal principal dominante) [2]. del algoritmo de eliminaci´n Gaussiana con pivote completo. [22] establece que.´ INTRODUCCION 15 o con η = O(ǫ). y a e el problema relacionado del c´lculo de valores y vectores singulares de matrices bidiagoa nales [23. 28]. que garantizan o o cotas de error de la forma |λ − λ| ∀λ. Estos estudios proporcionan algoritmos no s´lo precisos sino muy eficientes. para matrices ac´ ıclicas (matrices tales que el grafo bipartito que representa el patr´n de ceros de la matriz es ac´ o ıclico) [25]. en ocasiones muy sofisticadas. 35].3) ≤η |λ| . por e ejemplo. para matrices definidas positivas bien condicionadas tras escalamiento diagonal sim´trico [24] y para ciertos tipos de matrices e sim´tricas indefinidas muy dif´ e ıciles de caracterizar a trav´s de su factor polar definido e positivo [95. El trabajo ıa a ıa unificador de Demmel et al. donde n es la dimensi´n de la matriz o 2 Estas dificultades han motivado que desde finales de los a˜os 80 se haya desarrollado n una intensa investigaci´n en los algoritmos de alta precisi´n relativa. En cada uno de estos trabajos pioneros se desarrollaba un algoritmo distinto. que requer´ un an´lisis de errores diferente y una teor´ de perturbaciones propia. Y bien o condicionadas. adaptao das a la estructura de la matriz y. Calcular una descomposici´n de la matriz A = XDY T con D diagonal y X. o que en la actualidad son los utilizados por defecto para el problema bidiagonal en la librer´ ıa num´rica LAPACK [1]. A fecha de hoy s´lo se conoce un o algoritmo de alta precisi´n relativa para autovalores de matrices no sim´tricas: el algoritmo o e para matrices totalmente no negativas desarrollado por Koev [57] (v´ase tambi´n Koev & e e Dopico [58]). Dicho algoritmo est´ implementado en LAPACK y alcanza e a una precisi´n absoluta similar a la del algoritmo QR. (1. dicha ıa o descomposici´n se puede calcular en dos fases: o 1. Dicha descomposici´n se calcula usando diferentes versiones. Aplicar un algoritmo de tipo Jacobi a la matriz factorizada XDY T . Los algoritmos propuestos por Dhillon y Parlett [26. 94]. o 2. que calculan con la misma precisi´n los autovalores grandes que los peque˜os. para todas las clases de matrices para las que hoy en d´ existen algoritmos de alta precisi´n relativa para calcular la DVS. En la actualidad estos algoritmos existen s´lo para ciertas clases muy particun o lares de matrices sim´tricas. esto es. as´ como para el problema relacionado de la descomposici´n e ı o en valores singulares (DVS) de matrices cualesquiera. Una historia resumida de los algoritmos de alta precisi´n relativa comienza con el o c´lculo de autovalores y autovectores de ciertas matrices tridiagonales sim´tricas [52]. son la base del algoritmo MRRR.

que para matrices sim´tricas indefinidas no o e respeta la simetr´ de la matriz. y precisi´n/estabilidad por otro) no est´n descorrelacionados. Hay que resaltar que en [22] no s´lo se unifican la teor´ y los algoritmos o o ıa previamente existentes. demostraremos que se calcula con error relativo peque˜o componente a componente. hasta esa fecha. el algoritmo de [30] no aprovecha al m´ximo la simetr´ a ıa T de la matriz. e Molera y Moro [30].3 c´mo o o se puede adaptar el algoritmo de factorizaci´n a cada una de las clases de matrices (DSTU o y TSC). Sin embargo. la secci´n 3. las diferencias para cada clase estructurada de matrices se reducen a c´mo calcular la factorizaci´n XDY T . e En el cap´ ıtulo 3 de la presente memoria demostramos que. a Las ideas de [22] fueron trasladadas al problema sim´trico de autovalores por Dopico. Aunque este tipo tan fuerte de precisi´n se n o T pierde al emplear despu´s rotaciones de Givens para llegar a XDX . y no permite en consecuencia los ahorros tanto de memoria ıa como de operaciones esperables en un problema sim´trico. convenientemente adaptada en cada o caso a las propiedades espec´ ıficas de la estructura. e definidas o indefinidas.´ INTRODUCCION 16 Dado que el algoritmo de la segunda etapa es siempre el mismo. se llega a la factorizaci´n XDX T o pasando por una factorizaci´n LDLT por bloques que. Tras discutir en la secci´n 3. se pueden calcular sus autovalores y autovectores con alta precisi´n relativa. De hecho. En particular. As´ se identific´ la colecci´n de matrices o ı o o m´s amplia.4 contiene un an´lisis de errores detallado al respecto. la precisi´n que se e o mantiene (columna a columna en norma) es suficiente para garantizar la alta precisi´n o relativa de la segunda etapa del algoritmo espectral. o a en la secci´n 3. La idea es a˜adir una tercera fase o n al esquema de [22] que permite calcular autovalores y autovectores a partir de valores y vectores singulares. ni son o a el objetivo primordial de comunidades cient´ ıficas disjuntas: por un lado. en el sentido de demostrar que para todas las matrices sim´tricas. Para ello se modifica adecuadamente el algoritmo de eliminaci´n o o gaussiana. para dos clases espec´ ıficas de matrices sim´tricas (las matrices DSTU y las TSC). por ejemplo mediante t´cnicas a e . o Antes de terminar esta introducci´n queremos hacer notar que los dos tipos de incentivo o que hemos mencionado a la hora de emplear algoritmos estructurados (rapidez/almacenamiento por un lado. para las que esto era posible. Finalmente. ni en la factorizaci´n inicial ni en el c´lculo e o o a subsiguiente de autovalores y autovectores. haciendo uso de las propiedades especiales de la clase de matrices sobre la que se est´ trabajando para evitar las operaciones potencialmente peligrosas a efectos de a cancelaci´n. incluidas en las clases identificadas en [22]. se est´ haciendo a un esfuerzo por estabilizar algoritmos r´pidos ya existentes. comienza hallando una factorizaci´n A = XDY mediante o eliminaci´n Gaussiana con pivote completo. La clave o o es evitar el efecto de cancelaci´n en todas y cada una de las operaciones aritm´ticas del o e proceso de factorizaci´n. sino que se introducen nuevas clases de matrices para las que la DVS se puede calcular con alta precisi´n relativa. Otras clases de matrices para las que se puede obtener tanto factorizaciones sim´tricas como autovalores y autovectores con alta precisi´n relativa son e o las matrices de Cauchy (escaladas diagonalmente o no). la factorizaci´n no sim´trica e o e XDY T de la primera etapa del algoritmo en [30] se puede reemplazar por una factorizaci´n o T sim´trica XDX sin perder por ello precisi´n. las de Vandermonde y las matrices totalmente no negativas parametrizadas mediante su factorizaci´n bidiagonal [29].5 se incluyen experimentos num´ricos que confirman la alta precisi´n de o e o los algoritmos propuestos.

32]. y o el art´ ıculo [78] se someter´ en breve a la revista Linear Algebra and its Applications. los algoritmos de alta precisi´n relativa que acabamos de describir. La a nota [77]. cuyos resultados est´n contenidos en [59]. a a El contenido del cap´ ıtulo 3 corresponde al art´ ıculo [76]. se public´ en la colecci´n de actas a o o PAMM (Proceedings in Applied Mathematics and Mechanics) de la Sociedad Alemana de Matem´tica Aplicada y Mec´nica (GAMM). en particular frente al algoritmo QR. cuya segunda etapa es un algoritmo de o tipo Jacobi. que ya ha sido publicado en la revista SIAM Journal on Matrix Analysis and Applications. 78]. 77. 17 .especiales de pivotaje (v´anse los art´ e ıculos de survey [74. 10]). El art´ ıculo [59]. escrito en colaboraci´n con Daniel Kressner. pueden verse acelerados en un futuro muy pr´ximo como consecuencia de las o nuevas implementaciones del algoritmo de Jacobi. debidas principalmente a Drmaˇ [31. c que comienzan a ser competitivas frente a algoritmos tradicionalmente considerados m´s a r´pidos. Por otro lado. se encuentra en o proceso de revisi´n por la revista SIAM Journal on Matrix Analysis and Applications. a Concluimos esta introducci´n mencionando los art´ o ıculos a que ha dado lugar la investigaci´n conducente a esta memoria: el contenido del cap´ o ıtulo 2 corresponde a los art´ ıculos [59.

Notaci´n o Para comodidad del lector ofrecemos la siguiente tabla de notaciones.1. vaya de antemano la disculpa por el empleo de algunos t´rminos y siglas. es decir. que conservaremos en ingl´s. que se seguir´ a a lo largo de toda la memoria. debido a que traducirlos conlleva o e bien una p´rdida grande de precisi´n o el empleo de una expresi´n poco natural en espa˜ol. S´ ımbolo Cn×n Rn×n Cp Rp ⊕p ⊗ 0(·) o(·) >> << ≡ ≡ AT AH σi (A) · F · 2 σ(A) ρ(A) In Fn Σn Significado conjunto de matrices cuadradas de orden n con coeficientes complejos conjunto de matrices cuadradas de orden n con coeficientes reales conjunto de vectores columna con p componentes complejas conjunto de vectores columna con p componentes reales suma directa de p matrices producto de Kronecker O-grande de Landau o-peque˜a de landau n mucho mayor mucho menor equivalente no equivalente traspuesta de la matriz A. (AT )ij = Aji traspuesta conjugada de la matriz A. (AH )ij = Aji i-´simo mayor valor singular de la matriz A e Èn 2 norma de Frobenius: ||A||F = i=1 |aij | norma espectral: A 2 = σ1 (A) espectro de la matriz A radio espectral de la matriz A matriz identidad de orden n matriz antidiagonal con unos sobre la antidiagonal principal (flip matrix) matriz antidiagonal con signos alternos sobre la antidiagonal principal Por ultimo.3. e o o n 18 . ´ e como underflow o TSC. es decir.

respectivamente. 42. esto es. Adem´s. Un an´lisis de errores que ino a corpore la estructura requiere en primer lugar una estimaci´n del n´mero de condici´n o u o estructurado. los n´meros de condici´n miden en general u o la sensibilidad de la soluci´n de un problema frente a cambios infinitesimales en los datos o de entrada. A continuaci´n resumiremos algunos de estos resultados. Si nos centramos en el problema del c´lculo de autovalores simples de una matriz. 39. ǫ → 0. As´ el n´mero de o ı. a hay numerosos resultados en la literatura relacionados con n´meros de condici´n y errores u o regresivos. Esta es la motivaci´n de tratar de estio mar tanto el n´mero de condici´n del problema como el error regresivo correspondiente a u o cada algoritmo regresivamente estable. (2. 73. Un an´lisis regresivo de errores lleva en general a cotas de error del tipo a (error en la soluci´n) ≤ (n´mero de condici´n) × (error regresivo) . 77].1) x 2 y 2 donde x e y son. Se sabe que λ es una funci´n diferenciable de los elementos de la matriz A y o que el autovalor perturbado λ de la matriz perturbada A + ǫE admite un desarrollo de la forma y H Ex ǫ + O(ǫ2 ). tanto estructurados como no estructurados [16. o u o donde el error regresivo se define como en (1. cuando la matriz del problema tiene una estructura particular puede ser ventajoso el incorporar esa estructura a los algoritmos de resoluci´n. A ello se dedica el presente cap´ ıtulo para el caso de algoritmos espectrales. Sea λ un autovalor simple de una matriz o A ∈ Cn×n .1).1. como se ha visto tambi´n en el Cap´ a e ıtulo 1. 55. normalizados por la condici´n |y H x| = 1.Cap´ ıtulo 2 N´ meros de condici´n espectrales u o estructurados 2. autovectores derecho e izquierdo de la matriz A correspondientes al autovalor λ. u λ=λ+ 19 . una estimaci´n de lo sensibles que son las soluciones del problema o con respecto a perturbaciones estructuradas. Introducci´n o Como se se˜al´ en el cap´ n o ıtulo introductorio.

Tambi´n hay ejemplos e e relevantes para los cuales κ(A. S) es. estos ejemplos corresponden a matrices antisim´tricas complejas [82]. puesto que el conjunto de perturbaciones admisibles en κ(A. La definici´n en [59].4) Obviamente. Esto se demuestra en [16] para u o S = Rn×n y en [55. en el sentido de que el n´mero de condici´n estructurado κ(A. lo que es lo mismo. λ. A fin de incorporar la estructura al concepto o de n´mero de condici´n debemos considerar el caso en que las matrices de perturbaci´n u o o n×n E pertenecen a un conjunto S ⊂ C de matrices estructuradas. eventualmente defectivos u Antes de recordar la teor´ de Lidskii. u o n igual al n´mero de condici´n no estructurado κ(A.2) no es v´lida para ıa o o a autovalores m´ltiples. se basa en la teor´ de perturbaci´n de Lidskii [64] a o ıa o para autovalores m´ltiples. λ) = l´ ım sup ǫ→0 E ≤1 E∈Cn×n 20 |λ − λ| . circulantes. 82] para matrices antisim´tricas reales. S) ≤ κ(A. S) = l´ sup ım ǫ→0 E ≤1 E∈S |λ − λ| . e hamiltonianas. definido como o κ(A. S) es un subconjunto del conjunto admisible para κ(A. λ. matrices de Hankel y Toeplitz. la matriz u 0 1 0 0 κ(A. sin embargo. λ) o.1.2. . 72]. λ. S) ≪ κ(A. Una de las matrices de perturbaci´n que alcanza la m´xima variaci´n es la matriz de rango o a o uno yxH . λ). ǫ (2. λ). Aunque hay varios conceptos similares de n´mero de condici´n u o no estructurado para autovalores m´ltiples [17. λ). Por ejemplo.2) viene dado por κ(A.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS condici´n absoluto del autovalor λ. ortogonales y unitarias. cu´ndo ser´ el a a n a a autovalor λ mucho menos sensible a perturbaciones estructuradas que a perturbaciones arbitrarias. n´tese que la definici´n (2. que veremos o m´s adelante como Definici´n 2. λ. ciertas matrices con ceros e en posiciones prefijadas) [73] o matrices simpl´cticas [55]. e El condicionamiento de autovalores m´ltiples. El n´mero de condici´n u o estructurado de un autovalor simple se define como E= κ(A. λ. λ. salvo un factor de tama˜o moderado. λ) = x 2 y 2 para cualquier norma unitariamente invariante · . λ). La pregunta que surge de modo natural es en qu´ situae ciones ser´ κ(A. (2. esas definiciones no se han trasladado u al contexto estructurado hasta muy recientemente [59]. Para muchas estructuras S la respuesta es negativa. no ha sido tratado hasta el u momento en la literatura. ciertas cero–estructuras (esto es. persim´tricas. ǫ (2. S) mucho m´s peque˜o que κ(A.3) x 2 y 2 conocida como perturbaci´n de Wilkinson.

Bajo ciertas condiciones de genericidad sobre la matriz de perturbaci´n E. . Si perturbamos esta matriz.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS tiene un unico autovalor nulo doble. (2. M´s en concreto. la teor´ de perturbaci´n de Lidskii [64] o ıa o asegura que cada bloque de Jordan de tama˜o nj × nj asociado al autovalor λ da lugar n gen´ricamente a nj autovalores perturbados con desarrollo fraccional (2.2]). §II. §9. sea una matriz A con un autovalor λ de multiplicidad algebraica 9 y sea ¼ λ 1 λ 1 λ λ 1 λ 1 λ ½  λ 1 λ λ su correspondiente forma de Jordan. ǫ En general. es bien sabido que si λ es un autovalor m´ltiple de multiplicidad algebraica u m. .5) para γk = 1/nj . en general los autovalores perturbados se bifurcan del modo que se muestra en las siguientes figuras: Dos bloques 3 × 3.3. Un bloque 1 × 1. k = 1. Si se perturba de la forma ´ 0 1 0 0 entonces +ǫ 0 0 1 0 21 √ −1 |λ − λ| √ = ǫ/ǫ = ǫ . e Por ejemplo. Un bloque 2 × 2.1] o [56. sino que pueden aparecer desarrollos de Puiseux en potencias fraccionarias (v´ase [3.5) en potencias fraccionarias de ǫ con αk > 0 y 0 < γk ≤ 1. ǫ l´ ım sup ǫ→0 E ≤1 E∈Cn×n luego |λ − λ| = ∞.1). el e a autovalor λ se bifurca en m autovalores perturbados λk admitiendo cada uno un desarrollo γ λk = λ + αkk ǫγk + o(ǫ). . m. entonces λ no se desarrolla de la forma (2.1. . .

la matriz e 0 −1 0 −1 1 0 1 0 −i 0 i 0 i 0 −i 0 á A= ∈S (2. Llegados a este punto debemos hacer notar que.7) (v´ase [17. para ciertas perturbaciones no gen´rie cas. a En general. S) = (nS .1.5). N´tese que. queremos definir un n´mero de condici´n de tipo H¨lder estructurado de la forma u o o κ(A. Estos casos no gen´ricos suelen aparecer cuando la perturbaci´n E pertenece a un e o conjunto S de matrices con una estructura dada. al ser 1/n1 el menor e o a o exponente posible en los desarrollos (2.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 22 donde el c´ ırculo representa el autovalor m´ltiple y las flechas las direcciones tangentes al u movimiento de los autovalores perturbados. λ) = (n1 .. αS ). consideremos el siguiente ejemplo. Fijada una estructura S. Motivados por los desarrollos (2. donde 1/nS es el menor exponente posible de ǫ en (2.5) mientras que 1/n1 = 1/3. pero existen estructuras tales que nS es menor que n1 . §4] se define el n´mero de condici´n de u o H¨lder para un autovalor λ como un par o κ(A.2. (2.m ǫ1/n1 m´x a (2. el valor de γk en (2.. p. k=1.. Por ejemplo. λ. §2.6) donde n1 es el tama˜o del mayor bloque de Jordan de A asociado a λ y la cantidad α1/n1 > 0 n es el valor m´s grande posible del coeficiente ǫ1/n1 entre todas las perturbaciones E ∈ Cn×n a con ||E|| ≤ 1 (v´ase la Definici´n 2.5) puede ser mayor que 1/n1 para todo autovalor perturbado λk .1 m´s adelante).9) .22]. en [72. En este caso.. sacado de [97.5). 156] para una definici´n similar de n´mero de condici´n de autovalores m´ltie o u o u ples). se tiene que α1/n1 = l´ ım sup ǫ→0 E ≤1 E∈Cn×n |λk − λ| . (2. Por ejemplo si S es el conjunto de matrices antisim´tricas complejas. Sea la matriz perturbada ¼ A + ǫE =  0 1 0 0 1 0 ǫ 0 1 ǫ 0 ½ . γk = 2/5 para todo λk en (2. α).8) cuyo polinomio caracter´ ıstico es ǫ2 − λ5 .3 m´s adelante).5) y la cantidad α1/nS > 0 es el valor m´s grande posible en el coeficiente ǫ1/nS para toda perturbaci´n E ∈ S (v´ase la Definici´n a o e o 2. suele ocurrir que nS = n1 .

1. n1 = 3.1. fully nongeneric). se tiene nS = 2 < n1 = 3. . todas las e perturbaciones dentro de una clase estructurada d´n lugar a perturbaciones (2. ..3.. e u o o tales como haces de matrices A−λB con A. 2. e Finalmente. Preliminares En esta secci´n resumiremos los resultados de la teor´ de Lidskii [64. n×n Sea λ un autovalor de la matriz A ∈ C y sea n1 el tama˜o del mayor bloque de n Jordan correspondiente a dicho autovalor λ. 1 1 Γ1 = · · · = Γr1 = 1 1 1 . 1 λ ã ∈ Cn1 ×n1 .6). (2.11) = Q Q A P P −1 = PA APA . o polinomios matriciales de la forma P (λ) = λm Am + λm−1 Am−1 + . o En otras palabras. 72] que conducen o ıa al n´mero de condici´n (2. .´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 23 tiene un unico autovalor λ = 0 de multiplicidad geom´trica dos y mayor bloque de Jordan ´ e de tama˜o tres. .. Puede comprobarse f´cilmente que para cualquier matriz n a de perturbaci´n E ∈ S la matriz perturbada A + ǫE tiene autovalores de orden O(ǫ1/2 ).2. se pueden definir a tambi´n n´meros de condici´n de tipo H¨lder para problemas generalizados de autovalores. se tiene que λ J = diag(Γ1 . por tanto. haremos unos breves comentarios sobre formas u o a can´nicas estructuradas [89.. hacemos notar que. dada una matriz y uno de sus autovalores. Las columnas de la matriz P forman r1 cadenas de Jordan linealmente independientes de longitud n1 .12) n El bloque J contiene tanto los bloques de Jordan de tama˜o menor que n1 asociados a λ como los bloques de Jordan asociados a autovalores distintos de λ. Γr1 ). . diremos que las perturbaciones en S son completamente no gen´ricas (en ingl´s.. como se ver´ en §2.3. (2. 71]. . esto es.. . cada una de las cuales comienza con un autovector derecho de A asociado . M´s adelante dividiremos nuestro estudio en dos e e a casos: llamaremos gen´rico al caso en que nS = n1 y caso completamente no gen´rico a e e aqu´l en que nS < n1 . En casos como ´ste en los que.1 y §2. que usaremos con frecuencia en todo este cap´ o ıtulo. . M´s concretan a mente. Adem´s. B ∈ Cn×n . sea nS < n1 ). + λA1 + A0 con Ai ∈ Cn×n .5) con γk > e 1/n1 (y.10) y J contiene todos los bloques de Jordan de tama˜o n1 × n1 asociados a λ. La forma can´nica de Jordan de la matriz A o se puede escribir como J 0 0 J donde Q Q P P =I (2.

.1]) Sea λ un autovalor de la matriz A ∈ Cn×n . ξr1 son los autovalores de la matriz Y H EX. Sean las matrices X e Y definidas como en (2. Definition 4.14).1.15) donde ξ1 . Entonces existen n1 r1 autovalores λk de la matriz perturbada A + ǫE que admiten un desarrollo en potencias fraccionarias de la forma λk = λ + (ξk )1/n1 ǫ1/n1 + o(ǫ1/n1 ). ξβ de Y H EX da lugar a n1 autovalores perturbados de la forma (2.3 ([72. .13) y (2. .10) una forma de Jordan de A. los desarrollos (2. . luego o la matriz Y H EX ser´ no singular para una perturbaci´n gen´rica E ∈ Cn×n . Los r1 − β autovalores nulos restantes corresponden a autovalores perturbados con desarrollos en los que el exponente principal es estrictamente menor que 1/n1 . .1 ([64. . o Lema 2. En concreto. .14). respectivamente. El Teorema 2. . r1 .15). P e(r1 −1)n1 +1 .1. . Sea E ∈ Cn×n una perturbaci´n tal que Y H EX es singular. Esto motiva la siguiente definici´n de n´mero de o u condici´n. QH e2n1 .13) y (2.13) donde ei denota la columna i-´sima de la matriz identidad de orden n. .13) o y (2. sea λ un autovalor de A y sea (2.1. El n´ mero de condici´n (absoluto) H¨lder de λ se define como u o o .1 implica que. Con esta notaci´n. (2. Sean las matrices X e Y definidas como en (2. reue a nimos en una matriz Y los autovectores izquierdos de las r1 cadenas de Jordan linealmente independientes que aparecen en la matriz Q. . QH er1 n1 .14). . Reunimos todos estos autovectores derechos en una matriz X de tama˜o n × r1 n X= P e1 . An´logamente. . 72]) Sea A ∈ Cn×n . 24 (2. En el caso a o e H no gen´rico en que Y EX es singular. N´tese que las columnas de las matrices X e Y son linealmente independientes.14) N´tese que la relaci´n (2.2 ([72.11) implica que Y H X = Ir1 ×r1 si n1 = 1 e Y H X = 0r1 ×r1 en o o otro caso. P en1 +1 . y supongamos que Y H EX es invertible para una cierta E ∈ Cn×n . respectivamente. . . . y sea ( 2.1. para valores de ǫ suficientemente peque˜os.10) una forma can´nica de Jordan de A. Y = QH en1 .10) una forma can´nica de Jordan de A y sean X e Y matrices definidas como o en (2. k = 1. o sea ( 2. o Entonces cada uno de los β < r1 autovalores no nulos ξ1 . el siguiente resultado es una versi´n simplificada del resultado o o fundamental de [64]: Teorema 2. el peor caso en n cuanto a la magnitud de la perturbaci´n en los autovalores corresponde al mayor autovalor o H en valor absoluto de la matriz Y EX.15) siguen siendo v´lidos. Pg. es decir. se tiene el siguiente resultado. aunque e a s´lo parcialmente. . . o Definici´n 2. 809]) Sea λ un autovalor de la matriz A ∈ Cn×n . . .´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS a λ. (2.

por ejemplo. La cadena de desigualdades ρ(Y H EX) = ρ(EXY H ) ≤ EXY H 2 ≤ XY H 2 para la norma · 2 nos dice que para alcanzar la igualdad deber´ ıamos construir una matriz de H H perturbaci´n E tal que ρ(Y EX) = XY 2 . o Para la norma espectral.5 Sea λ autovalor de una matriz A ∈ Cn×n con forma de Jordan (2.4. la matriz E= Y XH . . e a Lema 2. Sean u1 . . Para otras normas. . Demostraci´n: o El resultado se sigue de que ρ(EXY H ) = ρ(V DΣV H ) = ρ(DΣ) = DΣ 2 = Σ 2 = XY H 2 . Sea E ∈ Cn×n tal que Eu1 = βv1 con |β| = 1. respectivamente. El siguiente lema caracteriza algunas de o estas perturbaciones. . se tiene E = 1 y por tanto α = XY H 2 . si D = diag(1. .1. Para cualquier o o norma unitariamente invariante. vectores singulares izquierdo y derecho correspondientes al mayor valor singular de la matriz XY H . δ2 . E ≤1 E∈Cn×n donde ρ(·) denota el radio espectral de una matriz. . Lema 2.13) y (2. N´tese que la definici´n de α en (2. r1 . v1 ∈ Cn×n . donde n1 es el tama˜o del mayor bloque de Jordan asociado al autovalor n λy (2.4. . si tomamos D = Σ/σ1 .1.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 25 κ(A. δr1 ) tal que δj ≤ 1. .16) α = sup ρ(Y H EX). cualquier perturbaci´n E definida como en el Lema o 2. 0) y E = V DU H en el Lema 2.4 Sea XY H = U ΣV H una descomposici´n en valores singulares. Este tipo de perturbaciones ser´ util al probar que el n´mero de condici´n estructurado y el no estructurado coinciden a´ u o para la norma dos. U ∈ Cn×r1 . . .17) que llamaremos perturbaci´n de Lidskii. λ) = (n1 . 0. V ∈ Cn×r1 con columnas o ortonormales y Σ = diag(σ1 . Entonces ρ(EXY H ) ≥ XY H 2 .10) y sean X e Y las matrices de autovectores de A definidas en (2. En particular. Otras clases de perturbaciones que tambi´n se usar´n son las siguientes.3). . . σr1 ) con σ1 ≥ · · · σr1 ≥ 0. . . respectivamente. . j = 2. . resultado que ya se demostr´ en [72]. Entonces ρ(EXY H ) = XY H 2 . α). cumple que E 2 = 1. en el sentido de que es una matriz de rango bajo que realiza el m´ximo a efecto sobre λ de entre todas las perturbaciones de norma 1.1. resulta ser una generalizaci´n de la perturbaci´n o o o de Wilkinson (2. .14). otras elecciones de D son posibles.1. esto es. Consideramos E = V DU H con D = diag(1.16) depende de la norma · usada. XY H 2 (2.

. Ev2 . la forma de Jordan de una matriz sim´trica (resp.13) y (2. . 1 Ǒ . para haces de o matrices A − λB.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 26 Demostraci´n: o Sea XY H = U ΣV H una descomposici´n en valores singulares con U = [u1 .14) juegan un papel crucial a la hora de definir los n´meros de condici´n de H¨lder.. Para llegar a la forma de Jordan basta llevar a cabo ciertas reordenaciones de filas y columnas. H = PTP es una forma can´nica por congruencia de A − λI entonces puede comprobarse que o H−1 G = P −1 AP es una semejanza que lleva A a una forma muy cercana a su forma de Jordan. . . que suelen involucrar a las matrices Σk = (−1) k−1 . . descritas por ejemplo en [89] y [71].3 ser´ el hecho de que algunas estructuras a inducen relaciones especiales entre X e Y . . . . Evn ]Σ) β XY H 2 ⋆ = ρ ≥ XY H 2 .2 y 2. cuando A y/o B son matrices sim´tricas o antisim´tricas [89] o. Las matrices Fk y Σk aparecer´n con frecuencia a lo largo de todo el a cap´ ıtulo. Como ya hemos visto. . Una de nuestras herrau o o mientas fundamentales en las secciones 2. . Fk = 1 . las matrices X e Y definidas en (2. del haz a o e antisim´trico/sim´trico) A − λI: si el haz G − λH con e e G = P T AP. antisim´trica) se e e obtiene f´cilmente de la forma can´nica por congruencia del haz sim´trico (resp.18) ambas de k × k. (2. o V = [v1 . ya sea de matrices o de haces de matrices. 0 ⋆ Tambi´n necesitamos para nuestro an´lisis emplear formas can´nicas espec´ e a o ıficas para ciertas estructuras. autoadjuntas o antiautoadjuntas con respecto a productos escalares arbitraa rios [71]. Por ejemplo. (−1)0 Ǒ . En general. . vn ]. . Entonces ρ(EXY H ) = ρ(EU ΣV H ) = ρ(V H EU Σ) = ρ(V H [βv1 .. de forma e e m´s general. . . . un ]. aunque a veces recurriremos tambi´n a formas can´nicas por congruencia para haces ese o tructurados de matrices. Estas relaciones son consecuencia inmediata de las formas can´nicas estructuradas. las formas can´nicas que emplearemos son la de Jordan para matrices (a la que se llega por semejano za) y la de Weierstrass para haces regulares de matrices (a la que se llega por equivalencia).

se tiene que αS = sup ρ(Y H EX).14) respectivamente.1. Como se dijo en la secci´n anterior existen casos en los que nS < n1 . o 2. donde 1/nS es el menor exponente posible γk de ǫ en el desarrollo de los autovalores perturbados (2. λ) = (n1 . 2. λ.19) complica en gran medida el problema de determinar el supremo y dificulta el conseguir f´rmulas expl´ o ıcitas o cotas razonables para αS .2. Rn×n ) = (n1 . α/2 ≤ αR ≤ α para cualquier norma unitariamente invariante · y . Veremos que. S) = (nS . que para ciertas estructuras es posible identificar cu´ndo αS y a α son valores cercanos construyendo perturbaciones E ∈ S para las cuales ρ(Y H EX) es cercano a α. pero en esta secci´n o o nos restringiremos al caso m´s frecuente.19) La presencia del radio espectral en (2. tendremos el correspondiente n´mero de condici´n estructurado κ(A.1 y el Lema 2. a Si restringimos las perturbaciones admisibles E de Cn×n a un subconjunto S ⊂ Cn×n .13) y (2. Entonces κ(A. en el mejor de los casos. En tal caso. Las matrices X o o e Y est´n definidas como en (2. nos restringimos a perturbaciones reales. Veremos. En las pr´ximas subsecciones determinaremos tales estructuras.2 Sea una matriz A ∈ Cn×n y sea λ un autovalor de A con n´mero de condici´n u o de H¨lder κ(A. El n´ mero de condici´n estructurado de H¨lder de λ con respecto u o o a S se define como κ(A.1.1.3. Esto ya o se demostr´ para autovalores simples en [16]. El siguiente lema es la generalizaci´n para o o autovalores m´ltiples.2. sin embargo. s´lo se mejora ligeramente la sensibilidad del autovalor λ.5) entre todas las perturbaciones E ∈ S. u Lema 2. λ. λ.2. u o Definici´n 2. E ≤1 E∈S (2. αR ) con o (i). Matrices reales Como primer ejemplo.2.2.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 27 2.5) para toda E ∈ S con E ≤ 1. λ) = (n1 . αS ). en el que nS = n1 . por el Teorema a 2.2.1 Sea λ un autovalor de la matriz A ∈ Cn×n y sea S un subconjunto de o matrices de Cn×n . αS ). S) = (nS .2. α) dado por la Definici´n 2. Perturbaciones estructuradas gen´ricas: el caso e matricial N´ mero de condici´n de H¨lder estructurado para autou o o valores m´ ltiples u En esta secci´n λ denota un autovalor de la matriz A ∈ Cn×n con n´mero de condici´n o u o de H¨lder no estructurado κ(A. α). y αS > 0 es el mayor valor posible para αk en (2.1.

si S es el conjunto de las a matrices sim´tricas complejas. respectivamente. y por tanto unitariamente diagonalizable. 28 Demostraci´n: o Descomponemos la matriz compleja XY H = MR + ıMI con MR .3 Sea SR ⊂ Rn×n y sea S = SR + ıSR el subconjunto de todas las matrices con parte real e imaginaria en SR. Si descomponemos los vectores como u = uR + ıuI y v = vR + ıvI con uR . Rump [82] extendi´ las cotas del e o Lema 2. Por ejemplo.2. v ∈ Cn×n y u 2 = v 2 = 1. Si existe una matriz E ∈ S de rango uno con E = 1 tal que αS = ρ(Y H EX) entonces αS /4 ≤ αSR ≤ αS en la norma Frobenius y la norma dos. Para demostrar la segunda parte utilizamos el hecho de que A es normal. Supongamos sin p´rdida de generalidad que e |uT XY H vR + uT XY H vI | ≥ αS /2 R I . MI ∈ Rn×n tales que MR 2 ≥ XY H 2 /2 ´ MI 2 ≥ XY H 2 /2. Supongamos ahora que S es una estructura tal que si E ∈ S. Sin p´rdida de generalidad suponemos que o e MR 2 ≥ XY H 2 /2. o Observemos que en el caso r1 = 1 (un unico bloque de Jordan de tama˜o n1 ) se puede ´ n usar el mismo argumento que en [16] para obtener la cota inferior del Lema 2.2 (i). αR = α para la norma espectral si la matriz A es una matriz normal. El u n siguiente lema es un primer paso para conseguir resultados en esta direcci´n. vI ∈ Rn . uI .2. Por tanto. podemos elegir la matriz Y tal que Y = X. ı u o Este resultado se puede extender facilmente al caso m´ltiple cuando r1 = 1. la perturbaci´n E = I ∈ Rn×n cumple que ρ(EXX H ) = α = αR . En cambio. correspondientes al mayor valor singular de la matriz MR . pero no ocurre u lo mismo para autovalores m´ltiples con varios bloques de Jordan del mayor tama˜o.2. al restringirnos a la parte real o a la imaginaria obtenemos e las matrices reales y sim´tricas. no es claro que se puedan utilizar los mismos argumentos para el caso r1 > 1.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS (ii). vR . donde u1 y v1 son vectores o 1 singulares izquierdo y derecho. R I I Uno de los dos sumandos entre par´ntesis del t´rmino de la derecha tiene que ser mayor o e e igual que αS /2 en valor absoluto.2 a n´meros de condici´n estructurados. En tal caso. Sea la perturbaci´n E = v1 uT ∈ Rn×n . 1 lo que prueba αR ≥ α/2. Demostraci´n: o Consideremos la matriz E = vuH con u. en el sentido de restringir las perturbau o √ ciones de S a S ∩ Rn×n . Entonces E = 1 y ρ(EXY H ) = ρ(v1 uT (MR + ıMI )) = |uT (MR + ıMI )v1 | 1 1 ≥ |uT MR v1 | = MR 2 ≥ XY H 2 /2. entonces tanto su parte real como su parte imaginaria est´n en S ∩ Rn×n . mejorando as´ el n´mero de condici´n a lo sumo un factor 1/ 2. tenemos que T αS = |uH XY H v| = |(uT XY H vR + uT XY H vI ) − ı(uT XY H vR − uR XY H vI )|. o Lema 2. Para un autovalor simple.

El caso r1 = 1 (es decir. dada una matriz e E ∈ S existe un unico vector p = [p1 . Ml } del subespacio ´ S tal que E = p1 M1 + · · · + pl Ml y E F = p 2 . . De este modo a a 2 cuando F = C o cuando F = R y X. . . Si nS = n1 . . . o 2. Estructuras lineales Estudiemos ahora el caso en que S es un espacio lineal de matrices en el cuerpo Fn×n con F ∈ {R. Y ∈ Rn podemos = demostrar como en [55. . V = [vR . Por tanto.20) para la norma Frobenius. o . o con E 2 ≤ 1 y E F ≤ 1. lo cual completa la demostraci´n. . vec(Ml )]. Y. Y ∈ Rn . X e Y son vectores) puede tratarse como en el caso de un autovalor simple [42.2. 29 As´ la perturbaci´n real ER = V U T (parte real de E) cumple αSR ≥ ρ(EXY H ) ≥ αS /4 ı. o a 1. 91]. el n´mero de condici´n u o estructurado κ(A. pl ]T ∈ Fl y una base {M1 .´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS y sea U = [uR . Usando t´cnicas desarrolladas por Higham y Higham [41]. conseguir en o general una f´rmula expl´ o ıcita de la expresi´n αS no parece f´cil. Para F √ R y X. Entonces vec(E) = Mp y por tanto αS = sup |p1 Y H M1 X + · · · + pl Y H Ml X| p 2 ≤1 p∈Fl Por otra parte. . S) = (n1 . αS ) satisface αS = sup ρ p1 Y H M1 X + · · · + pl Y H Ml X p 2 ≤1 p∈Fl (2. Secci´n 2] que (X T ⊗Y H )M 2 / 2 ≤ αS ≤ (X T ⊗Y H )M 2 . si ⊗ denota el producto de Kronecker. . λ. por ejemplo. en [15].3. . Definimos la matriz de patrones M = [vec(M1 ). Maximizar una funci´n espectral no sim´trica es un problema o e de optimizaci´n no trivial como se puede ver. C}.21) donde el comando vec convierte una matriz en un vector concatenando las columnas de dicha matriz. (2. vI ]. uI ]. . por tanto ρ(U T XY H V ) ≥ αS /4. alc´nz´ndose la igualdad para un cierto vector p. Entonces |tr(U T XY H V )| ≥ αS /2. Dos casos especiales para o a los que existe una expresi´n m´s manejable de αS son los siguientes. . entonces |p1 Y H M1 X + · · · + pl Y H Ml X| = |vec(p1 Y H M1 X + · · · + pl Y H Ml X)| = = |(X T ⊗ Y H )Mp| ≤ (X T ⊗ Y H )M αS = (X T ⊗ Y H )M 2 p 2.

. .. Por tanto. entonces αS = = Se sigue por tanto m´x Ni a i 2 30 sup p 2 ≤1 p∈Cl p1 N1 + · · · + p l Nl 2 sup x 2 =1 x∈Cn [xH N1 x.. . Si F = C y todas las matrices Nj = Y H Mj X son matrices herm´ ıticas. xH Nl x] 2 . ||E|| ≤ ǫ. √ ≤ αS ≤ l m´x Ni 2 . . Hankel. . Toeplitz sim´tricas. .. podemos definir el pseudoespectro estructurado con respecto a S como ΛS := {λ ∈ C : ∃ E ∈ S. t1 t0 ã ∈ Cn×n y H ∈ Cn×n es una matriz Hankel si Fn H es una matriz Toeplitz. S) = κ(A. λ. Una matriz Toeplitz tiene la forma t0 T = t1 . . Matrices de Toeplitz y Hankel Como dijimos en la introducci´n. λ ∈ σ(A + E)}. Si consideramos una estructura S. a i 2. donde la matriz cuadrada Fn es la matriz con unos en la antidigonal y ceros en el resto de sus entradas definida en (2. por tanto e e κ(A. . tn−1 t−1 . ||E|| ≤ ǫ. en o las demostraciones construimos expl´ ıcitamente perturbaciones que alcanzan el supremo κ(A. El e pseudoespectro asociado a ǫ > 0 de una matriz se define como Λǫ := {λ ∈ C : ∃ E ∈ Cn×n . t−1 . .18). algo que no se obtiene del enfoque empleado en [82]. λ ∈ σ(A + E)}. .. λ). En [82] se prueba que el pseudoespectro estructurado de una matriz A ∈ S coincide con el pseudoespectro no estructurado para las siguientes clases S de matrices complejas S: sim´tricas. . . .2. 93]).´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 2. alguno de los resultados que enunciamos a continuaci´n son consecuencia de los resultados en [82]. λ) para todas estas estructuras. Hankel persim´tricas y circulantes. respectivamente. t0 .. . el n´mero de condici´n mide la sensibilidad de un o u o autovalor frente a perturbaciones infinitesimales. El comportamiento frente a perturbaciones finitas de la matriz se caracteriza por medio del pseudoespectro (v´ase [92. Toeplitz. persim´trie e cas. t−n+1 . ǫ Los n´meros de condici´n estructurado y no estructurado pueden obtenerse a partir u o del pseudoespectro estructurado y no estructurado. .4. . No obstante.

Demostraci´n: o Una matriz Toeplitz es una matriz persim´trica. respectivamente. λ. λ) = (1. donde A11 ∈ R⌊n/2⌋×⌊n/2⌋ y A22 ∈ R⌈n/2⌉×⌈n/2⌉ son matrices sim´tricas complejas. una descomposici´n en e o valores singulares especial XX T = U ΣU T . T ∩ SY ∩ Rn×n ) = κ(A. . Lema 10.1]. Entonces. . o o T de Takagi [48.4 Sean T y SY los conjuntos de las matrices Toeplitz y de las matrices sim´tricas complejas.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 31 Teorema 2.18).4] de la matriz sim´trica compleja XX .2. . a trav´s de una e e e simple transformaci´n ortogonal. T) = κ(A. es decir. 2) (ii). κ(A.1. donde U ∈ Cn×r1 tiene columnas ortonormales y Σ = diag(σ1 . 2) (iii). e 1 G= √ 2 y 1 G= √ 2 I 0 −F(n−1)/2 0 √ F(n−1)/2 2 0 0 I I Fn/2 −Fn/2 I si n es par Ǒ si n es impar. XX T para A ∈ T ∩ Rn×n y λ ∈ R. aplicar resultados de Thompson [89] sobre formas can´nicas de haces sim´tricos complejos al haz sim´trico Fn T − λFn (v´ase tambi´n [71. Fn T es sim´trica. λ. (iv). XX T para A ∈ T ∩ SY. . . Fn1 )P T Fn y as´ de acuerdo con (2. XX T 2) para A ∈ T. . κ(A.5. §4. A continuaci´n tomamaos una factorizaci´n ı. esto es. para la norma espectral se tiene: e (i). esto permite.2]). podemos elegir las matrices P y Q en la forma u can´nica de Jordan (2. . Seg´n estos resultados. 1) para A ∈ T ∩ SY ∩ Rn×n .13). . λ. Una matriz Toeplitz sim´trica es a la vez persim´trica. se tiene Y = Fn X. . donde X es la matriz de autovectores derechos asociados a λ definida en (2. λ) = (n1 . diagonalizar por bloques la matriz A de la forma : o GT AG = A11 0 0 A22 .14). λ. T ∩ Rn×n ) = κ(A. existe una matriz de Hankel H con H 2 = 1 y Hu1 = u1 . Por [81.10) de manera que o Q = diag(Fn1 . por tanto. Basta escoger la matriz de perturbaci´n E = Fn H ∈ T. o e e e e Theorem 7. Podemos. λ) = (n1 . κ(A. λ) = (n1 . que cumple E 2 = 1 y o Eu1 = Fn u1 . T ∩ SY) = κ(A. κ(A. con Fn e e dada por (2. para demostrar (i) gracias al Lema 2. σr1 ) con σ1 ≥ · · · ≥ σr1 > 0. donde u1 denota la primera columna de la matriz U .

X2 ]T 2 T = m´x( X1 X1 a 2. κ(A. T X2 X2 2 ). Adem´s. HA) = κ(A. 1) si A ∈ HA ∩ PS ∩ Rn×n . respectivamente.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 32 Este resultado. a H H H H De X2 X1 = X2 Fn Fn X1 = −X2 X1 se sigue que X2 X1 = 0 y por lo tanto XX T 2 = [X1 . . κ(A. Y = Fn [X 1 . usando de nuevo las formas can´nicas para e o haces sim´tricos [89.13). . podemos elegir las matrices P y Q en la forma de Jordan (2. El resto de la demostraci´n es an´logo a la demostraci´n del Teorema 2. . . existe una o matriz Toeplitz sim´trica E tal que E 2 = 1 y Eu1 = u1 . y por tanto las perturbaciones construidas antes pueden elegirse reales [82].2. Entonces para la norma espectral tenemos que: (i).2. λ) = (1. ρ(EX2 X2 ) . que puede encontrarse en [98]. El Teorema 2.5 Sean HA y PS los conjuntos de matrices Hankel y persim´tricas. . o a o y. Lema 2. HA ∩ PS) = κ(A. 1) si A ∈ HA ∩ Rn×n . Y = X. respece tivamente. λ. X2 ] con X1 = −F X1 y X2 = F X2 .2. (iv). ρ(EX2 X2 Fn ) a E 2 =1 E∈T∩SY T T sup m´x ρ(EX1 X1 ). X2 ][X1 . (iii). Los autovectores contenidos en las matrices X1 y X2 provienen de los bloques de Jordan de A11 y A22 . XX T si A ∈ HA ∩ PS. Los apartados (iii) y (iv) son obvios si observamos que λ ∈ R implica X ∈ Rn×r1 . en consecuencia.4. λ) = (n1 . Fn1 )P T . HA ∩ PS ∩ Rn×n ) = κ(A. κ(A. κ(A. a Corolario 2. λ. por [82. muestra que X = [X1 . Demostraci´n: o Una matriz de Hankel es sim´trica luego. La demostraci´n de (ii) se e o completa usando de nuevo el Lema 2. X 2 ] y por tanto a αT∩SY = = E 2 =1 E∈T∩SY T T sup m´x ρ(EX1 X1 Fn ). XX T 2) si A ∈ HA.4 puede extenderse f´cilmente a matrices Hankel. 2) (ii).4].10) e de modo que Q = diag(Fn1 . Entonces U = −Fn U y. siendo X la matriz de autovectores derechos asociados a λ definida en (2. T T T Supongamos que X1 X1 2 ≥ X2 X2 2 (el otro caso se trata an´logamente) y sea X1 X1 = a T U ΣU una factorizaci´n de Takagi. 71]. λ. λ.1.5. λ) = (1. λ) = (n1 . HA ∩ Rn×n ) = κ(A.

Adem´s.2. que los autovalores m´ltiples pueden tener un comportamiento cualitatiu vamente mejor frente a perturbaciones estructuradas. PS) = κ(A. De hecho. o Usando la terminolog´ de [55].6 se ocupa de las algebras de Jordan asoıa ´ T ciadas a la forma bilineal sim´trica x. λ. S) = (nS . Demostraci´n: o Como en la demostraci´n del Teorema 2.2. λ.2. Para cualquier matriz A ∈ S y cualquier norma unitariamente invariante se tiene (i). λ. donde X es la matriz de autovectores derechos de A asociados a λ definida en (2.6 Dada una matriz sim´trica y ortogonal M ∈ Rn×n . Teorema 2. S) = κ(A.2. XX T 2 ).7 Dada una matriz sim´trica y ortogonal M ∈ Rn×n sea S = {A ∈ Cn×n : e T A M = −M A}.13). αS∩Rn×n ) con XX T ≤ αS∩Rn×n ≤ XX T 2. aparte de las matrices persim´tricas e (M = Fn ).2. Llamamos o u1 = U e1 y E = M u1 uH .4. Si denotamos el conjunto de las matrices persim´tricas como PS. κ(A.7 pone de manifiesto las n a o a diferencias que se pueden esperar entre αS y α cuando nS = n1 . 2 /2 (ii). esto es.2. El siguiente resultado identifica una de las situaciones en que esto sucede. S ∩ Rn×n ) = (n1 . que incluye. La segunda parte es an´loga a la o a demostraci´n del Lema 2.2 (i). la forma can´nica del haz sim´trico M A − o o e λM nos dice que Y = M X. Teorema 2.2). el Teorema 2. κ(A.2. λ.5. λ) = (n1 . En un marco m´s a amplio.4 s´lo hace uso de la persimetr´ de las matrices o o ıa Toeplitz. Entonces el n´mero de condici´n estructurado κ(A. clases de matrices estructuradas como las sim´tricas(M = In ) y las pseudosim´e e tricas (M = Ip ⊕ (−Iq ) con p + q = n) (v´anse las definiciones al comienzo de la secci´n e o 2. de modo que E = 1 y 1 αS ≥ ρ(EXX T M ) = ρ(M u1 uT XX T M ) = ρ(uT XX T u1 ) = XX T 1 1 2 = α. es sabido que los n´meros de condici´n u o estructurado y no estructurado para autovalores simples pueden diferir de manera considerable [55. antisim´tricas y herm´ e e ıticas La demostraci´n del Teorema 2. y = x M y. αS ) para u o A ∈ S y la norma espectral cumple que: . Sea XX T = U ΣU T una factorizaci´n de Takagi.2.4. el Teorema 2. Esto completa la demostraci´n de la primera parte.9) (con M = I) que puede darse nS < n1 . dadas por S = {A ∈ Cn×n : AT M = −M A}.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 33 2. tenemos el siguiente resultado. 82]. Matrices sim´tricas. λ) para las matrices A ∈ PS. ya hemos visto en el ejemplo (2. el mismo argue mento demuestra que κ(A. sea S = {A ∈ Cn×n : e AT M = M A}. Para las correspondientes ´lgebras de e a Lie. y demuestra que esto s´lo ocurre bajo condiciones o muy espec´ ıficas: para autovalores nulos que tienen asociado un unico bloque de Jordan de ´ tama˜o m´ximo y de dimensi´n impar.

entonces r1 es par. n1 es impar y r1 > 1. basta construir una perturbaci´n E ∈ S tal que ρ(X T M EX) > 0. . Corolario 2.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS (i). Para ello. ur1 ] tiene columnas ortonormales y Σ = ä ç diag(σ1 . Σn1 )P T M. Demostraci´n: o La forma can´nica estructurada de A ∈ S puede extraerse f´cilmente de la forma o a can´nica del haz antisim´trico/sim´trico M A − λM (v´ase. n1 es impar y r1 = 1. Si λ = 0.j=1 to. Teorema o e e e 7. Si λ = 0 y r1 = 1. 34 √ (ii). .6] implica que Σ ◦ G 2 ≤ √ σ1 σ2 G 2 . . u2 ] 0 −1 [u1 . n1 impar y r1 > 1. esto es elemento a elemeni.10) cumplen que Q = diag(Σn1 .3]). donde X e Y son las matrices de autovectores de A asociados a λ definidas en (2. donde σ1 .13) y (2. . o . lo cual concluye la demostraci´n de (ii). Q en (2. respectivamente. tenemos e que αS = ≤ sup ρ(EXX T ) = sup ρ(GΣ) = sup ρ(Σ1/2 GΣ1/2 ) E 2 ≤1 E∈SK G 2 ≤1 G∈SK G 2 ≤1 G∈SK sup G 2 ≤1 G∈SK Σ1/2 GΣ1/2 2 = sup G 2 ≤1 G∈SK Σ ◦ G 2.14). (iii). Un resultado de Mathias [70. . Esto es imposible si r1 = 1. . donde U = [u1 . entonces nS = n1 y αS = (v). . Por otro lado. entonces nS = n1 y αS = σ1 σ2 . 2 Y 2 2 − |Y T M X|2 . entonces las matrices P. e Para demostrar que nS = n1 cuando λ = 0. X 2 2 ­ ­ ­ ­ å 0 Ir1 /2 −Ir1 /2 0 è X T­ ­ ­ ­ . . √ donde Σ = [ σi σj ]r1 y ◦ denota el producto de Hadamard. Por tanto. entre matrices. Esto demuestra (i). denotando por SK al conjunto de matrices complejas antisim´tricas. por ejemplo. consideramos una factorizaci´n o o T T de Takagi XX = U ΣU . Y = M X y si nS fuese igual a n1 existir´ alguna perturbaci´n E ∈ S con ıa o ρ(Y H EX) = ρ(X T M EX) > 0. si λ = 0 es un autovalor y n1 es impar. Tomando E = M [u1 . . E 2 = 1 y αS ≥ ρ(X T M EX) = ρ 0 σ2 −σ1 0 = √ σ1 σ2 > 0. u2 ]H tenemos 1 0 que E ∈ S. entonces nS < n1 . σ2 son los dos mayores valores singulares de la matriz XX T (mientras que α = σ1 ). Si λ = 0 y n1 es par. . En particular. σr1 ) con σ1 ≥ · · · ≥ σr1 > 0. Si λ = 0. entonces nS = n1 . nS = n1 y αS = α = X (iv). [71. Si λ = 0 y r1 > 1. . ya que X es un vector y M E es una matriz antisim´trica y por tanto ρ(X T M EX) = |X T M EX| = 0. .

X] = ρ M E[M Y . el estudio de los n´meros de condici´n estructurados es m´s sencillo u o a para el caso de ´lgebras de Jordan y de Lie asociadas con formas sesquilineales x. Ir1 . revelan que e 2 2 T 2 σ1 σ2 = X 2 Y 2 − |Y M X| . M Y ] = Ir 1 ⋆ 0 Ir 1 0 0 Ǒ 1 MX α Tomando E = M L−T ([0. 0. −λ) = κ(A. sino que adem´s u o a ofrece f´rmulas expl´ o ıcitas para el n´mero de condici´n estructurado de autovalores simples u o no nulos. M Y ] implica la existencia de una matriz invertible L tal que L−1 [X. aunque no a ı parece f´cil conseguir una cota superior o inferior de αS . X]T .2. Y . El rango completo de la matriz a [X. 0][Ir1 .17).2]. −1} fijo.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 35 Siåλ = 0 y n1 èes par. puede verse usando [71.8 Dada una matriz ortogonal sim´trica o antisim´trica M ∈ Rn×n . que se limitan a acotar los n´meros de condici´n. 0. 0]T − [Ir1 . sin embargo. λ) y que o κ(A. Teorema o 4. Esto no s´lo implica κ(A. Para el caso de un autovalor no nulo la forma can´nica estructurada de Jordan de una o matriz A ∈ S parece no revelar ninguna estructura particular en las matrices X. en este caso E = o Ir1 /2 Esto prueba (iii). Por otro lado. λ. S´ que podemos demostrar en ese caso que αS > 0. Teorema 3. o Observemos que el Teorema 2. una perturbaci´n de Lidskii como en (2. Afortunadamente. X]T para cualquier perturbaci´n E ∈ S. S) = κ(A. Lema 2. o o √ tenemos que αS = σ1 σ2 . −λ. Entonces para cualquier matriz A ∈ Cn×n se tiene que κ(A. sino que adem´s [X. X]T M E[M Y . Para a el caso particular en que r1 = 1 se tiene que |Y H EX| = ρ [M Y . Para alcanzar ρ(Y H EX) = α = ­X ­ ­ −Ir1 /2 0 Ir1 /2 0 å X T ­ se puede usar ­ 0 2 è −Ir1 /2 XH 0 ­ ∈ S. . Y las matrices de autovectores derechos e izquierdos asociadas a los bloques de Jordan de tama˜o n1 correspondientes al autovalor n −λ. λ) en la norma espectral. 0][0. Usando los argumentos de la demostraci´n de (ii). Esta t´cnica. De hecho. S).3] y [82. S) = κ(A. lo que demuestra (iv). X][M Y . λ.7 (iv) no s´lo corrobora los resultados de [55. Ir1 . 0]T )L−1 ∈ S tenemos que ρ(Y H EX) = ρ(Ir ) = 1 y por lo tanto αS > 0.2. aunque elementales. si denotamos por X. entonces X = M Y e Y = −M X. no es e v´lida para el caso r1 > 1.3] que r1 è tambi´n par e Y = es ­ e ­ MX Ir1 /2 0 −Ir1 /2 0 . completando la demostraci´n de (v). C´lculos laboriosos. −λ es tambi´n un autovalor de la matriz A con la misma forma de Jordan que e el autovalor λ. X][M Y . M Y ] es una matriz de rango completo. donde σ1 y σ2 son los dos mayores valores singulares de la a matriz sim´trica [M Y . sea S = e e n×n H {A ∈ C : A M = γM A} para γ ∈ {1. y = a xH M y. Theoremå7.

6. .2] se sigue que r1 es par y que las matrices P y Q en la forma de Jordan (2.2. donde X es la matriz de autovectores derechos asociados a λ definida en (2.13) y Jr1 viene dada por (2.6] podemos encontrar una matriz H tal que H 2 = 1 y √ Hu1 = µv1 para alg´n µ ∈ C con |µ| = 1. (2. 2. Teorema 2. siendo e1 la primera columna de la matriz identidad.5. λ) = (n1 . se obtienen cotas para los n´meros de condici´n estructurados de matrices antihamiltonianas u o y hamiltonianas reales. Theorem 8. . Por tanto. Tomando la perturbaci´n E = γM T H se tiene u o que E ∈ S. λ. . XJr1 X T 2 ). λ. en este caso E = (M T XJr1 X H )/ XJr1 X T 2 . Matrices J–sim´tricas y J–antisim´tricas e e 0 In −In 0 Si la matriz M del producto escalar es J2n = . la matriz Jr1 n1 viene dada por (2.18). Entonces u1 2 = v1 2 = 1 y por [68. Los siguientes teoremas se refieren a estructuras similares de la forma S = {A ∈ C2n×2n : AT J2n = γJ2n A}.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 36 Demostraci´n: o Sea XY H = U ΣV H una descomposici´n en valores singulares y conideramos los vectores o u1 = U e1 . Fn1 .2.17). 2 /4 (ii). y con el conjunto de matrices hamiltonianas complejas si γ = −1.22) la estructura S = {A ∈ C2n×2n : AH M = γM A} considerada en el Lema 2. S ∩ R2n×2n ) = (n1 .22). . v1 = V e1 . Para cada A ∈ S y cada autovalor λ de A se tienen los siguientes resultados en la norma espectral: (i). Fn1 ). κ(A. 51].10) pueden elegirse de modo que T Q = GJr1 n1 GP T M. donde G = diag(Ir1 n1 /2 . .9 Dada una matriz ortogonal y antisim´trica M ∈ R2n×2n .22) y la matriz Fn1 o por (2. S) = κ(A. E 2 = 1 y αS ≥ ρ(EXY H ) = ρ(HXY H M ) = ρ(V H HU Σ) ≥ α por el Lema 2.8 coincide con el conjunto de matrices antihamiltonianas complejas si γ = 1. Y = M T XJr1 y podemos usar una perturbaci´n del tipo (2. M´s cono a cretamente. de [71.1. Demostraci´n: La forma can´nica estructurada de A se sigue del hecho de que cualquier o o matriz antihamiltoniana tiene una forma can´nica diagonal por bloques [34. κ(A. Theorem 8. sea S = {A ∈ e C2n×2n : AT M = M A}.2. En particular. αS∩R2n×2n ) con XJr1 X T ≤ αS∩R2n×2n ≤ XJr1 X T 2.

αS∩R2n×2n ) con α/8 ≤ αS∩R2n×2n ≤ αS para la norma || · ||2 . u1 ]T . sean u = uR +ıuI y v = vR +ıvI . λ. Tomando la perturbaci´n E = M T W J2 W T ∈ o S ∩ R2n×2n . podemos suponer que los vectores u y v e cumplen v T u = 0. Para probar la segunda parte. con uR . respectivamente. lo que completa la demostraci´n. uI . −w1 Kw2 )) ≥ αS /4. κ(A. Definimos æ E = [v1 . u1 ] 0 1 é T 1 −v1 u1 [v1 . lo que implica W 2 ≤ 1. Por ejemplo si |uT KvR | ≥ αS /4. vR ]. v1 los vectores singulares izquierdo y derecho. S) = (n1 .3]). Eligiendo la perturbaci´n E = M E/ 2 tenemos que E ∈ e o S. λ. vI ∈ R2n . Como la matriz K es antisim´trica. Theorem 4. siendo u y v vectores singulares izquierdo y derecho asociados al mayor valor singular de la matriz K = XJr1 X T . Elegimos este t´rmino y definimos la matriz W = [w1 . . Entonces αS = K 2 = uH Kv = (uT KvR + uT KvI ) + ı(uT KvI − uT KvR ). o Teorema 2. w2 ] ∈ R2n×2 formada e por los dos vectores que definen este t´rmino. E = 1 y es tal que 2 37 2 T αS ≥ ρ(Jr1 X T M EX)/ XJr1 X T = XJr1 X T 2 = α. sea S = {A ∈ e 2n×2n T n×n C : A M = −M A}.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS que cumple E ∈ S. κ(A.2. entonces e I W = [uI .10 Dada una matriz ortogonal antisim´trica M ∈ R2n×2n . asociados al mayor valor singular de la matriz XY H M . se tiene E 2 ≤ 1 y T αS∩R2n×2n ≥ ρ(Jr1 /2 X T M EX) = ρ(J2 W T KW ) T T = ρ(diag(w2 Kw1 . vR . E F ≤ 1 y √ √ αS ≥ ρ(Y H EX) = ρ(EXY H M )/ 2 ≥ XY H 2 / 2. R I R I Al menos uno de los cuatro t´rminos en esta suma ser´ mayor o igual en valor absoluto e a que αS /4. (ii). Entonces para cada A ∈ C y cada autovalor λ de A se tiene que √ (i). S ∩ R2n×2n ) = (n1 . αS ) con α/ 2 ≤ αS ≤ α para la norma de Frobenius y αS = α para la norma || · ||2 . √ Entonces E es una matriz sim´trica y puede demostrarse que E F = 2 − |uT v1 |2 ≤ 2 e 1 √ (v´ase [55. Demostraci´n: o Sean u1 .

respectivamente. donde S = (XY H + Y X T )/2 y Entonces α = XY H 2 ≤ S 2 + W 2 . Entonces SR 2 ≥ S 2 /2 ´ SI 2 ≥ S 2 /2. Como WR es antisim´trica se e T tiene que v1 u1 = 0. e As´ tomando como perturbaci´n E = M E queda demostrada la segunda parte de (I). Eligiendo la perturbaci´n o E = M [u1 . a asociados al mayor valor singular de la matriz WR . el caso WI 2 ≥ W 2 /2 es an´logo ). ı. Sean u1 . Si S 2 ≤ W 2 /3.1. descomponemos W = WR +ıWI con WR . el Teorema 5.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 38 donde hemos aplicado el Lema 2. descomponemos S = SR + ıSI con SR . SI matrices sim´tricas e reales. o Para demostrar (ii) descomponemos la matriz XY H M = S + W . v1 los vectores singulares izquierdo y derecho.5. det(Φ) = −(β + γ)(β − γ) con a 1 γ= T (uT Su1 )(v1 Sv1 ) − (uT Sv1 )2 1 1 . sea u1 un o autovector ortonormalizado asociado al autovalor de la matriz SR cuyo valor absoluto coincide con SR 2 . v1 ] = ρ(Φ). WI matrices antisim´trie cas reales. Para la norma espectral. v1 ]T (S + W )[u1 . Si S 2 ≥ W 2 /3. v1 ]T ∈ S ∩ R2n×2n . ≥ S 2 /2 puede demostrarse an´logamente. Entonces E = M u1 uT ∈ S ∩ R2n×2n con E 2 = 1 cumple que 1 αS∩Rn×n ≥ ρ(EXY H ) = |uT XY H M u1 | = |uT Su1 | ≥ |uT SR u1 | 1 1 1 S 2+3 S 2 S 2+ W 2 α S 2 = ≥ ≥ . v1 ] que cumple E 2 0 1 1 0 [u1 . En el primer caso. Distinguimos dos casos. dependiendo de si la parte antisim´trica W domina o no a la parte sim´trica S. T uT Sv1 v1 Sv1 1 T u1 Su1 uT Sv1 1 αS∩R2n×2n ≥ ρ(EXY H ) = ρ donde Φ= con β = WR 2 −β 0 0 β + + ıuT WI v1 . = 1. a 2. ≥ 2 8 8 8 El caso SI 2 W = (XY H − Y X T )/2. e e 1. Supongamos que WR 2 ≥ W 2 /2 (de nuevo.8 de [69] nos dice que existe una matriz sim´trica E que transforma el vector u1 en v1 con E 2 = 1. se tiene 0 1 1 0 [u1 . Adem´s.

u . 8 8 ≥ y concluye la demostraci´n. A). Los autovectores asociados a un autovalor infinito de (A. En caso contrario. Perturbaciones estructuradas gen´ricas: problee mas generalizados Consideramos en esta secci´n dos extensiones del problema usual de autovalores: los o haces de matrices y los polinomios matriciales.3. e 2. algo que es importante en numerosas aplicaciones.2. decimos que x ∈ Cn es un autovector derecho asociado a λ0 si (A − λ0 B)x = 0. B) diremos que es simple si el rango de A − λB es n − 1. diremos que el autovalor es m´ltiple.3. Esto demuestra que ρ(Φ) ≥ |β| − |γ| ≥ WR = W 2 2 2 39 − S 1 S 8 2 2 − 9 S 8 2 + W 2 − S 2 2 S 2+ W 2 α ≥ ≥ . 2. el haz (A. debemos se˜alar que los n´meros de u n u condici´n no proporcionan informaci´n alguna sobre la direcci´n en la cual se mueven los o o o autovalores perturbados. N´tese que el o problema de hallar los autovalores y los autovectores de un haz de matrices (el llamado problema generalizado de autovalores) incluye como caso particular al problema usual de autovalores (basta tomar B = In ). sobre la sensibilidad de autovalores m´ltiples. y que y ∈ Cn es un autovector izquierdo de (A. o El Teorema 2. Nosotros s´lo o trataremos el caso de haces regulares.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS cumpliendo |γ| ≤ S 2 . aunque limitado. En caso contrario. A).10 (ii) nos dice que el restringir las perturbaciones al conjunto de matrices hamiltonianas reales puede tener un efecto positivo. Esta es una cuesti´n crucial a la hora de decidir si un autovao lor imaginario puro de una matriz hamiltoniana permanece o no sobre el eje imaginario cuando se le somete a perturbaciones estructuradas. Si λ0 es un autovalor finito del haz A − λB. se dice que el haz es singular.1. B) y se dice que λ ∈ C es un autovalor finito del haz (A. Se suele identificar el haz A − λB con el par de matrices (A. B) son los asociados al autovalor nulo de (B. Para resultados relacionados v´ase [8] y las referencias que contiene. matrix pencil) es una familia de matrices de la forma e {A − λB : λ ∈ C} con A. B) tiene uno o varios autovalores infinitos. Cuando la matriz B es singular. B ∈ Cn×n . que se identifican con los autovalores nulos del haz dual (B. B) si det(A − λB) = 0. Se dice que un haz es regular si existe un valor de λ tal que det(A − λB) = 0. Haces de matrices Un haz de matrices (en ingl´s. B) asociado a λ0 si y H (A − λ0 B) = 0. Dado un autovalor finito del haz (A. Por otro lado.

(2. §VI. donde E. 62. . [87. QH er1 n1 .26) donde N contiene r1 bloques de Jordan nilpotentes Nn1 de la forma (2. por ejemplo. . I 0 0 JB = Q Q B P P . . y que pasamos a describir a continuaci´n: para a o todo haz regular A − λB existen matrices cuadradas no singulares Q y P tales que donde J es suma directa de bloques de Jordan (2. . y J contiene los r1 bloques de Jordan asociados a λ de tama˜o m´ximo n1 .23)  0 1 · · · · · 1 0 ½ (2. (2.12) asociados a los autovalores finitos del haz. para un autovalor infinito del n a a haz (A.25) donde tanto (P. .23) es conocida como forma o can´nica de Weierstrass del haz (A. Al igual que en el problema usual de autovalores. An´logamente. P ) como Q son matrices invertibles. o mucho m´s natural para haces de matrices. . En un contexto m´s general. Dopico y Moro [88] han investigado el caso especial en que L(λ) es un a haz A − λB. La descomposici´n (2. B) en el l´ ımite cuando ǫ tiende a cero.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 40 De forma an´loga al problema usual de autovalores. y J∞ es suma directa de bloques de Jordan nilpotentes ¼ Q(A − λB)P = diag(J − λI . obteniendo desarrollos ıa asint´ticos de los autovalores perturbados de funciones matriciales anal´ o ıticas L(λ). B). de Ter´n. P e(r1 −1)n1 +1 QH en1 . Langer y Najman emplean en [61. . tenemos I 0 0 JA = Q Q A P P . QH e2n1 .2]). reemplazando la forma local de Smith por la forma can´nica de Weierstrass.1. B + ǫF ) a un haz (A. reunimos en las matrices X e Y autovectores derechos e izquierdos contenidos en las matrices P y Q: X = Y = P e1 . B). N 0 0 JB = Q Q B P P . . B). o e Dado un autovalor finito λ de un haz regular (A. la forma can´nica de Weierstrass o puede escribirse de la forma J 0 0 JA = Q Q A Q P P . (2. B). (2. consideramos perturbaciones de la a forma (A + ǫE. y estudiamos la sensibilidad de los autovalores de (A.27) . Recientemente. λJ∞ − I). B) (v´ase. Al mayor tama˜o de estos bloques nilpotentes se le llama n ´ ındice de nilpotencia del haz (A.24) asociados al autovalor infinito. 63] la forma loa cal de Smith para extender la teor´ de perturbaciones de Lidskii. . P en1 +1 .24). F ∈ Cn×n .

podemos definir un n´mero de condici´n para autoa u o valores m´ltiples de un haz regular de matrices como sigue. 2. El n´ mero de condio u ci´n (absoluto)de H¨lder de λ viene dado por o o κ(A. El n´mero de condici´n (absoluto) de H¨lder para u o o un autovalor λ = ∞ de (A. B. B) y sean (E.27). Y y P. k = 1. .1.27). Entonces existen n1 r1 autovalores λk del haz perturbado (A + ǫE. . Para n1 > 1 tenemos la igualdad Y H AX = Y H BX = 0 para cualquier autovalor λ. Entonces existen n1 r1 autovalores λk del haz perturbado (A + ǫE. B) viene dado por κ(A. . ∞) = (n1 . Teorema 2.1. donde ξ1 . . r1 (2. . .1 Sea λ un autovalor finito de un haz regular (A. B).a. .F ∈Cn×n ρ(Y H (E − λF )X). donde n1 es la dimensi´n del mayor bloque de Jordan asociado a λ en la forma can´nica o o de Weierstrass de (A. .3. . λk k = 1. r1 }. Para n1 = 1 tenemos que Y H BX = I si λ es finito e Y H AX = I si λ es infinito. donde X e Y vienen dadas por (2.3. B) y α= sup ρ(Y H F X). ξr1 son los autovalores de la matriz Y H (E − λF )X. sea F ∈ Cn×n tal que la matriz Y H F X es invertible. F ) ∈ Cn×n × Cn×n matrices tales que Y H (E − λF )X es invertible.||F ||≤wB E. ||F ||≤wB F ∈Cn×n .28) en potencias fraccionarias. Y . B). B) y α= sup ||E||≤wA .2 Sea λ un autovalor finito del haz regular (A.3. . . . . Para autovalores infinitos del haz (A. α).´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 41 Obviamente. α). N´ meros de condici´n no estructurados para haces de matrices u o Bas´ndonos en el Teorema 2. con X e Y definidas como en (2. B + ǫF ) que admiten un desarrollo λk = λ + (ξk )1/n1 ǫ1/n1 + o(ǫ1/n1 ).29) donde ξk son los autovalores de Y H F X para k ∈ {1. Q impone una normalizaci´n sobre las matrices o o X. (2. donde n1 es el ´ ındice de nilpotencia del haz (A. u Definici´n 2. r1 . λ) = (n1 . . .3. B. Los siguientes teoremas resumen los principales resultados de [88] en cuanto a desarrollos para autovalores perturbados de haces regulares. . B + ǫF ) que admiten el desarrollo en potencias fraccionarias 1 = (ξk )1/n1 ǫ1/n1 + o(ǫ1/n1 ). la relaci´n entre X.

∞) es an´loga.2 est´ basada en la distancia usual |λ − λ| en C. Demostraci´n: o Por un lado ρ(Y H (E − λF )X) = ρ((E − λF )XY H ) ≤ (E − λF )XY H 2 ≤ (E − λF )XY H ≤ (wA + wB |λ|) XY H para perturbaciones E. con las normas de las matrices A y B. Estamos suponiendo impl´ o ıcitamente que estas cantidades son estrictamente positivas cero. B.2 no s´lo depende de la norma matricial. ya que. supondremos que wA > 0 si λ = 0. Theorem 4. wB > 0 ıa a si λ = ∞ y m´x{wA . v1 los vectores singulares izquierdo y derecho correspondiente al ma¯ λ yor valor singular de XY H . (wA + wB |λ|) XY H 2 ) para autovalores finitos y κ(A. se tiene que κ(A. |λ|2 + 1 |λ|2 + 1 que incluye de forma natural autovalores infinitos |µ|→∞ χ(λ. Por ejemplo. λ) = . B. Un concepto m´s elegante de distancia es el que ofrece la λ distancia cordal |λ − λ| χ(λ. Por otro lado. B. wB } > 0 para cualquier otro autovalor. sean u1 . ser´ κ(A. en caso contrario. . o Lema 2. que |λ − λ| = | 1 − λ |.3. Para autovalores o a infinitos la distancia usual no es invariante bajo intercambios de las matrices A y B. ∞) = l´ χ(λ. Escogiendo las perturbaciones E = wA v1 uH y F = − |λ| wB v1 uH 1 1 (F = 0 si λ = 0) tenemos que E ≤ wA . El lema siguiente representa una extensi´n directa de [72.3. Los pesos wA y wB se ina troducen en la Definici´n 2. F ≤ wB y α ≥ ρ((wA + wB |λ|)v1 uH XY H ) = 1 La demostraci´n para κ(A. λ) = (n1 . o a = (wA + wB |λ|)ρ(uH XY H v1 ) = (wA + wB |λ|) XY H 2 . F ≤ wB . λ) = (n1 . F tales que E ≤ wA . λ) = (0. parece razonable escoger los pesos de la forma wA = A / A 2 + B 2 y wB = B / A 2 + B 2 . 0). wB XY H ) si λ = ∞.3 Para cualquier norma unitariamente invariante. Por tanto α ≤ (wA + wB |λ|) XY H 2 .3.2 para equilibrar la influencia de las perturbaciones de las o matrices A y B.3. 1 2 La Definici´n 2. B.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 42 N´tese que la Definici´n 2. sino que tambi´n o o o e depende de la elecci´n de los pesos no negativos wA y wB . es 1 a decir. M´s concretamente. µ) = ım 1 |λ|2 + 1 . respectin vamente. si tanto E y F tienen norma peque˜a comparada.2].

y sea S un o subconjunto de Cn×n × Cn×n . Algunas demostraciones de la Seccion 2. escribirlos en t´rminos de la e distancia cordal es inmediato. y αS > 0 es el mayor valor posible de αk para toda (E. Si el objetivo es calcular un autovalor finito λ parece ser m´s relevante utilizar a la m´trica usual. u o El empleo de la m´trica usual o de χ depender´ de la aplicaci´n en la que estemos e a o interesados. B + ǫF ) entre todas las perturbaciones (E. λ.29) se tiene que e a χ(λk . suponemos que las cantidades wA .4 Sea λ un autovalor del haz regular (A. F ≤ wB .||F ||≤wB (E. B. χ(λk .1 pueden extenderse al caso de autovalores de haces de matrices si la estructura es separable. El n´ mero de condici´n estructurado de H¨lder de λ u o o con respecto a S se define como κ(A. B) con A. λ.b.3. S) = (nS . es decir si S = S1 × S2 con S1 .´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS (v´ase [87] para m´s detalles). αS ) para un subconu o o n×n n×n junto S ⊂ C ×C puede definirse an´logamente al del problema usual de autovalores. F ) ∈ S con E ≤ wA . 2. wB son positivas: Definici´n 2. Es f´cil ver que esta modificaci´n de n´mero de condici´n tiene la propiedad de ser continua para |λ| = ∞. N´ meros de condici´n estructurados para haces de matrices u o El n´mero de condici´n de H¨lder estructurado κ(A. . S2 ⊂ Cn×n .28) y (2. a Como antes.1. B. k = 1. . e Todos los resultados que veremos a continuaci´n est´n basados en la m´trica usual o a e de C pero como hemos visto por los comentarios anteriores. de los autovalores del haz perturbado (A + ǫE. S) = (nS .2. . En particular. . αS ). si nS = n1 entonces αS = sup ||E||≤wA . λ) = y (ξk )1/n1 ǫ1/n1 + o(ǫ1/n1 ) |λ|2 + 1 43 Esto demuestra que cuando se trabaja con la m´trica cordal χ la cantidad α en la e definici´n del n´mero de condici´n de H¨lder para un autovalor finito debe dividirse por o u o o a a o |λ|2 + 1.F )∈S ρ(Y H (E − λF )X). m. mientr´s que para un autovalor infinito es igual. ∞) = (ξk )1/n1 ǫ1/n1 + o(ǫ1/n1 ). Esto se refleja en el siguiente teorema: . F ) ∈ S.3. Sustituyendo los desarrollos (2. B ∈ Cn×n . donde 1/nS es el menor exponente posible γk de ǫ en los desarrollos γ λk = λ + αkk ǫγk + o(ǫ).

f) Si λ = ∞. B ∈ Cn×n y cualquier norma unitariamente invariante. nS = n1 y αS = α = w ­ ­ ­ B­ ­ æ é ­ ­ ­ ­ κ(A. B ∈ S1 y cualquier norma unitariamente invariante. B) ∈ S1 × S2 en la norma dos: √ b) Si λ = ∞. entonces e nS1 ×S2 = n1 y αS1 ×S2 = α para matrices A. entonces nS = n1 y αS = wB σ1 σ2 . S1 × S2 ) = (nS1 ×S2 . B ∈ Cn×n con AT = A. donde σ1 . nS = n1 y αS = α = w ­ ­ ­ A­ ­ æ é ­ ­ ­ ­ X 0 Ir1 /2 −Ir1 /2 0 X T­ 2 . n1 es impar y r1 = 1. 2. Entonces. Sean κ(A. Haces de matrices sim´tricas : Si S1 = S2 = {A ∈ Cn×n : AT = A}. c) Si λ = ∞ y n1 es par.5 Sean S1 . (i). (iii). (ii). entonces r1 es par. donde X 2 Y 2 − |Y T X|2 . Haces de matrices reales: Si S1 = S2 = Rn×n . g) Si λ = ∞. λ) = (n1 . entonces nS1 ×S2 = n1 y α/4 ≤ αS1 ×S2 ≤ α para matrices A. α). S2 dos subconjuntos de Cn×n y sea λ un autovalor del haz regular (A. X 0 Ir1 /2 −Ir1 /2 0 X T­ 2 . a) Si λ = ∞. entonces nS = n1 y αS = wA α1 + wB |λ|α2 . λ = 0 y r1 = 1. B) ∈ Cn×n .3.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 44 Teorema 2. B T = B y cualquier norma unitariamente invariante. αS1 ×S2 ). entonces nS = n1 y αS ≥ wA XY H 2 . entonces nS < n1 . B. Haces de matrices sim´tricas/antisim´tricas : Si S1 = {A ∈ Cn×n : AT = A} y e e S2 = {B ∈ Cn×n : B T = −B} entonces los siguientes resultados son ciertos para haces de matrices (A. α1 = X 2 Y 2 y α2 = 2 2 . d) Si λ = 0 y n1 es par. σ2 son los dos mayores valores singulares de la matriz XX T (mientras que α = wB σ1 ). Haces de matrices sim´tricas reales: Si S1 = S2 = {A ∈ Rn×n : AT = A} entonces e nS1 ×S2 = n1 y α/2 ≤ αS1 ×S2 ≤ α para matrices A. entonces nS = n1 y αS = α = wA XX T e) Si λ = 0 y n1 es impar. n1 es impar y r1 > 1. λ. λ = 0 y r1 > 1. B. entonces r1 es par. (iv).

(ii) y (iii) Usando el hecho de que la forma can´nica estructurada de un haz sim´trio e co [89. B ∈ Cn×n en norma dos. el haz E − λF con e 0 E = wA [u1 . Entonces. Sean u1 . Haces de matrices antisim´tricas:Si S1 = S2 = {A ∈ Cn×n : AT = −A} entonces e nS1 ×S2 = n1 . Esto prueba e . −1} fijos. Theorem 8. Esto implica que α/wB coincide con el n´mero de e u condici´n no estructurado para autovalores nulos de B y los apartados (a)–(c) se siguen o del Teorema 2. B) [71. sabemos que existe una matriz real E o con E ≤ 1 tal que ρ(Y H EX) ≥ XY H 2 /2. F ∈ S2 . Theorem 1] implica que Y = X. Demostraci´n: o Mientras no se indique lo contrario. 0 Ir1 /2 −Ir1 /2 0 è X T es una matriz antisim´trica. B ∈ S1 en norma || · ||2 .2. r1 es par y αS1 ×S2 = α para cualesquiera A.2. ∗ denota una matriz no nula de tama˜o (r1 − 1) × (r1 − 1) y hemos n 1 å T usado que v1 u1 = 0 ya que X (e). a (i) En vista de la demostraci´n del Lema 2.3] conduce o a que Y = X. (vi). entonces r1 es par e Y = X −Ir /2 0 .´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 45 (v). o e e Theorem 1] impone la misma estructura en las matrices X e Y que para los autovalores nulos de una matriz antisim´trica. (iv) Para λ = ∞. v1 vectores 1 singulares izquierdo y derecho respectivamente. dondeåU ΣV H es una descomposici´n en valores singulares de la matriz o è −Ir1 /2 0 T X Ir /2 0 X . Si å è Ir1 /2 0 λ = 0 y n1 es impar. F = wB E en otro caso. 2 4 lo que demuestra (i). suponemos que el autovalor λ es finito (para el caso λ = ∞ las demostraciones son an´logas). F = 0 si wA ≥ wB |λ| y E = 0. Si. E æ 2 = wA y αS ≥ ρ EX 0 Ir1 /2 −Ir1 /2 0 é å XT = ρ(V H EU Σ) = ρ wA σ 1 0 0 ∗ è ≥ wA σ1 = α.2. adem´s. correspondientes al mayor valor singular å è σ1 de la matriz antisim´trica XY H = X Ir 0/2 −Ir1 /2 X T . Para λ = 0 y n1 par. luego tomando E = wA XX H / XX T 2 . Haces de matrices herm´ ıticas : Sea Sj = {A ∈ Cn×n : AH = γj A} para j ∈ {1. γ1 = γ2 y λ ∈ R a entonces αS1 ×S2 = α.6. Entonces ρ(Y H (E − λF )X) ≥ wA + wB |λ| wA + wB |λ| ρ(Y H EX) ≥ XY H 2 .7 (i)–(iii). los apartados (ii) y (iii) pueden demostrarse de igual manera que el Teorema 2. v1 ] ä 0 1 1 0 ç 1 [u1 . 2} con γ1 . la forma can´nica del haz (A. Entonces nS1 ×S2 = n1 y se cumplen las desigualdades √ α/ 2 ≤ αS1 ×S2 ≤ α para cualesquiera matrices A. F = 0 se demuestra (d). la forma can´nica estructurada de un haz sim´trico/antisim´trico [89. v1 ]T y F = 0 son tales que E ∈ S1 . γ2 ∈ {1. Escogemos E = wA E.2.

(v) Para haces antisim´tricos/antisim´tricos.||F ||≤wB (E. |γ1 | = |γ2 | = 1 de manera que el par (E. Entonces E = wA γ1 E ∈ S1 √ y F = −δwB γ2 E ∈ S2 cumplen que √ √ αS1 ×S2 ≥ ρ((E − λF )XY H ) = |wA γ1 + δwB γ2 λ| XY H 2 ≥ wA + wB |λ| √ XY H 2 . induce la relaci´n Y = X −Ir /2 0 entre X e Y . Teorema 5.2. cuya norma espectral es igual a uno.7 (iv). a o e e è Ir1 /2 0 Theorem 8. ||E||≤1 E∈S1 ||F ||≤1 F ∈S2 El supremo en S1 est´ claramente acotado por α1 . Elijamos δ ∈ {1. Entonces existen γ1 . γ2 ∈ C.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS Para autovalores no nulos finitos λ y r1 = 1.2]).10. Por [69. Adem´s. F ) = a (γ1 wA E1 .8 . existe una matriz sim´trica E1 con E1 2 = 1 y ρ(Y H E1 X) ≥ XY H 2 . −1} de modo que δ es igual √ al signo de λR si γ1 = γ2 .2.8] tenemos que existe una matriz E ∈ S1 con E 2 = Y 2 / X 2 tal que EX = Y . E 2 |λ| ­ ­ ­ ­ ­ se tiene que ρ(Y (E − λF )X) = (wA + |λ|wB ) X H T 0 Ir1 /2 X = α. E 2 æ F =− −Ir1 /2 0 é wB λ E. la forma åcan´nica estructurada [89] (v´ase tambi´n [71. Para autovalores no nulos finitos λ y r1 > 1 tenemos que. Por 2 tanto. con norma espectral igual a uno que alcanza el valor m´ximo α2 . podemos construir una matriz herm´ o ıtica E tal que E 2 = 1 y ρ(EXY H ) = XY H 2 . mientras que el supremo en S2 es igual a a α2 por el Teorema 2. γ2 wB F2 ) ∈ S1 × S2 cumple ρ(Y H (E − λF )X) = wA α1 + wB |λ|α2 . y las perturbaciones E = = wB y ­ ­ ­ ­ ­ H wA E. Sea F2 ∈ S2 . la matriz sim´trica E1 = X 2 E. e As´ tomando E = wA E1 y F = 0 probamos (g). luego αS = sup ||E||≤wA . Si elegimos la matriz o å E = X −Ir /2 1 E 2 = wA . ≥ . Por tanto. todo autovalor tiene un n´mero par r1 e e u de bloques de Jordan. 2 (vi) Como en la demostraci´n del Lema 2. y al signo de −λI en caso contrario. alcanza e Y la cota superior α1 . F 0 Ir1 /2 0 2 è 1 X . 2 La ultima desigualdad se sigue del hecho de que ´ √ √ 2 2 2|wA γ1 + δwB γ2 λ|2 − (wA + wB |λ|)2 ≥ wA − 2wA wB |λ| + wB |λ|2 = (wA − wB |λ|)2 ≥ 0. ı.2. se tiene que ρ(Y H (E − λF )X) = |Y H (E − λF )X|. como se vio en la demostraci´n o del Teorema 2. αS ≤ wA α1 + wB |λ|α2 . Esto prueba (f).F )∈S 46 ρ(Y H (E − λF )X) ≤ ≤ wA sup ρ(Y H EX) + wB |λ| sup ρ(Y H F X).

2 2. entonces nS = n1 y αS = 2 σ1 σ2 . AT . y que aparece en muchas aplicaciones. = 1 sup ρ (1 − λ)Y H (E + E T )X + (1 + λ)Y H (E − E T )X . (iii). entonces nS = n1 y αS = α = 2 XX T (vi). entonces r1 es par. A ) (para m´s detalles v´ase [46. σ2 son los dos mayores valores singulares de la matriz XX T (mientras que α = 2σ1 ). (v). Si λ = ±1 es finito y r1 = 1. Si λ = ±1 es finito y r1 > 1. AT ) : A ∈ Cn×n } el conjunto de haces pal´ omicos de maındr´ trices y tomemos wA = wB = 1.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 47 √ Si γ1 = γ2 = 1 y λ ∈ R entonces |wA + δwB λ| = wA + wB |λ|. Si λ = 1. es la estructura palindr´mica. S) = (nS . y el factor 1/ 2 puede eliminarse. entonces nS < n1 .30) . Si λ = 1. donde σ1 . n1 es impar y r1 = 1. Si λ = −1 y n1 es par. en el sentido que no es separable. Un haz palindr´mico es un haz de o o T la forma (A. Si λ = 1 y n1 es par. (i).3. 2 (iv). Demostraci´n: o Si λ es un autovalor finito y nS = n1 entonces αS = sup ρ(Y H (E − λE T )X) = E 2 ≤1 E∈Cn×n |1−λ| α 1+|λ| ≤ αS ≤ α. Entonces las siguientes afirmaciones sobre κ(A. 2 2 (vii). 2 E 2 ≤1 E∈Cn×n (2. entonces nS = n1 y αS = |1 − λ| α1 + |1 + λ| α2 donde α1 = X 2 Y 2 y α2 = X 2 Y 2 − |Y T X|2 . Si λ = ∞. αS ) son ciertas para cualquier A ∈ Cn×n y para la norma espectral.6 Sea S = {(A. nS = n1 y αS = α = 2 X ­ ­ ­ ­ ­ æ 0 Ir1 /2 −Ir1 /2 0 é X ­ ­ T­ ­ ­ . entonces nS = n1 y αS = α. Una estructura diferente a las anteriores. 66]). Para esta clase estructurada de haces a e se tiene el siguiente resultado: Teorema 2. entonces nS = n1 y (viii). √ (ii). nS = n1 y αS = α = 2 X ­ ­ ­ ­ ­ æ 0 Ir1 /2 −Ir1 /2 0 é X T­ ­ ­ ­ ­ . Si λ = −1 y n1 es impar entonces r1 es par. λ. n1 is impar y r1 > 1.

5 (iv) (f).30) que αS = sup ρ(Y H (E − λE T )X) = E 2 ≤1 E∈Cn×n sup G 2 ≤2 Gantisim´trica e ρ(Y H GX) = =2 sup G 2 ≤1 Gantisim´trica e ρ(Y H GX). la relaci´n (2. la matriz E = γ1 E1 + γ2 E2 con γ1 . que se toma sobre matrices sim´tricas. 80. Si λ = −1 y n1 es par. Ahora.10) de que existe una matriz sim´trica E1 tal que E1 2 = 1 y ρ(Y EX) ≥ XY H 2 .3.7 (iv). Resumiendo los resultados del Teorema 2. e e Si el autovalor es λ = 1 y n1 es impar entonces la forma can´nica estructurada de o å è 0 T (A. (ii) y (iii) de este teorema. o . como la definici´n de α no cambia para autovalores infinitos. el primer supremo. sea E1 una matriz sim´trica e H con E1 2 ≤ 1 y |Y E1 X| = α1 . entonces la forma can´nica estructurada de (A. AT ) implica o å è Ir1 /2 0 que r1 es par e Y = X −Ir /2 0 . se verifica o (viii).2. e y (iii) del Teorema 2. el supremo en E2 es igual e u a α2 . Por tanto. el n´mero de condici´n de H¨lder estructurado para el autovalor λ = 1 de u o o T (A. Luego una elecci´n an´loga o a de la matriz sim´trica E demuestra (iv) y (v).6 podemos concluir que los n´meros de u condici´n de H¨lder estructurados y no estructurados de un haz de matrices palindr´mico o o o pueden diferir significativamente s´lo para autovalores cercanos a 1. satisface E 2 ≤ 2 y adem´s |Y H EX| = |1 − λ| α1 + |1 + λ| α2 a lo que concluye la demostraci´n de (vi). X e Y son vectores). e Finalmente. AT ) puede extraerse la forma can´nica [89] o o o T T del haz de matrices sim´trico/antisim´trico (A + A .3. 83] se demuestra que e e la forma can´nica de un haz palindr´mico (A. es igual a α1 . Entonces. Si λ = −1 y n1 es impar. A − A ). E1 2 ≤1 E1 es sim´trica e E2 2 ≤1 E2 es antisim´trica e Como se demuestra en el Teorema 2. De nuevo 1 se sigue de (2. entonces r1 es par e Y = X −Ir /2 Ir1 /2 . y sea E2 una matriz antisim´trica con E2 2 ≤ 1 y e |Y H E2 X| = α2 . los apartados (i). entonces Y = X. 0 1 Por otro lado.2.30) o implica αS ≤ |1 − λ| sup |Y H E1 X| + |1 + λ| sup |Y H E2 X|. se sigue de (2. o El apartado (vii) se sigue directamente del hecho (v´ase la demostraci´n del Teorema e o H 2. Seg´n el Teorema 2. Esto demuestra que αS ≤ |1 − λ| α1 + |1 + λ| α2 . En particular. e Para un autovalor finito λ con r1 = 1 (es decir. (ii).5 (iv). De hecho.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 48 Esta relaci´n indica que el an´lisis de los haces palindr´micos est´ relacionado con el an´lisis o a o a a de haces de matrices sim´trica/antisim´trica.2. en [49.30) que el supremos de ρ(Y H (E − λE T )X) es alcanzado por una matriz sim´trica E si λ = −1. γ2 convenientemente elegidas cumpliendo |γ1 | = |γ2 | = 1. Por tanto.3. Si λ = 1 y n1 es par.7 implican los apartados (i). A ) implica Y = X. la situaci´n en (iv) y (v) es completamente paralela a e o los apartados (e) y (d) respectivamente del Teorema 2. A ) coincide esencialmente con el n´mero de condici´n de H¨lder estructurado para el u o o autovalor λ = 0 de la matriz antisim´trica A − AT .

. Polinomios matriciales Otras variantes en principio m´s generales del problema generalizado de autovalores. 0 0 · · · −A1 −A0 ··· 0 0 ··· 0 0 . . . Ei ∈ Cn×n . .. un haz L(λ) de mn × mn es una linealizaci´n del polinomio P (λ) en (2. (2. . . .31) es un haz de matrices a o 1 cuyos autovalores coinciden con los de P (λ) . .2] (v´anse tambi´n [67. Para investigar el comportamiento de los autovalores perturbados correspondientes.32) de tama˜o mn × mn se llama forma compa˜era del polinomio matricial (2. En lo que sigue supondremos que el polinomio matricial P es regular. En esta secci´n veremos como obtener n´meros de o o u condici´n de H¨lder para autovalores de un polinomio matricial o o P (λ) = λm Am + λm−1 Am−1 + . E(λ)L(λ)F (λ) = 0 I(k−1)n . . .1 & 7.31) a o si existen matrices unimodulares (esto es. .1. El haz de matrices e ¼ A − λB =  −Am−1 −Am−2 I 0 0 I .2. Ai ∈ Cn×n . . B + ǫF )..3. o e e Consideramos el polinonio matricial perturbado P + ǫ△P con △P (λ) = λm Em + λm−1 Em−1 + · · · + λE1 + E0 . . ··· 0 0 ··· 0 0 ··· 0 0 . esto es. 66]). §1. . . con determinante constante..31). . a como son los polinomios matriciales. 0 ··· 0 I ½ (2. y se dice que los vectores x. . ..31) Decimos que λ es autovalor de P (λ) si det P (λ) = 0. autovector derecho e izquierdo asociados al autovalor λ si P (λ)x = 0 e y H P (λ) = 0. respectivamente. que veremos a continuaci´n. independiente de λ) E(λ) y F (λ) tales que P (λ) 0 . (2. 0 0 I 0 . + λA1 + A0 . hay tambi´n una correspondena e cia. Adem´s. pueden reformularse de tal forma que se puedan tratar con las ideas de la secci´n 2. . donde E = −V 1 Em−1 Em−2 · · · E1 E0 . F = V Em V T .33) De forma m´s rigurosa. observamos que coinciden con los autovalores del haz de matrices perturbado (A + ǫE. . . que el polinomio det P (λ) en la variable λ no es id´nticamente nulo.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 49 2. . respectivamente. ··· I 0 ½ ¼ −λ  Am 0 0 . . y ∈ Cn×n son. y representa n n una de las linealizaciones m´s usuales: una linealizaci´n de (2.3. entre los autovectores de P (λ) y los autovectores de su o linealizaci´n [38.

0. El n´mero de condici´n (absoluto) de H¨lder para λ = ∞ viene dado por κ(P. .34) 2 El concepto de linealizaci´n fuerte fue introducido por Gohberg. . sean X e Y las correspondientes matrices de autovecn tores (2. 67] conducir´ al mismo n´mero de condici´n de H¨lder. Por tanto. que preservan la forma compa˜era.2 y 2. ya que la relaci´n entre los autovalores de un polinomio matricial y los o o autovalores de cualquier linealizaci´n es biyectiva. λ) = (n1 . donde n1 es el tama˜o del mayor bloque de Jordan en la forma n de Weierstrass del haz (A. B) y α= sup ρ(Y H F X).7 Sea λ un autovalor finito del polinomio matricial P con forma como pa˜era (A. Para evitar situaciones degeneradas impondremos w0 > 0 para λ = 0. 60.3. y= y1 (λAm + Am−1 )H y1 . Ei ≤wi Ei ∈Cn×n N´tese que no perdemos generalidad por usar la linealizaci´n en forma compa˜era en o o n la Definici´n 2. B) asociado al autovalor λ y α= Ei ≤wi Ei ∈Cn×n sup ρ(Y H (E − λF )X). los resultados en [45. Definici´n 2. α).3.27) de (A. F ) de la forma (2.32). . wm } > 0 para cualquier otro a autovalor. . Lemma 7. adem´s. . tanto estructurado como no estructurado. . B).4 de n´mero o a u de condici´n de H¨lder. . 0]T . α).33). aunque o fueron Lancaster y Psarrakos quien le dieron ese nombre en [60]: un linealizaci´n L(λ) = A − λB de un o polinomio regular P (λ) es fuerte si. wm . en el sentido de que permite flexibilidad en los coeficientes al permitir la elecci´n o de m + 1 pesos no negativos w0 . wm > 0 para λ = ∞. i = 0. cualquier otra linealizaci´n o o fuerte2 en el sentido de [37. ∞) = (n1 . Consideramos las matrices de perturbaci´n (E. Esta relaci´n nos permite extender f´cilmente las Definiciones 2. m constantes no negativas. . . . . . . . B) y sean wi .3. el haz dual B − λA de L(λ) es una linealizaci´n del polinomio a o dual de P (λ). .3.7] demuestran que x1 e y1 son autovectores derecho e izquierdo asociados al autovalor λ de P si y s´lo si o λm−1 x1 . . M´s concretamente. del marco de los haces o o de matrices al de los polinomios matriciales.7. Kaashoek y Lancaster en [37]. . Lema 3. El estructurado se define de manera an´loga. λx1 x1 â x= . . . o n Entonces el n´ mero de condici´n (absoluto) de H¨lder para el autovalor λ viene u o o dado por κ(P. B) como en (2. Una a u o o de las ventajas de haber elegido la forma compa˜era es la estructura especialmente sencilla n de los autovectores del haz (A. a La siguiente definici´n es ligeramente m´s general que la Definici´n 2. .2] a y [44.3.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 50 y V = [In . u o o donde n1 es el ´ ındice de nilpotencia del haz (A. . Dedicaremos lo que queda de esta secci´n al o condicionamiento no estructurado. y m´x{w0 .2 de la que o a o proviene. (λm−1 Am + λm−2 Am−1 + · · · + A1 )H y1 â (2.

3. son de la u forma λm−1 X1 . (wm |λ|m + wm−1 |λ|m−1 + · · · + w0 ) X1 Y1H 2 ) para cualquier norma unitariamente invariante · . s´lo los primeros bloques de las matrices X e Y son no nulos o e iguales a X1 e Y1 . . 0]H . X e Y dadas en (2. (λm−1 Am + λm−2 Am−1 + · · · + A1 )H Y1 â . . que contienen autovectores derechos e izquierdos asociados a un autovalor finito (m´ltiple) λ del haz (A. . se prueba que o ρ(Y H (E − λF )X) ≤ (wm |λ|m + wm−1 |λ|m−1 + · · · + w0 ) X1 Y1H 2 (2. Para autovalores infinitos la demostraci´n es an´loga.3. o a . donde X1 e Y1 son las matrices de autovectores de P relativas a las matrices de autovectores X e Y del haz (A. F . . B) vienen dados por x = [xH .35) donde X1 e Y1 son matrices de autovectores derechos e izquierdos del polinomio matricial P .36) se alcanza con la elecci´n o de las siguientes perturbaciones E0 = w0 vuH . Demostraci´n: o La estructura de las matrices E. asociados al mayor valor singular de la matriz X1 Y1H . .33) y (2. respectivamente. teniendo en cuenta que Y H F X = Em . o Lema 2. κ(P. respectivamente. los autovectores de (A. 0]H e y = [y1 . o a algo que – estrictamente hablando – es necesario para justificar la Definici´n 2. respectivamente.7.35) implica que Y H (E − λF )X = −Y1H (λm Em + λm−1 Em−1 + · · · + E0 )X1 Como en la demostraci´n del Lema 2. Para el autovalor λ = H ∞. . . Esto demuestra el resultado para λ finito.27). . . v los vectores singulares izquierdo y derecho. Entonces.36) Sean u. λ) = (n1 .3.35). Para un autovalor infinito. |λ| |λ| con E1 = · · · = Em = 0 para λ = 0. . 1 Esto demuestra que las matrices X e Y definidas en (2.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 51 son autovectores derecho e izquierdo del haz (A.31) y sea λ un autovalor finito de P . (2. λ) = (n1 . . Y = Y1 (λAm + Am−1 )H Y1 . 0. Entonces κ(P. B) como se muestra en (2. Para un autovalor infinito.8 Sea P (λ) un polinomio matricial regular de la forma (2. . B). λX1 X1 â X= . El siguiente lema nos proporciona una f´rmula expl´ o ıcita del n´mero de condici´n de u o H¨lder y adem´s demuestra que α > 0 (bajo las condiciones anteriores sobre los pesos). . wm X1 Y1H 2 ). 0. . . B). E1 = w1 ¯ ¯ λ H λm vu . . la igualdad en (2. Em = wm m vuH .3.

a . por ejemplo.8. el exponente γk coincide gen´ricamente con 1/n1 . Esto puede ocurrir para una perturbaci´n E en concreto. un autovalor λ de A y una perturbaci´n aditiva o de la forma A + ǫE para una cierta E ∈ Cn×n .8.3. Para estas estructuras. λ un autovalor o finito semisimple de P y supongamos que X1 y Y1 contienen bases arbitrarias de autovectores derechos e izquierdos asociados a λ. λ.37) Adem´s. nuestro primer objetivo en esta secci´n es hallar o o condiciones necesarias y suficientes sobre la clase S bajo las cuales nS < n1 .27).3.9.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 52 Queremos hacer notar que las matrices X1 e Y1 no pueden elegirse arbitrariamente en el Lema 2.35) implica Y H B X = Y1H P ′ (λ)X1 . α) los n´meros de u condici´n estructurado y no estructurado. ´ a e o Si. nuestro objetivo ser´ identificar nS y. Theorem 5] sobre o n´meros de condici´n para autovalores simples de un polinomio matricial. Perturbaciones estructuradas completamente no gen´ricas: el caso matricial e Dada una matriz cuadrada A ∈ Cn×n .27) para un autoo valor semisimple. .1 que los o autovalores perturbados λk pueden escribirse como γ λk = λ + αkk ǫγk + o(ǫγk ). u o 2. Como λ es semisimple y finito. k = 1. Una vez identificadas tales estructuras. y a ´l dedicaremos la presente secci´n. λ) = 1. λ) = (n1 . (wm |λ|m + wm−1 |λ|m−1 + · · · + w0 )­X1 (Y1H P ′ (λ)X1 )−1 Y1H ­ ­ ­ 2 . como antes. . ­ ­ κ(P. por tanto. m. siendo n1 el tama˜o del mayor a e n bloque de Jordan asociado al autovalor λ. denotamos por κ(A. el resultado depende de la normalizaci´n de las matrices X e Y impuesta o por (2. ya hemos visto en la secci´n 2. Si denotamos por X e Y las correspondientes bases de autovectores de A − λB entonces (2. diremos que es completamente no gen´rica para el autovalor λ y e la matriz A en cuesti´n. o para o todas las perturbaciones E que pertenezcan a una cierta clase de matrices estructuradas S. Este ultimo caso es el que m´s nos interesa. Por el Lema 2. Sin embargo. ǫ → 0. αS ) y κ(A. Si la estructura cumple esta propiedad. si es posible. la matriz Y1H P ′ (λ)X1 es invertible y X1 = X1 (Y1H P ′ (λ)X1 )−1 . Y1 = Y1 cumple que Y1H P ′ (λ)X1 = I. . Para ilustrar el efecto de tal normalizaci´n. (2. esta f´rmula coincide con el resultado de Tisseur [90. hay casos en los que γk es estrictao mente mayor que 1/n1 . S) = (nS . . Para r1 = 1. el comportamiento de λ frente o a perturbaciones en S es cualitativamente mejor que frente a perturbaciones arbitrarias. como se observ´ en el Ejemplo 2. Esto implica la condici´n impuesta por (2.4. sea.

si X e Y son las matrices de autovectores definidas en (2.2. dada una clase S de matrices estructuradas. o N´tese en primer lugar que. se obtiene κ(A. 0) = (3. puesto que el n´mero de condici´n refleja el mayor efecto o u o posible sobre los autovalores.14).4. 0. a ||E||F =1 Ejemplo 2. Por tanto. estimaciones para αS . una estructura S es completamente no gen´rica si y s´lo si para toda matriz E ∈ S e o se cumple la ecuaci´n o Y H EX = 0r1 ×r1 . 2). e Ejemplo 2. basta que haya una sola matriz E ∈ S tal que el exponente γk en (2. S) = (2. Si calculamos el n´mero de condici´n de H¨lder no estructurado usando la Definici´n u o o o 2. Para ello emplearemos en la secci´n 2.37) sea igual a 1/n1 para concluir que nS = n1 .1 Sea S = {A ∈ C3×3 : A = −AT } el conjunto de las matrices antisim´tricas e complejas de tama˜o 3 y sea la matriz antisim´trica n e A= 0 1 0 −1 0 i 0 −i 0 Ǒ .13) y (2. Puede comprobarse que los autovalores perturbados λk (ǫ) de A + ǫE para cualquier matriz antisim´trica e E= cumplen el desarrollo asint´tico o 1 0 x y −x 0 z −y −z 0 Ǒ . m´x |2iz + 2x|) = (2. 2). . Consideramos su unico autovalor λ = 0. 2. que posee un unico bloque de Jordan de tama˜o ´ ´ n 3. y el n´mero de condici´n estructurado es u o κ(A.3 el diagrama de Newton. Sea 1 √ A= 2 i 0 i 0 i √ 0 i − 2 Ǒ ∈ S. al menos.2 Consideramos la estructura S = {A ∈ C3×3 : AΣ3 = −Σ3 AT } para la 1 −1 matriz ortogonal sim´trica Σ3 = e .4. (2.4. λk (ǫ) = λ + (2iz + 2x)1/2 ǫ1/2 + o(ǫ 2 ). para k = 1.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 53 obtener f´rmula expl´ o ıcitas o. Por tanto.3. nS = 2 < n1 = 3.38) Veamos un par de ejemplos de estructuras completamente no gen´ricas.

0) = (3. B. una de las propiedades de este operador [48.14). a . C tales que su producto est´ bien definido. ||E||F =1 2 2. xr1 e Y = y1 y2 .38). . yr1 .40) para cualesquiera matrices A.4. §4. que da condiciones necesarias y suficientes para que se satisfaga (2. . . r1 (2.13) y (2. Si escribimos X = x1 x2 . Se dice que la clase de matrices S es completamente no gen´rica para A y λ si para toda matriz E ∈ S se e H tiene que Y EX = 0. .3 Sea λ un autovalor de A ∈ Cn×n con forma de Jordan (2. respectivamente. . entonces las matrices de rango 1 Mij = yi xH . . Estructuras lineales completamente no gen´ricas e Comenzamos por recordar nuestra definici´n de estructuras completamente no gen´ricas o e Definici´n 2.39) j van a jugar un papel importante en la discusi´n. Puede comprobarse que todas las matrices de S tienen la forma E= x y 0 z 0 y 0 z −x Ǒ y que los autovalores perturbados λk (ǫ) de A + ǫE para cualquier matriz de esa forma cumplen el desarrollo √ 1/2 λk (ǫ) = λ + (iz + 2iy + 2 2x)1/2 ǫ1/2 + o(ǫ ).4.10). Haremos uso a de esta propiedad en el siguiente lema. Nuestro objetivo en esta secci´n es ver qu´ relaci´n debe haber entre las matrices de o e o autovectores X e Y y la estructura S para asegurar que Y H EX = 0r1 ×r1 para cualquier E ∈ S siempre que S sea una estructura lineal. 4). para k = 1.1. se tiene que u o o o κ(A.2. . S) = (2. j = 1. Si llamamos vec al operador que concatena o las columnas de una matriz m × n para producir un vector de Cmn . 0. i.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 54 que tiene un solo autovalor λ = 0 con un unico bloque de Jordan de tama˜o 3. Sea S ⊂ Cn×n . y sean X o e Y definidas como en (2.3. m´x |iz + 2iy + 2 2x|) = 2. Si calculamos ´ n el n´mero de condici´n de H¨lder no estructurado usando la Definici´n 2. 2.3] es que vec(ABC) = (C T ⊗ A)vec(B) (2. . Por tanto nS = 2 < n1 = 3 y el n´mero de condici´n estructurado es u o √ √ 2 κ(A. .

. . Definici´n 2. sea S ⊂ Cn×n una estructura lineal.42) Cuando el conjunto S de matrices estructuradas es un subespacio lineal.4.5: o o Teorema 2. obviamente.5 Sea S una estructura lineal de Cn×n .´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 55 Lema 2. la condici´n (2. r1 . αS ) los n´meros de condiu ci´n no estructurado y estructurado.39) pertenecen a la antiestructura S . λ.2 veremos cu´les son las antiestructuras o a o a correspondientes a algunas de las estructuras lineales m´s comunes. . j ∈ {1 . r1 . .10). . j = 1. esto es. y si S tiene dimensi´n k entonces S⊥ tiene dimene o 2 ⊥ ⊥ si´n n − k. XY H 2 . r1 }.4. del autovalor λ. la propiedad (2.41) Demostraci´n: o H El producto Y H EX valdr´ cero si y s´lo si cada una de las entradas yi Exj son nulas. . sean X e Y las matrices o definidas como en (2. S) = (nS . Se define la antiestructura asociada a S como S⊥ = {B ∈ Cn×n : vec(B)H vec(A) = 0 ∀A ∈ S}. λ) = (n1 . Entonces Y H EX = 0 para E ∈ Cn×n si y s´lo si o vec(Mij )H vec(E) = 0. lo que j implica el resultado (2. r1 }. j = 1.4. El Lema 2. α) y κ(A. . podemos hablar de la antiestructura correspondiente a S. dadas por (2. y sean κ(A.38) o 2 se satisface si y s´lo si todas y cada una de las r1 matrices Mij en (2. respectivamente. ´ ⊥ da S . Entonces nS < n1 si y s´lo si Mij ∈ S⊥ o para todo i. En la secci´n §2.40). j ∈ {1 .38) es equivalente a decir que las r1 matrices de o ⊥ rango uno Mij en (2. (S ) = S. que es tambi´n subespacio lineal. . Este es el principal resultado de esta secci´n y es consecuencia directa del Lema 2.39) son ortogonales o a cualquier matriz de la estructura S con respecto al producto escalar matricial A. S⊥ es. . a que sea [vec(yi xT )]T vec(E) = 0. a o T H Usando la propiedad (2.6 Sea λ un autovalor de la matriz A ∈ Cn×n . B = vec(A)H vec(B).4. esto es equivalente a que (xj ⊗ yi )vec(E) = 0 para cada par de ´ ındices i. un subespacio vectorial de o n×n C . . r1 . Adem´s. .4.41).4 y la Definici´n 2. dada una estructura de matrices S. As´ toda estructura lineal S tiene una unica antiestructura asociaı. En la secci´n anterior definimos la matriz de Lidskii (2. definidas como en (2.39).4. . i. Sean las matrices o Mij .17) o Wλ = Y XH . . o lo que es lo mismo. (2.14) y sean Mij . para todo i. a 2 Con esta definici´n.4. i. . .4 demuestra que. (2.13) y (2. j = 1. .39). el complemento ortogonal del subespacio S en Cn×n con respecto al producto escalar (2.4 Sea A ∈ Cn×n con forma can´nica de Jordan (2.42).

i 0 −1 que es sim´trica.4. es igual a la suma Obtenemos as´ una condici´n necesaria para (2.4.q = Ip 0 0 −Iq .2 la antiestructura asociada a las matrices antie a sim´tricas es justamente el conjunto de matrices sim´tricas. Σp.4. Definici´n 2.1 su matriz de Lidskii es Ǒ 1 0 i 0 0 0 Wλ = .10 Sea o Jn = 0 In −In 0 . An´logamente.4. Wλ = − 2i √ −2 2i −1 2i 1 pertenece a la antiestructura de las matrices S = {A ∈ C3×3 : AΣ3 = −Σ3 AT }.q (resp.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS r1 56 que. αS ) los n´meros de condici´n no estructurado u o y estructurado. S) = (nS .4. α) y κ(A.4.17) pertenece a la clase de matrices S⊥ .38): ı o i=1 Mii de las matrices Mij con i = j. antipersim´trica) e e T T si A Fn = Fn A (resp. Si nS < n1 entonces la perturbaci´n Wλ o definida en (2. donde Fn viene dada por (2.q ). antipseudosim´trica) e e T T con respecto a Σp.. .. respectivamente..1 y 2. Para ello debemos recordar algunas definiciones b´sicas.4. λ.2 se puede ver que la matriz de Lidskii √ Ǒ 1 − 2i √ −1 √ . Como se ver´ en 2.. del autovalor λ. si AT = −A). salvo por un factor constante.4.4. Definici´n 2.. sea S una estructura lineal y sean κ(A.8 Se dice que A ∈ Cn×n es sim´trica (resp.q A = AΣp. antisim´trica) si AT = A o e e (resp. sean p. q ∈ N con p + q = n y sea o Σp.q si Σp. en el Ejemplo e e a 2.. Ilustremos este resultado con los Ejemplos 2. 2.9 Sea n ∈ N.18).2. Se dice que A ∈ Cn×n es una matriz pseudosim´trica (resp. Para el Ejemplo 2.4.2. A Fn = −Fn A).q A = −AΣp. λ) = (n1 . Corolario 2. Se dice que A ∈ Cn×n es persim´trica (resp. a a Definici´n 2. Estructuras y antiestructuras lineales En esta subsecci´n describiremos las antiestructuras asociadas a las estructuras lineales o m´s comunes.7 Sea λ un autovalor de la matriz A ∈ Cn×n .

´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

57

Se dice que H ∈ R2n×2n es hamiltoniana (resp., antihamiltoniana) si HJn es sim´trica e (resp., antisim´trica), es decir, si HJn = (HJn )T (resp., si HJn = −(HJn )T ). Toda matriz e hamiltoniana real H ∈ Rn×n se puede escribir de la forma H= A B C −AT

con B y C sim´tricas, mientras que toda matriz antihamiltoniana real H ∈ Rn×n se puede e escribir de la forma A B H= C AT con B y C antisim´tricas e Definici´n 2.4.11 Se dice que A ∈ Cn×n es una matriz circulante (resp., cocirculante) o si es de Toeplitz (resp., de Hankel) y cada una de sus filas (resp., de sus columnas) es una traslaci´n c´ o ıclica de la fila (resp., de la columna) anterior. Por ejemplo, para n = 4 a1 a4 a3 a2 es una matriz circulante y a1 a2 a3 a4 es una matriz cocirculante. Definici´n 2.4.12 Sea una matriz A = (aij ) ∈ Cn×n . Se dice que o i) A tiene sumas diagonales nulas (o abreviando, sumas-d nulas) si, para cada k ∈ {−n + 1, −n + 2, . . . , 0, . . . , n − 2, n − 1}, aij = 0.
i−j=k

a2 a1 a4 a3 a2 a3 a4 a1

a3 a2 a1 a4 a3 a4 a1 a2

a4 a3 a2 a1 a4 a1 a2 a3

á

á

ii) A tiene sumas antidiagonales nulas (o abreviando, sumas-ad nulas) si, para cada k ∈ {2, . . . , 2n}, aij = 0.
i+j=k

´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

58

iii) A tiene sumas diagonales extendidas nulas (o abreviando, sumas-de nulas) si, para cada k ∈ {0, . . . , n − 2, n − 1}, aij +
i−j=k j−i=n−k

aij = 0.

iv) A tiene sumas antidiagonales extendidas nulas (o abreviando, sumas-ade nulas) si, para cada k ∈ {2, . . . , n, n + 1}, aij +
i+j=k j+i=n−k

aij = 0.

Sean las siguientes matrices: A1 = 1 2 0 4 2 −2 0 −4 −3 1 4 9 −3 2 2 −6 −6 −3
Ǒ

,
Ǒ

A2 =

0 2 1 −2 2 4 −3 −4 0

Ǒ

,
Ǒ

A3 =

y

A3 =

Entonces A1 tiene sumas-d nulas, A2 tiene sumas-ad nulas, A3 tiene sumas-de nulas y A4 tiene sumas-ade nulas. Despu´s de estas definiciones, la siguiente tabla describe las antiestructuras correspone dientes a las estructuras lineales m´s usuales: a S sim´trica e pseudosim´trica e persim´trica e hamiltoniana real Toeplitz Hankel circulante cocirculante S⊥ antisim´trica e antipseudosim´trica e antipersim´trica e antihamiltoniana real sumas d-nulas sumas ad-nulas sumas de-nulas sumas dea-nulas

1 4 9 −3 7 5 −16 −6 −1

.

La idea de la demostraci´n es la misma para todas las estructuras: se sabe por [42] que o 2 para cada estructura lineal S de dimensi´n t existe una matriz F ∈ Rn ×t tal que toda o A ∈ S satisface vec(A) = F p para alg´n vector p ∈ Ct apropiado. A la vista de ello, una matriz B ∈ Cn×n estar´ en S⊥ u a si y s´lo si o vec(B)H F = 01×t .

´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

59

Por tanto, las condiciones sobre las entradas de la matriz B se extraen de esta ecuaci´n. o Veremos s´lo dos ejemplos, las matrices sim´tricas 3 × 3 y las cocirculantes 4 × 4, a modo o e de ilustraci´n. El resto de los casos son totalmente an´logos, y pasar a dimensi´n arbitraria o a o no reviste complicaci´n alguna. o 1. Sim´trica, n = 3: Sea A ∈ C3×3 una matriz sim´trica. Como la dimensi´n del e e o conjunto de matrices sim´tricas 3 × 3 es t = 6, sabemos que existe una matriz e 9×6 F ∈ R y un vector p ∈ C6 tal que vec(A) = F p. Dicha matriz F es la que se muestra en la siguiente ecuaci´n. o
¼

vec(A) = F △p = 

1 0 0 0 0 0 0 0 0

0 1 0 1 0 0 0 0 0

0 0 1 0 0 0 1 0 0

0 0 0 0 1 0 0 0 0

0 0 0 0 0 1 0 1 0

0 0 0 0 0 0 0 0 1

½ ¼ ½ 

a11 a12 a13 a22 a23 a33

.

3×3 Sea ahora B = (bij )3 una matriz cualquiera. Entonces, vec(B)H F = 01×6 i,j=1 ∈ C si y s´lo si o

b11 b21 b31 b12 b22 b32 b13 b23 b33

F = 01×t

Basta hacer el producto matricial e igualar los elementos de ambas matrices para obtener que B ∈ S⊥ si y s´lo si ⇔ bii = 0 para i=1,2,3 y bij = −bji para i, j ∈ o {1, . . . , 3}. En otras palabras, la antiestructura de las matrices sim´tricas es la clase e de matrices antisim´tricas. e a d c b b a d c una matriz circulante. Como la 2. Circulante, n = 4: Sea A = c b a d d c b a dimensi´n del conjunto de matrices circulantes 4 × 4 es t = 4, sabemos que existe o una matriz F ∈ R16×4 y un vector p ∈ C4 tales que
á

la antiestructura asociada a las matrices circulantes son las matrices que tienen sumas-de nulas. N´ meros de condici´n estructurados v´ el diagrama de u o ıa Newton En esta subsecci´n identificaremos el exponente principal nS en el n´mero de condici´n o u o estructurado κ(A. Sin p´rdida de generalidad. Appendix A7] (a veces llamado tambi´n pol´ e ıgono de Puiseux-Newton).38). ǫ dos par´metros y sea JA la forma can´nica de Jordan de la matriz A = PA JA PA . E ∈ Cn×n . Nuestra herramienta fundamental ser´ el diao a grama de Newton [3. −1 sean λ. sea λ0 un autovalor de A. Entonces. S) para una estructura S completamente no gen´rica.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 60 ¼ vec(A) = F p =  1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1 0 1 0 0 0 0 1 0 0 0 0 1 1 0 0 0 0 0 1 0 0 0 0 1 1 0 0 0 0 1 0 0 0 0 0 1 1 0 0 0 0 1 0 0 0 0 1 0 ½ a b c d á para cualquier matriz circulante A 3×3 Sea ahora B = (bij )3 una matriz cualquiera. aunque rigurosamente justificada mucho m´s tarde por Puiseux [79].3. λ. una herramienta ideada y desarrollada por Newton. a o como en (2. Describiremos el diagrama de Newton adaptado al contexto a del problema que nos ocupa: sean las matrices A. 2. puede comprobarse i.10). esto es. para una e estructura que satisfaga la condici´n (2. supondremos en toda esta secci´n que e o λ0 = 0 .4. b3 + b8 + b9 + b4 = 0 b4 + b5 + b10 + b15 = 0 es decir.j=1 ∈ C H que vec(B) F = 01×6 si y s´lo si o b1 + b6 + b11 + b16 = 0 b2 + b7 + b12 + b13 = 0 .

.ak )∈S donde Ilustramos estas propiedades con el siguiente ejemplo. Los exponentes principales p/q de estos desarrollos pueden determinarse por medio de la siguiente construcci´n geom´trica: dibujamos los puntos o e (k. k = 1. El diagrama de Newton asociado a P (λ. .4. Se sabe [3. en potencias fraccionarias de ǫ. αk = 0 y no hay t´rminos de orden menor que ak en el desarrollo de αk (ǫ). . Entonces dibujamos los segmentos que forman el borde inferior de la envolvente convexa de esos puntos. Los coeficientes directores µ asociados a un determinado exponente. .´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 61 (de no ser as´ basta reemplazar el par´metro λ por λ − λ0 en lo que sigue). ǫ). Estos segmentos constituyen lo que se denomina Diagrama de Newton asociado a p(λ. 56. . ǫ) = det(A + ǫE − λI) = det(JA + ǫP −1 EP − λI) = = λn + α1 (ǫ)λn−1 + . ǫ) es . ak ) para k = 1. ǫ) = λ5 − ǫ2 λ4 + (ǫ − 3ǫ2 )λ3 + ǫ2 λ − ǫ3 . . . 0) correspondiente a la potencia λn . son las soluciones de la ecuaci´n o µm−k αk = 0. podemos escribir la ecuaci´n caracter´ o o ıstica de la matriz perturbada A + ǫE como p(λ. + αn−1 (ǫ)λ + αn (ǫ) αk (ǫ) = αk ǫak + .13 Sea P (λ. Se puede demostrar que: 1. . a simplificaci´n. . . ǫ) vienen dadas por desarrollos o ıces λ(ǫ) = µǫp/q + . 72] que en e esta situaci´n las ra´ de p(λ. Con esta ı. . Ejemplo 2. n. . siendo ak el exponente principal y αk el coeficiente director de αk (ǫ). ıces 2. m y el punto (0. . . El n´mero de ra´ que corresponde a cada pendiente coincide con la longitud de la u ıces proyecci´n sobre el eje horizontal del segmento con dicha pendiente. ǫ). Las pendientes de los distintos segmentos son los exponentes principales de los desarrollos en ǫ de las ra´ λ(ǫ) de p(λ. o 3. . es decir. (k. y por tanto al segmento S que tiene ese exponente por pendiente.

. . P e2n1 +2 . QH er1 n1 −1 . las columnas de P contienen ri cadenas de Jordan linealmente independientes de longitud ni . Por tanto. y el coeficiente director viene dado por la soluci´n de o −µ − 1 = 0. 3. . . An´logamente. . . 4 de n × r1 . q. . . ǫ) son de la forma ıces λk (ǫ) = ± y λ5 (ǫ) = −ǫ + . . e Para ello. Emplearemos esta teor´ para obtener los t´rminos dominantes de los desarrollos en ıa e serie de potencias fraccionarias en ǫ de los autovalores de la matriz perturbada A + ǫE para E ∈ S cuando S es una estructura completamente no gen´rica. . uno de pendiente 1/2 y a otro de pendiente 1. se re´nen en la matriz a u Y2 = QH en1 −1 . Para cada i = 1. . 2 k = 1. El quinto autovalor tiene exponente principal 1. Consideramos el segundo vector de cada cadena de Jordan derecha de longitud n1 asociada a λ. Esto significa que hay cuatro autovalores perturbados cuyo exponente principal es 1/2. P e(r1 −1)n1 +2 1 1 ǫ2 + . y cuyo coeficiente director viene dado por las soluciones de la ecuaci´n o 2µ3 − µ = 0.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 62 ε5 ε4 ε3 ε2 ε λ5 λ4 λ3 λ2 λ 1 El diagrama de Newton est´ compuesto por dos segmentos. 2. P en1 +2 . QH e2n1 −1 . . . .10). sea A ∈ Cn×n con forma de Jordan (2. las ra´ de p(λ. . . y reunimos todos estos segundos vectores en la matriz X2 = P e2 . .

´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

63

de n × r1 todos los segundos vectores de cadenas de Jordan izquierdas de longitud n1 . Si X e Y son las matrices de autovectores definidas como en (2.13) y (2.14), y suponemos que hay r2 bloques de Jordan asociados a λ del segundo mayor tama˜o n2 , consideramos n la matriz ä ç W2 = Y | QH er1 n1 +n2 , QH er1 n1 +2n2 , . . . , QH er1 n1 +r2 n2 , de tama˜o n × (r1 + r2 ), que contiene todos los autovectores izquierdos asociados a las n cadenas de Jordan de longitud n1 y n2 , y la matriz Z2 = X | P er1 n1 +1 , P er1 n1 +n2 +1 , P er1 n1 +2n2 +1 , . . . , P e(r1 n1 +(r2 −1)n2 +1 Φ1 = Y H EX ∈ Cr1 ×r1 , y las matrices de tama˜o r1 × r1 n Φ12 = Y H EX2 , Φ21 = Y2H EX. (2.44) Queremos hallar el exponente principal 1/nS de κ(A, λ; S) = (nS , αS ) para estructuras S que cumplan (2.38). Para ello debemos identificar la menor pendiente posible del diagrama de Newton asociado al polinomio caracter´ ıstico de A + ǫE cuando E ∈ S. La restricci´n o H Y EX = 0 sobre S equivale en t´rminos del diagrama de Newton a que el punto P1 = e (n1 r1 , r1 ) no aparece en el diagrama (v´anse las Figuras 2.1 y 2.2), puesto que el coeficiente e n−r1 n1 r1 de p(λ, ǫ) en λ ǫ es det Φ1 = det(Y H EX) = 0. De hecho, como el rango de la matriz H Φ1 = Y EX es cero, en el diagrama de Newton no puede aparecer ning´n segmento de u pendiente 1/n1 , luego los puntos
j P2 = (n1 r1 − jn1 , r1 − j), H Φ2 = W2 EZ2 ∈ C(r1 +r2 )×(r1 +r2 )
ä ç

de n × (r1 + r2 ), que hace lo mismo para autovectores derechos. Finalmente, se define (2.43)

j ∈ {1, . . . , r1 − 1}

en las Figuras 2.1 y 2.2 no ser´n candidatos para el an´lisis en nuestra discusi´n. a a o En cualquier caso, el segmento del diagrama de Newton con menor pendiente provendr´ de un segmento de pendiente mayir que 1/n1 que conecte el origen con alguno de los a puntos de la cuadr´ ıcula m´s cercanos a P1 . Distinguiremos dos situaciones diferentes: a 1. La matriz A tiene forma de Jordan (2.10) con q = 1, es decir, s´lo posee bloques de o Jordan de tama˜o n1 , y los puntos m´s cercanos a P1 (v´ase Figura 2.2) son n a e P3 = (n1 r1 − 1, r1 ) P4 = (n1 r1 − 2, r1 ) (2.45) (2.46)

2. La matriz A tiene forma de Jordan (2.10) con q > 1, es decir, hay bloques de Jordan de tama˜os menores que n1 y los puntos m´s cercanos (v´ase Figura 2.1) son n a e P3 = (n1 r1 − 1, r1 ) P5 = (n1 r1 , r1 + 1) (2.47) (2.48) (2.49)

j P4 = (n1 r1 + n2 j, r1 + j) para alg´n j ∈ {1, . . . , r2 } u

´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS

64

Figura 2.1:

P4
j P2

P3

P1 r1

n 1 r1

Estudiemos primero el segundo caso, es decir, el caso en que q > 1: denotamos por m3 , mj y m5 , respectivamente, a las pendientes de los segmentos que unen el origen (0, 0) 4 j con cada uno de los puntos P3 , P4 y P5 respectivamente. Obviamente, m1 ≤ m5 , inde4 pendientemente de los valores de n1 , n2 y r1 . El siguiente resultado compara las restantes pendientes.
j Lema 2.4.14 Sea A una matriz con forma de Jordan (2.10), sean los puntos P3 , P4 , j = 1, . . . r2 y P5 , definidos como en (2.47), (2.48) y (2.49), respectivamente, y sean m3 , mj y 4 m5 las pendientes respectivas del segmento que une el origen con cada uno de esos puntos. Entonces

(i) m3 ≤ m5

si y s´lo si o

n1 ≥ 2. si y s´lo si o si y s´lo si o n1 − n 2 ≥
r1 +j . r1 j

(ii) m3 ≤ mj para alg´n j ∈ {1, . . . , r2 } u 4 (iii) mj ≤ m5 , para alg´n j ∈ {1, . . . , r2 } u 4

(r1 + 1)j n1 . ≤ n2 r1 (j − 1)

Demostraci´n: o El apartado (i) es trivial. Para ver el apartado (ii), basta comparar las pendientes correspondientes, esto es, m3 es m´s peque˜a que mj si a n 4 r1 + j r1 ≤ . n1 r1 − 1 n1 r1 + jn2 Un simple c´lculo demuestra que esto es equivalente a a n 1 − n2 ≥ r1 + j . r1 j

´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS Finalmente, la pendiente mj es m´s peque˜a que m5 cuando a n 4 r1 + j r1 + 1 ≤ n1 r1 + jn2 n 1 r1 lo que ocurre s´lo si o n1 r1 + 1 j ≤ , n2 r1 j − 1

65

concluyendo la demostraci´n. o

Ahora queremos determinar los coeficientes del polinomio caracter´ ıstico p(λ, ǫ) asociaj dos a los puntos P3 , P4 y P5 . Si denotamos a una submatriz de tama˜o k × k de una matriz n M formada por las filas i1 , . . . , ik y las columnas j1 , . . . , jk por M([i1 , . . . , ik ], [j1 , . . . , jk ]), y a la submatriz principal de filas y columnas i1 , . . . , ik por M(i1 , . . . , ik ), tenemos el siguiente resultado. Figura 2.2:

P5 P3
j P2

j P4

r2

P1

r1

n 1 r1 n 1 r1 + n 2 r2

Teorema 2.4.15 Sea la matriz A ∈ Cn×n con forma can´nica de Jordan (2.10), sea o n×n E ∈ C y sea p(λ, ǫ) el polinomio caracter´ ıstico de la matriz A + ǫE. Sean los punj tos P3 , P4 , j = 1, . . . , r2 y P5 definidos como en (2.47), (2.48) y (2.49) respectivamente. Entonces 1. El coeficiente de λn−n1 r1 +1 , ǫr1 en p(λ, ǫ), correspondiente al punto P3 en la Figura 2.1, es: a) si n1 − n2 ≥ 2, el coeficiente es
r1

C3 = (−1)

(n1 −1)r1 −1 r1

[
j=1

det(Φ([1 : r1 ] , [1 : j − 1 , j + r1 , j + 1 : r1 ]))

(2.50)

+
j=1

det(Φ([1 : j − 1 , j + r1 , j + 1 : r1 ], [1 : r1 ]))]

. Por tanto. . s}. C3 = C3 + (−1)(n1 −1)r1 −1 r1 r2 j=1 k=1 det(Φ2 ([1 : j − 1. Esto equivale a elegir menores principales de tama˜o n n n1 r1 − 1 que contengan exactamente (n1 − 1)r1 − 1 posiciones ǫ-constantes. ǫ).´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS Φ1 Φ12 Φ21 0 66 donde Φ = y (2. (2. r1 . .. A estas posiciones las llamaremos posiciones ǫ-constantes3 en el resto de la demostraci´n. es j C4 = (−1)(n1 −1)r1 +(n2 −1)j {k1 . .. . . 1 el n´mero de posiciones ǫ-constantes que aporta al producto cada uno de los s bloques. i ∈ {1.. esto es. donde C3 viene dado por (2. j + 1). . que el menor contenga n − j − k de las posiciones e supradiagonales de G que contienen un 1 en la forma de Jordan JA . b) si .50) y la matriz Φ2 est´ definida en (2.. Como los menores son de tama˜o n1 r1 − 1 y adem´s i=1 Ès i=1 pi = (n1 − 1)r1 − 1. ´sas son las unicas posiciones que contienen t´rminos que no e ´ e dependen de ǫ en la matriz.. a 2. y las matrices Φ1 .1. .kj }⊂{1. es la suma de los coeficientes de orden ǫr1 que aparecen en los menores principales de tama˜o n1 r1 − 1 de G. .51) La unica manera de construir un menor principal de tama˜o n−j que contenga un producto ´ n de ese orden es elegir el menor de modo que el producto contenga exactamente n − j − k t´rminos que no dependan de ǫ. . Para cada j ∈ {1.43) a n2 = n1 − 1. r2 }. correspondiente al punto P3 . el coeficiente de λn−n1 r1 −jn2 ǫr1 +j en p(λ. el coeficiente del t´rmino en λ o e ǫ . . . . el n´mero de filas del menor principal que contienen posiciones u È n a ǫ-constantes es al menos s pi + s... . correspondiente j al punto P4 en la Figura 2.r2 } det(Φ2 ([1 . o n−n1 r1 +1 r1 En vista de esta observaci´n. concluimos que tiene que ser s = r1 . Distinguimos los siguientes casos dependiendo de c´mo se elijan las filas en cada uno o de los menores principales: 3 Como estamos suponiendo que λ0 = 0. Φ12 y Φ21 est´n dadas por (2. u Las pi posiciones ǫ-constantes de cada bloque determinan como m´ ınimo pi + 1 filas del menor principal. cada posici´n ǫo constante es de la forma (j.43). r1 + kj ])) Demostraci´n: o −1 Sea JA = PA APA la forma de Jordan de A. Veamos en primer lugar que los menores con esta propiedad tienen que estar formados por filas que provienen de r1 bloques de Jordan distintos de la matriz JA : en efecto. El coeficiente del t´rmino en λj ǫk del e polinomio caracter´ ıstico de A + ǫE es igual a la suma de los coeficientes de los t´rminos de e orden ǫk que aparecen en los menores principales de tama˜o n − j de la matriz n −1 G = JA − ǫPA EPA .. r1 + k])).44). j + 1 : r1 . y sea pi . . Sea s el n´mero de bloques de Jordan distintos de u entre los que se eligen las filas para generar productos de orden ǫr . r1 + k1 .

o En el ejemplo anterior.44). Φ= .50) de la matriz donde Φ12 . los coeficientes n o 2 del t´rmino en λǫ dependen s´lo de los elementos marcados con un s´ e o ımbolo en la matriz ¼ −1 PA EPA =  Los elementos marcados con ♥ son las esquinas primeras. Φ21 est´n a Φ21 0 definidos como en (2. cuya forma can´nica de Jordan tiene dos bloques ´ o de Jordan de tama˜o 3. la matriz Φ es ♥1 ♥3 ♠1 ♠3 ♥2 ♣1 ♣2 ♥4 ♣3 ♣4 ♠2 0 0 ♠4 0 0 á ∗ ∗ ♣1 ∗ ♥1 ♠1 ∗ ∗ ♣3 ∗ ♥3 ♠3 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ♣2 ∗ ♥2 ♠2 ∗ ∗ ♣4 ∗ ♥4 ♠4 ∗ ∗ ∗ ∗ ∗ ∗ ½ .a).´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 67 1. mientras que la n e segunda corresponde a dejar fuera la fila (jn1 + 1)-´sima de G. la jn1 -´sima fila de G). Esto concluye la demostraci´n del apartado 1. en general. Entonces. el coeficiente del t´rmino a e λn−n1 r1 +1 ǫr1 es la suma de los menores principales G([1 : jn1 − 1. puede comprobarse f´cilmente que. Un simple c´lculo permite escribir esta suma como suma de e a Φ1 Φ12 los menores que se indica en (2. la primera e fila del j-´simo bloque. jn1 + 1 : n1 r1 ]) y G([1 : (j − 1)n1 . con un unico autovalor λ = 0. y los marcados con ♣ y ♠ son las esquinas segundas. Por tanto. . Si escogemos las n1 r1 − 1 filas de entre los r1 bloques de tama˜o m´ximo n1 . De hecho. es decir. Para obtener (n1 −1)r1 −1 a posiciones ǫ-constantes eligiendo n1 r1 − 1 filas debemos dejar fuera del menor principal una fila que sea o la primera o la ultima asociada a uno de los bloques de Jordan ´ de tama˜o r1 : dejar fuera del menor cualquier otra fila intermedia eliminar´ dos n ıa posiciones ǫ-constantes en lugar de s´lo una. (j − 1)n1 + 2 : n1 r1 ]). El primer caso corresponde a dejar fuera del menor principal la ultima fila del j-´si´ e mo bloque de Jordan de tama˜o r1 (esto es. el coeficiente depende excluo sivamente de lo que llamaremos las primeras y segundas esquinas de la perturbaci´n o −1 PA EPA . ´stos n a e contienen como m´ximo (n1 −1)r1 posiciones ǫ-constantes. para toda perturbaci´n E de 6 × 6.43) y (2. Podemos ilustrar lo que son con el siguiente ejemplo: sea una matriz de 6 × 6.

un simple c´lculo muestra que el coeficiente es la suma de los a a menores principales G([1 : (j − 1)n1 . incluimos en el menor las filas correspondientes a todos los bloques de Jordan de tama˜o n1 salvo uno (el j-´simo). j + 1 : r1 . n2 = 2 y r1 = r2 = 2. . la parte del coeficiente principal que se a˜ade al coeficiente C3 en n (2. . una matriz de 10 × 10 con n1 = 3. n1 r1 + (k − 1)n2 + 1 : n1 r1 + kn2 ]) para j ∈ {1 . . k ∈ {1 . . Para que este n´ mero sea mayor o Èk igual que (n1 − 1)r1 − 1 tiene que ser j=1 nij ≥ n1 k − 1 con nij < n1 y k ≥ 1. n En consecuencia. y n k bloques de tama˜os menores. ni1 . . Si escogemos las n1 r1 − 1 filas de entre r1 − k bloques de Jordan de tama˜o n1 . el coeficiente del t´rmino en λ5 ǫ2 depender´ s´lo de las entradas e a o marcadas con un s´ ımbolo en ¼ −1 PA EPA =  ∗ ∗ ♥1 ∗ ∗ ♥3 ∗ ♣5 ∗ ♣9 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ♥2 ∗ ∗ ∗ ∗ ∗ ♥4 ∗ ∗ ∗ ♣6 ∗ ∗ ∗ ♣10 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ♣1 ∗ ∗ ∗ ∗ ∗ ♣3 ∗ ∗ ∗ ♣7 ∗ ∗ ∗ ♣11 ∗ ∗ ∗ ∗ ∗ ♣2 ∗ ∗ ∗ ∗ ∗ ♣4 ∗ ∗ ∗ ♣8 ∗ ∗ ∗ ♣12 ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ∗ ½ (2.52) M´s concretamente. . . . . esto es. r2 }. tendremos a lo sumo (n1 − 1)(r1 − k) + n Èk u j=1 (nij − 1) posiciones ǫ-constantes disponibles. r2 } de la matriz . las filas del menor principal provendr´n de r1 − 1 bloques de Jordan completos de tama˜o n1 y a n un solo bloque de Jordan completo de tama˜o n1 − 1. . Si consideramos. En tal caso. . n e la parte del coeficiente principal que se a˜ade a C3 es la suma de los menores princin pales [1 . 68 2. La unica posibilidad de que esto ocurra es que sea k = 1 y ni1 = n1 − 1. . k ∈ {1. r1 + k] con j ∈ {1. por ejemplo. esto es. r1 }. jn1 + 1 : n1 r1 . con las primeras esquinas de a o −1 la perturbaci´n PA EPA asociadas con los bloques de Jordan de ambos tama˜os n1 o n y n1 − 1. nik . . Equivalentemente. . . r1 }. es decir. y las filas n e correspondientes a un solo bloque de tama˜o n1 − 1 (el k-´simo). . s´lo ´ o se pueden conseguir t´rminos del orden deseado si el segundo mayor tama˜o n2 de e n bloques de Jordan asociados a λ es justamente n2 = n1 − 1. j − 1. .´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS y el coeficiente correspondiente es − det ♥1 ♣2 ♥3 ♣4 − det ♣1 ♥2 ♣3 ♥4 − det ♥1 ♥2 ♠3 ♠4 − det ♠1 ♠2 ♥3 ♥4 .50) depender´ s´lo de los elementos de Φ2 . .

43) y Φ12 . el coeficiente de P4 es − det 2 y el coeficiente de P4 es ♥1 ♥2 ♣1 ♥3 ♥4 ♣3 ♣5 ♣6 ♣7 Ǒ − det ♥1 ♥2 ♣2 ♥3 ♥4 ♣4 ♣9 ♣10 ♣12 á Ǒ . esto es.44).4. razonando de manera an´loga al caso anterior.52). 1. Por ´ u tanto.16 Sea λ un autovalor de una matriz A ∈ Cn×n con forma can´nica de o Jordan (2. Ima poniendo ahora la condici´n (2. esto es.38). λ. Sea S un conjunto de matrices tales que Y H EX = 0 para toda perturbaci´n E ∈ S o y sean Φ1 . Esta combinaci´n es la n n o unica que contiene exactamente el n´mero de posiciones ǫ-constantes que se necesitan.15 es v´lido para perturbaciones no estructuradas cualesquiera. Teorema 2. Φ2 las matrices dadas por (2. α) donde α= sup E∈S. Estudiamos ahora el punto P4 . Para el anterior ejemplo este coeficiente es − det . entonces κ(A.b). podemos extraer los coeficientes αS para una estructura e dada. Por tanto. . con la suma de los coeficientes e r1 +j de orden ǫ que aparecen en los menores principales de tama˜o n1 r1 + jn2 de la matriz n G. En el ejemplo (2.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS Φ2 . Φ21 definidas como en (2. ♥1 ♣1 ♣5 ♣7 − det ♥1 ♣2 ♣9 ♣12 − det ♥4 ♣3 ♣6 ♣7 − det ♥4 ♣4 ♣10 ♣12 69 j Esto concluye la demostraci´n del apartado 1. que o se corresponde con los t´rminos en λn−n1 r1 −jn2 ǫr1 +j . el coeficiente ser´ la suma de aquellos menores principales de tama˜o r1 + j de la a n 1 matriz Φ2 que contengan a la matriz Φ1 .10). La unica posibilidad es elegir r1 bloques de Jordan completos de a ´ tama˜o n1 y j bloques completos del segundo mayor tama˜o n2 . Si n1 − n2 ≥ 2 y r1 = 1. El Teorema 2. esos menores principales deben contener exactamente (n1 − 1)r1 + (n2 − 1)j posiciones ǫ-constantes. − det ♥1 ♥2 ♣1 ♣2 ♥3 ♥4 ♣3 ♣4 ♣5 ♣6 ♣7 ♣8 ♣9 ♣10 ♣11 ♣12 .||E||≤1 |Φ12 + Φ21 | . y sean X e Y matrices de autovectores de A definidas como en (2. Para ello es necesario que las filas de estos menores principales provengan de exactamente r1 + j bloques de Jordan de la matriz JA .4.14).13) y (2. S) = (n1 − 1. que la perturbaci´n pertenezca a una estruco o tura completamente no gen´rica. Esto es lo que muestra el siguiente teorema. y as´ escribir una expresi´n simplificada para el n´mero de condici´n de H¨lder ı o u o o estructurado.

λ. r1 + k2 ]) . el menor resultante siempre contiene una fila de ceros. λ. Para completar nuestro estudio debemos analizar el caso en que la forma can´nica o de Jordan de la matriz A tiene bloques de Jordan de un unico tama˜o. Si n1 = n2 + 1 y r1 = 1. como q = 1. entonces κ(A. Este caso queda ´ n reflejado en la Figura 2. S) = donde α= sup ¬ ¬ r2 ¬ ¬ ¬ n1 r1 − 1 .38) de la o estructura S.α r1 r2 det Φ2 ([1 . S) = (n1 − 1. kp ∈ {1 : r2 } p ∈ {1 : 2} Demostraci´n: Basta reeemplazar Φ1 por la matriz nula en el Teorema 2.4. Por tanto. Si n1 = n2 + 1 y r1 = 2. entonces κ(A. . debido a la condici´n (2. r1 + k1 . o si n1 = n2 + 1. si r1 > 1 entonces al dejar fuera del menor una de esas filas. que tendr´ que ser o la primera o la ultima de un bloque ´ a ´ de Jordan. r1 . 3.14. r1 ) desaparece del diagrama de Newton . α) donde α= sup E∈S. Ahora bien.15 y tener o en cuenta el Lema 2. entonces κ(A. E ≤1 k=1 ¬ ¬ ¬ ¬ ¬ 4. El primer candidato para formar el segmento de menor pendiente del diagrama de Newton es el punto P3 . r1 > 2 y r2 > 1. 2 + k]) . el coeficiente asociado ser´ la suma de los menores principales de tama˜o n − 1 a n de G que contengan n − r1 − 1 posiciones ǫ-constantes. Eso s´lo lo podemos obtener dejando o fuera del menor una unica fila.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 2. el punto P3 = (n1 r1 − 1.2.α r1 + 2 α= sup det Φ2 ([1 . Si n1 − n2 ≥ 2. S) = donde ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ E∈S. Por tanto. λ.||E||≤1 ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ n1 r1 + 2n2 . que reproducimos de nuevo para comodidad del lector. . Ahora bien. r1 > 1 y r2 > 1.||E||≤1 70 |Φ12 + Φ21 + traza(Φ2 )|. que corresponde al t´rmino en λǫr1 del polinomio caracter´ e ıstico. E∈S. se tiene que n = n1 r1 por lo que habremos de buscar menores principales de tama˜o n1 r1 − 1 que n contengan (n1 − 1)r1 − 1 posiciones ǫ − constantes. 2 + k]) + k=1 det Φ2 ([2 .4.

. Por tanto. Esto equivale a elegir menores principales de tama˜o n1 r1 − 2 que contengan n exactamente (n1 −1)r1 −2 posiciones ǫ-constantes. κ(A. y as´ sucesivamente con los puntos (n1 r1 − j. a e n−n1 r1 +2 r1 El coeficiente del t´rmino en λ e ǫ . adem´s. a a puesto que es el caso trivial en que λ sigue siendo autovalor de +ǫB. De este modo el siguiente punto m´s cercano que tenemos que estudiar es P4 (v´ase la Figura 2. la menor pendiente ı posible en el diagrama de Newton es siempre (n1 r1 − r1 )/r1 = n1 − 1. Cuando r1 > 1 el coeficiente de P3 en las condiciones de nuestro teorema es nulo ya que Φ1 es la matriz nula.||E||≤1 |Φ12 + Φ21 | . S) = (n1 − 1. Si. Demostraci´n: o El primer apartado se sigue de la demostraci´n del Teorema 2. r1 ).4. ´ n cualquier otra elecci´n de filas eliminar´ m´s posiciones ǫ-constantes de las necesarias. y Φ12 . A medida que r1 crece. para r1 = 1 y r1 = 2. correspondiente al punto P4 .||E||≤1 sup E∈S. entonces a α= 2. Si.43) y (2.13). |det Φ12 + det Φ21 + [Φ12 ]11 [Φ21 ]22 + [Φ12 ]22 [Φ21 ]11 ] |. De o ıa a hecho. P4 = (n1 r1 − 2. dos ultimas o ´ una primera y otra ultima asociadas a cualquiera de los bloques de Jordan de tama˜o n1 . es la suma de los coeficientes de orden ǫr1 que aparecen en los menores principales de tama˜o n1 r1 − 1 n de (2. adem´s. r1 = 1.51) eliminando dos filas primeras. Sea S un conjunto o n H estructurado de matrices tales que Y EX = 0 para toda perturbaci´n E ∈ S.10) tal que q = 1.16 del c´lculo del o a coeficiente no nulo del punto P3 para r1 = 1. Teorema 2. α) . Por un argumento similar. es decir. obteni´ndose el ultimo apartado. los menores principales resultantes de eliminar o bien las dos primeras o bien las dos ultimas filas de cualesquiera bloques de Jordan de tama˜o r1 ser´ nulos por ser la ´ n ıan matriz Φ1 nula.14). . . r1 ) no puede aparecer si r1 > 2. λ. (2. A s´lo tiene bloques de Jordan de tama˜o n1 ≥ 2. El siguiente Teorema describe los dos primeros casos.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 71 si r1 > 1.17 Sea λ un autovalor de la matriz A ∈ Cn×n con forma de Jordan (2.51).2).44). las expresiones para α se complican m´s y m´s. Sea . 1. siendo X e o Y las matrices de autovectores definidas en (2. entonces a α= sup E∈S. Obviamos el caso n1 = 1. r1 = 2.4. El unico modo de obtener esto es escoger ´ menores principales de la matriz total (2. Entonces. e ´ En particular para el caso r1 = 2 la suma de los menores anteriores pueden simplificarse como siguen. Φ21 las matrices definidas en (2. j = 3..

. Ǒ Ǒ Por tanto. .. . . y escribimos la matriz PA EPA de la forma −1 PA EPA = ∗ ∗ ∗ ♣ ∗ ∗ ♥ ♠ ∗ |♣ + ♠|. . ∗ ∗ ∗  De este modo el coeficiente de P4 es igual a − det ♣1 ♣2 ♣3 ♣4 − det ♥3 ♣3 ∗ ♠3 ∗ . ..4. .. . . . . ... .. ♠1 . . e Concluimos esta secci´n aplicando los teoremas anteriores a las matrices que se ofrecieron o en los Ejemplos 2. .1 y 2. por el apartado 1. ∗ ∗ ∗ ∗ ♥2 ∗ ∗ .. En −1 ambos casos se cumple que n1 = 1. ∗ ∗ ∗ ∗ ♣2 ♠2 ... . .´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS 72 ¼ . . . . .. obteni´ndose el segundo apartado. . . . .4. . .. ∗ ∗ ∗ . . .. .. . ½ ∗ ∗ ∗ ∗ . . . . . ∗ ∗ ∗ ∗ . ∗ ∗ ∗ . ∗ ∗ ∗ −1 PA EPA = ♥1 .. . ... . ∗ ∗ ∗ ∗ . .. α) con α= sup E∈S.2 comprobando que el resultado coincide con el ya visto.. ♣1 ∗ ∗ ∗ . . . ∗ ∗ ∗ .16 se tiene que κ(A. . ∗ ∗ ∗ ∗ ∗ ∗ ♠1 ♠2 ♠3 ♠4 − ♣1 ♠4 − ♠1 ♣4 . . . . . ∗ ∗ ∗ ∗ ♥4 ∗ ♣4 ♠4 ∗ . . .. del Teorema 2. . S) = (2. . . . .||E||≤1 En el caso de la matriz antisim´trica compleja e A= se tiene −1 PA EPA = 0 1 0 −1 0 i 0 −i 0 ∗ ∗ ∗ −iz − x ∗ ∗ 0 −iz − x ∗ Ǒ .. ∗ ∗ . . λ.. .. .4. .. .. r1 = 1.

λ. (2. Usando como antes [71.16 nos dice que a κ(A. se comprueba f´cilmente que la relaci´n entre los vectores de Jordan izquierdos y a o derechos es H y1 1 0 xT 1 = M. E x1 x2 0 1 1 0 ). S) = (n1 − 1.3]. y1 e y2 ) son los dos primeros vectores de la unica cadena derecha (resp.53) .4.. n2 = n1 − 1. Theorem n 7. Sabemos gracias al apartado (i) del Teoree ma 2.2.||E||≤1 traza M E x1 x2 0 −1 1 0 xT 1 xT 2 . entonces nS < n1 . sup E∈S..7 que si A ∈ S tiene un autovalor λ = 0 con n1 impar y r1 = 1. H y2 0 −1 xT 2 de modo que ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ α= sup E∈S. α) .4. donde x1 y x2 (resp.1 y 2.4. Si llamamos K= x1 x2 0 −1 1 0 xT 1 xT 2 . adem´s.||E||≤1 |Φ12 + Φ21 | .||E||≤1 |Φ12 + Φ21 | = sup E∈S. donde α= Adem´s.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS y para la matriz A= se tiene −1 PA EPA = 73 √ 2 i 0 i 0 i √ 0 i − 2 Ǒ Como se ve. como r1 = 1. ´ izquierda) de Jordan asociada al bloque de tama˜o n1 .2. el apartado 1 del Teorema 2. Otro ejemplo completamente no gen´rico es la estructura de matrices e S = {A ∈ Cn×n : AT M = −M A} donde M es una matriz ortogonal sim´trica. a H H Φ12 + Φ21 = y1 Ex2 + y2 Ex1 = traza( H y1 H y2 ∗√ ∗ ∗ ∗ ∗ iy + 2x √ 0 2x + iy + iz ∗ Ǒ . Si. los resultados obtenidos coinciden con los calculados en los Ejemplos 2.

||K||F n||K||F .2. 82]. Sin embargo. apartados (ii) y (iv)) como en el caso de haces de matrices sim´tricos/antisim´tricos e e (Teorema 2.6).4. r1 = 1 y n2 = n1 − 1.4.16 y 2.6) y hemos obtenido. Tambi´n hemos llevado a cabo un an´lisis detallado. en el sentido de que la estructura influye poco sobre el condicionamiento. y sea la matriz K como en (2. de matrices que son antisim´tricas con respecto a un producto escalar sim´trico (Teorema e e 2. expresiones simplificadas para los n´meros de condici´n estructurados u o correspondientes (Teoremas 2. 55.3. As´ tenemos el siguiente resultado.4.4. esto es. aqu´l en que las perturbaciones estructuradas inducen un comportamiene e to cualitativamente mejor en los autovalores que las perturbaciones arbitrarias. salvo en situaciones muy particulares. de la e a ıa teor´ de perturbaciones que se requiere en el caso que hemos llamado completamente no ıa gen´rico. usando el diao grama de Newton. 2.1 u o o o. llegar a estimaciones como la obtenida en el Lema 2. . S) = (n1 − 1. sea A ∈ S con un autovalor λ = 0 y forma de Jordan (2. el comportamiento bajo perturbaciones n estructuradas de los autovalores m´ltiples difiere poco del comportamiento de los autovau lores simples descrito en [16. Hemos caracterizado las estructuras lineales completamente gen´ricas a trav´s de e e una condici´n matricial de ortogonalidad (Teorema 2. Queda como problema abierto el o o obtener expresiones expl´ ıcitas para los n´meros de condici´n como se hizo en la secci´n 2. Entonces κ(A. si eso no fuera posible. Entender por qu´ ocurre o e esto es una de las cuestiones que quedan abiertas para trabajos futuros.7. En ambos u casos se han comparado los n´meros de condici´n estructurado y no estructurado para diu o versos tipos de estructuras. estas expresiones no son a´n expl´ u ıcitas.18 Sea S = {A ∈ Cn×n : AT M = −M A}.53).4.17). Conclusiones y trabajos futuros Hemos introducido una definici´n de n´mero de condici´n de tipo H¨lder para autoo u o o valores m´ltiples. sino que vienen dadas como la soluci´n de un problema no trivial de optimizaci´n.´ ´ NUMEROS DE CONDICION ESPECTRALES ESTRUCTURADOS entonces la perturbaci´n E = o 1 ||K||F 74 M K es tal que E ∈ S.5 (iv)) o el de haces palindr´micos (Teorema 2.5. Tambi´n hemos propuesto una definici´n de condicionamiento e o para autovalores de polinomios matriciales regulares v´ la linealizaci´n en forma comıa o pa˜era. no estructuradas.3. tanto para haces regulares de matrices como para matrices.18. De acuerdo con los resultados obtenidos.10) con n1 impar.2. ı Lema 2. λ. v´ el diagrama de Newton. α) con ||K||F ≤ α ≤ √ n||K||F . E F =1y α≥ Por otra parte α ≤ √ 1 |traza(KK H )| ≥ ||K||F . Todas estas situaciones especiales parecen provenir de la combinaci´n de simetr´ con antisimetr´ tanto en el caso o ıa ıa.

En cuanto a los autovectores. . 2. .1). a los autovalores y autovectores exactos de una matriz sim´trica A ∈ Rn×n . . Corollary e 4. n. . el Teorema de Weyl [87. entonces λi y vi son los autovalores y autovectores exactos de una a matriz A = A + E tal que ||E||2 = O(ε). p. . . Combinando a estas f´rmulas con la estabilidad regresiva dada en (3. 2. o divide-y-vencer´s). .10. . si denotamos por λi y vi . 2. respectivamente. . . 203] asegura que |λi − λi | ≤ ||E||2 i = 1. Entonces. n donde θ representa el ´ngulo entre el autovector exacto vi y el calculado vi . n y . . ||A||2 (3. se obtiene o |λi − λi | m´x |λj | a ≤ O(ε) |λi | |λi | 75 i = 1. Preliminares Ya vimos en el Cap´ ıtulo 1 que. una cantidad que mide la precisi´n con la que trae a o baja la aritm´tica finita de nuestro ordenador.1) donde ε representa el ´psilon-m´quina. .1. el Teorema de Davis y Kahan [19] nos dice que ||E||2 1 sen(2θ) ≤ 2 m´ j=i |λi − λi | ın i = 1.Cap´ ıtulo 3 Algoritmos espectrales de alta precisi´n relativa para matrices o sim´tricas estructuradas e 3. y denotamos por λi y e vi a los autovalores y autovectores calculados por un algoritmo convencional (como QR.

.1. Un ejemplo de esta situaci´n es la matriz o a n o 1 −1 0 −1 2 −1 0 −1 1′ 000001 Ǒ 1 m´x |λj | a sen(2θ) ≤ O(ε) 2 m´ j=i |λi − λi | ın i = 1. 1 . .´ ALGORITMOS DE ALTA PRECISION 76 Por tanto. . vi ) = relgap(λi ) (3. pero que es siempre independiente del n´mero de condici´n de A.333331 × 10−7 . n .2) donde λi son los autovalores exactos de A. se obtiene un error relativo para todos los autovalores o del orden de ε excepto para el autovalor m´s peque˜o λ = 3. . que por lo general depende de la dimensi´n de n o la matriz A. La propiedad com´n a todas estas clases de matrices es que es posible calcular con alta precisi´n un u o cierto tipo de factorizaci´n. Θ(vi . pero no se tiene informaci´n sobre la a o precisi´n de los autovalores m´s peque˜os. n. o Existen algoritmos de alta precisi´n relativa tanto para el problema espectral como para o el problema de valores singulares. se puede asegurar alta precisi´n relativa. . Todos estos algoritmos tienen en com´n el hecho de que u la alta precisi´n relativa se alcanza s´lo para clases espec´ o o ıficas de matrices.3) y κ es una constante de tama˜o moderado. . o como ya se dijo en el cap´ ıtulo introductorio. u o Los algoritmos que calculan los autovalores y autovectores con esta precisi´n se llaman. ·) representa el ´ngulo entre dos vectores. o Una definici´n similar puede darse para el problema de valores singulares (SVD). qi los autovectores exactos. |λi | O(κε) . . algoritmos espectrales de alta precisi´n relativa. Si se calculan los autovalores con el comando eig de Matlab. . para el cual el a n |λ − λ| ≈ 10−10 = O(10−16 ). adaptado a ese tipo de matrices.00000033333315 cumple que |λ| En diversas situaciones se necesitan algoritmos que sean capaces de calcular autovalores y autovectores con tantas cifras significativas correctas como sea posible. n. Θ(·. tal y como se defini´ en (1. y cada clase de matrices requiere un algoritmo distinto. . . i = 1. o e o . n×n matriz A ∈ R . . lo mejor que se puede esperar es que todos sus autovalores calculados λi y sus correspondientes autovectores vi .3). que emplea el algoritmo QR con una precisi´n de ε ≈ 10−16 . relgap(λi ) es la separaci´n relativa definida como a o relgap(λi ) = min minj=i |λj − λi | .1). . |λi | (3. i = 1. . As´ dada una ı. 2. cumplan |λi − λi | = O(κε). s´lo o o o para los autovalores m´s grandes de la matriz A. que definiremos en breve (v´ase la Definici´n 3. valor calculado λ = 0.

3. como ya se anunci´ en el Cap´ e o ıtulo 1. En el problema de valores singulares se pueden encontrar muchas clases de matrices (v´ase [22]) tales que eliminaci´n gaussiana con pivote completo.´ ALGORITMOS DE ALTA PRECISION 77 De entre todos estos m´todos nos centraremos. el cual consta de dos etapas: a) La matriz sim´trica A ∈ Rn×n se descompone de la forma e A = GJGT . r el rango de la matriz A y u G ∈ Rn×r una matriz de rango completo.3. a o se puede afirmar que la precisi´n de esta familia de algoritmos depende esencialmente de la o precisi´n obtenida en la factorizaci´n de la primera etapa. a o Segunda etapa: aplicaci´n de un algoritmo de tipo Jacobi a los factores de la descomo posici´n obtenida en la primera etapa. (3.1 y 3. siendo npos el n´mero de autovalores positivos. Estos algoritmos calculan la factorizaci´n con la precisi´n requerida para que sus o o autovalores y autovectores se calculen despu´s con la alta precisi´n relativa (3.2). conduce a una factorizaci´n no sim´trica de la forma o e A = X∆Y T . a o Dos algoritmos de alta precisi´n relativa que calculan autovalores y autovectores de o matrices sim´tricas posiblemente indefinidas son los siguientes: e 1. La precisi´n de la segunda etapa suele garantizarse mediante o o un an´lisis de errores que supone asegurada la alta precisi´n en la primera etapa. en una familia de algoritmos espectrales [22. Dos de estas familias son las matrio ces DSTU (totalmente unimodulares diagonalmente escaladas) y las matrices TSC (total signed compound). En otras palabras. J = Inpos ⊕ −Ir−npos (3. 30. las clases de o o matrices para las que estos algoritmos calculan autovalores y autovectores con alta precisi´n o relativa son aquellas clases que permiten calcular con alta precisi´n relativa la factorizaci´n o o inicial. ambas etapas deben llevarse a cabo o con una precisi´n adecuada. sus autovalores e y autovectores podr´n calcularse con alta precisi´n relativa. ve´nse secciones 3.2 para sus respectivas definiciones. o Para obtener las cotas de alta precisi´n relativa (3.5) . cualquier matriz sim´trica perteneciente a una de las clases DSTU o TSC. adaptada convenientee o mente a cada una de las clases. 84]. 84] que constan de dos etapas: Primera etapa: c´lculo de una factorizaci´n inicial de la matriz. As´ para e o ı. Por tanto. Nuestra a principal aportaci´n en este cap´ o ıtulo es el desarrollo de algoritmos de c´lculo de una faca T torizaci´n de la forma A = X∆X de las matrices sim´tricas A en las estructuras DSTU o e y TSC.4) b) Aplicaci´n sucesiva de transformaciones de la forma o Gm+1 = Gm Jm .2). Algoritmo J-ortogonal [85. calculada con alta precisi´n relativa.

compuesto por las etapas: a) Dada la matriz sim´trica A ∈ Rn×n se calcula una descomposici´n de la forma e o A = XDY T . obtenemos una factorizaci´n sim´trica de la forma A = GJGT con G = o e 1/2 −1/2 −1/2 X|∆| y J = |∆| ∆|∆| . donde ∆ es una matriz diagonal y no singular y las matrices X. en el denominador (v´ase (3. por ejemplo. . Y ∈ R .1 Dada una matriz A ∈ Rm×n con m ≥ n y rango r. en principio. Definici´n 3. El segundo algoritmo. una descomo posici´n que revela el rango de A es una factorizaci´n de la forma A = X∆Y T con o o m×r n×r r×r X ∈ R . a o c) C´lculo de los autovalores y autovectores de A a partir de sus valores y vectores a singulares. el SVD o ıan con signos. J).2).2) es el m´ximo de los n´meros de e a u condici´n de matrices intermedias que se utilizan en el algoritmo. o Como se ha observado antes. pero si se escala la matriz ∆ a ambos lados con |∆|−1/2 = o −1/2 diag(|∆ii |). QR con pivote completo o el m´todo de pivote diagonal. produce errores de la forma (3. es una RRD.4) que utiliza el m´todo J-ortogonal no es exactamente o e una descomposici´n RRD. relgap . o e rank-revealing decomposition). y estos n´meros de o u condici´n podr´ ser. Pese a todo. Para abreviar.12)). salvo una ligera diferencia.´ ALGORITMOS DE ALTA PRECISION 78 donde G0 = G y Jm es una matriz ortogonal que contiene rotaciones hiperb´licas o de la forma cosh(θ) −senh(θ) .2). Para el m´todo J-ortogonal. 2. donde X. Ninguno de estos algoritmos. o La descomposici´n en valores singulares. e La descomposici´n inicial (3. b) C´lculo de una descomposici´n en valores singulares de XDY T . Para ser m´s precisos en la descripci´n de esa primera etapa u a o comenzaremos definiendo lo que es una descomposici´n que revela el rango (en ingl´s. estrictamente hablando. en a n e la pr´ctica ambos algoritmos son capaces de calcular autovalores y autovectores con alta a precisi´n relativa. Y son matrices bien condicionadas. magnitudes grandes.1. tiene una cota de error para el c´lculo de autovectores de la forma (3. ambos algoritmos tienen en com´n la primera etapa. pero a ∗ con una cantidad m´s peque˜a. Y son matrices bien condicionadas y D es una matriz diagonal. senh(θ) cosh(θ) Esta etapa calcula de modo impl´ ıcito los autovalores y autovectores de G a partir de los autovalores y autovectores del haz (GT G. Pero se pueden o usar otros m´todos para la obtenci´n de una RRD. la constante κ en ( 3. como eliminaci´n gaussiana con pivote e o o completo. diremos que cualquier descomposici´n de este tipo es una RRD de A. Algoritmo SVD con signos [30]. ∆ ∈ R .

Por tanto. con la idea de preservar la estructura. pero si diagonalizamos los bloques de tama˜o n 2 × 2 mediante rotaciones de Givens. el n´mero de condici´n de la matriz u o X para cualquier norma unitariamente invariante coincide con el n´mero de condici´n del u o factor L. Dada una matriz sim´trica A ∈ Rn×n existe e una matriz de permutaci´n P tal que o P AP T = LDLT . Por lo tanto.6) donde la matriz L es una matriz triangular inferior con unos en la diagonal y D es una matriz diagonal con bloques diagonales de tama˜os 1 × 1 y 2 × 2. e El camino que se utilizar´ para obtener una descomposici´n sim´trica RRD es la factora o e T izaci´n LDL por bloques [43. Se puede demostrar f´cilmente que la descomposici´n sim´trica RRD determina la dea o e scomposici´n espectral con alta precisi´n relativa [29]. Esta factorizaci´n no es n o una RRD ya que la matriz D no es diagonal. (3. Esto equivale a decir que cambios peque˜os o a e n en los factores de la descomposici´n RRD producen cambios peque˜os en los autovalores o n y autovectores. (3. M´s en concreto. el error relativo de los autovalores est´ acotado por O(η) y el seno de los ´ngulos can´nicos a a o entre los autovectores de las matrices A y A est´ acotado por O(η) dividido por la separaa ci´n relativa (para m´s detalles v´ase [29.´ ALGORITMOS DE ALTA PRECISION 79 Como las matrices que se van a estudiar son matrices sim´tricas. respectivamente. §2]). (3. y el error relativo en norma e X −X / X en el factor X.7) . se puede demostrar o o a que si A = XDX T y A = X DX T son. Cap´ o ıtulo 11]. diagonal por bloques particionada de manera conforme con la matriz D: cada bloque diagonal de tama˜o 2 × 2 de Q es una rotaci´n de n o Givens 2 × 2 que diagonaliza el correspondiente bloque de la matriz D. entonces podemos conseguir una descomposici´n o RRD sim´trica como se muestra en [85.8) Puesto que la matriz Q es una matriz ortogonal. y el error relativo componente a componente |Dii − Dii |/|Dii | en el factor D est´n acotados por una cantidad β menor que 1. descomposiciones RRD sim´tricas e de dos matrices sim´tricas A y A. se estudiar´n descome a posiciones RRD sim´tricas. con X = P T LQ. denotando por a η = β(2 + β)κ(X). A = X∆X T . para demostrar que la matriz X est´ bien condicionada basta estudiar a el condicionamiento de la matriz L. 86] y explicamos a continuaci´n. entonces. y ∆ = QT DQ. e o n×n Sea Q ∈ R una matriz ortogonal.

|∆ii − ∆ii | = O(ε)|∆ii |. y L. esto es. como en (3.2] se demuestra que κ(R′ ) es a lo sumo de orden O(n3/2 κ(X)).2). u o ′ y R es el mejor escalamiento por filas del factor triangular R de una descomposici´n QR o con pivote por columnas de la matriz X∆. Para ser m´s precisos. n}. el J-ortogonal o el SVD con signos.10) e siendo X. si L y D son los factores calculados en aritm´tica finita. A ello dedicamos el presente cap´ o ıtulo. X es el factor no diagonal en (3.2).7) se calcule con errores relativos peque˜os componente a n componente y que el factor X se calcule con error relativo peque˜o en norma para n cualquier norma unitariamente invariante. Para ello es suficiente probar que no se producen restas en todo el proceso de la factorizaci´n. Todo esto conducir´ a probar que los autovalores y respectivos autovectores de matrices a sim´tricas con estructura DSTU o TSC se calculan con alta precisi´n relativa mediante e o el algoritmo SVD con signos. ya que los productos. ∆ los factores calculados en aritm´tica en coma flotante y X.11) donde κ(·) denota el n´mero de condici´n en norma dos. Para determinar la precisi´n con la que se ha obtenido una descomposici´n RRD. (3. luego el orden de la constante κ depende s´lo del n´mero o u de condici´n del factor X de la RRD sim´trica . donde κ viene dado por a κ = κ(R′ )κ(X). . . cumple los requisitos que aseıa guran la precisi´n (3. |dij − dij | = O(ε)|dij | (3. el error relativo en los autovalores a calculados ser´ de la forma (3. X − X = O(ε) X .7). ra´ cuadradas o ıces y sumas de cantidades del mismo signo en coma flotante no producen errores progresivos grandes y la unica posibilidad de producir un error progresivo grande es la ´ cancelaci´n. obtenida a partir de la factorizaci´n por o o T boques LDL v´ rotaciones de Givens. . se concluye que para asegurar alta precisi´n relativa para ambos o algoritmos. . . j ∈ {1. i = 1. se demostrar´ que a |lij − lij | = O(ε)|lij |. cocientes. De ah´ la importancia de demostrar que o e ı . . estos requisitos o a son que el factor ∆ en (3. . o u Etapa 2 Analizaremos si la descomposici´n RRD. basta probar que la factorizaci´n inicial se o calcula con una precisi´n suficiente. esto es.´ ALGORITMOS DE ALTA PRECISION 80 A la vista de ello. Teorema 3. De acuerdo con el an´lisis de errores en [30]. n. o o procederemos del siguiente modo: Etapa 1 Veremos en primer lugar c´mo se puede calcular una factorizaci´n LDLT por bloo o ques de matrices sim´tricas DSTU y TSC con error relativo peque˜o componente a e n componente.9) para cada i.8). En [22. ∆ los factores exactos. D e son los factores exactos. producida por la resta de n´meros cercanos. . (3.

y el procedimiento m´s com´n para calcularla es el m´todo de pivote diagonal: este comienza a u e por elegir una matriz de permutaci´n P . Sin u o embargo. Cap´ e o ıtulo 11]. y un pivote no singular o o E de tama˜o s × s tal que n E CT P AP T = .2. . Para la factorizaci´n sim´trica LDLT tambi´n existen o e e estrategias sim´tricas para la elecci´n del pivote E. (3.12) donde el conjunto de ´ ındices S es igual a {1.13) La factorizaci´n por bloques LDLT de A se obtiene repitiendo el proceso sobre los o sucesivos complementos de Schur B − CE −1 C T . . . pivote completo o pivote mixto. Veremos en el Teorema 3. Factorizaci´n LDLT por bloques de matrices sim´trio e cas La descomposici´n por bloques LDLT (3. se calculan con un error de la forma (3. a 3. Esta estrategia produce. Esta estrategia se resume como sigue. usaremos la estrategia de pivote de Bunch–Parlett [14].10). Finalmente. . debemos hacer notar que nuestro an´lisis de errores es v´lido s´lo para a a o matrices sim´tricas no singulares: si A es singular. S se obtiene a del conjunto {1.3. . n}.3) usual por o relgap (|λi |) = m´ ın ∗ |λj | − |λi | ¬ ¬ m´ ın . El coste en operaciones aritm´ticas del e proceso es n3 /3 m´s el coste de elegir las permutaciones.´ ALGORITMOS DE ALTA PRECISION 81 el n´mero de condici´n de X no es grande. el n´mero de autovalores nulos se obtiene e u de cualquier RRD que cumpla (3. a Para la elecci´n del pivote en eliminaci´n gaussiana existen estrategias de pivote paro o cial. digamos λj0 .1 ¬ λi j=i ¬ ¬ ¬ ¬ j∈S ¬ ¬ (3. . salvo que el autovalor. En tal caso. y puede modificarse el algoritmo SVD con signos para calcular una base del n´cleo. este procedimiento queda fuera de nuestro an´lisis de errores. con el valor absoluto m´s cercano a |λi | tenga signo opuesto al de λi . n} eliminando el ´ ındice j0 y el ´ ındice k de cualquier otro autovalor que se encuentre a una distancia de orden O(κε) del autovalor λj0 . Cualquier matriz sim´trica admite una factorizaci´n de esta forma [43. en la pr´ctica. . ¬. un entero s = 1 ´ s = 2. . C B de modo que P AP T = Is 0 CE −1 In−s E 0 0 B − CE −1 C T Is E −1 C T 0 In−s . que es un an´logo o a sim´trico de la estrategia de pivote completo. pero reemplazando la separaci´n relativa (3. .6) es una versi´n sim´trica de la factorizaci´n o o e o LU. e u o En cuanto a los autovectores.2). face a tores L bien condicionados (v´ase [13] para un an´lisis detallado del factor de crecimiento e a del factor L). Como nuestro objetivo es una descome o posici´n RRD.5 que para matrices u o sim´tricas DSTU el n´mero de condici´n κ(X) es del orden de n2 . usando la factorizaci´n QR con pivote completo.

Es bien conocido que cualquier valor intermedio o final del proceso de eliminaci´n o gaussiana con cualquier estrategia de pivote es o un menor. 11 (3. o simplemente un menor.1]. 2. o un cociente de menores de la matriz original [22.15). Cualquier menor de L.14) Esto significa que elegimos pivote 2 × 2 cuando el elemento de mayor valor absoluto de la matriz es bastante m´s grande que el elemento de mayor valor absoluto de la diagonal. a Cualquier pivote 2 × 2 elegido con esta estrategia es una matriz sim´trica indefinida y bien e condicionada. Ck = A22 − A21 A−1 A12 . y D es una matriz diagonal. Cualquier menor de A−1 es. calculada mediante eliminaci´n o o gaussiana con cualquier estrategia de pivotaje. apq aqq (3. e Cap´ ıtulo 11]). entonces 1.64 µ0 = maxi. salvo signos.2. . U o U formado por filas consecutivas es o bien cero. L o es una matriz triangular inferior. ambas con unos en la diagonal. U es triangular superior. D. ya que su n´mero de condici´n en norma dos est´ acotada por u o a √ Se elige el valor (1+ 17)/8 de la constante α para que el factor de crecimiento de dos pasos consecutivos con pivotes 1 × 1 sea igual al de un solo paso con pivote 2 × 2 (v´ase [43.1 Sea A = P LDU Q una factorizaci´n de A.6. Cualquier menor de Ck es un cociente de menores. de A. y denotando el complemento de Schur del bloque A11 en A como A21 A22 tenemos el siguiente resultado. o bien un cociente de menores de A. o bien un cociente de menores de A.j |aij | =: |apq | µ1 = maxi |aii | =: |arr | If µ1 ≥ αµ0 then elegir E = [arr ] como pivote 1 × 1 else app apq elegir E = como pivote 2 × 2. o bien un menor de A. Reescribiendo A = P L U Q con L = L y U = DU y denotando por Ck cualquier complemento de Schur de A como en (3.´ ALGORITMOS DE ALTA PRECISION 82 √ α = (1 + 17)/8 ≈ 0. Descomponiendo una matriz cuadrada A de la forma A11 A12 . o bien un menor de A. un cociente de menores de A. D. Cualquier entrada de L.15) (1 + α)/(1 − α) ≈ 4. Lemma 5. 4. Lema 3. donde P y Q son matrices de permutaci´n. 3. U o U es o bien cero.

. . como se demostrar´ con un contraejemplo. consecuencia de la identidad de Sylvester (v´ase. . [1 : k. k + is ]. [1 : k] (3. . k + i]. . (b) para cualquier s ≤ n − k.3 Sea A ∈ Rn×n .15 y el Lema 3. −1 83 es o bien cero. veremos que las propiedades 1. 1 : k denota la lista de a enteros desde 1 hasta k. cp . Cualquier entrada de L−1 . . [18. Entonces. . cada menor del complemento de Schur Ck es cociente de menores de la matriz original A. Para enunciar los siguientes resultados se utilizar´ la notaci´n de Matlab: a o A([r1 . . . o bien un menor de A. cp ]) denota la submatriz de tama˜o p × p de A que contiene los elen mentos de las filas r1 .2.´ ALGORITMOS DE ALTA PRECISION 5. e Lema 3. [1 : k. . . 2 y 3 del Lema 3. particionada de la forma M= B ∗ ∗ ∗ . o Veamos ahora cu´les de las propiedades dadas en el lema se cumplen tambi´n para la a e T descomposici´n LDL por bloques. C1 ) el complemento de Schur de B1 en B (resp. j) del complemento de Schur Ck de tama˜o (n − k) × (n − k) de Ak n en A viene dado por Ck (i. Entonces. . [1 : k]) (3. Sin embargo las propiedades 4 y 5. j) = para cada i. < js viene dado por det Ck ([i1 . rp ]. . . . [j1 . a Antes de escribir estos resultados. [c1 . . la F´rmula 3. is ]. . dando de hecho sus f´rmulas expl´ o ıcitas.3 vienen dados en o o t´rminos del complemento de Schur del bloque principal superior izquierdo. . §2]). n − k}. . . . con B= B1 ∗ ∗ ∗ B M donde B y B1 son submatrices cuadradas y no singulares. . . . .2. rp y las columnas c1 .17) det A([1 : k. Adem´s.2. . . por ejemplo. k + js ]) det A[1 : k]. el complemento de Schur de B en M es B M igual al complemento de Schur de C1 en C1 . no se cumplen. . . Por supuesto. Sea C1 (resp.2. Lema 3. j ∈ {1. necesitamos un resultado auxiliar. k + j]) det A([1 : k]. k + i1 . U −1 o U bien un cociente de menores de A. Para no complicar la notaci´n. js ]) = = det A([1 : k. en M ).16) En particular. el menor de Ck que contiene las filas i1 < . . . . e todos los resultados son ciertos para cualquier submatriz cuadrada y no singular de la matriz A. . . k + j1 . . . 1 : k) la submatriz superior izquierda de A. < is y las columnas j1 < . sea k < n y sea Ak = A(1 : k. . .1 o se preservan. . .2 Sea M cualquier matriz cuadrada. . D−1 . (a) el elemento (i.

j+1 = = a11 a11 det A([1. Seg´n el Lema 3. k + i + 1].16) es cierto para alg´n k ∈ o u {1. el e u complemento de Schur Ck+1 de Ak+1 en A es el resultado de realizar dos complementos de Schur sucesivos: primero. elemento (l. los elementos de C1 son o C1 (i. . Entonces cualquier entrada del factor L o el factor D es o bien cero. As´ la submatriz puede escribirse como (1/dk ) M . k + j + 1]) det A([1 : k. la ecuaci´n (3.3. n}. [1 : k.16) con k + 1 en lugar de k. m) de M es det A([1 : k. det A([1 : k].Aplicando de nuevo la identidad de Sylvester a M se demuestra la parte (b). [1 : k]). 1) en Ck . Una vez probado (a). . 22] al numerador para obtener (3. . k + i + 1]. j + 1) Ck (1. . k + il ]. obtenida usando cualquier estrategia de pivotaje. . el ı. o bien un cociente de menores ede A o simplemente un menor de A. . [j1 . .2. s}. [1 : k. is ]. . k + j]) . 2 .6). [1 : k. j) = ai+1. j + 1) − para los elementos de Ck+1 nos lleva a Ck+1 (i. [1.´ ALGORITMOS DE ALTA PRECISION Demostraci´n: o Probaremos (a) por inducci´n sobre k. .2. con el mismo denominador dk = det A([1 : k]. [1 : k]) det A([1 : k. j + 1]) . donde para cada l.j+1 ai+1. Como consecuencia del Lema 3. [1 : k.16) con k = 1. k + 1]) Basta aplicar la identidad de Sylvester [48.1 a1. k + jm ]). se demuestra el siguiente teorema: Teorema 3. . [1 : k.1 a1. det A([1]. p. .2. y despu´s el complemento e de Schur del elemento (1. Por la hip´tesis de inducci´n. el complemento de Schur Ck de Ak en A.2. Demostraremos que tambi´n es cierto para k + 1. . m ∈ {1. [1 : k. j) = Sustituyendo en la f´rmula o Ck+1 (i. k + 1].j+1 − = ai+1. k + i]. Supongamos que (3. k + 1]) det A([1 : k]. i + 1]. k + j + 1]) det A([1 : k.j+1 a11 − ai+1. todos los elementos de Ck ([i1 . k + 1].4 Sea A una matriz real sim´trica y sea P AP T = LDLT una factorizaci´n e o LDLT por bloques de la matriz A como en (3. 1) ¬ ¬ ¬ ¬ ¬ det A([1 : k. . 1)Ck (1. [1]) 84 es decir. j) = Ck (i + 1. . js ]) pueden escribirse como cocientes de menores de la matriz A. k + 1]. Si k = 1. [1 : k. j) = ¬ ¬ ¬ ¬ ¬ det A([1 : k. k + 1]) det A([1 : k. . [1 : k]) Ck (i + 1. sabemos que o o Ck (i.

6) sin m´s que renombrar filas y columnas. .2. usando el n apartado (b) del Lema 3. sk = 1 ´ 2.2. . L = [L1 | · · · | Lr ]. N´tese que este menor solapa en parte con un pivote 1 × o 1 y en parte con otro de tama˜o 2 × 2. 52].2. . Por lo tanto. p. D= 11 2 2 11 ¬ Puede comprobarse por enumeraci´n que o 3 1 ¬ ¬ ¬ = 16 det L([2. 3]. k = 1.´ ALGORITMOS DE ALTA PRECISION 85 Demostraci´n: o La demostraci´n es similar a la del Lema 5. Dr ) con Dk ∈ Rsk ×sk . Por otra parte.4]). como ambos elementos han sido creados en la misma etapa de la factorizaci´n. a o a Lema 3. y n o una partici´n conforme de L. ambos denominadores se cancelan y se obtiene que el elemento lij es un cociente de menores de A. todo menor formado por filas consecutivas de la matriz L no es necesariamente un cociente de menores de la matriz original A. r.3. o . o es decir.3. Para cada k ∈ {1. §1. la matriz A= con L= 13 39 65 39 128 274 65 274 903 Ǒ Ǒ = LDLT Ǒ 1 3 1 5 7 1 13 . Por simplicidad. . pero el resultado o es v´lido trivialmente para la factorizaci´n (3. 2]) = 5 7 ¬ no es cociente de menores de A. . Sea D = diag(D1 . Por el Lema 3. . que necesitaremos m´s adelante para recalcular las eno a tradas de L. por ejemplo.1. Estas f´rmulas. cada elemento de D es un elemento de A o un cociente de menores de A. por el apartado (a) del Lema 3. r}.2. Por otra parte. Las entradas de D son o o elementos de la matriz A o elementos de un complemento de Schur de la matriz A. Si consideramos.3 son o cocientes de la forma (3. .[50. las f´rmulas est´n escritas sin e o a tener en cuenta las matrices de permutaci´n necesarias para el pivotaje.1 en [22. por ejemplo. [1.5 Sea A ∈ Rn×n una matriz sim´trica factorizada como A = LDLT con L ∈ e n×n R triangular inferior con unos sobre la diagonal y D ∈ Rn×n diagonal por bloques de tama˜os 1×1 y 2×2. El argumento es similar para las entradas de L generadas por un pivote de tama˜o 2 × 2.16) con el mismo denominador. . la factorizaci´n LDLT no cumple las propiedades 4 y 5 del Lema 3. con Lk ∈ Rn×sk . . . .2. n ¬ ¬ ¬ ¬ ¬ Concluimos derivando f´rmulas expl´ o ıcitas para los elementos de L y D como cociente de menores de A. son nuevas en la literatura y extienden las f´rmulas cl´sicas para eliminaci´n o a o gaussiana (v´ase. . cada elemento lij de L generado por un pivote 1 × 1 es un cociente de dos elementos del correspondiente complemento de Schur de A y.

. 1) Ck−1 (1. 2) Ck−1 (2. nk−1 + 1]) = det A([1 : nk−1 . j) = det A([1 : nk−1 . + sk . j + 1 : nk ]. nk−1 + 1]) = det A([1 : nk−1 . . i]. si n0 = 0. . [1 : nk ]) i = nk + 1. 1) i ∈ {nk + 1. Ck−1 (1. . . . nk−1 + i]. combinada con el Lema 3. 1) Ck−1 (i. (3. [1 : nk ]) . nk ) = Ck−1 (i. 1) Ck−1 (2. los elementos (i. .2. . n}. nk } vienen dados por L(i. 1) Ck−1 (2. . los elementos (i. nk − 1) = y L(i. que. seg´n el apartado (a) del Lema 3. En ambos casos. . . . n. 1) Ck−1 (i. 2) Ck−1 (1. 1) . j ∈ {nk − sk + 1. . y una vez simplificado. j) de D con i. . las f´rmulas para los elementos de D se obtienen trio o vialmente usando el hecho de que los elementos de D son o bien elementos de la matriz original o bien elementos de alguno de sus complementos de Schur.´ ALGORITMOS DE ALTA PRECISION 86 sea nk = s1 + . [1 : nk ]) det A([1 : nk ]. i. j]) . 2) Ck−1 (1. nk ) = Ck−1 (i. es igual a u L(i. . j) de L con j ∈ {nk − sk + 1.19) Demostraci´n: o Se distinguen los casos sk = 1 y sk = 2. . nk−1 + 1]. Si sk = 1 entonces nk = nk−1 + 1 y L(i. . . nk ) = det A([1 : nk−1 . .3.18) y. det A([1 : nk−1 ]. la identidad de Sylvester. Finalmente. n}. 2) Ck−1 (2. 2) ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ Ck−1 (1. . det A([1 : nk ]. . . [1 : nk−1 . 1) Ck−1 (1. . [1 : nk−1 ]) (3. 2) Ck−1 (1. j) = det A([1 : j − 1. r}. para cada i ∈ {nk + 1. para cada k ∈ {1. [1 : nk−1 . 1) Ck−1 (2.2. [1 : nk ]) ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ ¬ Si sk = 2 entonces nk = nk−1 + 2 y. i].3. conduce a la f´rmula del enunciado. [1 : nk−1 . . . . nk } vienen dados por D(i. Entonces. . tenemos L(i. 2) . 1) Ck−1 (i. 2) Ck−1 (2.

La e matriz Z se supone conocida exactamente. En particular. 3 4  La clase de matrices TU contiene algunas clases de matrices como las matrices ac´ ıclicas.1.20) donde Z es una matriz sim´trica TU. se modificar´ el o a m´todo de pivote diagonal. con error relativo del orden del ´psilono e m´quina.1 Se dice que una matriz Z con entradas enteras es totalmente unimoduo lar (TU) si todos sus menores son iguales a −1. dn ) es una matriz diagonal. como se indic´ en ( 3. a .3.3. Secci´n 10]). . (3. o las matrices de incidencia nodo-arco (vease [22. matrices de elementos finitos asociadas a sistemas lineales de masa-resorte. Estamos interesados solamente en las o matrices sim´tricas DSTU. Para demostrarlo. DR matrices diagonales. Matrices DSTU Definici´n 3. la o a descomposici´n LDLT por bloques (3. y D = diag(d1 . 0 ´ 1. es decir.6) puede calcularse con un error relativo peque˜o o n componente a componente. matrices sim´tricas A que pueden escribirse como e e A = DZD. a fin de evitar posibles sustracciones en el proceso factorizaci´n e o (el efecto de cancelaci´n es el unico que puede producir una inestabilidad en el an´lisis de o ´ a errores regresivos). las entradas de Z s´lo o o pueden tomar los valores −1. pero los elementos de la matriz D son s´lo o conocidos con alta precisi´n relativa. . . esto es. Una matriz A es diagonalmente escalada totalmente o unimodular (DSTU) si A = DL ZDR .´ ALGORITMOS DE ALTA PRECISION 87 3. Factorizaci´n con alta precisi´n para matrices sio o m´tricas DSTU y TSC e En esta secci´n se demostrar´ que. con Z totalmente unimodular y DL .9). Un ejemplo de matriz diagonalmente escalada totalmente unimodular es el siguiente: √ ¼ ½ 2√2 2 0 0 0 3 2 0 3 0 −12 A= 0 4 0 12 0 = DL ZDR = 0 0 7 0 0  1 0 − 2 0 0 −2 ¼ 2 3 −4 ½¼ =  7 1 2  1 1 0 0 0 1 0 −1 0 −1 0 −1 0 −1 0 0 0 −1 0 0 0 −1 0 0 −1 ½¼ √ 2 1 −1 ½ .3. 0 ´ 1. . para ambas clases de matrices DSTU y TSC. 3.

el estudio de la factorizaci´n se basar´ en la distinci´n de estos dos casos. tambi´n lo son dp y dq . un hecho que se utilizar´ en §3.2.2 Cualquier menor de una matriz sim´trica DSTU es un monomio con coefie cientes 0. cualquier menor de una matriz DSTU puede calcularse con alta precisi´n relativa. es la siguiente.3. (3. o bien app = 0 ´ aqq = 0. Esto. Esta es una de las propiedades e fundamentales que utilizaremos en cada una de las etapas de la factorizaci´n. y que es la clave para evitar cancelaciones.22) est´ tambi´n en contradicci´n con α = 1. Como la estrategia de Bunch-Parlett puede elegir pivotes de tama˜o 1 × 1 o tama˜o 2 n n × 2. La segunda o propiedad que veremos de las matrices DSTU.3.3 se cumple incluso si α = 1. Por tanto. o o N´tese que la desigualdad (3. 1 ´ −1 con los elementos diagonales di de la matriz D como variables.´ ALGORITMOS DE ALTA PRECISION 88 Una primera propiedad relevante de las matrices DSTU es que cualquier complemento de Schur de una matriz DSTU es tambi´n trivialmente DSTU. Lema 3. Por tanto.j |aij | = α µ0 Si suponemos que los elementos diagnales app y aqq son ambos no nulos. y lo mismo sucede con los elementos de cualquier complemento o de Schur.22) en contradicci´n con el hecho de que α < 1. seg´n el Teorema 3.3. Demostraci´n: o Un pivote de tama˜o 2 × 2 se elige siempre que n µ1 = maxi |aii | := |arr | < α |apq | =: α maxi.3 Cualquier pivote de tama˜o 2 × 2 elegido por la estrategia de pivotaje de n Bunch–Parlett de una matriz sim´trica DSTU tiene. Otra propiedad interesante de las matrices sim´tricas DSTU es que los pivotes de e tama˜o 2×2 seleccionados por la estrategia de Bunch–Parlett tienen la siguiente estructura n especial. o a o Los elementos de L calculados en una cierta etapa de la factorizaci´n son un cociente o lir = (CE −1 )ir = air arr Caso 1: El pivote elegido E = [arr ] es 1 × 1 . (3. e junto con (3.1 al modificar a la estrategia de pivote. una entrada nula en la e diagonal. Lema 3. entonces |app | ≤ µ1 < α |apq | y |aqq | ≤ µ1 < α |apq |. puesto que. o Como consecuencia de este lema.4.21) de modo que apq = dp dq zpq es no nulo y consecuentemente.21). al menos. implica que |dp | < α2 |dp |. o a e o el Lema 3.3. cada uno de estos elementos es un cociente u de menores de la matriz original.

3.4 y el Lema 3.2. cada uno de los operandos de la sustracci´n es o bien cero o bien. puesto que vienen ıan dados por las f´rmulas o (B − CE −1 C T )ij = aij − lir arj . podemos evitar cualquier sustracci´n asignando m1 = 0 cuando los operandos m2 y o m3 son no nulos. Por el Lema 3. As´ evitaremos la cancelaci´n que se hubiera podido o e ı o producir. De hecho.23) A la vista del Teorema 3. por otro lado. a2 apq pq aip apq aiq app − 2 .23) como m1 = m2 + m3 donde cada operando mi . (3. Caso 2: El pivote elegido E es 2 × 2 con elemento no diagonal apq .3. salvo signo.´ ALGORITMOS DE ALTA PRECISION 89 de elementos del complemento de Schur de la anterior etapa. un error relativo peque˜o. donde cada operando mi es un monomio con coeficientes 0.25) De nuevo. Por lo tanto podemos o reescribir (3. En otras palabras. dependiendo del signo de m2 y m3 . 1 ´ −1 en tres variables: di y los o rec´ ıprocos de dp y dq .3.3. las entradas en las dos columnas de L son lip = (CE −1 )ip = liq = (CE −1 )iq = −aip aqq aiq apq + 2 . un producto de potencias de los elementos o de la matriz diagonal D. Si los dos operandos son no nulos entonces m1 por fuerza es o nulo puesto que la unica forma de obtener un monomio en las mismas variables con ´ coeficientes 1. a2 apq pq (3. suponiendo que los elementos del complemento de Schur n air y arr se hayan calculado tambi´n con un error relativo peque˜o. As´ lir se calcula con ı.2. Podemos distinguir cuatro posibilidades para esta operaci´n o aritm´tica. es un monomio con coeficientes ±1 ´ 0 en o las dos variables di y dj . esto es. para i = 1. Algo similar ocurre con los elementos del factor D: los elementos del complemento de Schur de una matriz arbitraria son de la forma (B − CE −1 C T )ij = . −1 ´ 0 en el operando m1 es que los coeficientes de los monomios o m2 y m3 sean ±1 y se cancelen entre ellos. p < q. podr´ darse sustracciones. 2. Al calcular los e n elementos del factor D.23) tiene dos operandos no nulos podemos asignar cero al resultado sin e realizar la operaci´n aritm´tica.24) (3. Si alguno de los sumandos es cero e no hay tal operaci´n. El mismo argumento que en el caso 1 puede emplearse. cuando la operaci´n o arim´tica (3. ambas expresiones pueden escribirse de la forma m1 = m2 + m3 . un simple c´lculo demuestra que cada operando a es un monomio con coeficientes ±1 ´ 0 en las variables di y dj .

27) de cuatro operandos. 0} es que sumen cero. a Algoritmo 1: Input: Output: P AP = LDL T LDLT A L T n×n 1 × 1 2 × 2 P D 1. mt . si los tres operandos no nulos son mr . elegir pivote de acuerdo con la estrategia de pivote de Bunch–Parlett 3. Finalmente.26) = aij − pero en nuestro caso. Si tenemos exactamente dos o cuatro operandos no nulos o en (3. Si todos los operandos son cero. ms .26) obtenemos que las entradas del complemento de Schur son una suma m1 = m2 + m3 + m4 + m5 (3.3. Por tanto m1 es tambi´n un monomio en las mismas variables y o e con coeficiente ±1 ´ 0 por ser un elemento de un complemento de Schur de una matriz o DSTU. ya que los tres tienen el mismo valor absoluto |di dj |. app aqq − a2 pq 90 (3. entonces no se o realiza ninguna operaci´n.3. Reemplazando este u resultado en (3. for i = 1 to n 2. cada uno de los cuales es un monomio en las variables di . −1. for k = i + 1 to n aji aik 10. dj con coeficientes ±1 ´ 0. en el caso de que tengamos exactamente tres operandos no nulos ocurrir´ que necesariamente dos a de ellos deber´n cancelarse y el resultado de m1 ser´ igual al tercer operando.´ ALGORITMOS DE ALTA PRECISION aip aqq apj − aiq apq apj − aip apq aqj + aiq app aqj . lji = aji /aii 7. Dii = aii 5. seg´n el Lema 3. endfor 8. for j = i + 1 to n 9. Por a a tanto. El an´lisis anterior sugiere el siguiente algoritmo de coste O(n3 ). o s´lo uno de ellos es no nulo. podemos asignar m1 = −|mt |sign(mr ms mt ) donde mt es cualquiera de los tres operandos. ajk = ajk − Dii . se tiene app aqq = 0. for j = i + 1 to n 6. el mismo razonamiento empleado en el caso 1 nos dice que el valor de m1 debe ser cero.27). if pivote 1 × 1 aii 4. ya que la unica posibilidad de que dos o cuatro operandos ±1 sumen ´ una cantidad perteneciente a {1.

i+1 = 0 23. for j = i + 1 to n aj. asignamos el valor ajk = −|mr |sign(mr ms mt ) 35.i+1 18. m2 = ajk . (*) Si la suma tiene dos o cuatro operandos no nulos. Dii = aii .i+1 14. endif 38.i+1 i.i+1 aj.i ai+1. endfor 20. . endfor 36. ms . endfor 37. (*) Si la suma tiene tres operandos no nulos mr .i+1 = ai+1. ajk = m2 + m3 + m4 + m5 32. endfor 24.i+1 aii 21. asignamos el valor ajk = 0 12.i = ai. Di. (*)Si la resta tiene dos operandos no nulos. endif 31.i+1 i. el an´lisis llevado a cabo anteriormente sirve como demostraci´n del siguiente a a o resultado. for j = i + 2 to n aj.i+1 aji ai+1. m5 = a2 pq ajq app aqk 29. lji = − a2 a2 i.i+1 17. (*)Si la resta tiene dos operandos no nulos. for k = i + 1 to n ajp apq aqk ajq apq apk . asignamos el valor lji = 0 19. m4 = − 26.i+1 = Di+1.i+1 15. if app = 0 ajp aqq apk 28. lj.i+1 = − 2 a2 ai. asignamos el valor ajk = 0 33.i ai.i+1 16.i+1 .´ ALGORITMOS DE ALTA PRECISION 11. endfor 13. asignamos el valor lj. else m5 = a2 pq 30. for j = i + 1 to n 25.i+1 ai. else pivote 2 × 2 . 34. ai+1.endfor Adem´s. 91 (*)Si la resta tiene dos operandos no nulos. mt . endfor aii ai. m3 = − 2 apq a2 pq 27. Di+1.i+1 22.

N´tese que el cambio en el valor de α o no afecta a la validez de los resultados en §3. Sin embargo. e y L. |lij − lij | = O(ε)|lij |. la entradas de L est´n trivialmente acotadas por 1 en a valor absoluto. la factorizaci´n obtenida es una RRD. .28) Con esta estrategia de pivotaje. Teorema 10.6) crece cuadr´ticamente con la dimensi´n o a o de la matriz factorizada.3. Veamos que con esta estrategia modificada de pivote. Esto es importante. D son los factores exactos que el m´todo de pivote diagonal calcular´ en aritm´tica e ıa e exacta eligiendo los pivotes con las mismas dimensiones y posiciones que los elegidos en aritm´tica en coma flotante para calcular L y D. n} donde L y D son los factores calculados en aritm´tica en coma flotante por el Algoritmo 1.3 es cierto para α ≤ 1. |dij − dij | = O(ε)|dij |.3.4 producir´ cotas pesimistas. o e o es decir.´ ALGORITMOS DE ALTA PRECISION 92 Teorema 3.4 El Algoritmo 1 calcula todas las entradas de los factores L y D de la factorizaci´n LDLT por bloques de una matriz sim´trica DSTU con alta precisi´n relativa. el n´mero de condici´n del factor u o L de una descomposici´n por bloques LDLT (3. ya que el Lema 3. el n´mero de condici´n en norma 2 de los pivotes est´ acotado por 4 6 para a u o a Bunch–Parlett. por ello. la constante en la O(ε) obtenida por un an´lisis elemental de a errores es exponencial. . if µ0 = maxi. Adem´s. Por ello.j |aij | = maxi |aii | = µ1 elegir pivote 1 × 1 else elegir pivote 2 × 2 (3. por lo o que pk = 2k+1 − 1. pues garantiza a o que los factores est´n bien condicionados y. mientras que lo mejor que se puede decir utilizando la estrategia de Bunch– Parlett es que |lij | ≤ 1/α ≈ 1′ 6 (para los elementos generados por pivotes de tama˜o 1 × n ′ 1). e Cualquier intento de estimar te´ricamente las constantes dentro de la O(ε) en el Teoo rema 3. debemos hacer un ligero cambio en la estrategia de pivotaje.3.3.1. j ∈ {1. Se considera la siguiente estrategia. a o Con el fin de probar lo mismo para el factor triangular L en la descomposici´n LDLT o por bloques. .2]. a Una nueva estrategia de pivotaje Un caracter´ ıstica adicional de eliminaci´n gaussiana con pivote completo sobre matrices o no sim´tricas DSTU de n × n es que el n´mero de condici´n de los factores L y U crece e u o cuadr´ticamente con la dimensi´n n [22. Sea pk el n´mero de operaciones en coma flotante a u necesarias para calcular los elementos de D en la etapa k-´sima de la factorizaci´n por e o T bloques LDL . Esta cantidad viene dada por la f´rmula recursiva pk+1 = 2pk + 1. . y por 2′ 6 para esta nueva estrategia. esto no se ha observado nunca en la pr´ctica. ∀ i. .

Eliminaci´n gaussiana. . El caso app = 0 es completamente an´logo. M2 = P2q P1p AP1q P2q P2p . si renombramos M1 = P2q P1p A P1p P2q .5 Sea A una matriz sim´trica DSTU. Denotando por Pij a la matriz de permutaci´n que intercambia la a o fila i-´sima con la j-´sima. As´ el m´todo de pivote ı e diagonal calcula las entradas de las dos primeras columnas de su respectivo factor L como li1 = mi2 . Por tanto. tambi´n DSTU. o o Finalmente. .3. que aqq = 0. 2) realizamos los cambios o por columnas P2q y P2p . la matriz se permuta a sim´tricamente.3. Va a ser conveniente aplicar una permutaci´n de filas adicional. que est´n intercame a biadas. m12 mi1 m12 − mi2 m11 li2 = . permuta A de la forma P1p AP1q para colocar o el pivote apq en la parte superior izquierda de la matriz. . j) de la matriz sim´trica M1 entonces m22 = 0. . o a o Demostraci´n: o Sin p´rdida de generalidad. . n app apq . Si el primer pivote elegido por el m´todo de pivote diagonal es de tama˜o e n 1 × 1. P2q . Si denotamos por mij al elemento (i. m2 12 (3. e y m12 es la entrada de M1 con mayor valor absoluto de la matriz.28). supongamos que el primer pivote elegido por el m´todo de pivote diagonal es e de tama˜o 2 × 2. . a la vista del Lema 3. i = 3. e e Ahora. aqp 0 donde hemos supuesto. . como el pivote elegido en este caso est´ en la diagonal.3. y la primera columna de ambos factores triangulares trivialmente coincide. que coloque la entrada nula aqq en la posici´n (2. . 1).´ ALGORITMOS DE ALTA PRECISION 93 Teorema 3. en cambio. e e cuyo factor triangular inferior calculado por eliminaci´n gaussiana con pivote completo o coincide con el factor triangular de la descomposici´n por bloques LDLT de A obtenida o usando la estrategia de pivotaje (3. i = 3. el n´mero de condici´n del factor L de u o la factorizaci´n LDLT por bloques crece cuadr´ticamente con la dimensi´n de la matriz A.29) . resultan dos matrices id´nticas excepto por las dos primeras columnas. Existe una matriz B. n m2 12 y las entradas del complemento de Schur de tama˜o (n − 2) × (n − 2) Schur como n (B − CE −1 C T )ij = mij + −mi2 m12 m1j − mi1 m12 m2j + mi2 m11 m2j . De esta manera. por ejemplo. Por otro lado. se aplican a la matriz A las mismas permutaciones que se har´ con eliminaci´n ıan o gaussiana. para colocar el elemento aqp = apq en la posici´n (2. n. podemos restringirnos a comparar los dos primeros pasos e de eliminaci´n gaussiana con pivote completo con los correspondientes pasos del m´todo de o e pivote diagonal. el m´todo de pivotaje diagonal permuta la matriz A de la fore e e ma P2q P1p A P1p P2q para colocar el pivote 2 × 2 en la esquina superior izquierda de la matriz. y los complementos calculados por ambos m´todos son iguales.

. . En cualquier caso. . el complemento de Schur de tama˜o (n − 2) × (n − 2) calculado por n eliminaci´n gaussiana en este segundo paso tiene las entradas o mi2 m1j m12 m1i − m11 mi2 m2j m12 . . La segunda columna del factor L correspondiente tiene entradas mi1 − m11 mi2 mi1 m12 − m11 mi2 m12 = m12 m2 12 li2 = que coinciden con las entradas li2 anteriores reeemplazando i por j (recu´rdese que mij = e mji ). .30) En la segunda etapa. los di y dj correspondientes. ··· . Estos ´ cocientes son tambi´n monomios con coeficientes ±1 en dos variables.30) es estrictamente menor que el m´ximo a |m12 | = |dp dq |. . o y li1 = mi2 /m12 . En consecuencia. j = 3. mi2 m1j mi2 m11 . . . El primer paso de eliminaci´n n o gaussiana sobre M2 produce una primera columna con un cero en la primera posici´n. como ambos i. mij − . . . . . luego la unica posibilidad de elementos nuevos son cocientes de la forma −(mi2 m1j )/(m12 ). El complemento de Schur (n − 1) × (n − 1) resultante de esta primera etapa tiene la forma ¼  m12 ··· m2j . Esto prueba que. n. Estas dos variables e son los elementos diagonales de D correspondientes a los ´ ındices i. deber´ haber un ıa nuevo elemento m´s grande que m12 en valor absoluto. . j son diferentes de 1 y 2. . ½ (3. Adem´s el complemento de Schur (n − 2) × (n − 2) resultante en ambos casos a es el mismo. como se a o demostr´. . . . . j antes de que la matriz A se permutase para obtener M2 .29). . . Finalmente. mi1 − m12 m12 . Veamos que esta entrada es de nuevo m12 . . en caso contrario. . . eliminaci´n gaussiana busca la entrada con mayor valor absoluto en o esta matriz. . m12 mij − − Un simple c´lculo demuestra que esta f´rmula coincide con (3. Luego en esta segunda etapa de eliminaci´n gaussiana de la matriz M2 no hace falta o permutar. . . dos pasos de eliminaci´n gaussiana sobre M2 producen las dos mismas columnas o o para L que un paso del m´todo de pivote diagonal con un pivote de tama˜o 2 × 2 sobre la e n matriz M1 . i = 3. n como antes. el valor absoluto de cualquier nuevo elemento aparecido en (3. . . Veamos que las dos primeras etapas de eliminaci´n Gaussiana con o pivote completo sobre M2 producen exactamente las dos mismas columnas de L y el mismo complemento de Schur de tama˜o (n − 2) × (n − 2). . son diferentes de dp y dq . Cualquier entrada del complemento a de Schur (3.´ ALGORITMOS DE ALTA PRECISION 94 para i. . .30) desaparece si es el resultado de una resta con operandos no nulos. . . .

. A = DL ZDR . La demostraci´n del Teorema 3. DR = QT DQ.3. Z = ZQ. js ])). . Entonces det(A([i1 . .31). o obtenemos que el factor L de una matriz A sim´trica DSTU.2 que cualquier menor de una matriz sim´trica DSTU es un e monomio con coeficientes 0. [j1 . . Sea A una matriz DSTU tal que se conocen los factores A = DL ZDR .2] no es posible ya que falta el o a ingrediente principal: que los elementos de cualquier menor del factor L sean cocientes de menores de la matriz original A y. .2]. . . con un error relativo del o e orden del ´psilon-m´quina). . Una o demostraci´n directa an´loga a la de [22. . ya que o o B = DL ZDR . . Por tanto el n´mero de ´ u condici´n del factor L crece cuadr´ticamente con la dimensi´n n de la matriz original A o a o por el Teorema 10. is ]. DR = diag(r1 . lm ). esto es. Aplicando el Algoritmo 1 obtenemos que P AP T = e LDLT con D = diag(D1 . . o o 2. . Sea A una matriz sim´trica DSTU. Las entradas de Z se suponen conocidas exactamente. [j1 . N´tese que la matriz B es DSTU si A es DSTU. n o C´lculo de menores de una matriz DSTU con alta precisi´n relativa a o Se sabe por el Lema 3. . . Teorema 10. is ]. es igual al factor triangular e inferior de una factorizaci´n LDU de una matriz no sim´trica B = AQ. . . por lo tanto. . Y esto no es cierto para la factorizaci´n LDLT por bloques o como se se˜al´ con el ejemplo 3 × 3 dado en §2. rjs K donde K = det(Z([i1 . Lema 3. Teorema 10.´ ALGORITMOS DE ALTA PRECISION 95 Repitiendo el argumento para los pasos subsiguientes de la descomposici´n por bloques. .3. ´ Un problema del Algebra Lineal Num´rica es calcular el determinante de una matriz e con alta precisi´n relativa.2 de [22]. .5 se basa indirectamente en [22. . . y esta ultima es TU. . . . . . . donde las matrices Di para i ∈ {1. . r} son (3. con DL = D. los elementos de la matriz L−1 sean cocientes de menores de A. En el siguiente lema damos una f´rmula expl´ o ıcita de estos coeficientes para una matriz DSTU cualquiera. 1 o −1 en los elementos diagonales di de la matriz D. . lis rj1 . . para una matriz o e de permutaci´n Q apropiada. rn ) son matrices diagonales. .6 Sea A ∈ Rm×n una matriz DSTU cualquiera. . . . y las entradas de DL y DR conocidas con alta precisi´n relativa en la aritm´tica empleada (esto es.3.31) . En el caso de las matrices DSTU esto es posible en los siguientes o casos: 1. . Entonces se puede calcular cualquier menor de A con e a alta precisi´n relativa utilizando la f´rmula (3. Dr ). donde Z es totalmente unimodular y DL = diag(l1 . . js ])) = li1 .

Esta propiedad se observa a simple e vista en la Figura 3. Un cuadrado gris representa una entrada nula de la o .3. es decir. la expresi´n Laplaciana de su o determinante det M = [sign(π) m1. o o todas las matrices pertenecientes a S tienen sus entradas no nulas en las mismas posiciones y con el mismo signo. todos los monomios en la expresi´n son nulos). Las matrices TSC son adem´s matrices huecas (hay a lo sumo 3n − 2 entradas no nulas a en una matriz TSC de n × n (v´ase [21.1. con por lo menos un monomio no nulo. cuyos elementos est´n calculados con alta precisi´n n o a o relativa por el Teorema 3.π(2) . en la que se muestran dos matices TSC generadas aleatoriamente tal como se describe en la Secci´n 3. Matrices TSC Definici´n 3.´ ALGORITMOS DE ALTA PRECISION 96 matrices de tama˜o 1 × 1 ´ 2 × 2.32) π es o bien suma de monomios del mismo signo.1]). De este modo r det(A) = i=1 det(Di ). e o Hay patrones bien conocidos entre las matrices TSC. 3. o bien id´nticamente cero (es decir.7 Sea S un conjunto de matrices con un patr´n de signos dado.4. como el patr´n tridiagonal o ¼  + + + − + + + + + − + + + ½ o el patr´n en punta de flecha o ¼  + + + + + + − + − + − + − ½ . cumplen que det(Di ) = −a2 pq aqp app gracias al Lema 3. por ejemplo. .5.2.3.3.3. Di = n .3.π(s) ] (3. Se dice que el conjunto S es TSC (total signed compound) si para toda matriz A ∈ S y para toda submatriz cuadrada M de A. Lema 7. . Este producto se realiza con alta precisi´n relativa: es producto de cantidades calcuo ladas con alta precisi´n relativa ya que las entradas de los pivotes de tama˜o 1 × 1 o n est´n calculadas con dicha precisi´n por el Algoritmo 1 y los determinantes de los piva o app apq otes de tama˜o 2 × 2.π(1) m2. ms.

se puede a e probar que s´lo se necesitan tres reglas de construcci´n para generar cualquier matriz TSC.1: Ejemplos de matrices sim´tricas TSC e matriz. Si A1 y A2 son ambas matrices sim´tricas TSC.3. entonces la permutaci´n de dos filas y las correse o pondientes columnas. debido a la propiedad que define las matrices TSC.8 Una matriz sim´trica TSC se puede generar partiendo de una matriz no e nula de tama˜o 1 × 1 y aplicando repetidamente algunas de las siguientes reglas. un cuadrado blanco una entrada positiva y un cuadrado negro una entrada negativa de una matriz sim´trica TSC. Si nos restringimos al conjunto de matrices TSC sim´tricas. entonces tambi´n lo es su suma e e directa A1 0 0 A2 3. o e Teorema 3. o ya que en su c´lculo no puede haber cancelaci´n al ser suma de monomios del mismo signo. 22] o e para m´s detalles). a o El coste de O(n) se alcanza haciendo uso de una definici´n alternativa de las matrices TSC: o cada matriz TSC puede construirse empezando con una matriz no nula de tama˜o 1 × 1 n y repitiendo una o varias de entre cuatro reglas prefijadas de construcci´n (v´anse [11. a e 2. repetidas n en cualquier orden: 1. e El hecho de tener tantos elementos nulos permite calcular determinantes de matrices TSC de tama˜o n mediante algoritmos de coste O(n). Si una matriz A de tama˜o n × n es sim´trica TSC. Si A es una matriz TSC sim´trica. tales algoritmos calculan el n a determinante con alta precisi´n relativa. no cambia el car´cter TSC sim´trico. Adem´s. o multiplicar por −1 una fila y su correspondiente columna.2 de [22]. entonces tambi´n n e e . con aii = 0.´ ALGORITMOS DE ALTA PRECISION 97 30 30 25 25 20 20 15 15 10 10 5 5 5 10 15 20 25 30 5 10 15 20 25 30 Figura 3. o o El siguiente resultado es una versi´n sim´trica del Lema 7.

i tengan el mismo signo (o bien sean ambos nulos). cualquier cantidad intermedia en la descomposici´n LDLT por o bloques de una matriz es un cociente de menores o simplemente un menor de la matriz original. e e o Algoritmo 2: Input: A LDLT n×n .2. Aunque las f´rmulas est´ndar del m´todo de pivote diagonal podr´ requerir alguna o a e ıan sustracci´n.n+1 ai. . De acuero do con el Teorema 3.3 para los elementos o del complemento de Schur . y como cualquier submatriz de una matriz TSC es tambi´n TSC. . Por otro lado. 0 A ai. . las restas pueden evitarse si o o el correspondiente elemento de L o del complemento de Schur se recalcula como cociente de menores de la matriz original.´ ALGORITMOS DE ALTA PRECISION es TSC sim´trica la matriz A siguiente de tama˜o (n + 1) × (n + 1) e n ¼ 98 0 .2. . y por lo tanto sin efectos de cancelaci´n. ½ A=  0 0 . Sobre esta cuesti´n. Estas f´rmulas aparecen el Lema 3. Por supuesto o o la operaci´n de recalcular supone un coste adicional. .5 a un coste computacional a muy bajo. . la e versi´n modificada del m´todo de pivotaje diagonal puede costar en el peor de los casos o e O(n4 ) operaciones aritm´ticas. Un menor de tama˜o s × s supone o n O(s) operaciones. . 60]) para calcular RRD no sim´tricas de matrices TSC. y por tanto dar lugar a una posible cancelaci´n.2. y en el Lema 3. o o A continuaci´n se escribe en pseudoc´digo el correspondiente algoritmo. el mismo orden que el algoritmo propuesto en [22] (v´ase [22. p.5 para los elementos de L. e e Teorema 7.2.2.5. Factorizaci´n LDLT por bloques con alta precisi´n relativa para matrices sim´trio o e cas TSC El inter´s por las matrices sim´tricas TSC proviene del hecho que todos sus menores e e pueden calcularse sin sustracciones.n+1 y an+1. Estas reglas nos permitir´n generar matrices TSC en § 3.n+1 0 .n+1 an+1.n+1 0 .4.n+1 deben elegirse de tal modo que los dos monomios que aparecen en el menor an+1.n+1 donde se puede asignar cero a la entrada aii .i − ai. Las nuevas entradas no nulas ai. . la ausencia de cancelaci´n implica que estos menores se calculan con alta precisi´n relativa. e o v´ase tambi´n el experimento al final de la secci´n 3. 0 ai. 0 an+1.

i+1 aii + 23. for i = 1 to n 2. lj.i+1 18. endfor aii ai.i+1 ai.i ai+1.i+1 = Di+1. for j = i + 1 to n 9.2. Dii = aii 5. (*)Si la resta tiene dos operandos no nulos del mismo signo recalcular dpiv como cociente de dos menores de A seg´n la f´rmula 3.18 en Lema 3. endfor 13.2. endif 26. lji = aji /aii 7. aii 4.3 u o 12. elegir pivote de acuerdo con la estrategia de pivote de Bunch–Parlett 3.i+1 − 19.i+1 = − dpiv dpiv 24.i+1 como cociente de dos menores de A seg´n la f´rmula 3. recalcular ajk como cociente de dos menores de A seg´n la f´rmula 3. if pivote 1 × 1 . recalcular lj. endfor 8. (*) Si la resta tiene dos operandos no nulos del mismo signo.3 u o aji ai+1.5 u o 25.5 u o 21.i+1 14. for k = i + 1 to n aji aik 10. lji = dpiv dpiv 20.i+1 .i+1 15. Di. ajk = ajk − Dii 11.17 en Lema 3.´ ALGORITMOS DE ALTA PRECISION Output: P AP T = LDLT L 1 × 1 2 × 2 P D 99 1. else pivote 2 × 2 .i+1 − a2 i.2.18 en Lema 3. recalcular lji como cociente de dos menores de A seg´n la f´rmula 3.i+1 16.i+1 = ai+1. for j = i + 1 to n 27.i = ai. (*) Si la resta tiene dos operandos no nulos del mismo signo.i+1 ai. for k = i + 1 to n . (*) Si la resta tiene dos operandos no nulos del mismo signo. ai+1. endfor 22.2.16 en Lema 3. Di+1. for j = i + 1 to n 6.i+1 aj. dpiv = aii ai+1. for j = i + 1 to n 17. for j = i + 2 to n aj. Dii = aii .i+1 aj.

3.10). o para las matrices DSTU utilizando la nueva estrategia de pivotaje y el Teorema 3.endfor 28. obtendremos cotas de error m´s finas en el Teorema 3.3 u o 30. ajk = ajk − 100 El argumento anterior demuestra la alta precisi´n relativa con que se calculan. el factor calculado X e cumplir´ ( 3.´ ALGORITMOS DE ALTA PRECISION ajp aqq apk ajq apq apk ajp apq aqk ajq app aqk − − + dpiv dpiv dpiv dpiv 29. No se har´ dise a tinci´n entre matrices DSTU y TSC. [20. luego si a u o el factor L est´ bien condicionado. Esto se refleja en o el siguiente teorema. recalcular ajk como cociente de dos menores de A seg´n la f´rmula 3.16 en Lema 3. por el momento. ya vimos en (3. ya que el an´lisis de errores es v´lido para cualquier o a a .2.9 El Algoritmo 2 calcula todas las entradas de los factores L y D de una descomposici´n LDLT por bloques de una matriz sim´trica TSC con alta precisi´n relativa. elemento o a elemento. |lij − lij | = O(ε)|lij |. conduce a una descomposici´n RRD que cumple (3. los factores de la descomposici´n LDLT de una matriz TSC.10). endfor 31. que X y L tienen el mismo n´mero de condici´n. e y L.5).3. salvo permutaciones. endif 33. (*) Si la resta tiene dos operandos no nulos del signo. D son los factores exactos que el m´todo de pivote diagonal calcular´ en aritm´tica e ıa e exacta eligiendo los pivotes con las mismas dimensiones y posiciones que en aritm´tica en e coma flotante para calcular L y D. a a donde se muestra que el factor X se calcula con un error relativo peque˜o columna a n columna.4. el resultado de una transformaci´n o de Givens en coma flotante (v´ase. A continuaci´n presentamos el an´lisis de errores que demuestra que la descomposio a T ci´n LDL por bloques dada por los Algoritmos 1 ´ 2. o e o esto es. donde L y D son los factores calculados en aritm´tica en coma flotante por el Algoritmo 1. por ejemplo.8) c´mo obtener o o una descomposici´n sim´trica RRD mediante diagonalizaci´n por rotaciones de Givens. o e o Es f´cil demostrar que como L est´ calculado con un error relativo peque˜o componente a a n a componente y X = P T LQ es. adem´s. garantizando una de las a e a propiedades esenciales de una descomposici´n RRD (esto queda probado.4. 3. tambi´n lo estar´ el factor X. endfor 32. seguida por una diagonalizaci´n o o o de Givens. Teorema 3. requisito esencial para o poder asegurar alta precisi´n relativa en el c´lculo de los autovalores y autovectores de las o a matrices sim´tricas DSTU y TSC mediante el algoritmo SVD con signos.1]).1. Lema 3. Observemos. Paso de LDLT a RRD: An´lisis de errores a Una vez calculada la factorizaci´n por bloques LDLT . De hecho. |dij − dij | = O(ε)|dij |.

. o o Teorema 3. es el siguente. el m´todo de diagonalizaci´n de e n e o Jacobi se escribe como a c c b = cs sn −sn cs λ1 λ2 cs −sn sn cs . D los factores calculados de e una factorizaci´n LDLT por bloques de A. ×.14) (es decir. . ∆) los factores calculados (respectivamente exactos) de una descomposici´n RRD sim´trica obtenida por o e diagonalizaci´n mediante rotaciones de Givens (3. . (3. λ2 = b + ct.37). . −. se supone que no se produce overflow ni underflow.4. (ij) (ij) i. j = 1.1 Sea A ∈ Rn×n una matriz sim´trica y sean L. § 3.36) 1 . dij = lij (1 + θKD ). Por otro lado. como en [43. sn = cs · t. dada una matriz real y sim´trica de tama˜o 2 × 2. o a Para cada k > 0 llamamos kε γk = (3. Finalmente. e fl(a ⊙ b) = (a ⊙ b)(1 + δ). . . Este an´lisis de errores es muy n a similar al llevado a cabo en [29]. donde t= y signo(ζ) √ |ζ| + 1 + ζ 2 cs = √ para ζ= b−a 2c (3. introduciremos la siguiente notaci´n. ∆ (respectivamente X. y |δ| ≤ ε. e o |∆jj − ∆jj | 1+α ≤4 γK +29 . Para ser m´s precisos.35) con λ1 = a − ct.38) i.35)–(3. .´ ALGORITMOS DE ALTA PRECISION 101 matriz de la que se pueda calcular una descomposici´n LDLT por bloques con error reo lativo peque˜o componente a componente como en (3. De hecho. Supongamos que L. KD > 0. n para ciertas constantes KL .9). .33) donde a y b son n´meros reales en coma flotante. escrito con esta notaci´n. (3.39) . . (3. D se han calculado con error relativo peque˜o componente a componente n lij = lij (1 + θKL ). ⊙ ∈ {+.4]. j = 1.37) 1 + t2 El principal resultado de esta secci´n. se tomar´ de [29] algunos resultados necesarios a para el an´lisis.8) en aritm´tica finita (respectivamente o e en aritm´tica exacta). /}. . obtenida a trav´s del m´todo de pivotaje√ o e e diagonal usando la estrategia de pivotaje de Bunch–Parlett (3. n (3.34) 1 − kε y. donde ε es la u precisi´n de la m´quina. con α = (1 + 17)/8). . usando las f´rmulas (3. partimos del a a o modelo convencional de aritm´tica en coma flotante. |∆jj | 1−α D j = 1. denotamos por θk cualquier cantidad positiva acotada por γk . n (3. y sean X. . Entonces.

|b|}. λ2 .1) o En primer lugar. 1−α entonces 1+α |λi − λi | ≤4 γk+29 . . Sea a c A= .35)–(3. . se supone sin p´rdida de generalidad que P = I. cs]. y autovectores ortonormales correspondientes v1 = [cs. . |λi | 1−α cs = cs(1 + θ16k+113 ). Sea Q la matriz ortogonal calculada que diagonaliza D. ya que las permutae ciones no introducen error alguno. ıdo Appendix A.3]. . Demostraci´n: (del Teorema 3. . . Para demostrar este resultado utilizaremos el siguiente lema auxiliar extra´ de [29. Lema 3. j) X(:. . r. −sn]T y v2 = [sn. 1−α (3. λ2 . . y cada bloque de tama˜o 2 × 2 n Qk = cs −sn sn cs (3. . k = 1. sk = 1 ´ 2.37). .43) y sn = cs(1 + θ48k+141 ).40) donde C es C= y 1 + O(ε). |δc |} ≤ γk y α|c| ≥ u max{|a|. n (3.2 (Dopico & Koev [29]) Sea A= a c c b = a(1 + δa ) c(1 + δc ) c(1 + δc ) b(1 + δb ) ua matriz de n´meros reales en coma flotante. y γ141+48k ≤ 1. k = 1. j) − X(:.4. . cs y sn las versiones de λ1 . KL + 48KD + 143}.4. con max{|δa |. Sean λ1 . . j) 2 102 2 ≤ √ 2nC 2 + 1 γM .44) .´ ALGORITMOS DE ALTA PRECISION y X(:. . Qr ) con Qk ∈ R .41) M = max{48KL + 141. . si D = diag(D1 . cs y sn calculadas en aritm´tica e en coma flotante para A seg´n las f´rmulas (3. . |δb |. entonces o sk ×sk Q = diag(Q1 . i = 1. c b con autovalores λ1 ≥ λ2 . . . r. Los bloques de tama˜o 1 × 1 de Qk n son iguales a 1. Si u o √ 1+α 4 2 γk+29 ≤ 1. . esto es. 2 (3. . . Dr ) con Dk ∈ Rsk ×sk . j = 1.42) (3.

si i > j + 1 .43).j+1 cs) . j)||2 = (cs − cs)2 + 2 +(sn − sn) + 2 n i=j+2 [fl(lij cs + li.4. X(i. Usando (3. por lo que (3. o la desigualdad (3. a D. j) − X(:. cs . . . si . j + 1) = y las mismas igualdades sin los acentos circunflejos para los elementos de X.40) se satisfacen trivialmente.j+1 sn (1 + θKL (i.j+1 sn) = lij cs (1 + θKL ) (1 + θ16KD +113 ) (1 + δ1 ) + (i. Qr ).j) + li. j) = L(:. si i = j . es decir. se observa que X = LQ. Para demostrar (3. 0 −sn cs fl(−lij sn + li.39) se sigue directamente de aplicar el Lema 3.39). ||X(:. X(i.j+1 sn) − (lij cs + li.45) sn . (3. ∆jj . Primero. X(:. S´lo queda considerar el caso de las columnas correspondientes a pivotes de tama˜o 2 o n × 2.j+1 y KD . ∆jj = djj y X(:. si i < j . Para aquellas o columnas j correspondientes a un pivote con sk = 1 se tiene que ∆jj = djj .2. A. i>j+1. λ1 . o tenemos 0 . o o Leyendo estas igualdades componente a componente para las columnas j y j+1 en cuesti´n. j). .40). j) = L(:. An´logamente.39) y (3. y k iguales. e n a donde cs −sn Qk = sn cs es la rotaci´n de Jacobi exacta que diagonaliza el bloque diagonal Dk de D. si i = j + 1 . .j+1 sn (1 + θKL +48KD +143 ). si . j). e e la desigualdad (3. .j+1 sn)]2 .j+1) ) (1 + θ48KD +141 ) (1 + δ2 ) (1 + δ3 ) = = lij cs (1 + θKL +16KD +115 ) + li. donde fl(expr) denota el resultado calculado en precisi´n finita de la expresi´n expr. Q = diag(Q1 . si . D. fl(lij cs + li.42) se reduce a (3. Por lo tanto. se puede escribir fl(lij cs + li.j+1 sn) . i=j. ∆j+1. respectivamente. X = fl(LQ). Supongamos que la j-´sima y la (j + 1)-´sima son dos de tales columnas. tomando A. si i<j. i=j+1.33) y (3. λ2 . j) = (3.38).´ ALGORITMOS DE ALTA PRECISION 103 es la versi´n calculada en aritm´tica finita de la rotaci´n de Jacobi que diagonalizar´ en o e o ıa aritm´tica exacta el bloque Dk de tama˜o 2 × 2. Con esta elecci´n.

se tiene X(:. 3. j) 1 . observamos que aunque ıa la estrategia de Bunch–Parlett asegura que las entradas del factor calculado L cumplen |lik | ≤ 1/(1 − α) para todo i.3 usando un procesador AMD Athlon a (tm) XP 2000+ con aritm´tica IEEE. ya que X(:. con el algoritmo QR). j) − X(:.5. donde se ha usado la monoton´ de γk en k. implica tras llevar a cabo ciertos c´lculos que |lik | ≤ C para una constante C igual a 1/(1 − α) salvo t´rminos de a e primer orden en ε. λi . lo cual conduce trivialmente a (3. k. e Para comparar los algoritmos 1 y 2 hemos usado como referencia los autovalores y autovectores calculados usando la aritm´tica de precisi´n variable Maple del paquete e o Symbolic Math Toolbox de Matlab por medio del comando vpa.40). implementado en Matlab. sin embargo. qi a los calculados por el algoritmo SVD con signos. j) − X(:. Denotamos u o por λi . Para un an´lisis m´s detallado ve´se [29]. Experimentos num´ricos e Hemos llevado a cabo pruebas num´ricas que confirman la precisi´n predicha por nuese o tro an´lisis de errores para los Algoritmos 1 y 2.2·10−16 . que fija el n´mero de cifras significativas con que se hacen los c´lculos en Maple. pero eligiendo un valor suficientemente grande para la variable digits. Para cada matriz A. Por tanto. 1−α 2 ≤ 1 + 2nC 2 γM con M dado por (3. donde se demuestra que a a a C= As´ ı. X(:.j+1 |2 }. j) 2 2 ≥ cs2 + sn2 ≥ 1.j+1 sn θKL +48KD +143 2 ≤ (γ48KL +141 )2 + 2n (γKL +48KD +143 )2 max{|lij |2 . |li.38).´ ALGORITMOS DE ALTA PRECISION Volviendo hacer uso de (3. u a Se elige digits igual a 18 + d si el n´mero de condici´n de la matriz A es O(10d ). Llegados a este punto. ε ≈ 2. es decir. La descomposici´n a e o o .43). La cota componente a componente (3. qi a los autovalores y autovectores calculados de esta manera y por λi . la descomposici´n espectral “exacta” se obtiene usando el comando eig de Matlab (es o decir.41). (1 − α)(1 − γg(α) ) g(α) = 32 √ 1+α 1−α 2 + 196 1+α KD . qi est´n calculados en aritm´tica de doble precisi´n. j) 104 2 2 = (cs θ16KD +113 )2 + (sn θ48KD +141 )2 + n + i=j+2 lij cs θKL +16KD +115 + li. Todas estas pruebas num´ricas se han a e realizado con el programa matem´tico Matlab 5. esto puede no ser cierto para las entradas lik del factor exacto L.

el algoritmo construye una matriz TU de tama˜o (s + 1) × (s + 1) n n TU orlando la matriz s × s con una nueva fila y columna. Para demostrar que los resultados obtenidos tienen la precisi´n deseada en todos los o autovalores y autovectores analizaremos las siguientes cantidades: 1. 1 ´ 0.49) (3.48) con κ como antes y relgap∗ definido como en (3. usando el Algoritmo 1 para matrices DSTU a y el Algoritmo 2 para matrices TSC. 8. El m´ximo error relativo en los autovalores a eλ = max ¬ ¬ ¬ i¬ ¬ λi − λi λi ¬ ¬ ¬ ¬ ¬ (3.1. Una cantidad de control para los autovectores ||qi − qi ||2 relgap∗ (λi ) ξq = maxi κε (3. En principio no hemos podido generar matrices TU de tama˜o n n mayor debido al alto coste que conlleva construirlas: generamos recursivamente matrices TU.47) donde ε es el ´psilon-m´quina y κ = κ(R′ ) κ(X) como en (3. El m´ximo error en los autovectores a eq = maxi ||qi − qi ||2 4. 3. Si esta cantidad es e a del orden O(1) significa que el resultado de los experimentos es del orden predicho por la teor´ ıa. Matrices DSTU Se han generado matrices sim´tricas no singulares totalmente unimodulares (TU) de e tama˜os 6.46) 2. Dada una matriz n o generada de tama˜o s.´ ALGORITMOS DE ALTA PRECISION 105 inicial RRD est´ implementada en Matlab. y comprobando que todos los nuevos menores que contengan esta fila y/o o columna cumplen que su valor es ±1 ´ 0. la escalamos a ambos lados con una misma e matriz diagonal con potencias de 10 sobre la diagonal y n´meros de condici´n variando entre u o 5 20 10 y 10 . Finalmente multiplicamos las potencias de 10 por valores aleatorios generados . con entradas aleatorias elegidas entre ±1 ´ 0. De nuevo. El coste computacional de comprobar estos o menores es muy alto. ı o Una vez creada la matriz sim´trica TU. Una cantidad de control para los autovalores ϑλ = eλ κε (3. esto es o bien −1. de ah´ la baja dimensi´n de las matrices generadas. 10 y 12. comenzando con una matriz de tama˜o 1.12). a 3. ξq deber´ ser de orden ıa O(1) en los experimentos para confirmar el an´lisis.5.11).

840 n = 12 Mean Max 0.653 0.746 32.310 1.879 19.623 2. dividimos los u o n experimentos en tres grupos seg´n sus n´meros de condici´n: los que oscilan entre 1010 u u o 20 20 30 y 10 .571 2.14 1.508 2.949 n = 12 Mean Max 1. el peor caso entre las 100 pruebas a realizadas. n).716 0. La Tabla 1 o muestra la cantidad de control ϑλ para los autovalores y la Tabla 2 la cantidad de control ξq para los autovectores.621 2. esto es.603 1.689 1. matrices tridiagonales tales e que la suma de los elementos de cualquier fila o columna es par.14 1. Utilizando estas matrices.699 26.´ ALGORITMOS DE ALTA PRECISION 106 por el comando rand de Matlab .02 κ(A) = 10 ≤ d ≤ 20 20 ≤ d ≤ 30 30 ≤ d ≤ 40 O(10d ) Tabla 1: Datos estad´ ısticos para el c´lculo de autovalores de matrices sim´tricas DSTU: ϑλ a e κ(A) = 10 ≤ d ≤ 20 20 ≤ d ≤ 30 30 ≤ d ≤ 40 O(10d ) n=6 Mean Max 0.508 1.214 0. Para cada dimensi´n tenemos dos columnas. los que oscilan entre 10 y 10 y finalmente entre 1030 y 1040 . Generamos 100 matrices para cada uno de los tres grupos. realizando 10 experimentos para cada dimensi´n. n=6 Mean Max 1.432 13.652 38. a o .579 1.49 1. se han generado matrices sim´tricas e DSTU con un n´mero de condici´n entre 1010 y 1040 . El coste de generar este tipo de matrices es O(n) si la dimensi´n de la matriz generada es n.928 0. no singulares y de tama˜o n. De este modo.502 1.34 n = 10 Mean Max 1.412 6.696 45. pero el menor que resulta de eliminar la ultima fila y la ´ ultima columna es no singular.364 0.697 Tabla 2: Datos estad´ ısticos para el c´lculo de autovectores de matrices sim´tricas DSTU: ξq a e Finalmente.34 1.447 1.65 n=8 Mean Max 1.518 1.425 9.460 16. Por tanto. El determinante de o estas matrices es siempre cero. que son n sim´tricas. consideramos una subclase de matrices TU que se genera a bajo coste.605 2. Para cada tama˜o. Observemos o de nuevo que el resultado est´ en concordancia con los resultados te´ricos.338 11. volvemos a generar e n matrices DSTU del mismo modo que en los experimentos anteriores.719 33. generamos matrices sim´tricas tridiagonales T U ´ e eulerianas U de tama˜o n+1 y realizamos las pruebas con las matrices U (1 : n. y u o la derecha nos da el valor m´ximo encontrado.582 2.157 3. por lo que las tablas dadas abajo reflejan el resultado para un total de 1200 matrices.45 1.795 n = 10 Mean Max 0. Estas son las matrices sim´tricas tridiagonales TU eulerianas. e Las Tablas 3 y 4 nos dan los resultados de las cantidades de control del c´lculo de sus a autovalores y autovectores.884 n=8 Mean Max 0.989 0. 300 para cada dimensi´n elegida. la izquierda nos da o la media sobre 100 tests hechos en el rango correspondiente de n´mero de condici´n.886 0. denot´moslas DSTU*. 1.914 0.34 1. TU.

835 n = 40 Mean Max 0.2 se representan dos matrices TSC de dimensi´n 100 generadas de ese modo.388 1.500 5.804 n = 100 Mean Max 1.716 1.125 n = 60 Mean Max 0. eligiendo como A2 uno de los bloques de la matriz A1 calculada en la anterior etapa.288 3.841 0. a n .5. La regla 2 se aplica con una probabilidad del 50 %.3. y asignando el valor cero al elemento aii con una probabilidad del 20 %.572 3.221 0.494 0.635 2.578 0. Matrices TSC Se han generado matrices sim´tricas TSC del siguiente modo: creamos una matriz e aleatoria de tama˜o 1 × 1 y repetidamente aplicamos las reglas 2 y 3 del Teorema 3.274 3.523 1. an+1.534 0.670 2.454 0. o 100 100 90 90 80 80 70 70 60 60 50 50 40 40 30 30 20 20 10 10 10 20 30 40 50 60 70 80 90 100 10 20 30 40 50 60 70 80 90 100 Figura 3.770 2.559 1.2: Ejemplos de matrices sim´tricas TSC e El uso del comando vpa utilizado para calcular los autovalores y autovectores de referencia para los algoritmos 1 y 2 viene limitado por el tama˜o de las matrices.641 1.8 n con una probabilidad dada.293 3. Por ello.746 2.984 n = 60 Mean Max 1.244 1. La regla 3 se aplica generando los nuevos elementos ai.321 107 κ(A) = 10 ≤ d ≤ 20 20 ≤ d ≤ 30 30 ≤ d ≤ 40 O(10d ) Tabla 3:Datos estad´ ısticos para el c´lculo de autovalores de matrices sim´tricas DSTU*: ϑλ a e κ(A) = 10 ≤ d ≤ 20 20 ≤ d ≤ 30 30 ≤ d ≤ 40 O(10d ) n = 20 Mean Max 0.720 3.359 4.262 n = 40 Mean Max 1.025 2.720 0.855 n = 100 Mean Max 0.n+1 con el comando rand de Matlab. En la Figura 3.153 2.353 3.´ ALGORITMOS DE ALTA PRECISION n = 20 Mean Max 1.247 1.588 1.594 2.826 Tabla 4: Datos estad´ ısticos para el c´lculo de autovectores de matrices sim´tricas DSTU*: ξq a e 3.706 1.519 3.801 1.132 0.209 3.n+1 .2.367 3.601 2.353 1.776 2.330 0.

639 2.802 2. De nuevo. presentamos una ultima prueba para e ´ T dar una idea del coste computacional de la factorizaci´n LDL por bloques de matrices o sim´tricas TSC.280 9.940 8. Como puede verse en la figura. n = 10 Mean Max 1.386 n = 40 Mean Max 1. N´tese que. Una vez generadas n estas matrices TSC las escalaremos a ambos lados con la misma matriz diagonal positiva mal condicionada.3 corresponde a un tama˜o fijo y representa la media aritm´tica de las operaciones realizadas n e en las 100 matrices de ese tama˜o. los e experimentos los realizaremos con matrices de tama˜o 10.449 4.362 5.889 4. En paralelo. como e o los escalamientos son positivos. y 60.044 0.033 5.672 Tabla 6: Datos estad´ ısticos para el c´lculo de los autovectores de matrices sim´tricas TSC: ξq a e Como se puede ver en las tablas 5 y 6.502 9.471 3. los errores relativos fueron extremadamente grandes.682 3.332 6. el patr´n de signos de la matriz TSC no cambia con el o escalamiento.641 1. Como no hemos estimado las constantes que aparecen o en la o-may´scula de Landau. cien de n 30 y as´ sucesivamente.800 3. se calcularon los autovalores y autovectores con el comando eig de o Matlab.665 1.583 κ(A) = 10 ≤ d ≤ 20 20 ≤ d ≤ 30 30 ≤ d ≤ 40 O(10d ) Tabla 5: Datos estad´ ısticos para el c´lculo de autovalores de matrices sim´tricas TSC: ϑλ a e κ(A) = 10 ≤ d ≤ 20 20 ≤ d ≤ 30 30 ≤ d ≤ 40 O(10d ) n = 10 Mean Max 0. y la l´ ınea discontinua a flops= n3 . cien de 20. es dif´ llegar a conclusiones rigurosas.893 3. Los resultados se muestran en u o las tablas 5 y 6.841 44. 40. es decir.528 2.172 2.265 2. La l´ n ınea continua corresponde a flops= n4 . Cada estrella en la Figura 3.843 2. presentamos resultados para 1200 matrices. 100 de cada dimensi´n o para cada uno de los tres rangos de n´meros de condici´n. M´s concretamente para matrices de tama˜os que van desde 10 a 100 en e a n intervalos de diez.438 0. y contamos el n´mero o u de operaciones en coma flotante llevadas a cabo en el proceso.196 2. Como es de esperar.411 n = 40 Mean Max 1.973 n = 20 Mean Max 1. como hicimos con las matrices sim´tricas DST U .591 7. los resultados confirman nuestras predicciones te´ricas.024 1.´ ALGORITMOS DE ALTA PRECISION 108 pesar de poder generar matrices sim´tricas TSC de cualquier orden a un bajo coste.768 n = 20 Mean Max 0.446 10.987 0.70 n = 60 Mean Max 2.170 38.405 3.278 9.034 1.68 1. 20. con el logaritmo del tama˜o n de la matriz en el eje de abscisas.215 0.717 7. sin d´ ıgito correcto alguno para los autovalores m´s peque˜os.418 3.802 n = 60 Mean Max 1. u ıcil .292 3.342 1. Para cada matriz se calcula su ı respectiva descomposici´n LDLT por bloques usando el Algoritmo 2. generamos cien matrices de tama˜o 10. a n Para concluir con los experimentos num´ricos. un total de mil matrices en total.294 3.579 1. el coste parece estar entre ambos ´rdenes. representandola en una gr´fica a escala logar´ n a ıtmica.

o empleando otras estrategias de pivote.6. eventualmente no sim´tricas. o .5 3 3. cuyas propiedades e permitan evitar cancelaciones en el proceso de factorizaci´n.5 log(n) 4 4.3: Coste computacional de la factorizaci´n LDLT por bloques de matrices sim´trio e cas TSC de tama˜os entre 10 y 100 n 3. 2. Estudiar nuevos algoritmos de factorizaci´n de las clases de matrices estudiadas. e Extensiones y cuestiones relacionadas con este trabajo y que podr´n ser motivo de a estudio en el futuro son: 1. la estrategia de pivote de BunchKauffman. Por ejemplo. Conclusiones y trabajos futuros Hemos descrito y llevado a cabo un an´lisis de errores detallado de dos algoritmos que a calculan todos los autovalores y autovectores con alta precisi´n relativa de cualquier matriz o sim´trica perteneciente a las clases DSTU o TSC.5 5 Figura 3. Buscar nuevas clases de matrices.´ ALGORITMOS DE ALTA PRECISION Flops of factorization LDL of a TSC matrix 20 t 109 18 16 log(flops) 14 12 10 8 6 2 2.

Matrix Anal. Blackford.. Cambridge.Bibliograf´ ıa [1] E. V. J. Philadelphia. V. McKenney. 2(3):207–219. Anal. and D. In Fast reliable algorithms for matrices with structure. Math. [3] H. and Systems. Mehrmann. Bischof. ACM Trans. pages 103–152. Baumg¨rtel. Demmel. Algorithm 854: Fortran 77 subroutines for computing the eigenvalues of Hamiltonian matrices II. 2006. Brent. C. Numer. Appl. 1985. Solution of Vandermonde systems of equations. 1996. 24:893–903. Third ed. A bisection method for computing the H∞ norm of a transfer matrix and related problems. 1970. J. A... 32(2):352–373. [4] P. Bora and V. Benner and D. Benner. Kressner. Mehrmann. Kabamba. Pereyra. SIAM J. Du Croz. Appl. SIAM J. 28(1):148–169. Benner. LAPACK user’s guide. Math. Computing accurate eigensystems of scaled diagonally dominant matrices. Z. Signals. [9] S. [6] P. Analytic Perturbation Theory for Matrices and Operators. J. Anderson. [5] P. Xu. A new method for computing the stable invariant subspace of a real Hamiltonian matrix. Sorensen. Hammarling. Xu. 27:762–791. Brualdi and H. Ryser. 110 . Boyd. S. [7] ˚. structure-preserving method for computing the eigenvalues of real Hamiltonian or symplectic pencils. and H. Math. Balakrishnan. A o Comp. P. Demmel. a a Basel. A numerically stable. Dongarra.. Mathematics of Control. S. Comput. Combinatorial Matrix Theory. Bai. A. and P. Math. Mehrmann. 1999. and H. 1989. Cambridge University Press. 86(1):17–43. 1999. [2] J. [8] S. Bj¨rck and V. 1990. 1997. Stability of fast algorithms for structured linear systems. SIAM. J. Linear perturbation theory for structured matrix pencils arising in control theory. 2006. Softw. 78:329–358. Birkh¨user. 1991. Num. Barlow and J. SIAM. [10] R. V. [11] R. Greenbaum...

[19] C. 7:1–46. Cottle. 1993. Edelman. 185:203–217. Optim. Accurate singular values of bidiagonal matrices. 1987. Lewis. 2005. On computing accurate singular values and eigenvalues of matrices with acyclic graphs. 1998.. Demmel and W. A. 25(3):858–899. 1999. S. Berkeley (USA). [16] R. W. Numer. Appl. 8(4):656–680. [26] I. Direct methods for solving symmetric indefinite systems of linear equations. nonconvex optimization.R. BIT. Gragg. I.. Stat. Philadelphia.. Wiley. [18] R. W.N. Orthogonal eigenvectors and relative gaps. 1993. Comp. Appl. SIAM J. Demmel and A. Parlett. . 44(2):209–215.R. 8:189– 211. SIAM. Manifestations of the schur complement. The rotation of eigenvectors by a perturbation. Linear Algebra Appl. III. 1990. Kressner. Sci. [15] J. Linear Algebra Appl. Linear Algebra Appl. [13] J. [22] J. [17] F. W. [23] J. Eisenstat. Demmel and W. Byers and D. PhD thesis. K. Overton. Demmel. Veseli´. 11:873–912. 1970. Demmel and K. A robust gradient sampling algorithm for nonsmooth. Bunch. Linear Algebra Appl. SIAM J. Bunch. R. and Z.. V.. 8(3):639–655. 1971. [20] J. A new O(n2 ) algorithm for the symmetric tridiagonal eigenvalue/eigenvector problem. SIAM J.. 299:21–80. Davis and W. New York. 230. S. Kahan. Jacobi’s method is more accurate than QR. Parlett.S. Anal. SIAM J. Demmel. S. 1995.W. 1971. Kahan. W.. Analysis of the diagonal pivoting method. Gu. Matrix Anal. and M. W.. Drmaˇ. Numer.´ ALGORITMOS DE ALTA PRECISION 111 [12] J. University of California at Berkeley. Anal.. [25] J. 1974. Eigenvalues of Matrices. 2003. [14] J. L. The dimension of matrices (matrix pencils) with given Jordan (Kronecker) canonical forms.. Dhillon and B. 15(3):751–779. W. The weak and strong stability of algorithms in numerical linear algebra. Slapniˇar. Burke. Anal. [27] I. Veseli´. Applied Numerical Linear Algebra.. [24] J. SIAM J. 13:1204–1245.. Numer. On the condition of a complex eigenvalue under real perturbations. M. Computing c c c the singular value decomposition with high relative accuracy. SIAM J. [21] J. SIAM J. Bunch and B. Dhillon. c Matrix Anal. 1992. Linear Algebra Appl. 88/89:49–66. 2004. Chatelin.

Boulder. A note on structured pseudospectra.N. J. Operator Theory. N. A. Math. [30] F. New inversion formulas for matrices classified in terms of their distance from Toeplitz matrices. 25(2):301– 351. Kailath. 1979. An orthogonal high relative accuracy algorithm for the symmetric eigenproblem. Dopico. Dhillon. Accurate symmetric rank-revealing and eigendecompositions of symmetric structured matrices. 287(1-3):125–159. Parlett. [36] B. V. Rodman. LAPACK Working Note 169: New fast and accurate Jacobi c c SVD algorithm: I. and engineering: Proceedings of an AMS-IMS-SIAM joint Summer Research Conference. Morf. 1992. [32] Z. The design and implementation of the o MRRR algorithm.S. a [41] D. [35] K. 1982. LAPACK Working Note 170: New fast and accurate Jacobi c c SVD algorithm: II. Molera. 1999. and P. Drmaˇ and K. Math. P. 2006. 191(1):68– 76. [33] V. Heinig and K. 2001. Math. Kaashoek. 13.´ ALGORITMOS DE ALTA PRECISION 112 [28] I. Accurate singular values and differential qd algorithms. [Harcourt Brace Jovanovich Publishers]. Technical report... Gohberg. SIAM J. Higham. Basel. Parlett. M. J. Mackey. 1988. Veseli´. 2006. Matrix Anal. Matrix Anal. 2005. Matrix polynomials. Appl. Softw. Olshevsky (editor). Drmaˇ and K. [31] Z. and L. [29] F. Comput... T. Dopico and P. SIAM J. Veseli´. [40] G. 1999. 2006. 2003. M. Integral Equations and Operator Theory.. Birkh¨user. [39] S. M. 67:191–229. Matrix Anal. ACM Trans. Graillat. Linear Algebra Appl. . 2005. and L. Appl. [37] I. Rost. Ljung.. J. M.. General theory of regular matrix polynomials and band Toeplitz operators. Xu. Mackey. AMS. Hamiltonian square roots of skew-Hamiltonian matrices. 28:1126–1156. [34] H. 27:31–60. Technical report. Appl. D.. Fernando and B. and X. Academic Press Inc. 1994. and C. Lancaster. computer science. Koev. [38] I. Lancaster. Appl. 32(4):533–560. B. Num. M. 13(1):162–175. SIAM J. New York. June 27-July 1. vol. and J. Linear Algebra Appl. 11:776–882. Gohberg. 1984. J. Friedlander. V¨mel. Backward error and condition of structured linear systems. Structured matrices in mathematics. S. Algebraic methods for Toeplitz-like matrices and operators. Moro. Faßbender. Higham and N.

27(1):1–23. Springer.´ ALGORITMOS DE ALTA PRECISION 113 [42] D. Higham. [51] K. Structured backward error and condition of generalized eigenvalue problems. [46] A. Cambridge. . Sayed. 1975. [53] T. Higham. J. 416(2-3):1010–1032. Canonical forms for complex matrix congruence and ∗ -congruence. Palo Alto (USA). Hamiltonian square roots of skew-Hamiltonian matrices revisited. SIAM J.ma. R. Tisseur.-Y. V. Linear Algebra Appl. Horn and C. 2005. 325(1-3):101–107. Berlin. 1968. Finland. Johnson. Displacement ranks of matrices and linear equations. Ikramov. Appl. Householder. SIAM Journal on Matrix Analysis and Applications. A. University of Manchester. MIMS EPrint 2006. C. Kailath and A. Li. Sergeichuk. [44] N. Accuracy and Stability of Numerical Algorithms (2nd. D.. Manchester Institute for Mathematical Sciences. Structured eigenvalue condition numbers. Accurate eigenvalues and SVDs of totally nonnegative matrices.. SIAM J. Kahan. Manchester. J. 2006. Dover.137. Control Lett. Higham. Anal.uk/312. Pritchard. Hinrichsen and A. [49] R. 7(1):1–10. Stanford University. 1999. [52] W. [43] N. Kung. Morf. SIAM. J.man. The conditioning of linearizations of matrix polynomials. Matrix Anal. Cambridge University Press. 1995. Matrix Analysis. Mackey. Accurate eigenvalues of a symmetric tridiagonal matrix.-C. 28(4):1056–1058. Displacement structure: theory and applications.. J. 2002. Horn and V. Appl. See http://eprints. J. Higham. A. and F. 1980. [57] P.. Karow. [50] A. SIAM Rev. SIAM J. [56] T. Technical Report CS-41. 28(4):1005–1028. Kressner. 1979. 2006. Tisseur. Syst. Koev. Kailath..). Matrix Anal. 1985. 2006. Stability radii of linear systems. Mehrmann. R. 2006. [55] M. The Theory of Matrices in Numerical Analysis. Kato. Jyv¨skyl¨. Appl. Backward error of polynomial eigenproblems solved by linearization.S. [54] T. and F. Linear Algebra Appl. 68:395–407.. and V. Matrix Anal. In Proceedings of ECCOMAS. and M. 37:297–386. [45] N.. Perturbation Theory for Linear Operators. Mehl. Philadelphia. Higham and N. D. 2004. On the solution of palindromic eigenvalue problems. S. ed. Hilliges. Math. D.J.ac. UK. Tisseur. 1986. Department of Computer Science. 2001. H. [48] R. 20(2):493–512. and F..J. a a [47] D. Appl.

Tisseur.. ˜ [63] H. and V. II. Manchester Institute for Mathematical Sciences. [66] D. S. 28(4):1029–1051. 2006. Linear Algebra. 2006. Mackey. Structured mapping problems for matrices associated with scalar products part I: Lie and Jordan algebras. C. Mehl. 1989.Najman. On classification of normal matrices in indefinite inner product spaces. [70] R.uk/197/. ı. MIMS EPrint 2006. Van Loan. 2006. 12(3):392–407. S. Tisseur. Technical Report No. Integral Equations and Operator Theory. June 2005. 2006. III. 6(1):52–60. 2006. N. UK. 28(4):971–1004. [71] C. Dopico. 1992. Matrix Anal. 1984. Integral Equations and Operator Theory. ˜ [61] H. Appl. ˘ [64] V. and F. ˜ [62] H. Lancaster and P. The singular values of the Hadamard product of a positive semidefinite and a skew-symmetric matrix. Vector spaces of linearizations for matrix polynomials. M. Langer and B. Mackey. Remarks on the perturbation of analytic matrix functions. [68] D. Mackey. 16(4):600–604. c Mat. Mackey. J. Structured H¨lder condition numbers for a o multiple eigenvalues. Mackey. Integral Equations and Operator Theory.. Matrix Anal.´ ALGORITMOS DE ALTA PRECISION 114 [58] P. See http://eprints. [60] P. B.man. and J. . SIAM J. Moro. Electron.. S. 61:233–252.44. C. 31(1-4):57–70. Remarks on the perturbation of analytic matrix functions. Kressner.. N. Mackey. 385:187–213. Manchester. 15:50–83. [65] C. Mehrmann. [59] D. Manchester Institute for Mathematical Sciences. Mehrmann. Psarrakos. Accurate eigenvalues of certain sign-regular matrices.Najman. Palindromic polynomial eigenvalue problems: Good vibrations from good linearizations. 2006. 1993. Langer and B.. Leading coefficients of the eigenvalues of perturbed analytic matrix functions. University of Manchester. Linear and Multilinear Algebra. 470. Vyˇisl. 1992. Mackey. preprint. J. N. [67] D. Fiz.ac. G-reflectors: analogues of Householder transformations in scalar product spaces. Linear Algebra Appl. Linear Algebra Appl. A note on weak and strong linearizations of regular matrix polynomials. Koev and F. preprint. A symplectic method for approximating all the eigenvalues of a Hamiltonian matrix. 2004. and F. Mackey. F. 15(5):796–806. [69] D. Mathias. Lidski˘ On the theory of perturbations of nonselfadjoint operators. M. Mehl. Z. S. 1966. Mehl. SIAM J. Pel´ez. Appl.ma.Najman. and V. N. i Mat. Langer and B. University of Manchester.

Rodman. Moro. Schr¨der. DFG Research Center ”Mathematics for key technologies”in Berlin. Van Loan. Recherches sur les fonctions alg´briques. H¨lder condition numbers for eigenvalues under fully a o nongeneric structured perturbation.Noschese and L. V. [77] M. 2003. Appl. PhD thesis. Slapniˇar. Structured condition numbers of multiple eigenvalues.. Comput.. . [86] I. 41:11–32. 358:387–424. Appl. 2006. 1997. TU Berlin. Electron. 6(1):67–70. Eigenvalue condition numbers: zero-structured versus traditional. Math Pures Appl. Matrix Anal. pages 1–73. Linear Agebra Appl. On the Lidskii-Vishik-Lyusternik perturbation theory for eigenvalues of matrices with arbitrary Jordan structure. [80] L. Slapniˇar. [74] V.. preprint. Paige and C. In Contemporary mathematics: theory and applications. 1998.. J. Structured perturbations. Overton. Olshevsky. C. [81] S. 2003. J. J. 18(4):793–817. Matrix Anal. MATHEON. Linear Algebra Appl. Pel´ez and J.. 2006. a Proceedings in Applied Mathematics and Mechanics (PAMM). ˜ [73] S.´ ALGORITMOS DE ALTA PRECISION 115 [72] J. A canonical form for palindromic pencils and palindromic factorizations. Rump. [83] C. 2007. 185(1):174–189. SIAM J. Highly accurate symmetric eigenvalue decomposition and hyperbolic c SVD. 15:22–49. and M. 2003. Linear Algebra Appl.. Bounded and stably bounded palindromic difference equations of first order. [79] V. Math. A Schur decomposition for Hamiltonian matrices. J. [75] C. o Technical report. 15:365–480. Slapniˇar. [84] I. c Fernuniversit¨t Hagen. Normwise distances. e 1850. 28(4):1173–1198. [78] M. J. M. [76] M. a [85] I.. Moro. Linear Algebra Appl. 2006. SIAM J. [82] S. L. Appl. M. 272:227–275. 2006. 2006. Componentwise analysis of direct factorizations of real symmetric and c Hermitian matrices. Pasquini. Linear Algebra.. Appl. 1992. 413(2-3):567–593. Rump. Eigenvalues. SIAM J. AMS. Puiseux. pseudospectrum and structured perturbations. Moro. Pivoting for structured matrices and rational tangential interpolation. 25(1):1–30. Burke. Accurate factorization and eigenvalue algorithms for syma metric DSTU and TSC matrices. Pel´ez and J. I. J. 1981. Accurate Symmetric Eigenreduction by a Jacobi Method. Moro.. Pel´ez and J. J. 2006. Matrix Anal.

Matrix Perturbation Theory. Russian Math. 39:383–406. Zhang. Oxford. C. A. Ljusternik.. F. Trefethen and M. Pencils of complex and real symmetric and skew matrices. [91] F. 24(3):877–897. Spectra and pseudospectra: the behavior of nonnormal matrices and operators. Xie. [94] K. 1965. SIAM J. .. Linear Algebra Appl. Wilkinson. A Jacobi eigenreduction algorithm for definite matrix pairs. [97] J. 2005. Tisseur. Linear Algebra Appl. 1993. H.. Princeton. 2003. 1960. A chart of backward errors for singly and doubly structured eigenvalue problems. SIAM Rev. X. Math.´ ALGORITMOS DE ALTA PRECISION 116 [87] G. Solution of some perturbation problems in the case of matrices and self-adjoint or non-selfadjoint differential equations. 1997. Thompson. Appl. Vishik and L.-G. and J. 10(3):223–234.. Linear Algebra Appl. ˜ [93] L. [95] K. Hu. Sun. [96] M. The Algebraic Eigenvalue Problem. 147:323–371. 2003. Veseli´. [98] D.N. I. de Ter´n.. 1993. Backward error and condition of polynomial eigenvalue problems. In preparation. The solvability conditions for inverse eigenproblem of symmetric and anti-persymmetric matrices and its approximation. Embree. First order spectral perturbation theory of a matrix pencils via the Kronecker form. c 64(2):241–269. 1990. 2000. Pseudospectra of linear operators. Surveys. Matrix Anal. [90] F. Tisseur. Clarendon Press. Linear Algebra Appl. Dopico. ˜ [92] L. 15(3):1–73.. 309(1-3):339–361. Princeton University Press. Veseli´. Numer. I. Moro. Numer. 1991. c 195(1):81–116. W. [88] F. Stewart and J. 2006.. Trefethen. [89] R. Floating-point perturbations of Hermitian matrices. New York. Academic Press. and L.N.